View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Arrow0309
17-04-2016, 18:54
Per AMD sono invertite rispetto al progressivo, Polaris 10 è superiore a Polaris 11?
Yes
http://videocardz.com/58639/amd-polaris-10-gpu-specifications-leaked
AceGranger
17-04-2016, 19:04
Talmente vecchie che supportano meglio le dx12 e gestiscono più registri,cos'è pascal l'hanno creata nel futuro e spedita nel passato non mi pare, e dalle specifiche non è altro che maxwell un pò più pompata,il tutto dando già per scontato che gp104 andrà il 30% in più di gm200 senza sapere le specifiche esatte,quindi il concetto di vecchio è relativo e lascia il tempo che trova imho
Si, che pero fino ad ora sono sempre andate peggio e pure in modo meno efficiente.
Il mercato dei gamer è sempre stato caratterizzato da un utenza che cambia GPU piu velocemente delle mutande, e per nVidia questo è un non problema visto che tanto tutti stanno aspettando le nuove GPU;
inutile guadagnare ora pochi punti % sulle vecchie GPU quando quelle nuove saranno nettamente piu prestanti ed efficienti....
e spero vivamente che i rumors su AMD non siano veri perchè, se ora nVidia esce veramente con le 1070 e 1080 e AMD con la fascia media, ho idea che AMD si prendera un'altra sportellata in faccia come con le 970 che hanno letteralmente stracciato le GPU AMD in vendite.
Oirasor_84
17-04-2016, 19:23
Si, che pero fino ad ora sono sempre andate peggio e pure in modo meno efficiente.
Il mercato dei gamer è sempre stato caratterizzato da un utenza che cambia GPU piu velocemente delle mutande, e per nVidia questo è un non problema visto che tanto tutti stanno aspettando le nuove GPU;
inutile guadagnare ora pochi punti % sulle vecchie GPU quando quelle nuove saranno nettamente piu prestanti ed efficienti....
e spero vivamente che i rumors su AMD non siano veri perchè, se ora nVidia esce veramente con le 1070 e 1080 e AMD con la fascia media, ho idea che AMD si prendera un'altra sportellata in faccia come con le 970 che hanno letteralmente stracciato le GPU AMD in vendite.
Forse hai un visione distorta di come sono andate le cose,se nvidia vende non è di certo perchè offre più prestazioni di AMD,ma perchè investe più in marketing,ed il mio discorso era riferito al concetto di vecchio visto che l'architettura cgn si è rivelata più futur proof.
Devourer88
17-04-2016, 19:23
E la titan quando dovrebbe arrivare? Ma soprattutto ci sarà la titan ti?
Legolas84
17-04-2016, 19:27
Si, che pero fino ad ora sono sempre andate peggio e pure in modo meno efficiente.
Il mercato dei gamer è sempre stato caratterizzato da un utenza che cambia GPU piu velocemente delle mutande, e per nVidia questo è un non problema visto che tanto tutti stanno aspettando le nuove GPU;
inutile guadagnare ora pochi punti % sulle vecchie GPU quando quelle nuove saranno nettamente piu prestanti ed efficienti....
e spero vivamente che i rumors su AMD non siano veri perchè, se ora nVidia esce veramente con le 1070 e 1080 e AMD con la fascia media, ho idea che AMD si prendera un'altra sportellata in faccia come con le 970 che hanno letteralmente stracciato le GPU AMD in vendite.
Esatto, sono completamente d'accordo ;)
Inviato dal mio ONE A2003 utilizzando Tapatalk
Obrigado
17-04-2016, 19:28
E la titan quando dovrebbe arrivare? Ma soprattutto ci sarà la titan ti?
tecnicamente (spero) dovrebbero uscire in sequenza.
GTX 1060 GP104/GDDR5 4GB - GTX 1070 GP104/GDDR5 8GB - GTX 1080 GP104/GDDR5x 8GB a giugno
GTX TITAN Y GP100 (full)/HBM2 16GB a settembre/ottobre
GTX 1080 Ti GP100 (cut-down)/HBM2 16GB a novembre/dicembre(ma si potrebbe passare direttamente a gennaio al ces2017)
Legolas84
17-04-2016, 19:33
Dubito vedremo gp100 nel 2016....
Inviato dal mio ONE A2003 utilizzando Tapatalk
YesManYes
17-04-2016, 19:36
Vero ma in questi casi non raggiunse mai la vera top (almeno a livello di potenza bruta).
La 4870 se la giocava con la 260 perchè avevano introdotto un nuovo comando WCK che raddoppiava i comandi e dati DDR (ddr5) permettendo una banda del tutto simile a quella grossa dei bus a 448/512bit delle 260/280.
Senza questo bus, diventato lo standard, la 4800 a livello di shader era pari ad una 250.
infatti la 4850 senza gddr5 andava come una GTS 250
anche se gli 800 shader Vliw di quella gpu erano più potenti dei 128 shader a 1500mhz della 250.
una 250 era giusta con la banda passante delle GDDR3... al contrario di RV770 che con la 4850 era bello castrato ma nella sua espressione massima quel chip (che diventò RV790 se non sbaglio) competeva con la GTX 275 da 240 shader a 1400mhz
e non credo che il chip della GTS 250 con le GDDR5 e clock più spinti sarebbe mai potuta arrivare a quei livelli.
alla fine la spuntò nvidia ma amd con le varie 4870 512 , 1GB e 4890 cmq c'era... e la differenza prestazionale tra amd ed nvidia in fascia top alla fine era poca..
la 4890 era vicina alla 285
La 5870, gran bella mossa ma anche qua stava sempre sotto, idem con le 6000.
Ma cmq pure lei propose le sue schede di fascia alta dx11..
e la 5870 andava tra una 470 e 480.
non era certo una fetecchia... era una scheda top class riuscita.
serie 6000 idem, e la serie 7000 andava pure meglio come n di frames rispetto alla 680...
Questo è uno scenario che mi aspetto, con le nuove Polaris. Non saranno certo di scarto, anzi AMD era davvero un best, quando lottava su queste fasce.
Mi aspetto che amd proponga un alternativa ad Nvidia per ogni fascia, poi magari non ci farà pari ma andrà un 10% meno con prezzi più bassi rispetto ad Nvidia...
Ma non credo che finirà nei guai e non riuscirà a proporre schede per tutte le fasce... o che se lo farà, saranno deludenti come le antiche HD 2000 e 3000....dove la top di gamma ati a livello prestazionale corrispondeva alla fascia media di Nvidia
Obrigado
17-04-2016, 19:37
Dubito vedremo gp100 nel 2016....
Inviato dal mio ONE A2003 utilizzando Tapatalk
Credo che, nel caso amd, con polaris risultasse aggressiva, nvidia potrebbe essere costretta a tirare fuori la titan y molto prima.
amd dovrebbe tirare fuori direttamente il "chippone" a giugno o sbaglio?
Devourer88
17-04-2016, 19:38
tecnicamente (spero) dovrebbero uscire in sequenza.
GTX 1060 GP104/GDDR5 4GB - GTX 1070 GP104/GDDR5 8GB - GTX 1080 GP104/GDDR5x 8GB a giugno
GTX TITAN Y GP100 (full)/HBM2 16GB a settembre/ottobre
GTX 1080 Ti GP100 (cut-down)/HBM2 16GB a novembre/dicembre(ma si potrebbe passare direttamente a gennaio al ces2017)
Speriamo! Non vedo l'ora! :sbav: :sbav:
TigerTank
17-04-2016, 19:46
tecnicamente (spero) dovrebbero uscire in sequenza.
GTX 1060 GP104/GDDR5 4GB - GTX 1070 GP104/GDDR5 8GB - GTX 1080 GP104/GDDR5x 8GB a giugno
GTX TITAN Y GP100 (full)/HBM2 16GB a settembre/ottobre
GTX 1080 Ti GP100 (cut-down)/HBM2 16GB a novembre/dicembre(ma si potrebbe passare direttamente a gennaio al ces2017)
Mmh no, io non credo siano così ravvicinate.
Delle Ti che escono così presto troncherebbero prima del tempo soprattutto le gtx1080.
Secondo me avranno tempistiche più diluite, tipo le maxwell. Imho Titan nel Q1 2017 e Ti nel Q2.
In ogni caso la mia attuale idea di upgrade ipotetico è una 1070(se più prestante della gtx980Ti attuale) per poi passare alla Ti che alla fine ormai è la mia scheda generazionale di riferimento.
Ma stavolta per quanto riguarda le pascaline oltre che i divari sulle gpu ci sarà da valutare anche la differenza di resa dei 2 tipi di vram, il tutto come sempre in rapporto alle differenze di spesa.
AceGranger
17-04-2016, 19:57
quando leggo queste cose mi passa la voglia di discutere. "peggio" che significa, 2% in meno in fullhd, 2% in più in 4k? boh, capisco l'enthusiast ma ammazzarsi per percentuali risicate... quello che giochi con una, giochi con l'altra, quello che non giochi con una non lo giochi con l'altra.... lasciando stare titoli o features speciali.
non mi pare di aver scritto che una è da buttare e l'altra no.
Forse hai un visione distorta di come sono andate le cose,se nvidia vende non è di certo perchè offre più prestazioni di AMD,ma perchè investe più in marketing,ed il mio discorso era riferito al concetto di vecchio visto che l'architettura cgn si è rivelata più futur proof.
eh si certo, quando AMD vende è perchè se lo merita, quando è nVidia a vendere è perchè è tutto Marketing :asd:
nVidia è arrivata a Settembre 2014 con un'architettura nuova ed efficiente, AMD è arrivata a Giugno 2015 con un rebranding che non andava piu della concorrenza e non era piu efficiente; con 8 mesi di ritardo non poteva andare altrimenti.
Arrow0309
17-04-2016, 20:07
Mmh no, io non credo siano così ravvicinate.
Delle Ti che escono così presto troncherebbero prima del tempo soprattutto le gtx1080.
Secondo me avranno tempistiche più diluite, tipo le maxwell. Imho Titan nel Q1 2017 e Ti nel Q2.
In ogni caso la mia attuale idea di upgrade ipotetico è una 1070(se più prestante della gtx980Ti attuale) per poi passare alla Ti che alla fine ormai è la mia scheda generazionale di riferimento.
Ma stavolta per quanto riguarda le pascaline oltre che i divari sulle gpu ci sarà da valutare anche la differenza di resa dei 2 tipi di vram, il tutto come sempre in rapporto alle differenze di spesa.
Io non ci credo che la 1070 con le gddr5 (senza le X o perlomeno non subito) avrà tutto sto boost prestazionale sopra la tua 980 Ti classy
Ricordo anche le 970, avendo prima una 290 Tri-X neanche troppo sculata non ho mai pensato di cambiarla con una 970 ma l'avrei data via senz'altro (se avessi trovato il modo) per una 780 Ti multifase senza neanche pensare due volte.
Ora che le nuove Pascal avranno tutta sta lista di contro c###i non voglio discutere ma senza che ci castrino le maxwell al livello driver io non credo che la 1070 sara' cosi' tanto più veloce (rispetto al GM200 occato con una bella custom).
E se ci castrano anche le Maxwell giuro che ritorno con AMD :O
illidan2000
17-04-2016, 20:24
Io non ci credo che la 1070 con le gddr5 (senza le X o perlomeno non subito) avrà tutto sto boost prestazionale sopra la tua 980 Ti classy
Ricordo anche le 970, avendo prima una 290 Tri-X neanche troppo sculata non ho mai pensato di cambiarla con una 970 ma l'avrei data via senz'altro (se avessi trovato il modo) per una 780 Ti multifase senza neanche pensare due volte.
Ora che le nuove Pascal avranno tutta sta lista di contro c###i non voglio discutere ma senza che ci castrino le maxwell al livello driver io non credo che la 1070 sara' cosi' tanto più veloce (rispetto al GM200 occato con una bella custom).
E se ci castrano anche le Maxwell giuro che ritorno con AMD :O
pure che va uguale ad una 980ti, consuma meno, e ha 2gb in più. Se costa meno a me sta benissimo....(400 euro max)
Arrow0309
17-04-2016, 20:29
pure che va uguale ad una 980ti, consuma meno, e ha 2gb in più. Se costa meno a me sta benissimo....(400 euro max)
Come se ci fregasse una cippa dei consumi in single gpu :p
Va beh, te sei un caso a parte, passi dallo sli di 970 a quello di 1070, va bene ;)
Ma quando uscirà il cippone ci andrai sempre a cazzeggiare "lo prendo, non lo prendo"? :asd:
Scherzo, ovv :D
TigerTank
17-04-2016, 20:53
Io non ci credo che la 1070 con le gddr5 (senza le X o perlomeno non subito) avrà tutto sto boost prestazionale sopra la tua 980 Ti classy
Ricordo anche le 970, avendo prima una 290 Tri-X neanche troppo sculata non ho mai pensato di cambiarla con una 970 ma l'avrei data via senz'altro (se avessi trovato il modo) per una 780 Ti multifase senza neanche pensare due volte.
Ora che le nuove Pascal avranno tutta sta lista di contro c###i non voglio discutere ma senza che ci castrino le maxwell al livello driver io non credo che la 1070 sara' cosi' tanto più veloce (rispetto al GM200 occato con una bella custom).
E se ci castrano anche le Maxwell giuro che ritorno con AMD :O
Sì infatti per ora sono solo tutte ipotesi, le conclusioni le trarremo solo quando cominceremo a vedere le comparative attendibili con i vari giochi.
Sicuro comunque che con i nuovi titoli dx12 + relativo affinamento dei drivers le pascal staccheranno gradualmente per cui facile che se anche una 1070 fosse inizialmente inferiore alla gtx980Ti, nell'arco di qualche mese effettuerà probabilmente il sorpasso. A meno che Nvidia stavolta voglia staccare nettamente le 2 schede creando 2 fasce separate e favorendo la vendita delle gtx1080 con una differenza prestazionale più corposa del solito.
Si ripeterà la storia 780ti vs 970 con le schede praticamente alla pari e con la x80 che andrà di più. La terza scheda x60, qualora ci fosse, la vedo più come sostituta della 980 liscia.
Inviato dal mio SM-G920F utilizzando Tapatalk
fraussantin
17-04-2016, 21:13
Si ripeterà la storia 780ti vs 970 con le schede praticamente alla pari e con la x80 che andrà di più. La terza scheda x60, qualora ci fosse, la vedo più come sostituta della 980 liscia.
Inviato dal mio SM-G920F utilizzando Tapatalk
Si ma questo non significa niente. Se le nuove saranno piu prestanti e la fascia sotto nuova supera la vecchia superiore ONESTAMENTE non ci vedo nulla di male.
Problema sarebbe se depotenziano le vecchie per far sembrare meglio le nuove.
Ed imho non avverrà. Anche perché le nuove promettono di "pistonare "di brutto
Al massimo non avremo pieno supporto driver per i giochi nuovi.
Com'è giusto che sia, anzi speriamo che il divario sia più marcato mantendo le fasce di prezzo invariate rispetto al day one. Del resto le 9x0 dovevano uscire su altro pp.
Inviato dal mio SM-G920F utilizzando Tapatalk
Ma il gp 106 quando dovrebbe uscire? Ottobre?
fraussantin
17-04-2016, 21:45
[QUOTE=jok3r87;43584546 Del resto le 9x0 dovevano uscire su altro pp.
Inviato dal mio SM-G920F utilizzando Tapatalk[/QUOTE]
Infatti imho "truccarono" i driver per quello.
mikael84
17-04-2016, 22:03
Io credo che ci siano un po' troppe modifiche soprattutto nell'efficienza dei cuda per parlare di un semplice maxwell potenziato...
Inviato dal mio ONE A2003 utilizzando Tapatalk
Quello che dici è giusto, almeno in parte.
Mi spiego meglio.
Non siamo di fronte ad un maxwell 1/1, la differenza c'è ma riguarda sopratutto la predisposizione degli SMM, accessi rop e la parallelizzazione per GPC.
Ci sarà sicuramente anche un motore geometrico migliorato ma i passaggi alla fine sono sempre legati a SM/rop/vertex fetch, anche se con Pascal non è integrato nell'SM.
Se analizziamo la struttura interna, almeno al livello SMM, vediamo così Maxwell.
http://images.anandtech.com/doci/7764/GeForce_GTX_750_Ti_SM_Diagram_FINAL.png?_ga=1.132569550.1130416765.1459439058
4 warph sheduler(8 dispacht unit) x 32 cc con 8 SFU/8 load store.
I registri totali sono oltre 65000 dialoganti con 256kb di cache (64 per sheduler). E' presente anche una cache l1 per istruzioni di 24kb per SMM.
In virtù di questi dati, ogni cuda ha accesso a 512 istruzioni e GP104 in questo caso ha ben 4mb di cache registro totale (visti i 16 SMM)
Pascal è così.
http://cdn.wccftech.com/wp-content/uploads/2016/04/Pascal-GP100.png
Cosa cambia?
Niente, o meglio, è migliorato.
Abbiamo 2 sheduler, 2 Disp.unit. x32 cuda.
Stesso rapporto a scheduler, ovvero 32 cuda, 8 load store, 8 SFU, proprio come maxwell.
Non tutto però è uguale perchè se prima avevi accesso a 65000 registri con 128 cuda, ora gli stessi li ottieni con con soli 64 cuda.
Questo si traduce in un raddoppio relativo alle istruzioni perchè ogni cuda ha accesso a ben 1024 registri contro il cuda maxwell che ha accesso, come detto su a soli 512 registri.
Avere registri più ampi, limita anche l'accesso alla cache e tutto si velocizza, oltre naturalmente alla quantità doppia di base. Anche la cache per GPC diventa più ampia naturalmente.
GP100, quindi avrà il doppio della cache, rispetto a gm204, quasi il doppio della cache istruzioni e ben 2.600.000 registri totali, contro i 1.040.000 rispetto a maxwell (IPC per cuda per GPC, quasi 3 volte più grande);)
mikael84
17-04-2016, 22:13
infatti la 4850 senza gddr5 andava come una GTS 250
anche se gli 800 shader Vliw di quella gpu erano più potenti dei 128 shader a 1500mhz della 250.
una 250 era giusta con la banda passante delle GDDR3... al contrario di RV770 che con la 4850 era bello castrato ma nella sua espressione massima quel chip (che diventò RV790 se non sbaglio) competeva con la GTX 275 da 240 shader a 1400mhz
e non credo che il chip della GTS 250 con le GDDR5 e clock più spinti sarebbe mai potuta arrivare a quei livelli.
alla fine la spuntò nvidia ma amd con le varie 4870 512 , 1GB e 4890 cmq c'era... e la differenza prestazionale tra amd ed nvidia in fascia top alla fine era poca..
la 4890 era vicina alla 285
Ma cmq pure lei propose le sue schede di fascia alta dx11..
e la 5870 andava tra una 470 e 480.
non era certo una fetecchia... era una scheda top class riuscita.
serie 6000 idem, e la serie 7000 andava pure meglio come n di frames rispetto alla 680...
Mi aspetto che amd proponga un alternativa ad Nvidia per ogni fascia, poi magari non ci farà pari ma andrà un 10% meno con prezzi più bassi rispetto ad Nvidia...
Ma non credo che finirà nei guai e non riuscirà a proporre schede per tutte le fasce... o che se lo farà, saranno deludenti come le antiche HD 2000 e 3000....dove la top di gamma ati a livello prestazionale corrispondeva alla fascia media di Nvidia
Esatto, ricordi benissimo.
Le prime GTX (260 e 280) erano prodotte in 65nm ed erano pompatissime, mentre la 4870 fu stirata, abbinata a ddr5 e lanciata contro la 260, pur avendo un vantaggio del PP a 55nm.
Quando Nvidia passo ai 55nm, porto le 275-260 126 e la 285, allora li ATi ha rivisto completamente le connessioni elettriche lente, migliorato i transistor con meno perdita (come la 580) e hanno lanciato la 4890 (contro la 275).
Questa è cmq una situazione che se si ricreasse non sarebbe male ma riguardo AMD alla fine niente è scontato.
Anche Nvidia sembrava partire ad 1ghz/1200, invece parte a 1500.
Se AMD lancia i 2860ST a una frequenza simile, pareggia i 4096ST e aumenta virtualmente le rop da 64 a 96. Una scheda simil fury, anche in clock e con IPC migliorato sarà bella tosta.
YesManYes
17-04-2016, 23:09
Dubito vedremo gp100 nel 2016....
Inviato dal mio ONE A2003 utilizzando Tapatalk
al masssimo forse una Titan per fine anno..ed il resto come minimo a febbraio 2017
Si ripeterà la storia 780ti vs 970 con le schede praticamente alla pari e con la x80 che andrà di più. La terza scheda x60, qualora ci fosse, la vedo più come sostituta della 980 liscia.
Inviato dal mio SM-G920F utilizzando Tapatalk
credo si ripeterà quello che successe tra 680 - 670 vs GTX 580
Infatti imho "truccarono" i driver per quello.
secondo me han smesso di ottimizzare Kepler per creare un distacco maggiore con Maxwell che altrimenti (anche a causa del medesimo pp) non sarebbe stato così impressionante
fraussantin
17-04-2016, 23:11
secondo me han smesso di ottimizzare Kepler per creare un distacco maggiore con Maxwell che altrimenti (anche a causa del medesimo pp) non sarebbe stato così impressionante
Che è quello che intendevo io
E questa volta non è necessario.
Giovamas
18-04-2016, 07:51
In ogni caso la mia attuale idea di upgrade ipotetico è una 1070(se più prestante della gtx980Ti attuale) per poi passare alla Ti che alla fine ormai è la mia scheda generazionale di riferimento.
Ma stavolta per quanto riguarda le pascaline oltre che i divari sulle gpu ci sarà da valutare anche la differenza di resa dei 2 tipi di vram, il tutto come sempre in rapporto alle differenze di spesa.
Ti quoto. Fermo restando che prenderò di sicuro la 1080ti o quel che sarà, io direi 980ti -> 1080 -> 1080ti. Anche 1070 ma "se" faccio l'upgrade e se avrà le gddr5x andrò di 1080. Con la 780ti ci ho rimesso abbastanza vendendola per la 980ti, forse così gestico meglio l'attesa per Volta (non considero lo SLI per scelte personali). Valuterò all'uscita. La mia 4G non posso venderla ora sulla base di rumor ed avendo appena comprato Dark Soul 3 & Fallout 4 :)
Quello che dici è giusto, almeno in parte.
Mi spiego meglio.
Non siamo di fronte ad un maxwell 1/1, la differenza c'è ma riguarda sopratutto la predisposizione degli SMM, accessi rop e la parallelizzazione per GPC.
Ci sarà sicuramente anche un motore geometrico migliorato ma i passaggi alla fine sono sempre legati a SM/rop/vertex fetch, anche se con Pascal non è integrato nell'SM.
Se analizziamo la struttura interna, almeno al livello SMM, vediamo così Maxwell.
http://images.anandtech.com/doci/7764/GeForce_GTX_750_Ti_SM_Diagram_FINAL.png?_ga=1.132569550.1130416765.1459439058
4 warph sheduler(8 dispacht unit) x 32 cc con 8 SFU/8 load store.
I registri totali sono oltre 65000 dialoganti con 256kb di cache (64 per sheduler). E' presente anche una cache l1 per istruzioni di 24kb per SMM.
In virtù di questi dati, ogni cuda ha accesso a 512 istruzioni e GP104 in questo caso ha ben 4mb di cache registro totale (visti i 16 SMM)
Pascal è così.
http://cdn.wccftech.com/wp-content/uploads/2016/04/Pascal-GP100.png
Cosa cambia?
Niente, o meglio, è migliorato.
Abbiamo 2 sheduler, 2 Disp.unit. x32 cuda.
Stesso rapporto a scheduler, ovvero 32 cuda, 8 load store, 8 SFU, proprio come maxwell.
Non tutto però è uguale perchè se prima avevi accesso a 65000 registri con 128 cuda, ora gli stessi li ottieni con con soli 64 cuda.
Questo si traduce in un raddoppio relativo alle istruzioni perchè ogni cuda ha accesso a ben 1024 registri contro il cuda maxwell che ha accesso, come detto su a soli 512 registri.
Avere registri più ampi, limita anche l'accesso alla cache e tutto si velocizza, oltre naturalmente alla quantità doppia di base. Anche la cache per GPC diventa più ampia naturalmente.
GP100, quindi avrà il doppio della cache, rispetto a gm204, quasi il doppio della cache istruzioni e ben 2.600.000 registri totali, contro i 1.040.000 rispetto a maxwell (IPC per cuda per GPC, quasi 3 volte più grande);)
Ti faccio una domanda magari un po "utonta" che è sorta su un foro concorrente. Il memory controller supporta sia le gddr5 che per le gddr5x?
Inviato dal mio XT1092 utilizzando Tapatalk
Free Gordon
18-04-2016, 09:33
Riepilogando, o Polaris tira fuori i 4096ST previsti in vega, oppure avrà un'IPC mostruoso, oppure ancora saranno schede che riprenderanno le Tonga sulla fascia da 200/250 euro e di conseguenza Pascal andrà da solo.:)
Credo anch'io che AMD sostituirà le schede nella fascia 380X, forse 390...ma non di più.. Vogliono riprendere market share nella fascia di mercato più fruttuosa, vedremo cosa uscirà..
Free Gordon
18-04-2016, 09:41
Sisi ho inteso benissimo.
Quello che dico è che spero per AMD che non vada così.
Perchè la pro duo è una scheda inutile. Magari andrà anche più di GP104, ma poi quando la gente guarderà il frametime (è i siti seri lo testano) e si vedrà che stuttera chi la sceglierà? Oltre al minor supporto generale che ha il Crossfire rispetto allo SLI.....
GP104 non sarà il chip full, ma sará il top di gamma NVIDIA per un anno.
Quei problemi sono legati al tipo di rendering usato in dx11. In dx12 è tutta un'altra storia.. grazie all'AFR. ;)
Free Gordon
18-04-2016, 09:46
È la sua unica speranza se vuole modificare gli impietosi dati di market share attuali.
Guardando le prestazioni di 280/X, 290/X e 390/X, direi anche AMPIAMENTE immeritati.. :D ;)
maurilio968
18-04-2016, 10:30
tecnicamente (spero) dovrebbero uscire in sequenza.
GTX 1060 GP104/GDDR5 4GB - GTX 1070 GP104/GDDR5 8GB - GTX 1080 GP104/GDDR5x 8GB a giugno
GTX TITAN Y GP100 (full)/HBM2 16GB a settembre/ottobre
GTX 1080 Ti GP100 (cut-down)/HBM2 16GB a novembre/dicembre(ma si potrebbe passare direttamente a gennaio al ces2017)
Invece penso che sarà così:
luglio - schede gddr5
GTX 1060 GP104/GDDR5 4GB - GTX 1070 GP104/GDDR5 8GB
settembre-ottobre - schede gddr5X
1080 GP104/GDDR5x 8GB
febbraio marzo 2017 - Titan hbm2
GTX TITAN Y GP100 (full)/HBM2 16GB
giugno luglio 2017 Ti hbm2
GTX 1080 Ti GP100 (cut-down)/HBM2 16GB
Legolas84
18-04-2016, 10:36
Quei problemi sono legati al tipo di rendering usato in dx11. In dx12 è tutta un'altra storia.. grazie all'AFR. ;)
Vedremo se con le DX12 il Crossfire andrà come lo SLI, e se avrà lo stesso supporto... io credo di no, ma sarò lieto di sbagliarmi ;)
Guardando le prestazioni di 280/X, 290/X e 390/X, direi anche AMPIAMENTE immeritati.. :D ;)
Secondo me invece sono ampiamente significativi di come ad AMD manchi tutto il contorno. È vero che se guardiamo solo il grafichetto con i frame medi al secondo le soluzioni AMD sono anche accettabili.
Ma poi manca tutto il resto, il supporto, gli effetti proprietari che potrebbero convincere qualcuno a preferirli a quelli NVIDIA, il supporto serio al multi-gpu, un rapporto performance per watt non all'altezza della controparte, ecc...
Ma comunque siamo OT.
Nelson Muntz
18-04-2016, 10:37
In ogni caso la mia attuale idea di upgrade ipotetico è una 1070(se più prestante della gtx980Ti attuale) per poi passare alla Ti che alla fine ormai è la mia scheda generazionale di riferimento.
Ti quoto. Fermo restando che prenderò di sicuro la 1080ti o quel che sarà, io direi 980ti -> 1080 -> 1080ti.
La fiera del non senso . (o dello spreco di soldi , fortunati voi !)
mikael84
18-04-2016, 10:56
Ti faccio una domanda magari un po "utonta" che è sorta su un foro concorrente. Il memory controller supporta sia le gddr5 che per le gddr5x?
Inviato dal mio XT1092 utilizzando Tapatalk
Si, però le ddr5x richiedono una diversa piedinatura, quindi devono per forza di cosa modificare il PCB per poterle mettere. Quindi avremmo due versioni reference modificate con i 2 tagli di memoria.
Ora però la situazione si è complicata perchè è spuntata fuori una terza scheda (150 A1), quindi potremmo avere anche due chip completamente ddr5x e il 150 A in ddr5 base.
Altrimenti assisteremmo probabilmente a questo:
GP104-400A1 (2560cc/ddr5x 12gigabit micron)
GP104-200A1 ( 2176cc/ddr5 8gigabit samsung)
GP104-150A1 (1664-1920cc -ddr5 8gigabit /192bit samsung).
DarkNiko
18-04-2016, 10:59
Invece penso che sarà così:
luglio - schede gddr5
GTX 1060 GP104/GDDR5 4GB - GTX 1070 GP104/GDDR5 8GB
settembre-ottobre - schede gddr5X
1080 GP104/GDDR5x 8GB
febbraio marzo 2017 - Titan hbm2
GTX TITAN Y GP100 (full)/HBM2 16GB
giugno luglio 2017 Ti hbm2
GTX 1080 Ti GP100 (cut-down)/HBM2 16GB
Storicamente e statisticamente, NVidia ha prima sparato la top di gamma, nel nostro caso 1080 insieme alla 1070, mentre la fascia media (1060) qualche mese dopo. Quindi io personalmente invertirei l'ordine, cioè 1070-1080 giugno/luglio e gtx 1060 verso settembre-ottobre.
Sul fatto che Titan Y GP100 (ammesso che la chiamino così) e 1080Ti possano uscire nel 2017 mi trovi pienamente d'accordo. :)
http://www.anandtech.com/show/9883/gddr5x-standard-jedec-new-gpu-memory-14-gbps
"Since the GDDR5X protocol and interface training sequence are similar to those of the GDDR5, it should be relatively easy for developers of chips to adjust their memory controllers to the new type of memory"
"The GDDR5X-compliant memory chips will come in 190-ball grid array packaging (as compared to 170-ball packaging used for current GDDR5), thus, they will not be pin-to-pin compatible with existing GDDR5 ICs or PCBs for modern graphics cards. But while the GDDR5X will require development of new PCBs and upgrades to memory controllers, everything else works exactly like in case of the GDDR5: the interface signal training features and sequences are the same, error detection is similar, protocols have a lot of resemblances, even existing GDDR5 low and high speed modes are supported to enable mainstream and low-power applications. BGA packages are inexpensive, and they do not need silicon interposers nor use die-stacking techniques which HBM requires."
come vedi se le hanno chiamate "5" ci sarà stato un motivo :D
L'avevo letto anche io quell'articolo. Ciò che mi lasciava l'ultimo dubbio era quel "upgrade".
Inviato dal mio XT1092 utilizzando Tapatalk
Giovamas
18-04-2016, 11:17
La fiera del non senso . (o dello spreco di soldi , fortunati voi !)
Prima di giudicare :) vedi la "storia" di Tiger che ha fatto tutto il giro 780ti -> 980 ->980ti spendendo veramente poco ed ha avuto sempre il top dentro il case.
Giovamas
18-04-2016, 11:18
Storicamente e statisticamente, NVidia ha prima sparato la top di gamma, nel nostro caso 1080 insieme alla 1070, mentre la fascia media (1060) qualche mese dopo. Quindi io personalmente invertirei l'ordine, cioè 1070-1080 giugno/luglio e gtx 1060 verso settembre-ottobre.
Sul fatto che Titan Y GP100 (ammesso che la chiamino così) e 1080Ti possano uscire nel 2017 mi trovi pienamente d'accordo. :)
Scenario plausibile. Secondo me 1070 & 1080 andranno di pari passo. Poi tutto il resto come dici tu
mikael84
18-04-2016, 12:13
Invece penso che sarà così:
luglio - schede gddr5
GTX 1060 GP104/GDDR5 4GB - GTX 1070 GP104/GDDR5 8GB
settembre-ottobre - schede gddr5X
1080 GP104/GDDR5x 8GB
febbraio marzo 2017 - Titan hbm2
GTX TITAN Y GP100 (full)/HBM2 16GB
giugno luglio 2017 Ti hbm2
GTX 1080 Ti GP100 (cut-down)/HBM2 16GB
Non intervengo su possibili lanci, però attenzione alle sigle che possono confondere chi è alla ricerca della fascia performance.:)
GP 104 sarà composta da:
x80
x70
x60ti (6gb su un 192bit).
La x60 liscia sarà basata su GP106 e dovrebbe debuttare entro fine anno.
Quindi x50 e x60 saranno collegate ad un 128bit e 4gb di ram
fraussantin
18-04-2016, 13:02
si vero, quel 1060 senza ti poteva confondere, e quindi si gp104-150 sarà la 1060ti e non la liscia
Avevo inteso male pure io
illidan2000
18-04-2016, 13:14
Storicamente e statisticamente, NVidia ha prima sparato la top di gamma, nel nostro caso 1080 insieme alla 1070, mentre la fascia media (1060) qualche mese dopo. Quindi io personalmente invertirei l'ordine, cioè 1070-1080 giugno/luglio e gtx 1060 verso settembre-ottobre.
Sul fatto che Titan Y GP100 (ammesso che la chiamino così) e 1080Ti possano uscire nel 2017 mi trovi pienamente d'accordo. :)
si, ma storicamente nVidia ha sempre trovato il modo di far piangere i suoi acquirenti in qualche modo.
A me lo fece quando presi due titan, e ancora non era chiaro che dopo tre mesi uscissero le 780.
E poi anche con le 970, con la storia del 3.5+0.5gb. Anche se poi rimangono ottime schede (ne ho due), ma c'è sempre un problema di trasparenza
quindi il fatto di uscire con una 1070 gddr5 prima e poi con una 1080 gddr5x, non è affatto una strada da escludere. Una strategia perfetta per incu... ehm, per guadagnare soldini.
Detto questo, io comunque comprerò nVidia, e non mi sento affatto "tradito", e so bene che, nonostante questi ultimi drivers non stiano piacendo proprio a tutti, rimane comunque un'azienda affidabile, che giustamente ha in mente in primis il profitto. Profitto che non può prescindere dalla qualità del prodotto ovviamente.
Spero però che AMD si dia una mossa.
E' tutta questione di tempistica. Se sforna una scheda che va quanto Pascal (full), sei mesi prima, può avere chances di recuperare il mercato, e soprattutto mettere fretta a nVidia. Altrimenti il mercato e la tecnologia ristagnerà
Nelson Muntz
18-04-2016, 13:35
si, ma storicamente nVidia ha sempre trovato il modo di far piangere i suoi acquirenti in qualche modo.
Detto questo, io comunque comprerò nVidia, e non mi sento affatto "tradito", e so bene che, nonostante questi ultimi drivers non stiano piacendo proprio a tutti, rimane comunque un'azienda affidabile, che giustamente ha in mente in primis il profitto. Profitto che non può prescindere dalla qualità del prodotto ovviamente.
Io invece non sono per nulla d'accordo . Aspetto di vedere se e come verranno 'castrate' maxwell . Se si ripete ancora la storia di kepler e fermi , la mia prssima scheda sara' rossa .
mikael84
18-04-2016, 13:37
si, ma storicamente nVidia ha sempre trovato il modo di far piangere i suoi acquirenti in qualche modo.
A me lo fece quando presi due titan, e ancora non era chiaro che dopo tre mesi uscissero le 780.
E poi anche con le 970, con la storia del 3.5+0.5gb. Anche se poi rimangono ottime schede (ne ho due), ma c'è sempre un problema di trasparenza
quindi il fatto di uscire con una 1070 gddr5 prima e poi con una 1080 gddr5x, non è affatto una strada da escludere. Una strategia perfetta per incu... ehm, per guadagnare soldini.
Detto questo, io comunque comprerò nVidia, e non mi sento affatto "tradito", e so bene che, nonostante questi ultimi drivers non stiano piacendo proprio a tutti, rimane comunque un'azienda affidabile, che giustamente ha in mente in primis il profitto. Profitto che non può prescindere dalla qualità del prodotto ovviamente.
Spero però che AMD si dia una mossa.
E' tutta questione di tempistica. Se sforna una scheda che va quanto Pascal (full), sei mesi prima, può avere chances di recuperare il mercato, e soprattutto mettere fretta a nVidia. Altrimenti il mercato e la tecnologia ristagnerà
Diciamo che sembra essere sempre più scontata l'ipotesi prezzi che io, te e tiger ipotizzavamo da tempo.
X80 che prende il posto della 980ti (650 euro e full gp104 con ddr5x)
x70 sulle 450 euro (post 980 e prestazioni leggermente sopra la 980ti)
x60ti fascia della 970 (300-350 euro e prestazioni tra 980/980ti)
Sotto ci sarà la GP106 con le varianti x50 e x60, ma la x60 si prenderà la fascia dei 200/250 euro, quindi per vari fattori, la x60ti basata su GP104 sarà allocata in fascia 300/350.
Questo significa che Nvidia può lanciare tutto il GP104 tranquillamente ma così facendo, la x80ti stabilirà una nuova fascia di mercato.
VogrBurn
18-04-2016, 13:39
Quindi già in estate vedremo le x70 e x80? Ma parlate di presetazione o rilascio?
si, ma storicamente nVidia ha sempre trovato il modo di far piangere i suoi acquirenti in qualche modo.
A me lo fece quando presi due titan, e ancora non era chiaro che dopo tre mesi uscissero le 780.
E poi anche con le 970, con la storia del 3.5+0.5gb. Anche se poi rimangono ottime schede (ne ho due), ma c'è sempre un problema di trasparenza
quindi il fatto di uscire con una 1070 gddr5 prima e poi con una 1080 gddr5x, non è affatto una strada da escludere. Una strategia perfetta per incu... ehm, per guadagnare soldini.
Detto questo, io comunque comprerò nVidia, e non mi sento affatto "tradito", e so bene che, nonostante questi ultimi drivers non stiano piacendo proprio a tutti, rimane comunque un'azienda affidabile, che giustamente ha in mente in primis il profitto. Profitto che non può prescindere dalla qualità del prodotto ovviamente.
Spero però che AMD si dia una mossa.
E' tutta questione di tempistica. Se sforna una scheda che va quanto Pascal (full), sei mesi prima, può avere chances di recuperare il mercato, e soprattutto mettere fretta a nVidia. Altrimenti il mercato e la tecnologia ristagnerà
Stockolm syndrome
Muse, 2003
maurilio968
18-04-2016, 13:41
Non intervengo su possibili lanci, però attenzione alle sigle che possono confondere chi è alla ricerca della fascia performance.:)
GP 104 sarà composta da:
x80
x70
x60ti (6gb su un 192bit).
La x60 liscia sarà basata su GP106 e dovrebbe debuttare entro fine anno.
Quindi x50 e x60 saranno collegate ad un 128bit e 4gb di ram
Hai fatto bene a puntualizzare.
Quotando mi era sfuggita la sigla x60ti.
Storicamente e statisticamente, NVidia ha prima sparato la top di gamma, nel nostro caso 1080 insieme alla 1070, mentre la fascia media (1060) qualche mese dopo. Quindi io personalmente invertirei l'ordine, cioè 1070-1080 giugno/luglio e gtx 1060 verso settembre-ottobre.
Sul fatto che Titan Y GP100 (ammesso che la chiamino così) e 1080Ti possano uscire nel 2017 mi trovi pienamente d'accordo. :)
Ti darei ragione ma le gddr5x non dovrebbero essere disponibili in volumi prima di settembre.
Se poi parli di paper launch allora ci sta tutto.
settembre-ottobre - schede gddr5X
1080 GP104/GDDR5x 8GB
Questo è impossibile, verrà presentata il 6 Maggio (e non è un rumor ma una certezza), tra meno di 20 giorni.. e non passerà così tanto tempo per la commercializzazione.
illidan2000
18-04-2016, 14:27
Diciamo che sembra essere sempre più scontata l'ipotesi prezzi che io, te e tiger ipotizzavamo da tempo.
X80 che prende il posto della 980ti (650 euro e full gp104 con ddr5x)
x70 sulle 450 euro (post 980 e prestazioni leggermente sopra la 980ti)
x60ti fascia della 970 (300-350 euro e prestazioni tra 980/980ti)
Sotto ci sarà la GP106 con le varianti x50 e x60, ma la x60 si prenderà la fascia dei 200/250 euro, quindi per vari fattori, la x60ti basata su GP104 sarà allocata in fascia 300/350.
Questo significa che Nvidia può lanciare tutto il GP104 tranquillamente ma così facendo, la x80ti stabilirà una nuova fascia di mercato.
si, il discorso è giusto sull'utilizzo delle gddr5 e gddr5x, e del divario effettivo tra x80 e x70.
A questo giro quelle 200 euro che c'erano tra 970 e 980 (ingiustificate), potrebbero invece valerne la pena.
Con due 1080 che andrebbero di gran lunga meglio della singola 1080ti, e invece due 1070 che stanno a pari o poco sopra, così come è con lo sli di 970 vs singola 980ti
TigerTank
18-04-2016, 14:54
Invece penso che sarà così:
luglio - schede gddr5
GTX 1060 GP104/GDDR5 4GB - GTX 1070 GP104/GDDR5 8GB
settembre-ottobre - schede gddr5X
1080 GP104/GDDR5x 8GB
febbraio marzo 2017 - Titan hbm2
GTX TITAN Y GP100 (full)/HBM2 16GB
giugno luglio 2017 Ti hbm2
GTX 1080 Ti GP100 (cut-down)/HBM2 16GB
Io presumo fine giugno-luglio primi lotti di 1070 e 1080 ma con un boom di mercato a settembre.
Su Titan Y e Ti mi sa che ti quoto, pensavo anch'io grossomodo a delle tempistiche simil-maxwell.
Sulla gtx1060 non saprei...di solito le piccoline arrivano dopo.
La fiera del non senso . (o dello spreco di soldi , fortunati voi !)
Per ora sono solo ipotesi, dipenderà tutto da come saranno nel concreto le schede. Comunque se te la giochi bene con le rivendite può anche finire che con il doppio passaggio spendi meno rispetto all'avere una vga vecchia che vale ormai poco da upgradare ad una nuova fiammante :)
Poi certo con gli Sli il discorso cambia. Se avessi 2 Ti nel case aspetterei direttamente le nuove Ti senza il minimo dubbio.
Per il resto certo è che se la 1070 esce come scheda ribassata di fascia, poco più prestante di una gtx980 perchè sotto forte castrazione di prestazioni per contenere i costi e la 1080 invece va un pò di più ma ha prezzo esorbitante, mi tengo la mia ad oltranza :D
mikael84
18-04-2016, 15:04
si, il discorso è giusto sull'utilizzo delle gddr5 e gddr5x, e del divario effettivo tra x80 e x70.
A questo giro quelle 200 euro che c'erano tra 970 e 980 (ingiustificate), potrebbero invece valerne la pena.
Con due 1080 che andrebbero di gran lunga meglio della singola 1080ti, e invece due 1070 che stanno a pari o poco sopra, così come è con lo sli di 970 vs singola 980ti
2 x80 avranno 5120cc totali, GP100 non più di 3584 (almeno dallo schema principale). 3584 cuda totali che potrebbero essere anche leggermente decurtati nella versione gaming come la titan x e la 980ti.
La x70, molto probabilmente avrà almeno 384 unità disabilitate circa (un blocco) ma non è escluso che si decida di lanciarla con 2048 direttamente, per creare un divario leggermente più ampio con la x80.
Così facendo ricreerà la situazione tra 970 e 780 per poi migliorare e staccare la 980ti con il tempo.
Il bus è piccolo vero ma non deve completamente ingannare il numero. Nvidia potrebbe migliorare il delta color ulteriormente è recuperare una piccola percentuale.
Se le ram vengono lanciate ad 8ghz, significano 256 gb/s di banda, essendo ram samsung magari riesci a portarle a 9ghz e aumentare la banda a 288gb/s, valore che basta in tutti i giochi attuali ed anche per le prossime uscite.
Se prendiamo giochi attuali e massicci come fallout 4-ac syndicate-the witcher, la media è intorno ai 175-200gb/s massimi, quindi il bus non è certo un problema.
COD ad esempio alloca tantissima ram ma il traffico in banda raramente supera i 150 gb/s.
illidan2000
18-04-2016, 15:15
2 x80 avranno 5120cc totali, GP100 non più di 3584 (almeno dallo schema principale). 3584 cuda totali che potrebbero essere anche leggermente decurtati nella versione gaming come la titan x e la 980ti.
La x70, molto probabilmente avrà almeno 384 unità disabilitate circa (un blocco) ma non è escluso che si decida di lanciarla con 2048 direttamente, per creare un divario leggermente più ampio con la x80.
Così facendo ricreerà la situazione tra 970 e 780 per poi migliorare e staccare la 980ti con il tempo.
Il bus è piccolo vero ma non deve completamente ingannare il numero. Nvidia potrebbe migliorare il delta color ulteriormente è recuperare una piccola percentuale.
Se le ram vengono lanciate ad 8ghz, significano 256 gb/s di banda, essendo ram samsung magari riesci a portarle a 9ghz e aumentare la banda a 288gb/s, valore che basta in tutti i giochi attuali ed anche per le prossime uscite.
Se prendiamo giochi attuali e massicci come fallout 4-ac syndicate-the witcher, la media è intorno ai 175-200gb/s massimi, quindi il bus non è certo un problema.
COD ad esempio alloca tantissima ram ma il traffico in banda raramente supera i 150 gb/s.
stando così le cose, lo sli di 1070 staccherebbe comunque di netto la 1080ti, pur avendo ram inferiori e pesante decurtazione. (4096 cuda vs 3584)
Sempre che lo SLI funzioni ancora a dovere...
Se le dx12 confermano le aspettative sullo SLI, questo non dovrebbe esser un problema
Certo, lo sli di x80 sarebbe un autentico schiacciasassi!
Theodorakis
18-04-2016, 15:20
Come stiamo vedendo nei benchmark degli ultimi giochi solo uno su 10 ormai supporta lo SLI/Crossfire. Soldi buttati. :muro:
stando così le cose, lo sli di 1070 staccherebbe comunque di netto la 1080ti, pur avendo ram inferiori e pesante decurtazione. (4096 cuda vs 3584)
Sempre che lo SLI funzioni ancora a dovere...
Se le dx12 confermano le aspettative sullo SLI, questo non dovrebbe esser un problema
Certo, lo sli di x80 sarebbe un autentico schiacciasassi!
Anche 2x970 vs 1x980 avevi più performance allo stesso prezzo anzi anche qualcosa in meno. Una buona custom 980 al day one costava più di 600€. Il punto sarà capire se questi benedetti porting avranno o meno il supporto allo sli e come scaleranno con 2 vga.
Legolas84
18-04-2016, 15:29
Come stiamo vedendo nei benchmark degli ultimi giochi solo uno su 10 ormai supporta lo SLI/Crossfire. Soldi buttati. :muro:
Io che ho lo SLI da un po' posso dire che in verità è tutto il contrario....
Inviato dal mio ONE A2003 utilizzando Tapatalk
CiccoMan
18-04-2016, 15:29
Come stiamo vedendo nei benchmark degli ultimi giochi solo uno su 10 ormai supporta lo SLI/Crossfire. Soldi buttati. :muro:
Inviato dal mio ONE A2003 utilizzando Tapatalk[/QUOTE]
Purtroppo e vero... non sarà uno su 10, ma nvidia inspector è sempre più indispensabile e sono pochissimi i titoli in cui il 2-way scala decentemente o/e non da problemi (artefatti, lag, etc...).
Speriamo che le dx12 unite alle nuove architetture invertano la tendenza :fagiano:
Io che ho lo SLI da un po' posso dire che in verità è tutto il contrario....
Sicuramente 1 su 10 è una stima molto pessimistica, ma per quanto mi riguarda la situazione non è affatto rosea...
illidan2000
18-04-2016, 15:29
Come stiamo vedendo nei benchmark degli ultimi giochi solo uno su 10 ormai supporta lo SLI/Crossfire. Soldi buttati. :muro:
mmmh.... penso che microsoft metterà una pezza a questo, anche per il suo store. Per il resto, non vedo una brutta situazione, dai
Legolas84
18-04-2016, 15:35
La situazione dello SLI la conosco molto bene perche lo ho da diverso tempo e posso dire che non è niente male. I profili escono insieme ai giochi e problemi tecnici nemmeno l'ombra.
Ci sono alcuni giochi che non lo supportano è vero ma spesso si tratta di giochi che già con una scheda viaggiano alla grande come divinity, oppure giochi basati sullo scandaloso motore idtech 5 (sono pochissimi per fortuna) se togli questi restano pochissimi titoli che non funzionano in SLI, il resto va tutto alla grande.
Inviato dal mio ONE A2003 utilizzando Tapatalk
Free Gordon
18-04-2016, 15:38
Sicuramente 1 su 10 è una stima molto pessimistica, ma per quanto mi riguarda la situazione non è affatto rosea
L'unica alternativa valida ed efficace a questa situazione è switchare sulle dx12 col supporto AFR.
Se una GPU renderizza un frame e l'altra il successivo, di problemi non ce ne sono in partenza...o cmq sono molto più limitati.
Se le DX12 prendono piede, i problemi spariranno da sè, se non prendono piede, adremo avanti sempre col problema del dualgpu.
Legolas84
18-04-2016, 15:40
L'unica alternativa valida ed efficace a questa situazione è switchare sulle dx12 col supporto AFR.
Se una GPU renderizza un frame e l'altra il successivo, di problemi non ce ne sono in partenza...o cmq sono molto più limitati.
Se le DX12 prendono piede, i problemi spariranno da sè, se non prendono piede, adremo avanti sempre col problema del dualgpu.
E pensare che lo SLI già ha la funzione di rendering alternato...
Inviato dal mio ONE A2003 utilizzando Tapatalk
X-ray guru
18-04-2016, 15:54
Per ora lo SLI e DX12 fanno a pugni.
Gli unici 4 giochi DX12 presenti per il momento sul mercato non hanno nessun profilo SLI e utilizzano una sola GPU.
Addirittura Quantum Break, basato sul motore di Remedy, non andrà mai in SLI, secondo le dichiarazioni del produttore stesso.
E' certamente un momento di grandi incertezze ma per ora mi butterei su scheda singola.
TigerTank
18-04-2016, 16:06
Io sinceramente per avere copertura anche nelle situazioni peggiori(futuri porting mattone senza supporto multigpu) uno Sli di 1070 lo consiglierei solo in caso di 1440p 16:9. Su 21:9 e 4K vedrei dura la gestione con una sola delle 2.
O lo si fa lo stesso e si lasciano a scaffale giochi del genere.
Addirittura Quantum Break, basato sul motore di Remedy, non andrà mai in SLI, secondo le dichiarazioni del produttore stesso.
Questo titolo paradossalmente è stato rovinato dalla piattaforma Microsoft :doh:
CiccoMan
18-04-2016, 16:06
Per ora lo SLI e DX12 fanno a pugni.
Gli unici 4 giochi DX12 presenti per il momento sul mercato non hanno nessun profilo SLI e utilizzano una sola GPU.
Addirittura Quantum Break, basato sul motore di Remedy, non andrà mai in SLI, secondo le dichiarazioni del produttore stesso.
E' certamente un momento di grandi incertezze ma per ora mi butterei su scheda singola.
Purtroppo sembra che anche l'Unreal Engine 4 digerisca male il multi gpu... In previsione io mi preparo ad abbandonare lo sli e attenderò paziente la nuova ti/titan :read:
TigerTank
18-04-2016, 16:14
Purtroppo sembra che anche l'Unreal Engine 4 digerisca male il multi gpu... In previsione io mi preparo ad abbandonare lo sli e attenderò paziente la nuova ti/titan :read:
Wow che bella notizia....già con il 3 ce ne sono state non poche di meraviglie :stordita:
X-ray guru
18-04-2016, 16:16
Questo titolo paradossalmente è stato rovinato dalla piattaforma Microsoft :doh:
Non solo.
E' proprio fatto in ottica XBox e riadattato in qualche maniera al PC, nell'ottica ormai chiara di Microsoft di unificare per quanto possibile le due piattaforme (PC e Console).
Ricordiamoci che DX12 non è solo un numerino in più di DX11, ma una vera e propria rivoluzione, sia per chi produce game engine, sia per i produttori di GPU e relativi driver.
Non per nulla i primi 4 giochi DX12 girano quasi bene su piattaforma AMD e in modo penoso su NVidia.
AMD è diversi anni che fa pratica con Mantle e le GPU di PS4 e XBox one. Mi sembra abbastanza normale che abbia più esperienza di NVidia. E si vede, a parer mio. ;)
mikael84
18-04-2016, 16:22
Io sinceramente per avere copertura anche nelle situazioni peggiori(futuri porting mattone senza supporto multigpu) uno Sli di 1070 lo consiglierei solo in caso di 1440p 16:9. Su 21:9 e 4K vedrei dura la gestione con una sola delle 2.
O lo si fa lo stesso e si lasciano a scaffale giochi del genere.
Questo titolo paradossalmente è stato rovinato dalla piattaforma Microsoft :doh:
Concordo appieno. Lo SLI inoltre, almeno dal mio punto di vista dev'essere un qualcosa di extra non un mezzo per fare 30/30, perchè in caso di non supporto sei totalmente tagliato fuori.
TigerTank
18-04-2016, 16:40
Non solo.
E' proprio fatto in ottica XBox e riadattato in qualche maniera al PC, nell'ottica ormai chiara di Microsoft di unificare per quanto possibile le due piattaforme(PC e Console).
Ecco, questo è proprio l'aspetto che mi piace meno perchè imho il PC dovrebbe essere distinto e aver un binario di sviluppo/ottimizzazione più indipendente, visto anche quel che si spende nel comparto grafico rispetto al costo e alle possibilità delle "scatolette".
Concordo appieno. Lo SLI inoltre, almeno dal mio punto di vista dev'essere un qualcosa di extra non un mezzo per fare 30/30, perchè in caso di non supporto sei totalmente tagliato fuori.
Esatto ;)
Per ora lo SLI e DX12 fanno a pugni.
Gli unici 4 giochi DX12 presenti per il momento sul mercato non hanno nessun profilo SLI e utilizzano una sola GPU.
Addirittura Quantum Break, basato sul motore di Remedy, non andrà mai in SLI, secondo le dichiarazioni del produttore stesso.
E' certamente un momento di grandi incertezze ma per ora mi butterei su scheda singola.
Ogni volta che ci ripenso non ce la faccio a non inc@zz@rmi! :muro: :muro: :muro:
X-ray guru
18-04-2016, 17:02
Ogni volta che ci ripenso non ce la faccio a non inc@zz@rmi! :muro: :muro: :muro:
E fai bene! 70 € di gioco, non due soldi! :mad:
DarkNiko
18-04-2016, 18:42
E fai bene! 70 € di gioco, non due soldi! :mad:
Ma anche se fossero 10 euro è inconcepibile che nel 2016 non siano in grado di offrire (o meglio non vogliano offrire) il supporto allo SLI che è una tecnologia vecchia come il cucco e ben rodata.
Purtroppo tocca combattere con software house che guardano solo a massimizzare il profitto buttandosi sul mondo "consolaro" (ben più remunerativo di quello PC) e facendo conversioni di "forma semisolida e puzzolente" su PC. :asd:
In ogni caso non ho ben capito, dopo tutti questi dati, se la fascia media di Pascal (sostituta 970) esca a Luglio con 8GB e DDR5X...
Nessuna delle 2 , esce a giugno e con Gddr5 .
Ma quando dicevate di aspettare la titan perchè quantum break non supporta lo sli stavate scherzando vero? :asd:
O no? :stordita:
Ma guarda secondo me anche con la Titan scatta, quindi non serve aspettare, la cosa ironica piu che altro è che con le DX12 promettevano addirittura il supporto all'uso contemporaneo di GPU di produttori e architetture diverse :sofico:
TigerTank
18-04-2016, 20:17
Ma guarda secondo me anche con la Titan scatta, quindi non serve aspettare, la cosa ironica piu che altro è che con le DX12 promettevano addirittura il supporto all'uso contemporaneo di GPU di produttori e architetture diverse :sofico:
E la vram che si somma? :D
Legolas84
18-04-2016, 20:18
Il problema è che per ora le DX12 non le abbiamo ancora viste dal vero.... tutto qui.
Quelli visti fino ad ora sono accrocchi. Ci vorrà ancora del tempo per vedere qualcosa di decente fatto in DX12, non so quanto, spero poco, ma ci vorrà ancora del tempo.
E allora si che potremo valutare queste nuove DX....
Arrow0309
18-04-2016, 20:26
Ma guarda secondo me anche con la Titan scatta, quindi non serve aspettare, la cosa ironica piu che altro è che con le DX12 promettevano addirittura il supporto all'uso contemporaneo di GPU di produttori e architetture diverse :sofico:
E la vram che si somma? :D
Il problema è che per ora le DX12 non le abbiamo ancora viste dal vero.... tutto qui.
Quelli visti fino ad ora sono accrocchi. Ci vorrà ancora del tempo per vedere qualcosa di decente fatto in DX12, non so quanto, spero poco, ma ci vorrà ancora del tempo.
E allora si che potremo valutare queste nuove DX....
Mi sa che affiancherò alla 980 ti una Polaris 490 e vaaaai :asd:
fireradeon
18-04-2016, 20:28
Forse Deus Ex che esce ad agosto?
mr.jack74
18-04-2016, 20:29
Concordo appieno. Lo SLI inoltre, almeno dal mio punto di vista dev'essere un qualcosa di extra non un mezzo per fare 30/30, perchè in caso di non supporto sei totalmente tagliato fuori.Hai perfettamente ragione ma in certi casi è proprio indispensabile con la tecnologia odierna. Quando avevo il Rog Swift con una bella 980 ti fissa a 1480 riuscivo a giostrarmi bene con tutti i titoli, anche se non sfruttavo tutti i 144 frame permessi dallo schermo stavo sempre dai 70 a 100 con un ottima fluidità, il gsync faceva il resto.
Oggi che sono passato a 21:9 la singola 980 ti non permette di arrivare nemmeno a 60 fps a FC4, annullando le caratteristiche dei 100 hz. Ho dovuto mettere per forza la seconda scheda.
Per quello, qualche pagina indietro ho scritto che mi auguro che le future 1080Ti mi permettano di usare una vga sola. Anche se lo sli francamente problemi non me ne sta creando, anzi, preferisco anch'io utilizzare una vga sola, per compatibilità e per non buttare altri soldi sulla seconda.
Legolas84
18-04-2016, 20:29
Bo, dipende se sarà scritto nativamente in dx12 o no....
Inviato dal mio ONE A2003 utilizzando Tapatalk
Forse Deus Ex che esce ad agosto?
Bo, dipende se sarà scritto nativamente in dx12 o no....
Inviato dal mio ONE A2003 utilizzando Tapatalk
Imho lo saranno solo i giochi che hanno iniziato ora a produrre, non quelli in uscita entro l'anno salvo sorprese per accordi di marketing
Hai perfettamente ragione ma in certi casi è proprio indispensabile con la tecnologia odierna. Quando avevo il Rog Swift con una bella 980 ti fissa a 1480 riuscivo a giostrarmi bene con tutti i titoli, anche se non sfruttavo tutti i 144 frame permessi dallo schermo stavo sempre dai 70 a 100 con un ottima fluidità, il gsync faceva il resto.
Oggi che sono passato a 21:9 la singola 980 ti non permette di arrivare nemmeno a 60 fps a FC4, annullando le caratteristiche dei 100 hz. Ho dovuto mettere per forza la seconda scheda.
Per quello, qualche pagina indietro ho scritto che mi auguro che le future 1080Ti mi permettano di usare una vga sola. Anche se lo sli francamente problemi non me ne sta creando, anzi, preferisco anch'io utilizzare una vga sola, per compatibilità e per non buttare altri soldi sulla seconda.
Uguale qui, 2 sono una necessità
Legolas84
18-04-2016, 20:38
Io ripeto, lo SLI lo uso da tanto e ne sono davvero soddisfattissimo... Funziona alla grande e ho sempre trovato un ottimo supporto nei giochi che ho giocato...
Inviato dal mio ONE A2003 utilizzando Tapatalk
DarkNiko
18-04-2016, 20:52
Il problema è che per ora le DX12 non le abbiamo ancora viste dal vero.... tutto qui.
Quelli visti fino ad ora sono accrocchi. Ci vorrà ancora del tempo per vedere qualcosa di decente fatto in DX12, non so quanto, spero poco, ma ci vorrà ancora del tempo.
E allora si che potremo valutare queste nuove DX....
Ne sei sicuro ? Rise of the Tomb Raider sfrutta le DX12 risultando, con l'ultima patch, anche più ottimizzato e leggero in termini di carico CPU/GPU.
fraussantin
18-04-2016, 20:56
Ne sei sicuro ? Rise of the Tomb Raider sfrutta le DX12 risultando, con l'ultima patch, anche più ottimizzato e leggero in termini di carico CPU/GPU.
Secondo me la microsoft per le.dx 12 e quindi per agevolare la diffusione di w10 ha scelto l'alleato sbagliato.
Legolas84
18-04-2016, 20:57
Ne sei sicuro ? Rise of the Tomb Raider sfrutta le DX12 risultando, con l'ultima patch, anche più ottimizzato e leggero in termini di carico CPU/GPU.
Non é comunque un gioco sviluppato nativamente in dx12.
Inviato dal mio ONE A2003 utilizzando Tapatalk
Obrigado
18-04-2016, 21:16
e chi sarebbe l'alleato sbagliato?
amd
fraussantin
18-04-2016, 21:28
ma non era nvidia che aveva sviluppato le dx12 da 3 anni? lol siete davvero unici.
mai sostenuto niente del genere.
fatto sta che
dx 12 = amd ,
w10 = dx12
dx12 = problemi con nvidia
problemi con nvidia = non esce manco un gioco decente in dx 12 a 1 anno dal d1 di w10 ( e neppure per il prossimo ce ne sono in arrivo)
totale : w10 non ha raggiunto l'utenza sperata manco se regalato pure ai pirati.( anche per altri motivi , ma un bel giocone dx 12 spinto avrebbe aiutato)
quindi microsoft per fare i dispetti a sony ha si è sputtanata w10
Legolas84
18-04-2016, 21:40
mai sostenuto niente del genere.
fatto sta che
dx 12 = amd ,
w10 = dx12
dx12 = problemi con nvidia
problemi con nvidia = non esce manco un gioco decente in dx 12 a 1 anno dal d1 di w10 ( e neppure per il prossimo ce ne sono in arrivo)
totale : w10 non ha raggiunto l'utenza sperata manco se regalato pure ai pirati.( anche per altri motivi , ma un bel giocone dx 12 spinto avrebbe aiutato)
quindi microsoft per fare i dispetti a sony ha si è sputtanata w10
Secondo me NVIDIA ha un peso davvero troppo grande nel PC gaming... le cose sono destinate a sistemarsi comunque. ;)
fraussantin
18-04-2016, 21:40
ah forse tu non lo hai mai sostenuto, non eri uno di quelli che diceva che mantle era un fail, che le dx12 con mantle non c'entravano nulla, che nvidia già aveva sviluppato le dx12 etc etc etc....
se le dx12 sono un problema con nvidia, almeno per adesso, vuoi dare la colpa ad amd o un demerito ad nvidia? la menava tanto con l'architettura ottimizzata gaming e tutti a credere "ooh che bella, oh non consuma niente, ohh fa solo quello a cui serve, giocare" ed ora che SEMBRA non andar bene la colpa è di amd? BOH
si parla di standard, se qualcuno è stato più furbo a forzare uno standard sulla propria architettura, sfruttando il fatto che le console avevano il suo hardware (con nvidia che invece la menava sul fatto che le console attuali facevano schifo e che se ne era tirata fuori), di chi è la colpa? Riuscite a scriverlo anche per scherzo "colpa di nvidia" o non ci riuscite proprio?
se per questo lo sostengo anche adesso che mantle è un fail , e che anche le dx 12 per adesso lo sono. ( io spero che con l'arrivo di pascal le verdi si sistemino e i developer si diano una svegliata)
5 anni di sviluppo per fare la fine delle dx10.( per adesso)
non ha preso il senso del discorso.
NON è colpa di amd se non hanno preso , è colpa di nvidia e del suo potere commerciale non indifferente.
quando hai ( ad orecchio) il 75 % di vga verdi e il 25 di vga rosse ( di cui buona parte integrate o di fascia bassa) con chi conviene schierarsi?
Secondo me NVIDIA ha un peso davvero troppo grande nel PC gaming... le cose sono destinate a sistemarsi comunque. ;)
esatto
Secondo me la microsoft per le.dx 12 e quindi per agevolare la diffusione di w10 ha scelto l'alleato sbagliato.
http://replygif.net/i/277.gif
Legolas84
18-04-2016, 21:45
ah forse tu non lo hai mai sostenuto, non eri uno di quelli che diceva che mantle era un fail, che le dx12 con mantle non c'entravano nulla, che nvidia già aveva sviluppato le dx12 etc etc etc....
se le dx12 sono un problema con nvidia, almeno per adesso, vuoi dare la colpa ad amd o un demerito ad nvidia? la menava tanto con l'architettura ottimizzata gaming e tutti a credere "ooh che bella, oh non consuma niente, ohh fa solo quello a cui serve, giocare" ed ora che SEMBRA non andar bene la colpa è di amd? BOH
si parla di standard, se qualcuno è stato più furbo a forzare uno standard sulla propria architettura, sfruttando il fatto che le console avevano il suo hardware (con nvidia che invece la menava sul fatto che le console attuali facevano schifo e che se ne era tirata fuori), di chi è la colpa? Riuscite a scriverlo anche per scherzo "colpa di nvidia" o non ci riuscite proprio?
Ma davvero giudichi ora la situazione delle DX12? Che sono un Fail totale attualmente.
Engine scritti in DX11 patchati per le DX12 che vanno peggio che in 11.... (Come rise of the tomb raider)....
La situazione delle DX12 è immatura e ingiudicabile attualmente.
Diamo il tempo di sviluppare giochi nativamente pensati per queste API e poi valuteremo.
TigerTank
18-04-2016, 21:47
Non per essere di parte, perchè spero vivamente di vedere delle Polaris vincenti...ma è già capitato di vedere scenari in cui inizialmente amd sembra innovativa, ma poi? Vedi introduzione delle HBM, cosa esclusiva per le rosse ma poi alla fine com'è andata? Marea di gtx970(oltretutto nonostante la questione vram) e di gtx980Ti vendute, con delle misere ddr5 :)
Di sicuro Nvidia dovrà per forza darsi da fare circa le dx12 visto che è una delle carte vincenti delle pascal, stavolta non ce n'è. ;)
Poi beh sinceramente i giochi che escono sul Microsoft Store io non li filo manco di striscio :D
Kingdemon
18-04-2016, 21:54
Diciamo che sembra essere sempre più scontata l'ipotesi prezzi che io, te e tiger ipotizzavamo da tempo.
X80 che prende il posto della 980ti (650 euro e full gp104 con ddr5x)
x70 sulle 450 euro (post 980 e prestazioni leggermente sopra la 980ti)
x60ti fascia della 970 (300-350 euro e prestazioni tra 980/980ti)
Sotto ci sarà la GP106 con le varianti x50 e x60, ma la x60 si prenderà la fascia dei 200/250 euro, quindi per vari fattori, la x60ti basata su GP104 sarà allocata in fascia 300/350.
Questo significa che Nvidia può lanciare tutto il GP104 tranquillamente ma così facendo, la x80ti stabilirà una nuova fascia di mercato.
Spero che vi sbagliate se no veramente si crea una nuova fascia sopra la ti.
E 450 euro per la X70 con Gddr5 sono tanti.. troppi.
Legolas84
18-04-2016, 21:55
io non sto giudicando nulla, siete più voi che avete l'ansia da dx12 con le ti sul groppone che io che fortunatamente sono riuscito a venderla bene.
poi parli sempre di tomb rider, fatalità, l'unico gioco (dei pochissimi) che ha un path dx12 che non mostra miglioramenti.
bisogna aspettare e vedere cosa succede (sia per pascal che per maxwell), ma certe cose non si possono proprio leggere eh... io ero/sono dell'opinione che difficilmente gli sviluppatori si mettono a spingere features che azzoppano una competitor con un market share spaventoso, ma tant'è che i primi bench game sembrano dire tutt'altro..
L'unico che c'ha l'ansia qua dentro sei te, che ti sei venduto le schede con tre mesi di anticipo per andare avanti con la 5870.... Altra gente con l'ansia qua non ne vedo.
Tomb rider è la prima volta che lo cito ed è l'esempio lampante di come le DX12 siano attualmente immature e ingiudicabili.
Il thread delle pacche sulle spalle è un altro mi spiace ;)
Qui aspettiamo lucidamente di vedere come si evolveranno le cose quando le DX12 saranno effettivamente giudicabili.
io non sto giudicando nulla, siete più voi che avete l'ansia da dx12 con le ti sul groppone che io che fortunatamente sono riuscito a venderla bene.
poi parli sempre di tomb rider, fatalità, l'unico gioco (dei pochissimi) che ha un path dx12 che non mostra miglioramenti.
bisogna aspettare e vedere cosa succede (sia per pascal che per maxwell), ma certe cose non si possono proprio leggere eh... io ero/sono dell'opinione che difficilmente gli sviluppatori si mettono a spingere features che azzoppano una competitor con un market share spaventoso, ma tant'è che i primi bench game sembrano dire tutt'altro..
Sono d'accordo anche perchè obiettivamente anche l'assenza di benchmark ufficiali su cui testare esplicitamente le nuove librerie la dice lunga sulle difficoltà nelle implementarle per sfruttarle a dovere e di conseguenza sopratutto in game. I giochi attuali in DX12 sono da prendere veramente con le pinze e secondo me passerà almeno un altro anno prima di vedere qualcosa di serio.
Legolas84
18-04-2016, 21:58
Sono d'accordo anche perchè obiettivamente anche l'assenza di benchmark ufficiali su cui testare esplicitamente le nuove librerie la dice lunga sulle difficoltà nelle implementarle per sfruttarle a dovere e di conseguenza sopratutto in game. I giochi attuali in DX12 sono da prendere veramente con le pinze e secondo me passerà almeno un altro anno prima di vedere qualcosa di serio.
Oh, infatti! Fasciarsi ora la testa per quanto si vede di DX12 è imho sbagliato....
Aspettiamo almeno un gioco (che non sia un bench) che venga sviluppato nativamente con queste API...
Obrigado
18-04-2016, 22:07
mantle è un fail ed è diventato UFFICIALMENTE vulkan, standard e di fatto ha influenzato e non poco dx12.
emmm fai un po' di confusione.
Le API Vulkan sono figlie di Khronos Group, che sono i genitori delle OPEN GL.
Infatti sono le "open GL" del futuro.
ma tiger nvidia fa ottime schede ed ha una storia vincente, un marketing spaventoso, il ceo si tatua si fa i capelli a spazzola e incita la folla.
dall'altro lato amd ha un presidente che sembra bersani, che alla presentazione delle furyx sembra un funeral party, che si perde in sciocchezze tipo dissipatori reference, voltaggi tarati da scimmie e così via...
AMD non venderebbe più di nvidia, nella situazione attuale, pure se presentasse una scheda che va il 25% in più e costa il 25% in meno. Per questo SPERO per loro che al computex presentiuno una fascia media dal prezzo imbattibile, per recuperare clientela, se no rischiano grosso, indipendentemente dalle dx12, dalle hbm o da altro.
Il problema di AMD è che negli ultimi anni sembra essere sempre in ritardo rispetto la concorrenza anche a livello di ottimizzazione, con le 290 e 290x lato driver, mi sembra assurdo che alla loro presentazione erano piu scarse di 780 e 780ti (anche se non di molto) ed ora magicamente con i nuovi driver sembrano tutt'altre schede. Discorso analogo lato cpu dove la differenza è ancora piu marcata... Nvidia sicuramente dal suo lato non è che sia rose e fiori, anzi, però ha una politica commerciale più incisiva e calcolata e gode anche di molti favori nell'aspetto gaming dalle SH
TigerTank
18-04-2016, 22:18
ma dici vero o scherzi? si arriva a negare l'evidenza.
https://community.amd.com/community/gaming/blog/2015/05/12/one-of-mantles-futures-vulkan
tra l'altro anche il nome non è casuale. Mantle sta per mantello e Vulkan sta per vulcano, basta sapere cosa è il mantello in relazione ad un vulcano...
Cavolo...speriamo che Vulkan non erutti tipo Vesuvio o Krakatoa altrimenti ci esplodono tutte le vga :sofico:
Scherzi a parte, Vulkan o dx12 la cosa importante è che le api convivano. Dopo physx e freesync vs gsync ci mancherebbe solo una futura differenziazione delle API con esclusive :eek: :muro:
Legolas84
18-04-2016, 22:20
Cavolo...speriamo che Vulkan non erutti tipo Vesuvio o Krakatoa altrimenti ci esplodono tutte le vga :sofico:
Scherzi a parte, Vulkan o dx12 la cosa importante è che le api convivano. Dopo physx e freesync vs gsync ci mancherebbe solo una futura differenziazione delle API con esclusive :eek: :muro:
Be... se si parlasse di soluzioni valide come le TurboGlide di 3dfx... :D
Legolas84
18-04-2016, 22:26
Comunque Vulkan è vero che sono API sviluppate da Khronos Group, come OpenGL di nuova generazione.
Ed è altrettanto vero che Vulkan ha come base Mantle di AMD, in quanto AMD le ha fornite a Khronos Group come base su cui partire per creare un'api universale.
Questa è la realtà senza fanboysmi di mezzo.
Cavolo...speriamo che Vulkan non erutti tipo Vesuvio o Krakatoa altrimenti ci esplodono tutte le vga :sofico:
Scherzi a parte, Vulkan o dx12 la cosa importante è che le api convivano. Dopo physx e freesync vs gsync ci mancherebbe solo una futura differenziazione delle API con esclusive :eek: :muro:
E quale sarebbe il problema ?
Invece di uno SLI di 980Ti , basterebbe comprare :
1x 1080
1x Polaris fascia alta
:sofico: .
TigerTank
18-04-2016, 22:34
Be... se si parlasse di soluzioni valide come le TurboGlide di 3dfx... :D
Sono evolute nel "ProGlide", accelerazione sul farsi la barba :sofico:
E quale sarebbe il problema ?
Invece di uno SLI di 980Ti , basterebbe comprare :
1x 1080
1x Polaris fascia alta
Dopo combinazioni tipo "Supernintendo + Mega Drive" e "Playstation + Xbox" ci mancherebbe solo il doversi pure fare 2 pc o alternare 2 vga :asd:
Obrigado
18-04-2016, 22:36
ma dici vero o scherzi? si arriva a negare l'evidenza.
https://community.amd.com/community/gaming/blog/2015/05/12/one-of-mantles-futures-vulkan
tra l'altro anche il nome non è casuale. Mantle sta per mantello e Vulkan sta per vulcano, basta sapere cosa è il mantello in relazione ad un vulcano...
Perdonami ma la notizia postata da te l'hai letta?
Ecco un passaggio:
The cross-vendor Khronos Group has chosen the best and brightest parts of Mantle to serve as the foundation for “Vulkan,” the exciting next version of the storied OpenGL API.
È amd che si è prestata a kronos group per non gettare nel cesso il lavoro fatto con mantle.
Se non lo capisci sei poco lucido
Legolas84
18-04-2016, 22:37
Ma non sono io a giudicare fail mantle infatti. Cioè hai un'api universale sviluppata sulla base della tua api es un'altra api (dx12) che anch'essa per vie traverse è ben simile.... Altro che fail. Poi è chiaro, bisognerà vedere il risultato finale, ma giudicarla fail quello èfanboysmo
Mantle sarebbe stato decisivo se AMD fosse riuscita ad imporla (e se avesse avuto l'80% del mercato fidati che lo avrebbe fatto).
In realtà è stato un mostrare ad altri (Microsoft e Khronos Group) come dovrebbe essere un'API di nuova generazione. Una cosa lodevole, ma le API sviluppate partendo dalla filosofia di Mantle NON SONO Mantle.
Quindi alla fine per AMD non mi pare questo grande colpo.
Fai il confronto con le Glide.... 3dfx scrisse le API e fece in modo che gli sviluppatori usassero le sue API. Ecco questo non è un fail.
Legolas84
18-04-2016, 22:54
Non
Povera AMD si è prestata a kronos, pregandola, per non buttare nel cesso il lavoro fatto con mantle... Poverina...e kronos gli ha pure sviluppato di sopra magari "a sua insaputa" (tipo la casa al colosseo) Hahaha ma continuo a credere che mi trolli, offendi davvero ogni regola del buon senso e della logica e dovrei chiederti scusa in ginocchio? Ma su che pianeta vivi per cortesia.
Legolas il paragone con glide quando d3d era meno che niente, opengl pure ed il gaming agli inizi è improponibile ma che lo dico a fare...adesso il merito è di kronos di aver mostrato come si fa un'api close to metal sulla base di un'altra....che lo era già! Mamma mia ragazzi chiudiamola qua
Non hai nemmeno capito quanto ho scritto. Quindi si forse è meglio chiuderla qua.
Ciao
Oirasor_84
18-04-2016, 22:57
Perdonami ma la notizia postata da te l'hai letta?
Ecco un passaggio:
The cross-vendor Khronos Group has chosen the best and brightest parts of Mantle to serve as the foundation for “Vulkan,” the exciting next version of the storied OpenGL API.
È amd che si è prestata a kronos group per non gettare nel cesso il lavoro fatto con mantle.
Se non lo capisci sei poco lucido
Si sarà andata così e molto probabilmente si sarà presentata Lisa in topless per convincere quelli di kronos group :D
Legolas84
18-04-2016, 23:01
Legolas il paragone con glide quando d3d era meno che niente, opengl pure ed il gaming agli inizi è improponibile ma che lo dico a fare...
Ti fa capire che allora il mercato era pronto ad accogliere un'API proprietaria come le GLIDE che furono fantastiche e vennero adottate dagli sviluppatori con sommo guadagno per le 3dfx Voodoo (vennero adottate proprio le GLIDE non API diverse sviluppate con la stessa filosofia).
Al giorno d'oggi AMD ha creato le API Mantle, che potenzialmente hanno delle ottime idee, ma non se le filerà mai nessuno perchè tutti useranno DX12 e Vulkan che NON SONO MANTLE. Portano gli stessi vantaggi ma sono API diverse.
Quindi per AMD non c'è guadagno.
Quindi Mantle è sicuramente una cosa positiva perchè ha spinto Microsoft e Khronos Group a migliorare le loro API, ma poi fine. Mantle è finita li.
Obrigado
18-04-2016, 23:04
Non
Povera AMD si è prestata a kronos, pregandola, per non buttare nel cesso il lavoro fatto con mantle... Poverina...e kronos gli ha pure sviluppato di sopra magari "a sua insaputa" (tipo la casa al colosseo) Hahaha ma continuo a credere che mi trolli, offendi davvero ogni regola del buon senso e della logica e dovrei chiederti scusa in ginocchio? Ma su che pianeta vivi per cortesia.
Legolas il paragone con glide quando d3d era meno che niente, opengl pure ed il gaming agli inizi è improponibile ma che lo dico a fare...
Tu non stai bene.
Che poi non ho mica capito che razza di fanboy sei?
Ciao
Thunder-74
18-04-2016, 23:09
Scusate, ma il vero fail non è né Mantle né AMD né Crossfire né Sli ecc... Ma siamo noi che spendiamo un capitale, per essere trattati a pesci in faccia con dei porting fatti male. Dotarci di tanta potenza, per tamponare il cattivo sviluppo dei titoli. Una console con una 980ti durerebbe una 20 di anni e a noi neanche 1 anno...
Tu non stai bene.
Che poi non ho mica capito che razza di fanboy sei?
Ciao
Non è un fanboy è solo che avendo venduto prematuramente non gioca e si rompe le balle quindi inganna il tempo qui!
Ps: lo avevo detto che 3-4mesi senza giochi sono lunghi :sofico:
Legolas84
18-04-2016, 23:11
Kronos group vs AMD, dopo questa le ho viste tutte.
Forse vi sfugge che AMD fa parte di kronos group, aggiungetevi che Mantle non ha avuto un buon grado di adozione e che di certo Nvidia non si è messa a sviluppare un qualcosa nato da AMD e che risolve i problemi di AMD e non ci vuole molto a capire che di vulkan il grosso del lavoro lo ha fatto probabilmente ancora AMD.
Mamma mia ragazzi siete incontenibili veramente.... incasinate i thread che è uno spettacolo.... Ma chi ha parlato di AMD vs Khronos Group????
E poi di nuovo AMD avrebbe fatto il grosso del lavoro su Vulkan? Ma ve le sognate la notte???
Legolas84
18-04-2016, 23:15
Che poi ragazzi di Khronos Group fa parte AMD, NVIDIA, Matrox addirittura.... Intel ecc....
E venite a dire che il grosso del lavoro lo avrebbe fatto AMD????
Ma come si fa a discutere con voi?
TigerTank
18-04-2016, 23:16
Scusate, ma il vero fail non è né Mantle né AMD né Crossfire né Sli ecc... Ma siamo noi che spendiamo un capitale, per essere trattati a pesci in faccia con dei porting fatti male. Dotarci di tanta potenza, per tamponare il cattivo sviluppo dei titoli. Una console con una 980ti durerebbe una 20 di anni e a noi neanche 1 anno...
Amen fratello!
Detto questo ora dovrai fare penitenza, cedi a me il tuo Sli e purificati per un anno giocando a solitario e a mahjong con l'integrata del processore. Tra un anno poi potrai comprare una TI pascal! :D
Kronos group vs AMD, dopo questa le ho viste tutte.
Ok, ma prima vedila perché non c'era scritta da nessuna parte :asd::asd:
Legolas84
18-04-2016, 23:17
Ok, ma prima vedila perché non c'era scritta da nessuna parte :asd::asd:
lol, hai vinto.
Thunder-74
19-04-2016, 06:13
Amen fratello!
Detto questo ora dovrai fare penitenza, cedi a me il tuo Sli e purificati per un anno giocando a solitario e a mahjong con l'integrata del processore. Tra un anno poi potrai comprare una TI pascal! :D
Hahahaha dici che dovrei spogliarmi di tutto e tornare ai fasti di campo minato? Sarebbe il caso :) comunque ho in mente di far passare più tempo possibile prima del cambio... Speriamo solo che nvidia non boicotti Maxwell via drivers
YesManYes
19-04-2016, 07:04
http://abload.de/img/6c15b1b6_5aeo60i98ikt.jpeg (http://abload.de/image.php?img=6c15b1b6_5aeo60i98ikt.jpeg)
Legolas84
19-04-2016, 07:18
Mah... 1080 non mi piace tantissimo come nome, spero che Nvidia cambi la nomenclatura...
Non che sia un problema grave comunque eh...
Inviato dal mio ONE A2003 utilizzando Tapatalk
fraussantin
19-04-2016, 07:29
Mah... 1080 non mi piace tantissimo come nome, spero che Nvidia cambi la nomenclatura...
Non che sia un problema grave comunque eh...
Inviato dal mio ONE A2003 utilizzando Tapatalk
Hehehe , quel nome lo "abbiamo" inventato sui forum "eoni" fa .... Sinceramente non credevo che sarebbe stato quello.
YesManYes
19-04-2016, 07:29
http://abload.de/img/c418de26_hwwshdm8gz12.jpeg (http://abload.de/image.php?img=c418de26_hwwshdm8gz12.jpeg)
Legolas84
19-04-2016, 07:30
Spero siano tutti fake :D
Inviato dal mio ONE A2003 utilizzando Tapatalk
aled1974
19-04-2016, 07:34
Mah... 1080 non mi piace tantissimo come nome, spero che Nvidia cambi la nomenclatura...
Non che sia un problema grave comunque eh...
Inviato dal mio ONE A2003 utilizzando Tapatalk
premettendo che i nomi sono l'ultimo dei problemi, concordo :mano:
ripartire con 160-170-180-180ti forse avrebbe avuto più senso
ma a distanza di così tanti anni vedo ancora sui mercatini le 2x0 di 8 anni fa, quindi forse ancora meglio sarebbe una nomenclatura P60-P70-P80-P80ti dove la P sta per Pascal ovviamente, poi V per Volta eccetera
però a quel punto il rebrand e le schede mobile ne soffrirebbero ;)
insomma facciano quello che vogliono con i nomi basta che le schede vadano bene :D
ciao ciao
Nelson Muntz
19-04-2016, 07:57
Hehehe , quel nome lo "abbiamo" inventato sui forum "eoni" fa .... Sinceramente non credevo che sarebbe stato quello.
L' utente medio nvidia ama essere coccolato e ha biisogno di sicurezza , quindi un cambio di nome troppo radicale avrebbe potuto turbarlo ! :O
ps : i sample comunque sono davvero orrendi
fraussantin
19-04-2016, 08:01
ps : i sample comunque sono davvero orrendi
Sinceramente io speravo in qualcosa col verde tipo le tesla.
Cmq va detto che le reference non le compra nessuno per l'estetica ( anzi non le compra proprio nessuno in generale)
Quindi per l'estetica dovremo aspettare zotac evga msi ecc ecc
Giovamas
19-04-2016, 08:07
Io ripeto, lo SLI lo uso da tanto e ne sono davvero soddisfattissimo... Funziona alla grande e ho sempre trovato un ottimo supporto nei giochi che ho giocato...
Inviato dal mio ONE A2003 utilizzando Tapatalk
Magari ti chiedo qualche dettaglio tra un po'.. anche se io sono per la singola. Forse mi consigli bene come hai fatto con Pillars ricordi?:D :)
Legolas84
19-04-2016, 08:13
Magari ti chiedo qualche dettaglio tra un po'.. anche se io sono per la singola. Forse mi consigli bene come hai fatto con Pillars ricordi?:D :)
Sempre disponibile a discutere con le persone corrette ;) se vuoi sono disponibile anche in pvt ;)
Purtroppo qui a volte il tifo crea una disinformazione esagerata...
Inviato dal mio ONE A2003 utilizzando Tapatalk
Legolas84
19-04-2016, 08:14
Sinceramente io speravo in qualcosa col verde tipo le tesla.
Cmq va detto che le reference non le compra nessuno per l'estetica ( anzi non le compra proprio nessuno in generale)
Quindi per l'estetica dovremo aspettare zotac evga msi ecc ecc
Io invece le reference le trovo davvero belle!
Inviato dal mio ONE A2003 utilizzando Tapatalk
YesManYes
19-04-2016, 08:29
Cmq un GP104 con una GPU da 300mmq senza unità DP potrebbero entrarci anche 3072 shader
Una GTX 1080 256bit 8GB GDDR5X 64ROPs e 3072sp a 1500 in boost econsumi da 980 sarebbe una bella schedina
http://abload.de/img/6c15b1b6_5aeo60i98ikt.jpeg (http://abload.de/image.php?img=6c15b1b6_5aeo60i98ikt.jpeg)
http://forgifs.com/gallery/d/224469-2/Copy-paste-money.gif
:D .
Legolas84
19-04-2016, 09:14
LOL
Inviato dal mio ONE A2003 utilizzando Tapatalk
Giovamas
19-04-2016, 09:18
Sempre disponibile a discutere con le persone corrette ;) se vuoi sono disponibile anche in pvt ;)
Purtroppo qui a volte il tifo crea una disinformazione esagerata...
Inviato dal mio ONE A2003 utilizzando Tapatalk
Grazie per la stima (reciproca) :) Sinceramente prima di valutare un'eventuale upgrade vorrei vedere cosa fanno MSI ed EVGA lato custom. Per me è importante anche l'estetica ma sicuramente uno SLI ti porta dritto a Volta senza ripensamenti poco da dire
VogrBurn
19-04-2016, 09:25
Ma quando dovrebbero essere presentate le nuove schede? :)
Legolas84
19-04-2016, 09:29
Grazie per la stima (reciproca) :) Sinceramente prima di valutare un'eventuale upgrade vorrei vedere cosa fanno MSI ed EVGA lato custom. Per me è importante anche l'estetica ma sicuramente uno SLI ti porta dritto a Volta senza ripensamenti poco da dire
E la politica che adotterò io probabilmente ;)
Inviato dal mio ONE A2003 utilizzando Tapatalk
Legolas84
19-04-2016, 09:31
Ma che belle che siete, uno dice una scemenza e l'altro gli da pure le pacche sulle spalle.
Non sono due pagine che discutono di Kronos Group e AMD.... nooooo e chi l'ha vista sta discussione, me la sono sognata io è che ho mangiato al peperonata e mi è rimasta sullo stomaco.
Certo il "vs" era volutamente esagera, ma la vostra comprensione del testo sta veramente a zero.
Eddai su... Non solo non hai capito nulla di quello che si è scritto ma ancora te ne esci così?
Fai un respiro profondo rilassati e prova a rileggere... ;)
Inviato dal mio ONE A2003 utilizzando Tapatalk
Mi sto finendo Lara Croft and the guardian of the light tra lavoro ed impegni di famiglia, dopo ho alien breed assault 3, trine 3, new tasty.... Dopo essermi finito (in questo ultimo anno) Batman, i due dying light, rise of tomb rider, ryse son of rome, hitman, sleeeping dogs e tanto altro... Divertitevi a lusingarvi tra di voi se vi fa piacere
Ma che belle che siete, uno dice una scemenza e l'altro gli da pure le pacche sulle spalle.
Non sono due pagine che discutono di Kronos Group e AMD.... nooooo e chi l'ha vista sta discussione, me la sono sognata io è che ho mangiato al peperonata e mi è rimasta sullo stomaco.
Certo il "vs" era volutamente esagera, ma la vostra comprensione del testo sta veramente a zero.
Mi pareva evidente che stessi scherzando/giocando perché alla fine stavamo parlando di stronzate, ma siccome vedo che evidentemente con voi non è il caso torno serio (e guardate che qui mi sforzo eh :D ):
Optimus: ma quale lusingarvi ma che vuoi che me ne strafreghi, ovviamente fai cosa ti pare secondo te mi interessa?, dalle firme puoi ben vedere che me ne frego (e sempre fregato) della marca, il mio unico fine è giocare al meglio.
Bivoz: il forum è in italiano e da nessuna parte c'è scritto AmdVsKronos, discutere delle due non significa che siano una contro l'altra cosa che Vs (Versus) da te scritta significa, nessuno qui lo ha detto/scritto o sostenuto, prima di lamentarsi della comprensione del testo degli altri, visto che sono pure in diversi (guarda caso hanno capito tutti male, loro) metterei in discussione la mia.
Goofy Goober
19-04-2016, 09:47
http://abload.de/img/6c15b1b6_5aeo60i98ikt.jpeg (http://abload.de/image.php?img=6c15b1b6_5aeo60i98ikt.jpeg)
https://dl.dropboxusercontent.com/u/3896005/GIF/Ud4MEJh.gif
Crysis90
19-04-2016, 10:54
http://forgifs.com/gallery/d/224469-2/Copy-paste-money.gif
:D .
Bellissima!!
:D :D :asd: :asd: :asd:
TigerTank
19-04-2016, 10:54
Hahahaha dici che dovrei spogliarmi di tutto e tornare ai fasti di campo minato? Sarebbe il caso :) comunque ho in mente di far passare più tempo possibile prima del cambio... Speriamo solo che nvidia non boicotti Maxwell via drivers
Ahahahah con tanto di pellegrinaggio con piedi scalzi! :D
Speriamo davvero ;)
Mah... 1080 non mi piace tantissimo come nome, spero che Nvidia cambi la nomenclatura...
Non che sia un problema grave comunque eh...
Io trovo orrendo quel dissipatore...molto meglio quello delle prime Titan :stordita:
Circa il nome imho sarebbero più fashion X70 e X80 :D
La cosa positiva invece è che se il dissipatore fosse quello per entrambe significa che avranno lo stesso pcb, per cui niente pcb "cheap" per le 1070.
http://abload.de/img/6c15b1b6_5aeo60i98ikt.jpeg (http://abload.de/image.php?img=6c15b1b6_5aeo60i98ikt.jpeg)
http://abload.de/img/c418de26_hwwshdm8gz12.jpeg (http://abload.de/image.php?img=c418de26_hwwshdm8gz12.jpeg)
Bho...a me tra quest'ultima foto e l'altra di qualche settimana fa di parte del dissi reference in "fase di lavorazione", continuao a sembrare dei fake...magari curati e ben fatti, ma pur sempre fake.
Si vedrà se usciranno davvero in quella maniera e con quella nomenclatura..
Free Gordon
19-04-2016, 10:58
Secondo me la microsoft per le.dx 12 e quindi per agevolare la diffusione di w10 ha scelto l'alleato sbagliato.
:rotfl:
Free Gordon
19-04-2016, 11:00
una volta tanto in amd, se non è stata una casualità, sono stati furbi invece che i soliti idioti, con una strategia alla lunga che sta dando piccoli risultati e prospettive future. Anche perchè voglio vedere come si comporterà Pascal con le dx12...
Quote. :)
mikael84
19-04-2016, 11:05
Cmq un GP104 con una GPU da 300mmq senza unità DP potrebbero entrarci anche 3072 shader
Una GTX 1080 256bit 8GB GDDR5X 64ROPs e 3072sp a 1500 in boost econsumi da 980 sarebbe una bella schedina
Per mettere 3072cuda, devi stravolgere completamente la struttura, ed ogni GPC dovrebbe contenere 24SMM, quindi GP100 così facendo avrebbe 4500cuda.
Io trovo orrendo quel dissipatore...molto meglio quello delle prime Titan :stordita:
Circa il nome imho sarebbero più fashion X70 e X80 :D
La cosa positiva invece è che se il dissipatore fosse quello per entrambe significa che avranno lo stesso pcb, per cui niente pcb "cheap" per le 1070.
Neppure a me piace, sembra la versione disegnata dai rumors di videocardz mesi fa.
Free Gordon
19-04-2016, 11:05
Non per essere di parte, perchè spero vivamente di vedere delle Polaris vincenti...ma è già capitato di vedere scenari in cui inizialmente amd sembra innovativa, ma poi? Vedi introduzione delle HBM, cosa esclusiva per le rosse ma poi alla fine com'è andata? Marea di gtx970(oltretutto nonostante la questione vram) e di gtx980Ti vendute, con delle misere ddr5 :)
Di sicuro Nvidia dovrà per forza darsi da fare circa le dx12 visto che è una delle carte vincenti delle pascal, stavolta non ce n'è. ;)
Poi beh sinceramente i giochi che escono sul Microsoft Store io non li filo manco di striscio :D
Parli delle stesse 970 che (tolte le dx12 dove prendono devastanti batoste :D ) vanno come delle 290 (non X) con architettura GCN 1.1 di marzo 2013? :D
Io credo che la realtà non sia proprio come la descrivi tu..
https://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/perfrel_2560_1440.png
aled1974
19-04-2016, 11:13
però il mercato da ragione a lui e a nvidia
il mondo è fatto di fanboy quindi? marketing migliore? :boh:
ciao ciao
Parli delle stesse 970 che (tolte le dx12 dove prendono devastanti batoste :D ) vanno come delle 290 (non X) con architettura GCN 1.1 di marzo 2013? :D
Io credo che la realtà non sia proprio come la descrivi tu..
https://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/perfrel_2560_1440.png
Ragazzi ma i post li leggete o ne prendete uno come scusa per poi postare ciò che volete anche se non è pertinente? :confused:
Mi corregga Tiger se sbaglio, ma mi pareva che dicesse che nonostante tutto le 970 hanno venduto un botto, non diceva che sono migliori della concorrenza.
Io sinceramente spesso ho difficoltà a capire dove leggete certe frasi e mi viene il dubbio che scorrendo velocemente i post io me le sia perse, poi vado a rileggere e non ci sono scritte da nessuna parte! :boh:
AceGranger
19-04-2016, 11:43
Parli delle stesse 970 che (tolte le dx12 dove prendono devastanti batoste :D ) vanno come delle 290 (non X) con architettura GCN 1.1 di marzo 2013? :D
Io credo che la realtà non sia proprio come la descrivi tu..
https://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/perfrel_2560_1440.png
bè, ci sono molti che acquistano anche guardando questo
http://tpucdn.com/reviews/Gigabyte/GTX_980_Ti_XtremeGaming/images/perfwatt_1920_1080.png
senza contare che, la 970 è acquistata perlopiù da gente che gioca in FHD
http://tpucdn.com/reviews/Gigabyte/GTX_980_Ti_XtremeGaming/images/perfrel_1920_1080.png
YesManYes
19-04-2016, 12:24
Per mettere 3072cuda, devi stravolgere completamente la struttura, ed ogni GPC dovrebbe contenere 24SMM, quindi GP100 così facendo avrebbe 4500cuda.
Neppure a me piace, sembra la versione disegnata dai rumors di videocardz mesi fa.
Stavo anche pensando a
64sp (2x32) x 48smp in 4gpc da 12smp
O
96sp (3x32 o 2x48) x 32smp in 4gpc da 8smp
fraussantin
19-04-2016, 12:42
senza contare che, la 970 è acquistata perlopiù da gente che gioca in FHD
]
Esatto.
E in full hd non ci sono differenze , se non che i gworks funzionano bene e scaldano di meno.
Per quanto riguarda che amd innova e nessuno se la fila è una vita che vi dico che amd invece di buttare soldi in cacchiate spesso inutili ( vedi hbm1) dovrebbe puntare al prezzo.
Se la fury la faceva con le ddr5 e la buttava fuori a un prezzo concorrenziale , la compravo pure io.
E penso che in molti l'avrebbero presa .
TigerTank
19-04-2016, 13:40
Parli delle stesse 970 che (tolte le dx12 dove prendono devastanti batoste :D ) vanno come delle 290 (non X) con architettura GCN 1.1 di marzo 2013? :D
Io credo che la realtà non sia proprio come la descrivi tu..
https://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/perfrel_2560_1440.png
Sì sì parlo proprio di quella gtx970 che va grossomodo come la 290 consumando però tipo 178W contro i 250W e più della seconda :D
Beh mica le invento io le quote di mercato, se nvidia è arrivata a toccare l'80% un motivo ci sarà così come se a dicembre 2015 la gtx970 risultava essere la vga più usata (http://www.tomshw.it/news/geforce-gtx-970-la-preferita-dai-giocatori-secondo-steam-73467) nella classifica di Steam... :)
Mi corregga Tiger se sbaglio, ma mi pareva che dicesse che nonostante tutto le 970 hanno venduto un botto, non diceva che sono migliori della concorrenza.
Esatto...e infatti ho pure scritto "nonostante la questione della vram" :D
Legolas84
19-04-2016, 13:43
Sì sì parlo proprio di quella gtx970 che va grossomodo come la 290 consumando però tipo 178W contro i 250W e più della seconda :D
Beh mica le invento io le quote di mercato, se nvidia è arrivata a toccare l'80% un motivo ci sarà così come se a dicembre 2015 la gtx970 risultava essere la vga più usata nella classifica di Steam... :)
Eh ma Tiger, è perchè la gente non capisce nulla... loro invece sono onniscenti :asd:
illidan2000
19-04-2016, 13:58
a me sono piaciuti i film di checco zalone, e l'ultimo a gennaio sono andato a vederlo senza nemmeno aver letto una recensione.
così farò pure per le Pascal...
Non dimentichiamoci di gente che ha dovuto aspettare mesi per avere fps decenti a giochi come Assetto Corsa, Pcars e svariati altri titoli, di altri che hanno bestemmiato tutti i santi per settare multi monitor e altre storie divertenti, perche' quella dei drivers ATI pacco e' una leggenda metropolitana.
mikael84
19-04-2016, 14:13
Stavo anche pensando a
64sp (2x32) x 48smp in 4gpc da 12smp
4GPC sono così:
http://i64.tinypic.com/2h3x30n.png
Quindi salvo ridondanze, al massimo vai a 2560cc, altrimenti pure meno.
40 SM x 64 cuda sono 2560 totali con 2 scheduler e 2 accessi color pixel.
40 x 2= 80 rops
Maxwell 4x32 aveva accesso a 4 color pixel per SMM, quindi erano 64 totali su 16.
La Titan x aveva su 24 SMM 96 rops, su 22 (980ti) 88rops
Kepler, ogni rasterizzatore poteva avere accesso a soli 8 pixel per clock
Se con Pascal rivedi totalmente l'architettura a GPC da 12 SMM (68 SM su 4 GPC) le rops passano a 64 e le TMU a 192.
Con 3072 cuda su gp104 mantieni 9tera flops, 1,6 in meno della full tesla gp100/titan (quindi direi soluzione impossibile)
96sp (3x32 o 2x48) x 32smp in 4gpc da 8smp
Gli SMM sono stati creati da 64 per andare di pari passo a GCN, se li fai da 96 elementi crei una sorta di Kepler, chip che perde una marea di risorse ora come ora.
Gli SM sono da 96 per via dei 32 cuda FP32.
Kepler ha 192 cc per SMX suddivisi in 6 partizioni da 32cc con 6 sfu e 6 load store. Maxwell ha chiamate da 4x32cc con 8 load store e 8 sfu.;)
Free Gordon
19-04-2016, 15:07
bè, ci sono molti che acquistano anche guardando questo
Sì :D gente che cambia da 780 a 970, rimettendoci 100 euro per risparmiarne 30 all'anno! :asd:
senza contare che, la 970 è acquistata perlopiù da gente che gioca in FHD http://tpucdn.com/reviews/Gigabyte/GTX_980_Ti_XtremeGaming/images/perfrel_1920_1080.png
Beh, l'8% di distacco, su una scheda reference che trottla (e che cmq nonostante tutto, salendo di res pareggia la mirabolante 970... ;) ), la 390 infatti è in pari anche @1080p. ;)
Il mio post era riferito alla frase di Tiger "..amd sembra innovativa, ma poi?.." "..poi alla fine com'è andata?..". Che avevo sottolineato nel post quotato. :)
Free Gordon
19-04-2016, 15:10
Sì sì parlo proprio di quella gtx970 che va grossomodo come la 290 consumando però tipo 178W contro i 250W e più della seconda :D
Beh mica le invento io le quote di mercato, se nvidia è arrivata a toccare l'80% un motivo ci sarà così come se a dicembre 2015 la gtx970 risultava essere la vga più usata (http://www.tomshw.it/news/geforce-gtx-970-la-preferita-dai-giocatori-secondo-steam-73467) nella classifica di Steam... :
Il mercato è di chi sa fare marketing. Su questo non c'è dubbio.. :asd:
E' un merito di Nvidia eh.. ;)
Sul resto ho già risposto ad Ace sopra...
X-ray guru
19-04-2016, 15:54
chi pensa che un prodotto vende solo perchè è migliore di un altro, anche se poi a conti fatti può risultare tale, vive in un mondo tutto suo :asd:
Straquoto.
Vedi 40 anni fa guerra delle cassette video con standard VHS contro Betamax Sony.
Le prime hanno vinto ma le seconde avevano una qualità forse doppia.
AceGranger
19-04-2016, 16:02
Sì :D gente che cambia da 780 a 970, rimettendoci 100 euro per risparmiarne 30 all'anno! :asd:
non saprei, ai fini di gioco non ho mai guardato i consumi o le performance/watt per il risparmio monetario a fine anno
Beh, l'8% di distacco, su una scheda reference che trottla (e che cmq nonostante tutto, salendo di res pareggia la mirabolante 970... ;) ), la 390 infatti è in pari anche @1080p. ;)
si peccato che lo fa con 60 W in piu... va bè tu dai importanza solo alle prestazioni, io personalmente a GPU simili prendo quella che lavora buttando 60 W in meno nel case; c'è magari chi guardera solo i soldi, chi solo i consumi e chi solo le prestazioni, ma da qui a dire che nVidia vende solo per marketing...
il marketing di nVidia non è cambiato negli ultimi anni e se AMD è colata a picco con le 390/390x il motivo non è solo marketing è... il megarebrandig con 8 mesi di ritardo non è stato molto gradito.
bè, ci sono molti che acquistano anche guardando questo
295 ftw!!!!!! Da tre anni ormai :sofico:
X-ray guru
19-04-2016, 16:25
penso che l'ultimo passaggio sia stato il più importante :asd:
Quando il porno in VR sceglierà un brand, sapremo che l'altro avrà irrimediabilmente perso. :D
mikael84
19-04-2016, 16:26
non saprei, ai fini di gioco non ho mai guardato i consumi o le performance/watt per il risparmio monetario a fine anno
si peccato che lo fa con 60 W in piu... va bè tu dai importanza solo alle prestazioni, io personalmente a GPU simili prendo quella che lavora buttando 60 W in meno nel case; c'è magari chi guardera solo i soldi, chi solo i consumi e chi solo le prestazioni, ma da qui a dire che nVidia vende solo per marketing...
il marketing di nVidia non è cambiato negli ultimi anni e se AMD è colata a picco con le 390/390x il motivo non è solo marketing è... il megarebrandig con 8 mesi di ritardo non è stato molto gradito.
60watt in condizioni ottimali, ma proprio ottimali:fagiano:
Le Asus 970 che avevo salvo il 3dmark stavano sui 160/170 sotto test intensivi, 165watt su unigine e sui 170 con metro.
Schede occate a 1550, quindi prestazionalmente sopra alla 980.
Questo è metro con una 290.
http://abload.de/thumb/esaiqqj1d.png (http://abload.de/image.php?img=esaiqqj1d.png)
294watt a 1100 no overvolt, con overvolt sali a 360 circa.
Diciamo che gli stessi valori gli ho calcolati con una Asus 780ti dc2 oc multifase, bios mod per overvolt.
Maxwell è stata senza ombra di dubbio rivoluzionaria e su questo quoto perfettamente i tuoi scorsi commenti. Su questo, almeno c'è poco da fare.
illidan2000
19-04-2016, 16:26
da wikipedia:
"
Introdotto sul mercato alcuni anni prima del VHS, che da molti era considerato "tecnicamente inferiore" rispetto al prodotto Sony, ma che grazie a una serie di fattori fu l'unico a diffondersi con successo. Tra essi la maggiore durata ed economicità delle videocassette VHS, il fatto che JVC concesse i diritti di sfruttamento del VHS ad altre aziende, e che l'industria del porno scelse il VHS per le proprie produzioni." :read:
penso che l'ultimo passaggio sia stato il più importante :asd:
se avessero fatto il porno in 3d, avrebbe preso più piede...
vediamo come va con la VR!
Sì :D gente che cambia da 780 a 970, rimettendoci 100 euro per risparmiarne 30 all'anno! :asd:
Beh, l'8% di distacco, su una scheda reference che trottla (e che cmq nonostante tutto, salendo di res pareggia la mirabolante 970... ;) ), la 390 infatti è in pari anche @1080p. ;)
Il mio post era riferito alla frase di Tiger "..amd sembra innovativa, ma poi?.." "..poi alla fine com'è andata?..". Che avevo sottolineato nel post quotato. :)
chi pensa che un prodotto vende solo perchè è migliore di un altro, anche se poi a conti fatti può risultare tale, vive in un mondo tutto suo :asd:
Ok ci riprovo :D :
Quello che era stato detto era che Nonostante non fosse migliore della controparte ha venduto un botto in italiano significa che:
"Anche se non era complessivamente migliore ha venduto di più" che sempre in italiano NON significa che:
"penso che sia migliore perché ha venduto di più"
Ora chiudo altrimenti non si finisce più, se i problemi sono interpretativi rifatevi alle frasi scritte anziché ai pensieri fra le righe non scritti che ovviamente ognuno può mettere cosa vuole :D
Il mercato è di chi sa fare marketing. Su questo non c'è dubbio.. :asd:
E' un merito di Nvidia eh.. ;)
Sul resto ho già risposto ad Ace sopra...
Esatto, ma non solo marketing anche solo focalizzarsi in cose pratiche utili prima di andare anzitempo a prendere cose che non servono nell'immediato!
Imho diciamo che anche quando AMD ha buone carte poi non le gioca al meglio!
Se ad esempio su Fury avesse tralasciato le Hbm (ancora non molto utili) e fosse uscita con un prezzo più aggressivo ne avrebbe giovato molto di più che essere la prima scheda ad uscire con Hbm!
Ovviamente mia modesta opinione!
illidan2000
19-04-2016, 16:45
il marketing è un fattore molto determinante in questo campo!
Anche se andassero uguali, con performance e consumi, Polaris e Pascal. E allo stesso prezzo, che cosa comprerebbe ora la gente?
il marketing è un fattore molto determinante in questo campo!
Anche se andassero uguali, con performance e consumi, Polaris e Pascal. E allo stesso prezzo, che cosa comprerebbe ora la gente?
Certo è molto importante soprattutto per la massa meno informata, ma come dicevo se sei indietro e hai possibilità di recupero ma applichi strategie non da inseguitrice e ti focalizzi su altro perdi ulteriore terreno.
Spider-Mans
19-04-2016, 17:05
però il mercato da ragione a lui e a nvidia
il mondo è fatto di fanboy quindi? marketing migliore? :boh:
ciao ciao
i forum sono pieni di fanboy (di vga, di smarthphone, di console ecc. la smartphone war credo sia la peggiore in assoluto xD)
il mercato è altra cosa
altrimenti amd non avrebbe quella miseria di share che ha in ambito vga discrete da anni....visto che i forum pullulano di fanboy rossocrociati quasi quanto quelli verdognoli
(quindi i conti non tornano ...nei forum lo share rosso è molto piu alto di quello del mercato xD) :D
Sì sì parlo proprio di quella gtx970 che va grossomodo come la 290 consumando però tipo 178W contro i 250W e più della seconda :D
Beh mica le invento io le quote di mercato, se nvidia è arrivata a toccare l'80% un motivo ci sarà così come se a dicembre 2015 la gtx970 risultava essere la vga più usata (http://www.tomshw.it/news/geforce-gtx-970-la-preferita-dai-giocatori-secondo-steam-73467) nella classifica di Steam... :)
se due schede rendono come prestazioni 100..ma una consuma molto di piu..ma sempre 100 fanno .. :asd: cogli la sottigliezza XD
stranamente la bolletta della luce la paghiamo tutti allo stesso modo..ma sono quisquilie :D (cosi come le temperature piu basse nel case..il maggior margine di overclock)
Il mercato è di chi sa fare marketing. Su questo non c'è dubbio.. :asd:
E' un merito di Nvidia eh.. ;)
Sul resto ho già risposto ad Ace sopra...
si leggono teorie da fantapolitica..di quanto sia brutta e cattiva :D
si ma perche devi piangere qui? scusami...vai a farti dare le pacche sulle spalle nel thread rosso da frozen :D ..li potete raccontarvi di come il mondo è dominato dai cattivoni e i furbi (in parte è vero xD )
Spider-Mans
19-04-2016, 17:16
il marketing è un fattore molto determinante in questo campo!
Anche se andassero uguali, con performance e consumi, Polaris e Pascal. E allo stesso prezzo, che cosa comprerebbe ora la gente?
in tutti i campi commerciali
è una branchia sempre piu importante nella gestione delle aziende
Spider-Mans
19-04-2016, 17:17
chi pensa che un prodotto vende solo perchè è migliore di un altro, anche se poi a conti fatti può risultare tale, vive in un mondo tutto suo :asd:
nessuno spero lo pensi
piu che altro mi preoccupa chi vede il markenting in negativo..ecco significa che di economia aziendale ci capisce pochino :asd:
amd se vuole risalire deve puntare MOLTO sul marketing
nvidia dalla sua posizione di forza ..sul marketing spinge parecchio e gli accordi con le softco sono marketing...oltre che feature per l'utenza verdognola
i giochi messi in bundle cosa sono? ortaggi?
sponsorizzare gli eventi di game lan mondiali cosa sono?
intel è sempre in prima fila...guardacaso
wake up plz
Spider-Mans
19-04-2016, 17:29
ti stavamo aspettando :asd:
che caro :D
sono preso dal pc nuovo xD
fraussantin
19-04-2016, 17:38
i forum sono pieni di fanboy (di vga, di smarthphone, di console ecc. la smartphone war credo sia la peggiore in assoluto xD)
Poi paradossalmente conosco piu fanboy rossi che verdi.
Imho i fanboy verdi sono tra i piu giovani che non" ricordano "gli anni gloriosi dell'ati.
illidan2000
19-04-2016, 17:38
in tutti i campi commerciali
è una branchia sempre piu importante nella gestione delle aziende
com'è umano lei... :D
cmq, se su steam l'80% delle schede utilizzate sono nvidia, ci sarà un perché
YesManYes
19-04-2016, 17:49
4GPC sono così:
http://i64.tinypic.com/2h3x30n.png
si, avevo visto lo schema del GP100 in questi giorni..
Quindi salvo ridondanze, al massimo vai a 2560cc, altrimenti pure meno.
40 SM x 64 cuda sono 2560 totali con 2 scheduler e 2 accessi color pixel.
40 x 2= 80 rops
Maxwell 4x32 aveva accesso a 4 color pixel per SMM, quindi erano 64 totali su 16.
questa è l'ipotesi che va per la maggiore... e molto probabilmente sarà così.
anche se il dubbio di una config a 3000sp su alcuni forum c'è ...
Se con Pascal rivedi totalmente l'architettura a GPC da 12 SMM (68 SM su 4 GPC) le rops passano a 64 e le TMU a 192.
Con 3072 cuda su gp104 mantieni 9tera flops, 1,6 in meno della full tesla gp100/titan (quindi direi soluzione impossibile)
è quello che mi fa mettere in dubbio l'ipotesi di una GM104 con 3072sp.... perchè sarebbe troppo vicino al GP100
e ci vorrebbe un ulteriore GPU totalmente gaming (senza alcun core FP64) più grossa, almeno da 450mmq per dare una differenza prestazionale più marcata...magari il vociferato GP102... ma non sono convinto che esista... e se è in progetto, forse verrà molto dopo il GP100...
Gli SMM sono stati creati da 64 per andare di pari passo a GCN, se li fai da 96 elementi crei una sorta di Kepler, chip che perde una marea di risorse ora come ora.
nvidia lo aveva rifatto di cambiare configurazione degli sm tra gpu della stessa architettura:con Fermi il GF114 aveva sm da 48sp mentre il GF110 da 32sp...per questo consideravo la possibilità di un cambio di configurazione con la gpu puramente gaming con SMP con più sp, 96 totalmente FP32 rispetto alla gpu più grossa con i suoi SMP da 64FP32 + 32FP64 per gli utilizzi che vanno oltre il gaming.
.
Crysis90
19-04-2016, 18:02
http://wccftech.com/sony-ps-neo-polaris-gpu-4-19-tflops/
Potrei sembrare off-topic, ma in realtà questo è veramente interessante e se fosse vero sarebbe solo che da giovarne.
Se veramente sarà rilasciata una nuova PS4 più potente, la forbice tra le scatolette ed il PC-Gaming si assottiglierebbe nuovamente come accade ad ogni lancio di nuova console.
Solo che stavolta accadrebbe dopo appena 3 anni, anziché dopo 7/8 anni.
Tradotto: le nuove GPU Pascal potranno godere nel giro di 1/2 anni di motori grafici migliori e più avanzati, in grado di sfruttare molto più efficacemente tutta quella potenza bruta ed i videogiochi stessi che verranno sviluppati ne trarranno più vantaggio.
Questo perché gli sviluppatori potranno programmare il gioco con una distanza ridotta tra la nuova GPU della PS4 e le GPU Pascal (e le relative nuove GPU di AMD) quindi le versioni PC saranno tecnicamente molto migliori e l'hardware delle nuove GPU sarà sfruttato molto più efficacemente.
Sarebbe una manna dal cielo. Assisteremmo ad un'evoluzione tecnica importante dei motori grafici molto più velocemente di quanto accadeva prima. :read: :O :winner:
http://wccftech.com/sony-ps-neo-polaris-gpu-4-19-tflops/
Potrei sembrare off-topic, ma in realtà questo è veramente interessante e se fosse vero sarebbe solo che da giovarne.
Se veramente sarà rilasciata una nuova PS4 più potente, la forbice tra le scatolette ed il PC-Gaming si assottiglierebbe nuovamente come accade ad ogni lancio di nuova console.
Solo che stavolta accadrebbe dopo appena 3 anni, anziché dopo 7/8 anni.
Tradotto: le nuove GPU Pascal potranno godere nel giro di 1/2 anni di motori grafici migliori e più avanzati, in grado di sfruttare molto più efficacemente tutta quella potenza bruta ed i videogiochi stessi che verranno sviluppati ne trarranno più vantaggio.
Questo perché gli sviluppatori potranno programmare il gioco con una distanza ridotta tra la nuova GPU della PS4 e le GPU Pascal (e le relative nuove GPU di AMD) quindi le versioni PC saranno tecnicamente molto migliori e l'hardware delle nuove GPU sarà sfruttato molto più efficacemente.
Sarebbe una manna dal cielo. Assisteremmo ad un'evoluzione tecnica importante dei motori grafici molto più velocemente di quanto accadeva prima. :read: :O :winner:
Giovane speranzoso! :asd:
YesManYes
19-04-2016, 18:13
la PS4K si vocifera che sia dotata di una nuova cpu, molta più ram ed una gpu il doppio più potente di quella attuale...
quasi quasi ci farei un pensierino..
Si vede che dalla 7850 montata sulla ps4 non riescono piu a tirarci nulla neanche a 720p quando nel frattempo il pc punta a 4K e visori :sofico:
Comunque se fosse vero, sicuramente è pensata proprio per i visori che richiedono una certa potenza di base e le attuali console, con tutta l'ottimizzazione del mondo difficile tirarci qualcosa con una resa accettabile...
Comunque anche se raddoppiano la potenza della GPU siamo ai livelli di una 380x/GTX 960 quindi anche in questo caso sembrano essere già vecchie come HW
Spider-Mans
19-04-2016, 18:33
le console sono infinitamente piu ottimizzate
su pc con le dx12 forse ci si avvicinera...in quella logica
cmq da possessore ps4 sono contento delle eslcusive..lho presa per quello
uncharted4 pare fantascienza visiva :D (i naughty dog sono forse il team piu talentuoso al mondo a lvl visivo...peccato non lavorino anche su pc)
tornando alle pascal.. una x80 entro i 500 euro custom entro settembre ...che dite? :D
le console sono infinitamente piu ottimizzate
su pc con le dx12 forse ci si avvicinera...in quella logica
cmq da possessore ps4 sono contento delle eslcusive..lho presa per quello
uncharted4 pare fantascienza visiva :D (i naughty dog sono forse il team piu talentuoso al mondo a lvl visivo...peccato non lavorino anche su pc)
tornando alle pascal.. una x80 entro i 500 euro custom entro settembre ...che dite? :D
Poi c'era la marmotta che in....... :asd:
fireradeon
19-04-2016, 19:20
le console sono infinitamente piu ottimizzate
su pc con le dx12 forse ci si avvicinera...in quella logica
cmq da possessore ps4 sono contento delle eslcusive..lho presa per quello
uncharted4 pare fantascienza visiva :D (i naughty dog sono forse il team piu talentuoso al mondo a lvl visivo...peccato non lavorino anche su pc)
tornando alle pascal.. una x80 entro i 500 euro custom entro settembre ...che dite? :D
Ecco, anche li é finita la chimera della lunga vita delle console visto che sta per uscire una nuova Ps4 piú potente.
Cmq difficile trovare la x80 a quel prezzo secondo me.
Esatto, ma non solo marketing anche solo focalizzarsi in cose pratiche utili prima di andare anzitempo a prendere cose che non servono nell'immediato!
Imho diciamo che anche quando AMD ha buone carte poi non le gioca al meglio!
Se ad esempio su Fury avesse tralasciato le Hbm (ancora non molto utili) e fosse uscita con un prezzo più aggressivo ne avrebbe giovato molto di più che essere la prima scheda ad uscire con Hbm!
Ovviamente mia modesta opinione!
No hbm? No fury ahi ahi ahi ahiiii e rimaneva solo la 390x fino al 2016 inoltrato...joking?
Legolas84
19-04-2016, 20:04
Ecco, anche li é finita la chimera della lunga vita delle console visto che sta per uscire una nuova Ps4 piú potente.
Cmq difficile trovare la x80 a quel prezzo secondo me.
Non è ancora detto... potrebbe veramente trattarsi di una PS4 SLIM con il solo supporto ai soli film 4k...
Comunque stiamo andando veramente troppo OT ultimamente anche con sparate astronomiche tipo vulkan uguale a GameWorks per AMD dimostrando di essere completamente ignoranti in questo campo riguardo cosa sia un'API universale (Vulkan) e un Middleware proprietario (GameWorks)....
AragornElessar
19-04-2016, 20:15
Anche con quella configurazione, la ps4.5 nn può muovere il 4k..
Poco, ma sicuro.
Spider-Mans
19-04-2016, 20:18
Ecco, anche li é finita la chimera della lunga vita delle console visto che sta per uscire una nuova Ps4 piú potente.
Cmq difficile trovare la x80 a quel prezzo secondo me.
beh x80 non puo costare quanto una 980ti attuale
deve stare sotto i 600 euro.... spero xD
fireradeon
19-04-2016, 20:22
beh x80 non puo costare quanto una 980ti attuale
deve stare sotto i 600 euro.... spero xD
Dipende dalle caratteristiche finali. Ormai manca poco visto che la ufficializzano il 6 maggio e secondo me escono giá subito dopo il computex.
beh x80 non puo costare quanto una 980ti attuale
deve stare sotto i 600 euro.... spero xD
ovviamente costasse meno, tanto di guadagnato per noi consumatori..ma in realtà quanto ci credi?
nella peggiore delle ipotesi (poco credibile, ma mettiamo sia vero) al lancio va solo poco di più della 980ti, ha 2 gb di vram in più, meno consumi, nuova architettura, al 90% le gddr5x...alla fine 600-650€ (streetprice) per le custom specialmente per i primi mesi e considerando che non ha rivali diretti sono più probabili che mai. forse si riavvicina ad un prezzo di listino più sensato (550$) solo quandos arà uscita la vera top e saranno rpesenti in campo anche le varie alternative di amd
No hbm? No fury ahi ahi ahi ahiiii e rimaneva solo la 390x fino al 2016 inoltrato...joking?
Scusa credo di non aver capito cosa intendi!?
Chi è ha detto che doveva rimanere la 390x fino a 2016 inoltrato?:confused:
In italiano ho scritto: "se ad esempio su Fury avesse tralasciato le Hbm (ancora non molto utili) e fosse uscita con un prezzo più aggressivo ne avrebbe giovato"
Secondo te che significa? :confused:
Tralasciare le Hmb= non mettere le Hbm (ci mettevi le gddr5 unica alternativa)
Fosse uscita ad un prezzo più aggressivo= avrebbero potuta metterla ad un prezzo inferiore (cosa semplice se avesse montato normali gddr5)
Kingdemon
19-04-2016, 20:47
beh x80 non puo costare quanto una 980ti attuale
deve stare sotto i 600 euro.... spero xD
Lo spero anche se pagine dietro si ipotizzava uno scalare verso l'alto con una nuova fascia di prezzo per la ti:
970 - X60ti
980 - X70
980ti - X80
X80ti
Dipende dalle caratteristiche finali. Ormai manca poco visto che la ufficializzano il 6 maggio e secondo me escono giá subito dopo il computex.
Ma è sicura la presentazione al 6 di maggio o sono rumors?
TigerTank
19-04-2016, 21:05
Il mercato è di chi sa fare marketing. Su questo non c'è dubbio.. :asd:
E' un merito di Nvidia eh.. ;)
Sul resto ho già risposto ad Ace sopra...
chi pensa che un prodotto vende solo perchè è migliore di un altro, anche se poi a conti fatti può risultare tale, vive in un mondo tutto suo :asd:
Sì certo, come no. Il marketing....siamo tutti idioti qui dentro perchè valutiamo quello e non la resa effettiva delle schede in gaming.
A me queste sembrano tutte frasette da pro-AMD con la cateratta o le fette di salame sugli occhi.
Perchè forse vi sfugge una cosa: se le nvidia fossero solo marketing e niente sostanza, col cavolo che le compreremmo in tanti, perchè a me del marchio non frega nulla ma solo il fatto che sono anni che gioco bene.
Forse dovreste andarvi a vedere i grafici dei framerate delle schede, scoprireste che quelli delle amd spesso sono come i grafici di un terremoto di scala catastrofica :sofico:
Cerchiamo di valutare i fatti concreti invece che dare dei deficienti ad un sacco di persone che comprerebbero le nvidia solo per un presunto marketing più forte. Che poi anche qui ci sarebbe da ridere visto che amd è la regina dei proclami e dell'hype tramite valanghe di slides :D
E poi non capisco perchè continuate a venire in questo thread quando ne avete uno vostro dedicato. E infatti se notate io non vengo di certo a trollare sul vostro.
DIte la verità...siete qui perchè parlate di marketing e simili ma state aspettando anche voi le nuove nvidia....stile "Odi et amo" di Catullo :fagiano:
beh x80 non puo costare quanto una 980ti attuale
deve stare sotto i 600 euro.... spero xD
Una 980 g1 costava 630€ su next
Inviato dal mio SM-G920F utilizzando Tapatalk
Free Gordon
19-04-2016, 21:19
Cioè.. si è (come sempre in questo 3d :D ) arrivati a ribaltare completamente tutto il senso del mio post inziale! :asd: Fantastico! :sofico:
Cmq per me, fine OT. ^_^
alex oceano
19-04-2016, 21:20
[QUOTE=jok3r87;43591807]Una 980 g1 costava 630€ su next
Inviato dal mio SM-G920F utilizzando Tapatalk[/QUOTE
buon prezzo
Legolas84
19-04-2016, 21:21
Perchè forse vi sfugge una cosa: se le nvidia fossero solo marketing e niente sostanza, col cavolo che le compreremmo in tanti, perchè a me del marchio non frega nulla ma solo il fatto che sono anni che gioco bene.
Mamma mia Tiger... super quote... ;)
Sai una volta da ragazzo io avevo davvero una simpatia sfrenata per un marchio di schede video: 3dfx. E ci rimasi davvero male quando fu inglobata in NVIDIA.
Da quel momento dei marchi vari non me ne è più fregato nulla tanto che ho avuto sia Pentium, che AthlonXP, il mitico Athlon64, per poi passare ai Core Duo.... non mi interessava il marchio ma solo che quello che compravo fosse il top perchè sono un appassionato.
Ad esempio dopo la GeForce 4, presi la Radeon 9700Pro perchè era effettivamente meglio della FX5800Ultra.... Ma ad oggi è innegabile che l'esperienza migliore sia offerta da NVIDIA e non parlo solo delle performance per watt che sono nettamente a favore delle verdi, ma anche dell'esperienza a 360°.....
Bisogna fregarsene dei marchi ragazzi... e soprattutto scrive cose tecniche solo quando si è sicuri di quello che si sta scrivendo, se no facciamo la fine dei sitarelli e non si capisce più una mazza!
Arrow0309
19-04-2016, 21:22
Anche con quella configurazione, la ps4.5 nn può muovere il 4k..
Poco, ma sicuro.
Quale config?
Da quello che si sa:
"Sony's upcoming 4K Ultra HD game console, which its fans are referring to as the "PlayStation 4K," while being internally referred to by Sony as "NEO," could feature a very powerful GPU. AMD could custom-design the SoC that drives the console, to feature an 8-core 64-bit x86 CPU based on the "Jaguar" micro-architecture, running at 2.10 GHz; and a GPU component featuring 36 compute units based on "next-generation Graphics CoreNext" architecture.
36 next-gen GCN compute units sounds an awful lot like the specs of the Polaris10 "Ellesmere" chip in its Radeon R9 480 configuration, working out to a stream processor count of 2,304 - double that of the 1,152 on the current-gen PlayStation 4. The SoC is also rumored to feature a 256-bit GDDR5 memory interface holding 8 GB of memory. This memory will be used as both system and video memory, just like on the current-gen PlayStation 4. The memory bandwidth will be increased to 218 GB/s from the current 176 GB/s. Besides 4K Ultra HD gaming, this chip could also prepare Sony for VR headsets, leveraging AMD's LiquidVR tech."
http://www.techpowerup.com/221811/playstation-4k-to-feature-a-2-304-sp-amd-polaris-gpu
http://www.giantbomb.com/articles/sources-the-upgraded-playstation-4-is-codenamed-ne/1100-5437/
TigerTank
19-04-2016, 21:37
Mamma mia Tiger... super quote... ;)
Sai una volta da ragazzo io avevo davvero una simpatia sfrenata per un marchio di schede video: 3dfx. E ci rimasi davvero male quando fu inglobata in NVIDIA.
Da quel momento dei marchi vari non me ne è più fregato nulla tanto che ho avuto sia Pentium, che AthlonXP, il mitico Athlon64, per poi passare ai Core Duo.... non mi interessava il marchio ma solo che quello che compravo fosse il top perchè sono un appassionato.
Ad esempio dopo la GeForce 4, presi la Radeon 9700Pro perchè era effettivamente meglio della FX5800Ultra.... Ma ad oggi è innegabile che l'esperienza migliore sia offerta da NVIDIA e non parlo solo delle performance per watt che sono nettamente a favore delle verdi, ma anche dell'esperienza a 360°.....
Bisogna fregarsene dei marchi ragazzi... e soprattutto scrive cose tecniche solo quando si è sicuri di quello che si sta scrivendo, se no facciamo la fine dei sitarelli e non si capisce più una mazza!
Esatto...anche perchè ad esempio quando uscì questa slide (http://www.rage3d.com/previews/video/nvidia_geforce_gtx_titan_preview/pics/trislicrysis3.png) circa il 3way di titan...mi feci un sacco di risate sarcastiche perchè ovviamente nvidia ha i suoi pro ma ha anche i suoi contro(e chi mi ha seguito nei thread dedicati sa che bastono pure quando serve) come in tutte le realtà commerciali. E sarebbe la stessa cosa se ad esempio uscisse un Crysis 4 da giocare maxato in 4K con 3 Titan Y :D
mikael84
19-04-2016, 21:50
si, avevo visto lo schema del GP100 in questi giorni..
questa è l'ipotesi che va per la maggiore... e molto probabilmente sarà così.
anche se il dubbio di una config a 3000sp su alcuni forum c'è ...
è quello che mi fa mettere in dubbio l'ipotesi di una GM104 con 3072sp.... perchè sarebbe troppo vicino al GP100
e ci vorrebbe un ulteriore GPU totalmente gaming (senza alcun core FP64) più grossa, almeno da 450mmq per dare una differenza prestazionale più marcata...magari il vociferato GP102... ma non sono convinto che esista... e se è in progetto, forse verrà molto dopo il GP100...
nvidia lo aveva rifatto di cambiare configurazione degli sm tra gpu della stessa architettura:con Fermi il GF114 aveva sm da 48sp mentre il GF110 da 32sp...per questo consideravo la possibilità di un cambio di configurazione con la gpu puramente gaming con SMP con più sp, 96 totalmente FP32 rispetto alla gpu più grossa con i suoi SMP da 64FP32 + 32FP64 per gli utilizzi che vanno oltre il gaming.
.
Si i 3072cc sono formulati su molte redazioni-forum ma bisogna cercare di analizzare un pò tutto, architetturalmente ma anche per rese.
Alcuni sparano numeri, senza tenere conto di rops, di core o di tante altre cose.
Verissimo quello che dici sul GF114 ma con Kepler hai notato quanto che sprecare risorse è un male.
Non devi solo guardare il numero interno di cuda, ma su quanto è suddiviso e le chiamate.
GF114 era composto da 3 chiamate da 16cc, GF104, 2 da 16.
Kepler era composto da 6x32, maxwell da 4x32, quindi una struttura diversa.
Pascal ha impostato gli SM per andare in linea con i 64thread di GCN, quindi se li imposti su GP102 da 96, rischi di sprecare risorse, dove se ne chiamino 2.
Aumentare a 96cc per SM significa anche fare 3 accessi rops.
Rimane sempre lo spazio volendo per un full fp32 da 5120cc su un core tra i 500/550mm2.
Molto dipenderà anche da AMD che ha le carte da giocare con il nuovo PP.
GP106-polaris10
GP104-vega 1 (4096 ST)
GP full-vega 2 (6k ST max)
Crysis90
19-04-2016, 21:58
Giovane speranzoso! :asd:
Beh da qualche parte qualche speranza dovrà pur esser riposta, no!?!?! :D :D
illidan2000
19-04-2016, 22:06
Si i 3072cc sono formulati su molte redazioni-forum ma bisogna cercare di analizzare un pò tutto, architetturalmente ma anche per rese.
Alcuni sparano numeri, senza tenere conto di rops, di core o di tante altre cose.
Verissimo quello che dici sul GF114 ma con Kepler hai notato quanto che sprecare risorse è un male.
Non devi solo guardare il numero interno di cuda, ma su quanto è suddiviso e le chiamate.
GF114 era composto da 3 chiamate da 16cc, GF104, 2 da 16.
Kepler era composto da 6x32, maxwell da 4x32, quindi una struttura diversa.
Pascal ha impostato gli SM per andare in linea con i 64thread di GCN, quindi se li imposti su GP102 da 96, rischi di sprecare risorse, dove se ne chiamino 2.
Aumentare a 96cc per SM significa anche fare 3 accessi rops.
Rimane sempre lo spazio volendo per un full fp32 da 5120cc su un core tra i 500/550mm2.
Molto dipenderà anche da AMD che ha le carte da giocare con il nuovo PP.
GP106-polaris10
GP104-vega 1 (4096 ST)
GP full-vega 2 (6k ST max)
di full ne parleremo però tra molti mesi. tutto può succedere nel frattempo
Legolas84
20-04-2016, 15:29
Quindi sembrerebbe lancio in autunno per GP106, mentre pare sempre più probabile Giugno per GP104.... ;)
X-ray guru
20-04-2016, 15:51
Se AMD non rompe le scatole con prestazioni migliori, dovrebbe essere come dici tu, con la quasi sicurezza che in ogni caso le schede con GP104 saranno presentate a giugno.
illidan2000
20-04-2016, 16:04
Quindi sembrerebbe lancio in autunno per GP106, mentre pare sempre più probabile Giugno per GP104.... ;)
vado a ricaricare la carta...
X-ray guru
20-04-2016, 16:05
Ti conviene prima passare in banca per un nuovo mutuo. :cry:
Crysis90
20-04-2016, 16:11
http://wccftech.com/nvidia-geforce-gtx-1080-allegedly-pictured/
http://wccftech.com/nvidia-geforce-gtx-1080-gtx-1070-coolers-dissected/
It's TRANSFORMERS time!! :D :D :asd: :asd:
Legolas84
20-04-2016, 16:11
vado a ricaricare la carta...
La mia è già carica da un pezzo :D ;)
mikael84
20-04-2016, 16:14
di full ne parleremo però tra molti mesi. tutto può succedere nel frattempo
Di full oltre la full diciamo.
Per dovrebbero uscire:
x80-x70-x60ti per GP104
autunno GP106:
x60 (1280cc)
x50
Polaris 10
480(x)
inizio 2017:
Possibile Titan e derivato TI con magari qualche cc laserato
Vega 1 di AMD 4096ST che andrà a vedersela con GP104.
Dopo dovrebbe debuttare il chip Volta ma con un cambio processo produttivo e quindi tale chip slitterà, visto che sarà full FP64 e full FP32 come Pascal con il 75% di cc in più.
A questo punto, considerando che GP104 sarà senza DP e circa 300mm2, potrebbero rivedere il chip e creare una sorta di "Maxwell 2" completamente full fp32 con oltre 4096cuda e magari rivedere anche le fasce inferiori.
AMD ha come probabile una Vega 2 con 6144ST max.
Quest'ultima soluzione che io chiamo una sorta di Maxwell 2, potrebbe avere qualche speranza, il nuovo PP non è certo pronto ed immettendo una potenza DP come GP100, non avrebbe alcun motivo di lanciare subito Volta full fp64.
Legolas84
20-04-2016, 16:18
Cioè ho capito bene?
Il rivale di GP104 si chiama Vega1 e dovrebbe uscire nel 2017? :eek:
Dimmi che ho capito male....
mikael84
20-04-2016, 16:26
Cioè ho capito bene?
Il rivale di GP104 si chiama Vega1 e dovrebbe uscire nel 2017? :eek:
Dimmi che ho capito male....
Si, esatto.
Ora di AMD escono le sostitute delle tonga e forse insieme direttamente a GP106.
Ad inizio 2017 finalmente dovrebbe coprire la fascia alta, con vega 1 ed in quel momento Nvidia può giocarsi la carta Titan GP100.
Una mossa dubbiosa, ma 2+2 fa 4, a buon intenditore;)
illidan2000
20-04-2016, 16:34
Cioè ho capito bene?
Il rivale di GP104 si chiama Vega1 e dovrebbe uscire nel 2017? :eek:
Dimmi che ho capito male....
http://techfrag.com/2016/04/11/amd-polaris-11-polaris-10-and-vega-10-gpu-cu-counts-surface/
http://wccftech.com/amd-radeon-r9-480-470-polaris-10-polaris-11/
mmh... polaris 10 un po' si avvicina. se il prezzo è basso, visto il tdp ridotto, potrebbe pure essere una ottima scheda da crossfire
Si, esatto.
Ora di AMD escono le sostitute delle tonga e forse insieme direttamente a GP106.
Ad inizio 2017 finalmente dovrebbe coprire la fascia alta, con vega 1 ed in quel momento Nvidia può giocarsi la carta Titan GP100.
Una mossa dubbiosa, ma 2+2 fa 4, a buon intenditore;)
vega10 e vega11 ? o vega1 e 2 ?
non ho ancora capito la nomenclatura!
aggiungo pure questo link:
http://wccftech.com/nvidia-geforce-gtx-1080-gtx-1070-coolers-dissected/
dice che la famosa "terza scheda" arriverà poco dopo le prime (mid june invece che early june)
mikael84
20-04-2016, 16:40
http://techfrag.com/2016/04/11/amd-polaris-11-polaris-10-and-vega-10-gpu-cu-counts-surface/
http://wccftech.com/amd-radeon-r9-480-470-polaris-10-polaris-11/
mmh... polaris 10 un po' si avvicina. se il prezzo è basso, visto il tdp ridotto, potrebbe pure essere una ottima scheda da crossfire
vega10 e vega11 ? o vega1 e 2 ?
non ho ancora capito la nomenclatura!
Dovrebbe essere realmente 10 e 11;)
Anche se Vega 11 è un rumor
Un crossfire di fascia medio-bassa:confused: Per 600 euro ti fai una x80 direttamente:)
Spider-Mans
20-04-2016, 16:43
Quindi sembrerebbe lancio in autunno per GP106, mentre pare sempre più probabile Giugno per GP104.... ;)
x70 e x80 sono le gp104 ..giusto? :sofico:
della classe media frega na cippa :asd:
mikael84
20-04-2016, 16:44
x70 e x80 sono le gp104 ? :sofico:
Si sono loro:)
fireradeon
20-04-2016, 16:44
vado a ricaricare la carta...
La mia è già carica da un pezzo :D ;)
La mia ha la scimmia stampata sopra direttamente!! :D
http://wccftech.com/nvidia-geforce-gtx-1080-allegedly-pictured/
http://wccftech.com/nvidia-geforce-gtx-1080-gtx-1070-coolers-dissected/
It's TRANSFORMERS time!! :D :D :asd: :asd:
A me piace parecchio la forma del dissi stock, anche se lo terrei per poco giusto il tempo di provarle qualche settimana prima di liquidarle entrambe.
Spider-Mans
20-04-2016, 16:50
Si sono loro:)
bene...lancio a giugno..per agosto/settembre custom in quantita nei negozi o forse prima...ma dipendera dalla domanda e non penso sara bassa :asd: ... :oink:
Legolas84
20-04-2016, 17:07
Io subirò la solita tentazione.... Poseidon o Full-Cover ek? :fagiano: :oink:
X-ray guru
20-04-2016, 17:09
Sicuramente full cover EK. :)
Legolas84
20-04-2016, 17:12
Sicuramente full cover EK. :)
Si per ora alla fine ha sempre vinto lui... ma chissà :D
Giovamas
20-04-2016, 17:13
La mia ha la scimmia stampata sopra direttamente!! :D
A me piace parecchio la forma del dissi stock, anche se lo terrei per poco giusto il tempo di provarle qualche settimana prima di liquidarle entrambe.
Il dissy stock non mi piace ed a me la vga deve piacere in tutto. Ma tanto la EVGA/MSI etc provvederanno..
Chiamate gli elicotteri per King Kong :D
Legolas84
20-04-2016, 17:16
Il dissy stock non mi piace ed a me la vga deve piacere in tutto. Ma tanto la EVGA/MSI etc provvederanno..
Chiamate gli elicotteri per King Kong :D
E prima o poi ti aspettiamo nel mondo del Full Liquid Custom.... :D
Anzi ti lascio già anche il link va:
http://www.hwupgrade.it/forum/showthread.php?t=1731984&page=3859
Sia te che illy :D
Giovamas
20-04-2016, 17:22
E prima o poi ti aspettiamo nel mondo del Full Liquid Custom.... :D
Anzi ti lascio già anche il link va:
http://www.hwupgrade.it/forum/showthread.php?t=1731984&page=3859
Sia te che illy :D
LoL :D tu Elfo mi vuoi proprio male... se la morosa mi vede di nuovo con il case aperto mi spara (e Fabietto sa bene quel che intendo ;) )
Leggerò con interesse anche perchè sei un fan di Neverwinter e dell'rpg old style! grazie comunque:) sarà sicuramente da valutare.
Se dovessero far pagare 400€ per una 1070,me lo possono degustare. Per un fullhd senza pretese,piuttosto vedo cosa offre la concorrenza
Legolas84
20-04-2016, 18:01
me lo possono degustare.
:asd: bellissima!
Comunque per i prezzi penso che molto dipenderà anche da cosa fa AMD....
TigerTank
20-04-2016, 18:18
Il dissy stock non mi piace ed a me la vga deve piacere in tutto. Ma tanto la EVGA/MSI etc provvederanno..
Chiamate gli elicotteri per King Kong :D
Se è come le gtx980Ti le references sono state meno numerose delle millemila custom uscite :D
illidan2000
20-04-2016, 18:26
Se dovessero far pagare 400€ per una 1070,me lo possono degustare. Per un fullhd senza pretese,piuttosto vedo cosa offre la concorrenza
beh, se va più di una 980ti, avendo anche 2gb in più, ci può stare.....
Sì ma così facendo,la fascia media diventa inesorabilmente alta con prezzi alti.Sui 300€ resterà la 970,fino all'uscita della 1060. Intanto AMD avrà campo libero per una scheda dal suddetto prezzo ma con prestazioni e caratteristiche superiori e nuove. Mi sembra come quando vai in concessionaria a comprare una macchina sui 10000€ e ti consigliano la Panda,a quel prezzo. Però con 3000€ in più ti fanno vedere la PuntoG che è di categoria superiore.I giochi al rialzo non mi sono mai piaciuti
TigerTank
20-04-2016, 18:47
beh, se va più di una 980ti, avendo anche 2gb in più, ci può stare.....
Io di partenza ipotizzo un 10-15% meno della Ti e la 1080 un 15-20% in più.
Sarebbero già stacchi considerevoli dalle gtx970 e 980 ;)
mikael84
20-04-2016, 19:21
Sì ma così facendo,la fascia media diventa inesorabilmente alta con prezzi alti.Sui 300€ resterà la 970,fino all'uscita della 1060. Intanto AMD avrà campo libero per una scheda dal suddetto prezzo ma con prestazioni e caratteristiche superiori e nuove. Mi sembra come quando vai in concessionaria a comprare una macchina sui 10000€ e ti consigliano la Panda,a quel prezzo. Però con 3000€ in più ti fanno vedere la PuntoG che è di categoria superiore.I giochi al rialzo non mi sono mai piaciuti
La fascia da 300-350 euro ci sarà, la x60ti o nome derivato, esattamente come fu la 660ti con kepler gk104.
http://www.hwupgrade.it/articoli/skvideo/3337/nvidia-geforce-gtx-660-ti-le-proposte-asus-e-gigabyte_index.html
Scheda da non confondere con la x60 liscia che sarà basata su un 128bit e 4gb di ram (GP106).
La fascia da 300-350 euro ci sarà, la x60ti o nome derivato, esattamente come fu la 660ti con kepler gk104.
Scheda da non confondere con la x60 liscia che sarà basata su un 128bit e 4gb di ram (GP106).
Sì ma non sarà presentata dopo?
mikael84
20-04-2016, 19:28
Sì ma non sarà presentata dopo?
No, al massimo 2 settimane dopo.
Questa scheda dovrebbe essere una via di mezzo tra 980 e 980ti con circa 1664cc ma bus da 192bit e 6gb di ram.
fireradeon
20-04-2016, 19:44
Sicuramente full cover EK. :)
Immancabilmente!!
Il dissy stock non mi piace ed a me la vga deve piacere in tutto. Ma tanto la EVGA/MSI etc provvederanno..
Chiamate gli elicotteri per King Kong :D
Appunto tu puoi andare di custom senza dubbio.
No, al massimo 2 settimane dopo.
Questa scheda dovrebbe essere una via di mezzo tra 980 e 980ti con circa 1664cc ma bus da 192bit e 6gb di ram.
Ah ok grazie,allora avevo capito male. Caratteristiche buone per chi,come me,resta sul fullhd ancora qualche anno.Allora la aspetto
TigerTank
20-04-2016, 19:50
ma non credo che tra la 1070 e la 1080 ci sarà il 35% di differenza in prestazioni a meno di non fare una 1070ti dopo ma non è mai esistita una x70ti, ma tutto può essere ad oggi
è probabile che la 1070 vada come la 980ti e la 1080 quel +15~20%, quindi la 1060ti come la 980 e la 1060 come la 970
Non so perchè ma ho come la sensazione che a questo giro le stacchino di più creando 2 fasce più distinte...e già appunto c'è l'ipotesi attuale delle vram differenti(con relative eventuali differenze prestazionali che vedremo dai confronti).
Per le nuove Titan quando prevedete?
mikael84
20-04-2016, 21:19
Non so perchè ma ho come la sensazione che a questo giro le stacchino di più creando 2 fasce più distinte...e già appunto c'è l'ipotesi attuale delle vram differenti(con relative eventuali differenze prestazionali che vedremo dai confronti).
Una, almeno la x70 non sarà distante dalla x80.:)
La x70 condividerà il bus della x80 ma con ddr5 samsung, quindi a lato pratico in game non cambierà nulla per banda ma entrambe saranno dotate di 8gb.
Avendo 4GPC attivi, la x70 subirà una laserazione ad almeno 384cc.
Quindi è probabile che la x70 sia lanciata a 2176cc e 256bit a 256gb/s.
La x60ti perderebbe però un GPC, quindi avrà un range di cc compreso tra i 1664-1920 (1920 sono 2816 maxwell, quelli della 980ti) su un 192bit/6gb
fireradeon
20-04-2016, 21:20
Per le nuove Titan quando prevedete?
Ormai da prevedere c'è poco, si sa che arrivano nel 2017, al massimo se siamo fortunati a Dicembre 2016, ma è molto molto improbabile!!
Per le nuove Titan quando prevedete?
Ormai da prevedere c'è poco, si sa che arrivano nel 2017, al massimo se siamo fortunati a Dicembre 2016, ma è molto molto improbabile!!
Danno Q1-2017, le Amd di punta le danno per imprecisato 2017 quindi non credo che le vedremo prima di marzo 2017, a meno che non facciano uscire un po' prima la Titan e dopo la Ti
mikael84
20-04-2016, 21:36
Per le nuove Titan quando prevedete?
Inizi 2017, forse anticipano la Tesla
Una cosa è sicura, quel chip così com'è è un vero mostro di potenza, sono 5120cc di maxwell in rapporto.:)
TigerTank
20-04-2016, 21:44
Una, almeno la x70 non sarà distante dalla x80.:)
La x70 condividerà il bus della x80 ma con ddr5 samsung, quindi a lato pratico in game non cambierà nulla per banda ma entrambe saranno dotate di 8gb.
Avendo 4GPC attivi, la x70 subirà una laserazione ad almeno 384cc.
Quindi è probabile che la x70 sia lanciata a 2176cc e 256bit a 256gb/s.
La x60ti perderebbe però un GPC, quindi avrà un range di cc compreso tra i 1664-1920 (1920 sono 2816 maxwell, quelli della 980ti) su un 192bit/6gb
Meglio così allora, grazie Mike :)
Quindi dici che non potrà capitare che ci siano giochi che in qualche modo beneficino delle nuove vram rispetto alle ddr5 classiche creando un pò di stacco nei casi d'alto sfruttamento/allocazione di vram?
Inizi 2017, forse anticipano la Tesla
Una cosa è sicura, quel chip così com'è è un vero mostro di potenza, sono 5120cc di maxwell in rapporto.:)
Ahahah Mike, quando scrivi post del genere scatta sempre un certo languorino :sofico:
http://www.iasomexico.com/uploads/7/0/4/4/7044120/2547160_orig.jpg
Legolas84
20-04-2016, 21:48
Mi sa che dovrò resistere fino al prossimo anno allora, per vedere i veri mostri all'opera :D
Semplicemente la top di gamma 2016 sarà GP104, mentre la 2017 sarà GP100 ;)
Semplicemente la top di gamma 2016 sarà GP104, mentre la 2017 sarà GP100 ;)
E allora nel 2016 si risparmiaaaa!!! No, si spende un po meno...;)
mikael84
20-04-2016, 21:57
Meglio così allora, grazie Mike :)
Quindi dici che non potrà capitare che ci siano giochi che in qualche modo beneficino delle nuove vram rispetto alle ddr5 classiche creando un pò di stacco nei casi d'alto sfruttamento/allocazione di vram?
Ahahah Mike, quando scrivi post del genere scatta sempre un certo languorino :sofico:
No la vram, ovvero la memoria utilizzata non cambia, quello che cambia è l'ampiezza di banda.:)
Attualmente la media è tra i 150-200gb/s con qualche eccezione come WD, quindi in game non peserà.
Molto dipenderà anche da come clockano le samsung, queste sono le nuove 8gigabit, più OC le porti a 288gb/s facili, quindi non avranno alcun problema.
Tra x80 e x70 cambierà però sui 3dmark, unigine etc...ma in game, salvo un'aumento drastico improvviso non si avranno problemi.
Aggiungo un particolare, forse qualcuno non ci pensa, ma le x70 saranno samsung, le x80, anche kingpin, saranno tutte elpida:D
Obrigado
20-04-2016, 21:59
E allora nel 2016 si risparmiaaaa!!! No, si spende un po meno...;)
e vai di triple sli di gtx 1080 8gb gddr5x :sofico:
Legolas84
20-04-2016, 22:01
e vai di triple sli di gtx 1080 8gb gddr5x :sofico:
Io mi accontento dello SLI normale :D
TigerTank
20-04-2016, 22:03
E allora nel 2016 si risparmiaaaa!!! No, si spende un po meno...;)
Speriamo che in caso di novità HBM2 non sparino le Titan a 1500€ e le Ti a 1000€ :sofico:
Per il resto la Ti ormai è la mia scheda preferita di generazione per cui resta da vedere se la 1070 sia un "ponte" fattibile o sia meglio tenersi l'attuale Ti fino alla nuova Ti :D
No la vram, ovvero la memoria utilizzata non cambia, quello che cambia è l'ampiezza di banda.:)
Attualmente la media è tra i 150-200gb/s con qualche eccezione come WD, quindi in game non peserà.
Molto dipenderà anche da come clockano le samsung, queste sono le nuove 8gigabit, più OC le porti a 288gb/s facili, quindi non avranno alcun problema.
Tra x80 e x70 cambierà però sui 3dmark, unigine etc...ma in game, salvo un'aumento drastico improvviso non si avranno problemi.
Aggiungo un particolare, forse qualcuno non ci pensa, ma le x70 saranno samsung, le x80, anche kingpin, saranno tutte elpida:D
Grazie! ;)
Dai Mike allora facciamo 1070...e se proprio le Ti costeranno 2 reni, SLi di 1070! :D
Tanto a me del 4K frega ancora poco, me ne sto sul 1440p(da gaming) il più a lungo possibile.
mikael84
20-04-2016, 22:15
Speriamo che in caso di novità HBM2 non sparino le Titan a 1500€ e le Ti a 1000€ :sofico:
Per il resto la Ti ormai è la mia scheda preferita di generazione per cui resta da vedere se la 1070 sia un "ponte" fattibile o sia meglio tenersi l'attuale Ti fino alla nuova Ti :D
Secondo me la x70 ripeterà la situazione già vista con 970/780 con la prima leggermente in vantaggio (ed in effetti decurtando almeno 384cc pareggi 3072cc maxwell) per poi aumentare il distacco man mano che Pascal trae benefici.
Negli ultimi titoli la 780 sta ben sotto la 970, quindi succederà la stessa cosa, e l'architettura Pascal è stata rivista come maxwell vs kepler.
La 980ti quindi con il parco titoli autunnali è facile che si allinei alla x60ti in base ai titoli.
Quindi la x70 sarà indubbiamente una soluzione migliore a lungo termine:)
Crysis90
20-04-2016, 22:17
Io mi accontento dello SLI normale :D
L'importante è accontentarsi. :sofico: :sofico:
Legolas84
20-04-2016, 22:19
L'importante è accontentarsi. :sofico: :sofico:
chi si accontenta gode :asd:
chi si accontenta gode :asd:
Così così
Obrigado
21-04-2016, 06:32
bene...
se amd esce con le hbm2 nel 2017 abbiamo ben poche speranze di vedere una una full pascal con hbm2 nel 2016.
http://i.imgur.com/Xnn9RNN.jpg
fonte videocardz.
Arrow0309
21-04-2016, 06:55
Speriamo che in caso di novità HBM2 non sparino le Titan a 1500€ e le Ti a 1000€ :sofico:
Per il resto la Ti ormai è la mia scheda preferita di generazione per cui resta da vedere se la 1070 sia un "ponte" fattibile o sia meglio tenersi l'attuale Ti fino alla nuova Ti :D
Non lo vedo tanto improbabile parlando della Titan visto che hanno chiesto i stessi 1500 per la AMD Pro Duo. :)
Grazie! ;)
Dai Mike allora facciamo 1070...e se proprio le Ti costeranno 2 reni, SLi di 1070! :D
Tanto a me del 4K frega ancora poco, me ne sto sul 1440p(da gaming) il più a lungo possibile.
Quotino pure qua
Eh si, dai, un bel SLI liquidato potente ed ai consumi "low power" (da verificare) con un doppio pcie a 6pin ci può stare, senza che avrò bisogno di cambia nemmeno l'ali da 850W. :cool: :D
Secondo me la x70 ripeterà la situazione già vista con 970/780 con la prima leggermente in vantaggio (ed in effetti decurtando almeno 384cc pareggi 3072cc maxwell) per poi aumentare il distacco man mano che Pascal trae benefici.
Negli ultimi titoli la 780 sta ben sotto la 970, quindi succederà la stessa cosa, e l'architettura Pascal è stata rivista come maxwell vs kepler.
La 980ti quindi con il parco titoli autunnali è facile che si allinei alla x60ti in base ai titoli.
Quindi la x70 sarà indubbiamente una soluzione migliore a lungo termine:)
E daje co' sti cali così, fammo che arrivi ai livelli della X50. :O
Te da quando te sei messo in testa di dar via la 980ti e fare il promotore delle pasqualine a volte mi sembri di esagerare un po.
Innanzitutto non credo che Maxwell farà la fine di Keppler.
E due (visto proprio ieri sera con la mia nuova G1) la 980ti arriva a quasi 400gb/s con la mem. in oc.
Mo, una 128bit (anche con 2gb in più ma è da vedere) fara' dei miracoli bla bla ...
alex oceano
21-04-2016, 07:14
la 1070 avrà 6GB di vram?
pareri rumors??
TigerTank
21-04-2016, 07:32
chi si accontenta gode :asd:
Chi gode si accontenta! :D
Secondo me la x70 ripeterà la situazione già vista con 970/780 con la prima leggermente in vantaggio (ed in effetti decurtando almeno 384cc pareggi 3072cc maxwell) per poi aumentare il distacco man mano che Pascal trae benefici.
Negli ultimi titoli la 780 sta ben sotto la 970, quindi succederà la stessa cosa, e l'architettura Pascal è stata rivista come maxwell vs kepler.
La 980ti quindi con il parco titoli autunnali è facile che si allinei alla x60ti in base ai titoli.
Quindi la x70 sarà indubbiamente una soluzione migliore a lungo termine:)
Ti quoto tranne che sull'entità del calo...che si allinei alla x60Ti già in questo autunno mi sembra davvero troppo. Forse quando ci saranno tutte le pascal e titoli con dx12 mature e relative ottimizzazioni drivers ma non penso che crollerà così tanto entro il 2016, con i giochi "dx12 prototipi" :)
Quotino pure qua
Eh si, dai, un bel SLI liquidato potente ed ai consumi "low power" (da verificare) con un doppio pcie a 6pin ci può stare, senza che avrò bisogno di cambia nemmeno l'ali da 850W. :cool: :D
In verità preferirei la singola fullgpu liquidata però dipende tutto appunto da quanto ci lucreranno sopra sfruttando anche il discorso novità HBM2.
Se ci fosse una situazione esagerata sarebbe il ripiego in extremis :D
Circa l'alimentazione per le pascaline io ho sentito anche l'ipotesi di un solo connettore ma da 8pin.
AceGranger
21-04-2016, 08:07
bene...
se amd esce con le hbm2 nel 2017 abbiamo ben poche speranze di vedere una una full pascal con hbm2 nel 2016.
http://i.imgur.com/Xnn9RNN.jpg
fonte videocardz.
potro anche sbagliare è, ma era cristallino gia dalla presentazione della Tesla Gp100.... mancano i volumi di HMB2, e le poche disponibili nel 2016 verranno impiegate esclusivamente sulle Tesla, e fra l'altro solo per partner selezionati o in "affitto" da nVidia.
persino le Tesla per il mercato retail arriveranno nel 2017; anche il fatto di aver lanciato la Quadro 6000 con 24 Gb di ram pochi mesi fa non è stato un buon segnale.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.