View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Bah se davvero amd dovesse uscire con quelle vga che si rumoreggiano, non ce la vedo proprio nvidia che attende così tanto per controbattere....io quasi quasi sto pensando di liberarmi di una delle 2 980 per non svenarmi troppo dopo...una sola vga che pilota al meglio il mio rog sarebbe davvero un bel colpo.
anche andasse un 15/20% in più appunto non ce la vedo nvidia che accoppa le 970/980, al limite introdurranno le titan a 8/900 e probabilmente anche di più e continueranno sulla solita falsariga delle vecchia 680/titan/780, con la full gaming a seguire ma sicuramente non ad aprile..
AndreaMan
05-02-2015, 20:35
anche andasse un 15/20% in più appunto non ce la vedo nvidia che accoppa le 970/980, al limite introdurranno le titan a 8/900 e probabilmente anche di più e continueranno sulla solita falsariga delle vecchia 680/titan/780, con la full gaming a seguire ma sicuramente non ad aprile..
lo spero, altrimenti avrebbero sbagliato il timing di brutto alla evga con la presentazione della kingpin
lo spero, altrimenti avrebbero sbagliato il timing di brutto alla evga con la presentazione della kingpin
ma le kingpin sono sempre uscite un pò dopo, certo la versione della 980 anche un pò troppo oltre. Però se non liquidi lascia perdere sono soldi buttati, pigliati una classified o una hof.
cmq io non mi sono posto il problema, tanto alla fine paghi sempre per quello che hai, 50 euro più, 50 euro meno..la 980 va almeno un 20% in più della 970 su unigine, sui giochi ancora non mi esprimo. su heaven ho notato scene che prima si facevano a 40/44 fps (970) mentre la 980 a 55/60...
Legolas84
05-02-2015, 21:43
ma le kingpin sono sempre uscite un pò dopo, certo la versione della 980 anche un pò troppo oltre. Però se non liquidi lascia perdere sono soldi buttati, pigliati una classified o una hof.
cmq io non mi sono posto il problema, tanto alla fine paghi sempre per quello che hai, 50 euro più, 50 euro meno..la 980 va almeno un 20% in più della 970 su unigine, sui giochi ancora non mi esprimo. su heaven ho notato scene che prima si facevano a 40/44 fps (970) mentre la 980 a 55/60...
Bella la classified... l'hai liquidata? A quanto ti arriva in overclock? Quanto l'hai pagata?
Scusa ma sono troppo curioso, non si trovano tanti utenti che la hanno :)
Bella la classified... l'hai liquidata? A quanto ti arriva in overclock? Quanto l'hai pagata?
Scusa ma sono troppo curioso, non si trovano tanti utenti che la hanno :)
ah l'ho presa qui sul forum da juthos, l'ho pagata poco meno di 600 euro (purtroppo la classified è salita di prezzo da 630 a 700) e alla fine andava bene lo stesso. Non l'ho liquidata x ora, ci si riesce a tenerla a 1.35 ad aria non se se convenga liquidarla sinceramente. Per quanto riguarda i test, ho fatto solamente qualche test su unigine heaven ho fatto 1981 punti a 1575~/8ghz con voltaggio 1.2 e qualcosa (non ricordo :D), praticamente dando il massimo voltaggio possibile senza usare il tool classified, ho provato poi hardline tutto ultra a 1440p non fa na piega, non ho messo gli fps on screen, ma andava molto fluido..cmq rispetto le 970, su unigine heaven, si vede ad occhio nudo un bel 20/25% in più..direi che costa si, ma va anche di più...
Legolas84
05-02-2015, 21:56
È una bella scheda la classy dovresti vedere se riesci ad andare oltre i 1600 MHz in fire strike... Se c'è una scheda che può riuscirci questa è lei :)
Inviato dal mio iPhone utilizzando Tapatalk
TigerTank
05-02-2015, 22:36
ah l'ho presa qui sul forum da juthos, l'ho pagata poco meno di 600 euro (purtroppo la classified è salita di prezzo da 630 a 700) e alla fine andava bene lo stesso. Non l'ho liquidata x ora, ci si riesce a tenerla a 1.35 ad aria non se se convenga liquidarla sinceramente. Per quanto riguarda i test, ho fatto solamente qualche test su unigine heaven ho fatto 1981 punti a 1575~/8ghz con voltaggio 1.2 e qualcosa (non ricordo :D), praticamente dando il massimo voltaggio possibile senza usare il tool classified, ho provato poi hardline tutto ultra a 1440p non fa na piega, non ho messo gli fps on screen, ma andava molto fluido..cmq rispetto le 970, su unigine heaven, si vede ad occhio nudo un bel 20/25% in più..direi che costa si, ma va anche di più...
Quoto, sei allineato a me mentre le gtx970 con le stesse frequenze fanno un 500 punti in meno. Con i giochi poi dipende, il divario si fa più o meno accentuato.
http://i.imgur.com/vffyuHQl.jpg (http://imgur.com/vffyuHQ)
Circa le nuove schede io ipotizzo aprile-maggio per la nuova titan e tra luglio e settembre per eventuali nuove schede da gaming. ;)
O comunque per queste ultime non prima che arrivino le amd.
bene vedo che sono in linea, probabilmente con l'overvolt supererei i 2000 punti, ma la tengo cosi, la differenza rispetto la 970 è evidente, mi ci trovo molto bene, alla fine ho rpeferito questa che andare a fare un'altra volta lo sli.
per quanto riguarda le nuove, anche secondo me prima dell'estate difficile che esca qualcosa se non una titan x o al limite una 980ti giusto per rattoppare quei 2-4 mesi.
mikael84
06-02-2015, 14:28
bene vedo che sono in linea, probabilmente con l'overvolt supererei i 2000 punti, ma la tengo cosi, la differenza rispetto la 970 è evidente, mi ci trovo molto bene, alla fine ho rpeferito questa che andare a fare un'altra volta lo sli.
per quanto riguarda le nuove, anche secondo me prima dell'estate difficile che esca qualcosa se non una titan x o al limite una 980ti giusto per rattoppare quei 2-4 mesi.
Complimenti per l'acquisto, davvero un grande VGA:)
GM200 verrà presentato (stando ai rumors almeno) il 17-20 marzo ma molto probabilmente sino a giugno non si vedrà niente.
Sempre che la versione gaming sia prevista, almeno nell'imminente.
Complimenti per l'acquisto, davvero un grande VGA:)
GM200 verrà presentato (stando ai rumors almeno) il 17-20 marzo ma molto probabilmente sino a giugno non si vedrà niente.
Sempre che la versione gaming sia prevista, almeno nell'imminente.
grazie mik :D
Infatti mi sembra improbabile (anche se si tratta di nvidia :D) che esca qualcosa molto presto, almeno nella fascia delle 980/970.
ah l'ho presa qui sul forum da juthos, l'ho pagata poco meno di 600 euro (purtroppo la classified è salita di prezzo da 630 a 700) e alla fine andava bene lo stesso. Non l'ho liquidata x ora, ci si riesce a tenerla a 1.35 ad aria non se se convenga liquidarla sinceramente. Per quanto riguarda i test, ho fatto solamente qualche test su unigine heaven ho fatto 1981 punti a 1575~/8ghz con voltaggio 1.2 e qualcosa (non ricordo :D), praticamente dando il massimo voltaggio possibile senza usare il tool classified, ho provato poi hardline tutto ultra a 1440p non fa na piega, non ho messo gli fps on screen, ma andava molto fluido..cmq rispetto le 970, su unigine heaven, si vede ad occhio nudo un bel 20/25% in più..direi che costa si, ma va anche di più...
eh si la classy è la classy, poi se smanetti con i bios che han moddato avrai ancora un altro bel boost, per capire hai la rev 1 o 2?
mikael84
06-02-2015, 14:47
grazie mik :D
Infatti mi sembra improbabile (anche se si tratta di nvidia :D) che esca qualcosa molto presto, almeno nella fascia delle 980/970.
Incominciamo a levare subito la fascia della 970:D , per il resto inizialmente verrà prezzata non poco. Molto dipenderà anche dalle nuove AMD che sembrano promettere molto bene ma alla fine se ti vuoi levare lo sfizio ti ritrovi sempre sulla stessa situazione. Prendi il chippone poi esce la 390x.
Il fatto che siano uscite solo ora le kingpin cmq vuol significare poco perchè son chip destinati ad abbattere classifiche non certo per l'utenza normale.
Leggendo il 3dmark la classified sotto azoto sta subendo dalla hof e la Kingpin è una classified con i 3PLL, quindi riesce a migliorare la stabilità ad altissimi voltaggi.
Diciamo che è la carta massima che EVGA puo'giocarsi in bench:)
eh si la classy è la classy, poi se smanetti con i bios che han moddato avrai ancora un altro bel boost, per capire hai la rev 1 o 2?
R1 ma sinceramente non mi sono posto il problema, che differenze ci sono?
@mik sisi certo so che non è la migliore del lotto, però volevo la garanzia evga e comunque una buona vga che tenga frequenze discrete, alla fine mi andava bene cosi, oppure traghettavo con la 970.
maxmix65
06-02-2015, 15:07
R1 ma sinceramente non mi sono posto il problema, che differenze ci sono?
@mik sisi certo so che non è la migliore del lotto, però volevo la garanzia evga e comunque una buona vga che tenga frequenze discrete, alla fine mi andava bene cosi, oppure traghettavo con la 970.
vabbe' dai non ti lamentare hahhahaha
mikael84
06-02-2015, 15:20
R1 ma sinceramente non mi sono posto il problema, che differenze ci sono?
@mik sisi certo so che non è la migliore del lotto, però volevo la garanzia evga e comunque una buona vga che tenga frequenze discrete, alla fine mi andava bene cosi, oppure traghettavo con la 970.
Infatti non è la migliore perchè la Kingpin magari è più stabile a 2,1ghz:sofico:
E'una bestia la classified, senza contare appunto la garanzia EVGA.:)
R1 ma sinceramente non mi sono posto il problema, che differenze ci sono?
@mik sisi certo so che non è la migliore del lotto, però volevo la garanzia evga e comunque una buona vga che tenga frequenze discrete, alla fine mi andava bene cosi, oppure traghettavo con la 970.
se non erro sulla rev 2 hanno modificato qualcosa sui vrm, cosa non è dato sapere, dicono che in oc non cambia niente, ma secondo me si erano tenuti larghi per poi diminuire la potenza sui vrm perché se n'è parlato poco e non ha inciso sulle prestazioni.
a dire il vero ho anche preso una 980 reference diciamo in occasione ora essendo nuova non so se montarla e farci lo sli o buttare (ne ho altre 2..) sul mercatino, anche perchè per ora sta classy macina praticamente tutto anche con l'antialiasing attivato, almeno sui bf e qualche altro che ho provato
illidan2000
06-02-2015, 17:13
a dire il vero ho anche preso una 980 reference diciamo in occasione ora essendo nuova non so se montarla e farci lo sli o buttare (ne ho altre 2..) sul mercatino, anche perchè per ora sta classy macina praticamente tutto anche con l'antialiasing attivato, almeno sui bf e qualche altro che ho provato
assolutamente SLI direi... :D
assolutamente SLI direi... :D
eh :D
una prova cmq la faccio poi chissà :D
mi arrivano la settimana prossima
maxmix65
07-02-2015, 13:27
eh :D
una prova cmq la faccio poi chissà :D
mi arrivano la settimana prossima
Qualche test io lo farei..;)
AndreaMan
11-02-2015, 20:44
http://wccftech.com/nvidia-gm200-gpu-fp64-performance/
Inviato dal mio Nexus 6
illidan2000
11-02-2015, 21:49
http://wccftech.com/nvidia-gm200-gpu-fp64-performance/
Inviato dal mio Nexus 6
È proprio quello che mi aspettavo. Per questo ho preso 2 970
AndreaMan
11-02-2015, 21:49
Ovvero?
Io non ho capito l'articolo.....dice che questo gm200 avrà prestazioni fp64, ovvero la doppia precisione, castrata.
Dopo a casa lo rileggo bene.
Inviato dal mio Nexus 6
mikael84
11-02-2015, 22:14
Ovvero?
Io non ho capito l'articolo.....dice che questo gm200 avrà prestazioni fp64, ovvero la doppia precisione, castrata.
Dopo a casa lo rileggo bene.
Inviato dal mio Nexus 6
Io questo l'ho sempre immaginato leggendo le specifiche, molto probabilmente una Titan neppure la faranno o se la fanno sarà castrata.
Con GK110 la Titan manteneva un rapporto di 3/1, ovvero un terzo della SP disponibile.
Le kepler normali sono in rapporto di 1/24, mentre Maxwell è 1/32.
Discorso diverso con AMD che in versione pro va in 1/2, serie 7970/280x 1/4 e sulle 290 è tagliata in 1/8
Quindi secondo voi al posto del "chippone" meglio uno sli di 970 o di 980?? Non sono molto a favore della doppia gpu...
Legolas84
11-02-2015, 22:19
Ma le prestazioni fp64 servono solo nell'ambito professionale o sbaglio? Per quello non dovrebbero esserci le quadro?
Inviato dal mio iPhone utilizzando Tapatalk
mikael84
11-02-2015, 22:26
Ma le prestazioni fp64 servono solo nell'ambito professionale o sbaglio? Per quello non dovrebbero esserci le quadro?
Inviato dal mio iPhone utilizzando Tapatalk
La Titan appunto è una via di mezzo per chi non vuole spendere troppi soldi per una pro.
Cmq qua parliamo sempre di DP, in ambito game nessun problema:)
La Titan appunto è una via di mezzo per chi non vuole spendere troppi soldi per una pro.
Cmq qua parliamo sempre di DP, in ambito game nessun problema:)
Quindi?
Ma le prestazioni fp64 servono solo nell'ambito professionale o sbaglio? Per quello non dovrebbero esserci le quadro?
Inviato dal mio iPhone utilizzando Tapatalk
Le tesla. Sono schede "cieche" usate per calcoli in singola e doppia precisione.
Le quadro sono schede da rendering video opengl.
Il "bello" delle titan era proprio avere a disposizione una scheda tuttofare, con potenzialità da tesla, ma capaci di pilotare un monitor, pagando molto meno. Ovviamente senza supporto nvidia per cuda.
mikael84
11-02-2015, 22:33
Quindi?
Nulla, nessun problema sulle schede gaming GM200:)
In sostanza allora questo GM200 atteso per i prossimi mesi (nel breve periodo) dovrebbe essere la versione "gtx 980Ti" più che "titan 2" sperando in cifre leggermente umane stile 780Ti (~6-700€) al lancio invece che Titan al lancio(1000+ €)?!
mircocatta
12-02-2015, 07:27
In sostanza allora questo GM200 atteso per i prossimi mesi (nel breve periodo) dovrebbe essere la versione "gtx 980Ti" più che "titan 2" sperando in cifre leggermente umane stile 780Ti (~6-700€) al lancio invece che Titan al lancio(1000+ €)?!
si inteoria è come il gk110 che andò sulle 780/780ti cioè decurtato della parte dual precision
imho: ottimo, dovrebbe farla costare almeno 200-300€ in meno rispetto ad una versione titan2
si inteoria è come il gk110 che andò sulle 780/780ti cioè decurtato della parte dual precision
imho: ottimo, dovrebbe farla costare almeno 200-300€ in meno rispetto ad una versione titan2
Eh speriamo......
Sopratutto che abbiano almeno 6gb di Vram perche' mi ci son decisamente abituato :D
Eh speriamo......
Sopratutto che abbiano almeno 6gb di Vram perche' mi ci son decisamente abituato :D
6gb effettivi (purtroppo ora dobbiamo dire così):ciapet:
700€ prezzo umano? :asd: abbiamo due scale differenti....direi che è wuasi proletario :asd:
Il nabbo di turno
12-02-2015, 13:40
Secondo me ci sarà una sola scheda con gm200 full e bona, cioè la titan 2.
Loro fanno più soldi chiamandola titan 2 piuttosto che 980 ti.
700€ prezzo umano? :asd: abbiamo due scale differenti....direi che è wuasi proletario :asd:
Visto che mi riferivo a prezzo di lancio e tra l'altro neanche street price si può definire (quasi) umano per una soluzione top, ovviamente a quelle cifre non la comprerei mai :D
Horizont
12-02-2015, 15:25
Scusate se chiedo magari un'ovvietà ma se il chip si chiamera GM200 ok..ma i modelli come si chiameranno visto e considerato che la serie 9xx l'hanno utilizzata?
Devourer88
12-02-2015, 15:49
Salve, avrei un dubbio da un pò di giorni...(senza andare OT vi dico che dopo aver acquistato evolve ho subito sudato freddo dato che con la mia 760 non va a 60fps neanche tutto basso in hdready) sono preoccupato perchè in procinto di comprare una scheda video ma vedo che non ce la fà neanche una 980....motivazioni a parte di carattere software, sono sicuro che la vga attuali top di gamma nvidia non sono da prendere in considerazione per via dei 4gb di ram che appaiono essere un limite di prossimo superamento. Anche le tecnologie che apprezzo di più come nvidiaworks e i vari HQ antialiasing mi spingono a ricercare l'investimento nelle prossime vga (anche se andrebbero un 20% in più la spesa sarebbe ripagata nel tempo imho)
In sintesi, non ho ancora deciso se attendere gm200 ma secondo me è inevitabile.
Nvidia "Rivoluzioneremo il gaming". Annuncio in arrivo
http://www.tomshw.it/cont/news/nvidia-rivoluziona-il-gaming-annuncio-a-sorpresa-in-arrivo/62464/1.html
E se lo dicono loro ... :sofico:
Therinai
12-02-2015, 15:57
Nvidia "Rivoluzioneremo il gaming". Annuncio in arrivo
http://www.tomshw.it/cont/news/nvidia-rivoluziona-il-gaming-annuncio-a-sorpresa-in-arrivo/62464/1.html
E se lo dicono loro ... :sofico:
GSYNC 2, 3DVISION TURBO BUUST, 8WAY SLY, GTX TITAN 2 UBER TURBO...
Legolas84
12-02-2015, 16:01
Stiamo a vedere.... spero che non siano cose mobili.... ma roba Uber per il PC.... :D
bronzodiriace
12-02-2015, 16:09
Quindi?
Senza dover ricorrere ad una Tesla, la Titan esegue calcoli in doppia precisione.
Quindi risparmi dindini.
Per il gaming il DP non serve a nulla.
GSYNC 2, 3DVISION TURBO BUUST, 8WAY SLY, GTX TITAN 2 UBER TURBO...
Hai scordato il nuovo Physx 2-WTF! :O
:sofico:
mikael84
12-02-2015, 16:51
Scusate se chiedo magari un'ovvietà ma se il chip si chiamera GM200 ok..ma i modelli come si chiameranno visto e considerato che la serie 9xx l'hanno utilizzata?
Cambieranno serie come AMD con le R9 290
Obrigado
12-02-2015, 16:51
Nvidia "Rivoluzioneremo il gaming". Annuncio in arrivo
http://www.tomshw.it/cont/news/nvidia-rivoluziona-il-gaming-annuncio-a-sorpresa-in-arrivo/62464/1.html
E se lo dicono loro ... :sofico:
sara' un tablet.... fake....
Therinai
12-02-2015, 16:52
Hai scordato il nuovo Physx 2-WTF! :O
:sofico:
eh, ormai sono vecchio, non riesco più a stare dietro a tutte queste idee rivoluzionarie :D
sara' un tablet.... fake....
tablet Ti :D
:asd:
Ve lo dico io che faranno...
Gtx 970 4GB! :asd:
illidan2000
12-02-2015, 18:47
4.5gb di cui 4 full speed
TigerTank
12-02-2015, 19:02
Ormai è meglio non credere più agli annunci rivoluzionari ma toccare con mano nel concreto :)
mikael84
12-02-2015, 19:10
Ormai è meglio non credere più agli annunci rivoluzionari ma toccare con mano nel concreto :)
La cosa assurda è che Nvidia stava per lanciare alcune varianti di 960 TI, dopo sorto questo problema sono misteriosamente sparite e l'unica soluzione potrebbe essere la 960 da 4gb.
Sinceramente con tutte le proposte di AMD(ok sono per lo più rebrand) Nvidia rimarrà con una sola scheda nella fascia media
TigerTank
12-02-2015, 19:29
La cosa assurda è che Nvidia stava per lanciare alcune varianti di 960 TI, dopo sorto questo problema sono misteriosamente sparite e l'unica soluzione potrebbe essere la 960 da 4gb.
Sinceramente con tutte le proposte di AMD(ok sono per lo più rebrand) Nvidia rimarrà con una sola scheda nella fascia media
Per forza...ha alzato una scheda da fascia media a fascia alta con una strategia di progettazione :D
Per forza...ha alzato una scheda da fascia media a fascia alta con una strategia di progettazione :D
chi ha detto kepler? :fagiano:
Il nabbo di turno
12-02-2015, 19:38
O è un tablet(molto probabile), oppure una 960 4gb.
O è un tablet(molto probabile), oppure una 960 4gb.
Si il tegra 4, ecco nei soc nvidia ha fatto solo flop, vediamo stavolta....
Il nabbo di turno
12-02-2015, 19:41
Si il tegra 4, ecco nei soc nvidia ha fatto solo flop, vediamo stavolta....
Ma a parte il tegra 3(salvo solo grazie ai nexus 7), gli altri sono stati tutti più o meno molto deludenti.
Ma a parte il tegra 3(salvo solo grazie ai nexus 7), gli altri sono stati tutti più o meno molto deludenti.
A proposito non era con macwell che veniva affiancato un soc arm? O è pascal?
Il nabbo di turno
12-02-2015, 19:45
A proposito non era con macwell che veniva affiancato un soc arm? O è pascal?
Sarà pasquale l'anno prossimo, vedremo cosa faranno ;).
mikael84
12-02-2015, 19:51
Per forza...ha alzato una scheda da fascia media a fascia alta con una strategia di progettazione :D
chi ha detto kepler? :fagiano:
Ormai sarà la regola:)
illidan2000
12-02-2015, 20:19
La cosa assurda è che Nvidia stava per lanciare alcune varianti di 960 TI, dopo sorto questo problema sono misteriosamente sparite e l'unica soluzione potrebbe essere la 960 da 4gb.
Sinceramente con tutte le proposte di AMD(ok sono per lo più rebrand) Nvidia rimarrà con una sola scheda nella fascia media
Sempre da 3.5+0.5...
Nvidia "Rivoluzioneremo il gaming". Annuncio in arrivo
http://www.tomshw.it/cont/news/nvidia-rivoluziona-il-gaming-annuncio-a-sorpresa-in-arrivo/62464/1.html
E se lo dicono loro ... :sofico:
Finalmente scriveranno le specifiche vere delle schede :sofico:
AndreaMan
12-02-2015, 20:36
si sbrigassero a dare una data precisa e a far sapere se uscirà questo benedetto gm200 entro o dopo il q2
francisco9751
12-02-2015, 21:17
sicuro un tablet..
Scusate, ma scherzate vero? Come può essere un tablet se parla di rivoluzione del gaming? Il lancio del tablet alle prossime olimpiadi? O è una nuova super architettura che permette di andare oltre le consuete tecniche di sviluppo e di resa dei videogiochi, portandoli ad un nuovo livello ( anche se mi sembra un'ipotesi banale ), oppure bisogna dare peso alla parola che hanno scelto, e cioè "rivoluzione"; ora, anche volendoci contare un pò di strilloneria da marketing, rimane una parola che ha un significato abbastanza chiaro: non può essere qualcosa di suale e che già esiste, o perlomeno deve essere qualcosa che anche rientrando in schemi e canoni sotto certi aspetti ne stravolga o ne potenzi l'efficacia in maniera notevole. Io pubnto su una qualche periferica alla oculus, magari l'olografica.. boh.
Oppure sparano cazzate, sempre possibile.
maxmix65
12-02-2015, 22:39
Scusate, ma scherzate vero? Come può essere un tablet se parla di rivoluzione del gaming? Il lancio del tablet alle prossime olimpiadi? O è una nuova super architettura che permette di andare oltre le consuete tecniche di sviluppo e di resa dei videogiochi, portandoli ad un nuovo livello ( anche se mi sembra un'ipotesi banale ), oppure bisogna dare peso alla parola che hanno scelto, e cioè "rivoluzione"; ora, anche volendoci contare un pò di strilloneria da marketing, rimane una parola che ha un significato abbastanza chiaro: non può essere qualcosa di suale e che già esiste, o perlomeno deve essere qualcosa che anche rientrando in schemi e canoni sotto certi aspetti ne stravolga o ne potenzi l'efficacia in maniera notevole. Io pubnto su una qualche periferica alla oculus, magari l'olografica.. boh.
Oppure sparano cazzate, sempre possibile.
:D Se accendi la Tv basta sintonizzarsi su qualsiasi dei Tg controllati e ne senti quante ne vuoi di cazz@te ..
Mica bisogna aspettare il 3 marzo :p
mikael84
12-02-2015, 22:44
Sempre da 3.5+0.5...
La 970 l'hanno voluta tagliare per non stare a ridosso della 980, la 980M(notebook) con 1536cuda non risulta decurtata di rops e cache dallo schema.
Con il taglio la 970 ha 1664cuda-56rops ma solo 52 funzionanti(16+12+12+12) ed il bus che passa da 224 a 192bit superati i 3530mb perchè i 2 MC(7 e 8)dialogano assieme e non possono essere letti simultaneamente
In definitiva se avessero creato il chip 1536/64/256, sarebbe andato più della 970.
Io mi aspettavo l'erede della 660 con un chip da 1280/48/192 e 3gb:)
si sbrigassero a dare una data precisa e a far sapere se uscirà questo benedetto gm200 entro o dopo il q2
Entro l'estate esce sicuro, non ci resta che attendere ancora ma già da metà marzo dovremmo saperne di più.
E'tutto concordato con AMD per le uscite ormai è chiaro
illidan2000
12-02-2015, 23:00
Alla fine dei conti, paghi per quello che hai, insomma. Le 970 avevano un costo troppo basso, qualcosa in meno delle 980 dovevano pur avere, così come le 670 dalle 680...il prezzo di mercato rispecchia le prestazioni. E in casa nvidia e il Best buy al momento. In assoluto, le 290 forse hanno un value-for-money ancora migliore però (tralasciando il discorso consumi e calore, che viceversa in sli/crossfire diventa fondamentale)
La tv non la guardo più, solo di tanto in tanto il TG di La7 per quel pò di fiducia che ho nella professionalità di Mentana.
Comunque no, non può essre una nuova architettura, hanno la roadmap e stop.
La fisica ce l'hanno, Physx o come si chiama.
I driver sono OK
Hanno lo Shield, che non ho capito che cosa sia.
Hanno Gameworks per sbrilluccicherie e amenità varie.
G-sync per il malefico stutter.
Arriveranno le DX12, AMD ha lanciato la sua roba ottimizzante da un pezzo, non credo vogliano scimmiottare AMD ed entrare così con un terzo elemento, e poi adesso, per ultimi, che novità sarebbe? E poi sai che casino.
Quindi? Che metteranno in tavola?
sicuro me lo ricordo l'evolutivo tegra 3 sul mio tf 300.
lol.
certo fa girare bene l'emulatore psp, ma preferivo giocare sulla psp.
spero non sia l'n tablet per giocare, inutili.
mikael84
12-02-2015, 23:16
Alla fine dei conti, paghi per quello che hai, insomma. Le 970 avevano un costo troppo basso, qualcosa in meno delle 980 dovevano pur avere, così come le 670 dalle 680...il prezzo di mercato rispecchia le prestazioni. E in casa nvidia e il Best buy al momento. In assoluto, le 290 forse hanno un value-for-money ancora migliore però (tralasciando il discorso consumi e calore, che viceversa in sli/crossfire diventa fondamentale)
Si sono un best buy, e te sai benissimo il costo delle 780 all'uscita, a quel prezzo ci prendevi appena una 770 da 2gb.
Rimane tuttavia la pubblicità ingannevole ma alla fine hai 3,5gb veloci(meglio della 780 a sto punto) ed 1gb gddr5(superati i 3,5gb) a 0,28ns anzichè caricato in ram ddr3 con accesso da 50ns(nei giochi è più una questione di latenza che di banda, questa sta alla fine al 30%, solo dove cade la banda cadono le prestazioni).
Alla fine per chi acquista da 0 o viene da schede vecchie non è male in rapporto agli altri anni
Therinai
12-02-2015, 23:36
Si sono un best buy, e te sai benissimo il costo delle 780 all'uscita, a quel prezzo ci prendevi appena una 770 da 2gb.
Rimane tuttavia la pubblicità ingannevole ma alla fine hai 3,5gb veloci(meglio della 780 a sto punto) ed 1gb gddr5(superati i 3,5gb) a 0,28ns anzichè caricato in ram ddr3 con accesso da 50ns(nei giochi è più una questione di latenza che di banda, questa sta alla fine al 30%, solo dove cade la banda cadono le prestazioni).
Alla fine per chi acquista da 0 o viene da schede vecchie non è male in rapporto agli altri anni
:confused:
AndreaMan
13-02-2015, 00:40
Mi pare tutto troppo veloce....sicuri che gm200 non sarà realmente disponibile solo in autunno?
Io la butto lì, mi paiono veramente troppo ravvicinate le uscite.
Inviato dal mio Nexus 6
Quindi? Che metteranno in tavola?
Acquisizione della divisione Graphics Unit di AMD :sofico: :sofico: :sofico:
TigerTank
13-02-2015, 08:44
se parla di rivoluzione del gaming?
Ma sì ragazzi...alla fine queste sono tutte formule cazzare di marketing.
Ormai usano ovunque formule del genere, dall'auto che rivoluziona il tuo modo di guidare al rasoio che rivoluziona il tuo modo di fare la barba :sofico:
Finalmente scriveranno le specifiche vere delle schede :sofico:
ha vinto :asd:
Leggo che non molti si aspettano nuove vga da Nvidia a marzo.. Io se tutt va bene riuscirò a brevisismo a restituire entrambe le mie 970. Compro una 980 o aspetto? La data importante è il 24 marzo, per quel giorno devo avere la scheda video nel PC pronta per far partire gta 5 :asd: ma non capisco cosa mi convenga fare.
Leggo che non molti si aspettano nuove vga da Nvidia a marzo.. Io se tutt va bene riuscirò a brevisismo a restituire entrambe le mie 970. Compro una 980 o aspetto? La data importante è il 24 marzo, per quel giorno devo avere la scheda video nel PC pronta per far partire gta 5 :asd: ma non capisco cosa mi convenga fare.
con i soldi dello sli pigliati una hof è una cannonata anche ad aria ;)
con i soldi dello sli pigliati una hof è una cannonata anche ad aria ;)
Ma ne vale la pena? 700 euro di 980? :mbe:
E poi dove lo becco uno store affidabile che la ha?
illidan2000
13-02-2015, 10:29
Leggo che non molti si aspettano nuove vga da Nvidia a marzo.. Io se tutt va bene riuscirò a brevisismo a restituire entrambe le mie 970. Compro una 980 o aspetto? La data importante è il 24 marzo, per quel giorno devo avere la scheda video nel PC pronta per far partire gta 5 :asd: ma non capisco cosa mi convenga fare.
penso che verso maggio vedremo le Titan2, e settembre le nuove x80...
Ma ne vale la pena? 700 euro di 980? :mbe:
E poi dove lo becco uno store affidabile che la ha?
secondo me si perche comunque se volessi passare ad una Ti "eventuale" non rivendi la hof a 400€ con 2 mesi di utilizzo
Sullo store ti do ragione è il problema per cui io ancora titubo
cè sempre la classy :fagiano:
Lol 200 euro in piu per forse 50mhz rispetto ad una reference :asd: tieniti una 970 e quando escono i chipponi verdi e rossi decidi...
Lol 200 euro in piu per forse 50mhz rispetto ad una reference :asd: tieniti una 970 e quando escono i chipponi verdi e rossi decidi...
Nvidia lavora come una santa per darci del meglio del nostro meglio, non come la granarolo che mette 50%di latte in polvere, invece che sviluppare tecnologie militari di controllo.
Peggio la granarolo!!!
Certo ego lo scappellamento a destra dove lo lasciamo? Ti piace un mondo cosssí?!?!
Certo ego lo scappellamento a destra dove lo lasciamo? Ti piace un mondo cosssí?!?!
Senti tu pensa a lanciare heaven per 50 minuti @1.4v, senza ventole sopra fisicamente, e dimmi quanti wurstel riesci a fare.
Il tuo amichetto, o amichetta, m'ha dato un'idea rivoluzionaria!!!
Il mio sogno è aprire un banchettino di panini fuori dal british musem, e con una r9 penso di poterlo realizzare.
Legolas84
13-02-2015, 17:00
Senti tu pensa a lanciare heaven per 50 minuti @1.4v, senza ventole sopra fisicamente, e dimmi quanti wurstel riesci a fare.
Il tuo amichetto, o amichetta, m'ha dato un'idea rivoluzionaria!!!
Il mio sogno è aprire un banchettino di panini fuori dal british musem, e con una r9 penso di poterlo realizzare.
Lol
Inviato dal mio iPhone utilizzando Tapatalk
Senti tu pensa a lanciare heaven per 50 minuti @1.4v, senza ventole sopra fisicamente, e dimmi quanti wurstel riesci a fare.
Il tuo amichetto, o amichetta, m'ha dato un'idea rivoluzionaria!!!
Il mio sogno è aprire un banchettino di panini fuori dal british musem, e con una r9 penso di poterlo realizzare.
muoio:sofico:
"Nvidia’s officially launching a device on 3 March, and it’s likely to be a tablet"
mobile gaming (Nvidia Tegra X1 chipset)
"Nvidia’s officially launching a device on 3 March, and it’s likely to be a tablet"
mobile gaming (Nvidia Tegra X1 chipset)
Speriamo sia falsa come notizia .... Che delusione :(
Il nabbo di turno
14-02-2015, 07:40
Speriamo sia falsa come notizia .... Che delusione :(
Non si può campare solo di vga, e poi, l'evento apposito per gm200 sarà a fine marzo ;).
francisco9751
14-02-2015, 08:40
ve l avevo detto :3
ma qualcuno non ci credeva,eppure ogni anno gli annuci bene o male son sempre gli stessi, rivoluzione di qua di là, oppure il miglior dispositivo di sempre...
Inviato dal mio LG-D802 utilizzando Tapatalk
Goofy Goober
14-02-2015, 08:55
Speriamo sia falsa come notizia .... Che delusione :(
beh ovvio, il mondo gioca sul cellulare pagando milioni sui giochini pay-to-continue-to-play :asd:
paolox86
14-02-2015, 09:22
beh ovvio, il mondo gioca sul cellulare pagando milioni sui giochini pay-to-continue-to-play :asd:
Purtroppo è vero. Questa è la peggiore strada che il mondo videoludico potesse prendere, il mio timore è che anche i giochi tripla A su pc e console possano prendere questa direzione. A quel punto dovrò cercarmi un altro hobby
TigerTank
14-02-2015, 09:48
beh ovvio, il mondo gioca sul cellulare pagando milioni sui giochini pay-to-continue-to-play :asd:
Quoto...purtroppo è quello l'andazzo. Basta vedere il successone che stanno avendo app tipo Candy Crush e simili con utili addirittura superiori alle loro stesse stime. Quei giochini sono malefici, arriva il livello impestato che uno non riesce a superare in modalità "free" e via, parte la carta di credito/prepagata :D
Diventano una droga...e so cosa vuol dire perchè ho rischiato di cascarci pure io in world of tanks quando non riuscivo più a combinare nulla causa presenza di gente straripante di contenuti premium.
Per il resto comunque anche il fatto che ormai adsl+wifi siano uno standard casalingo non fa che agevolare il gaming mobile....così uno non deve mettere in pausa e abbandonare la postazione quando ad esempio deve andare sulla tazza! :sofico:
"Nvidia’s officially launching a device on 3 March, and it’s likely to be a tablet"
mobile gaming (Nvidia Tegra X1 chipset)
Aaaaaaaaaaaaaaaaaaaaaaaaaaargh :muro:
Il Toilet nooooooo :(
Quoto...purtroppo è quello l'andazzo. Basta vedere il successone che stanno avendo app tipo Candy Crush e simili con utili addirittura superiori alle loro stesse stime. Quei giochini sono malefici, arriva il livello impestato che uno non riesce a superare in modalità "free" e via, parte la carta di credito/prepagata :D
Diventano una droga...e so cosa vuol dire perchè ho rischiato di cascarci pure io in world of tanks quando non riuscivo più a combinare nulla causa presenza di gente straripante di contenuti premium.
Per il resto comunque anche il fatto che ormai adsl+wifi siano uno standard casalingo non fa che agevolare il gaming mobile....così uno non deve mettere in pausa e abbandonare la postazione quando ad esempio deve andare sulla tazza! :sofico:
Ieri streammavo proprio steam sul tab dal muletto, così per prova, tw2. Ero sul divano e all'improvviso... Patatracchete!!! Son dovuto flashare sulla tazza... Tablet e pad x360 alla mano e via!!!! Corri corri corri!!!
Poi per spingere il pad 360 è ottimo, bello robusto, stringevo le mani, strizzato gli addominali, e... Non puoi immaginare!!!
Edit: dimenticavo anche l'urlo alla rocky, con bocca deformata ed esclamazione distorta "adruiauiniaaa", solo era più un "mhhaaaauuuuuhmmmpff".
Però adesso avendo un pc solo, ho sottratto tutti i dispositivi alla donna che ha ripiegato su candy crysh sull'iphone.
Ecco magari con un tablet nvidia, eviterei tutto questo :)
Nvidia si prodiga sempre per darci il meglio ;)
anche sulla tazza!!! :D
Nvidia si prodiga sempre per darci il meglio ;)
si si certo come vga con specifiche taroccate e moduli gsync che sono niente piu' niente meno dei moduli drm che costano 300 euro :asd: :asd:
si si certo come vga con specifiche taroccate e moduli gsync che sono niente piu' niente meno dei moduli drm che costano 300 euro :asd: :asd:
Dimentichi che funzionano, al cotrario di altre certe "azienducole" ;)
Un bacio
Non si può campare solo di vga, e poi, l'evento apposito per gm200 sarà a fine marzo ;).
e disponibile l'estate... quindi non ammazzano cosi veloce il GM204:stordita:
appleroof
14-02-2015, 11:59
Ieri streammavo proprio steam sul tab dal muletto, così per prova, tw2. Ero sul divano e all'improvviso... Patatracchete!!! Son dovuto flashare sulla tazza... Tablet e pad x360 alla mano e via!!!! Corri corri corri!!!
Poi per spingere il pad 360 è ottimo, bello robusto, stringevo le mani, strizzato gli addominali, e... Non puoi immaginare!!!
Edit: dimenticavo anche l'urlo alla rocky, con bocca deformata ed esclamazione distorta "adruiauiniaaa", solo era più un "mhhaaaauuuuuhmmmpff".
Però adesso avendo un pc solo, ho sottratto tutti i dispositivi alla donna che ha ripiegato su candy crysh sull'iphone.
Ecco magari con un tablet nvidia, eviterei tutto questo :)
Nvidia si prodiga sempre per darci il meglio ;)
anche sulla tazza!!! :D
:rotfl:
Ieri streammavo proprio steam sul tab dal muletto, così per prova, tw2. Ero sul divano e all'improvviso... Patatracchete!!! Son dovuto flashare sulla tazza... Tablet e pad x360 alla mano e via!!!! Corri corri corri!!!
Poi per spingere il pad 360 è ottimo, bello robusto, stringevo le mani, strizzato gli addominali, e... Non puoi immaginare!!!
Edit: dimenticavo anche l'urlo alla rocky, con bocca deformata ed esclamazione distorta "adruiauiniaaa", solo era più un "mhhaaaauuuuuhmmmpff".
Però adesso avendo un pc solo, ho sottratto tutti i dispositivi alla donna che ha ripiegato su candy crysh sull'iphone.
Ecco magari con un tablet nvidia, eviterei tutto questo :)
Nvidia si prodiga sempre per darci il meglio ;)
anche sulla tazza!!! :D
ahahahah :doh: :eek: :rotfl:
magnusll
14-02-2015, 12:27
Purtroppo è vero. Questa è la peggiore strada che il mondo videoludico potesse prendere, il mio timore è che anche i giochi tripla A su pc e console possano prendere questa direzione. A quel punto dovrò cercarmi un altro hobby
Confronta Assasin's Creed 356 con Child of Light (entrambi Ubisoft) e vedrai che siamo ancora lontani da un simile scenario.
Ieri streammavo proprio steam sul tab dal muletto, così per prova, tw2. Ero sul divano e all'improvviso... Patatracchete!!! Son dovuto flashare sulla tazza... Tablet e pad x360 alla mano e via!!!! Corri corri corri!!!
Poi per spingere il pad 360 è ottimo, bello robusto, stringevo le mani, strizzato gli addominali, e... Non puoi immaginare!!!
Edit: dimenticavo anche l'urlo alla rocky, con bocca deformata ed esclamazione distorta "adruiauiniaaa", solo era più un "mhhaaaauuuuuhmmmpff".
Però adesso avendo un pc solo, ho sottratto tutti i dispositivi alla donna che ha ripiegato su candy crysh sull'iphone.
Ecco magari con un tablet nvidia, eviterei tutto questo :)
Nvidia si prodiga sempre per darci il meglio ;)
anche sulla tazza!!! :D
dimentichi quell'odore finale di vittoria :asd:
Se puntano anche sui tablet non ci vedo nulla di male, tanto lo sviluppo è indipendente da gm.
I giochi pc belli e i porting brutti, come giochi brutti pc e porting belli, continueranno ad uscire... Sempre
Goofy Goober
14-02-2015, 12:52
Se puntano anche sui tablet non ci vedo nulla di male, tanto lo sviluppo è indipendente da gm.
I giochi pc belli e i porting brutti, come giochi brutti pc e porting belli, continueranno ad uscire... Sempre
ma una cosa positiva c'è, lo SHIELD tablet oggi è tra i migliori, se non il migliore, tablet dal rapporto prezzo-hardware venduto... e ha pure il pennino accluso (seppur non paragonabile a quello dei note).
il problema è che restano appunto, tablet.... io volevo comprarlo ma non lo farò finchè non avrà un sistema di controllo accluso che lo trasformi in una specie di console portatile usabile on-the-fly, e con giochi "decenti".
i giochi per android mi fanno vomitare a spandente.
TigerTank
14-02-2015, 13:20
Ieri streammavo proprio steam sul tab dal muletto, così per prova, tw2. Ero sul divano e all'improvviso... Patatracchete!!! Son dovuto flashare sulla tazza... Tablet e pad x360 alla mano e via!!!! Corri corri corri!!!
Poi per spingere il pad 360 è ottimo, bello robusto, stringevo le mani, strizzato gli addominali, e... Non puoi immaginare!!!
Edit: dimenticavo anche l'urlo alla rocky, con bocca deformata ed esclamazione distorta "adruiauiniaaa", solo era più un "mhhaaaauuuuuhmmmpff".
Però adesso avendo un pc solo, ho sottratto tutti i dispositivi alla donna che ha ripiegato su candy crysh sull'iphone.
Ecco magari con un tablet nvidia, eviterei tutto questo :)
Nvidia si prodiga sempre per darci il meglio ;)
anche sulla tazza!!! :D
Eheheheh tu scherzi ma guarda che è così....ormai un sacco di gente ha praticamente lo smartphone/tablet come equivalente di un impianto borg :asd:
E pure in bagno mentre un tempo si portava un giornale o una rivista, ora si porta lo smartphone/tablet.
Cmq non ce n'è...la comodità dei tablet è indiscussa e di sicuro crescerà anche la domanda per il gaming di un certo livello in mobilità, soppiantando gli ormai obsoleti e meno comodi portatili :)
Nvidia si prodiga per massimizzare i propri utili e le proprie fette di mercato, così come fanno tutti :D
ma una cosa positiva c'è, lo SHIELD tablet oggi è tra i migliori, se non il migliore, tablet dal rapporto prezzo-hardware venduto... e ha pure il pennino accluso (seppur non paragonabile a quello dei note).
il problema è che restano appunto, tablet.... io volevo comprarlo ma non lo farò finchè non avrà un sistema di controllo accluso che lo trasformi in una specie di console portatile usabile on-the-fly, e con giochi "decenti".
i giochi per android mi fanno vomitare a spandente.
Esatto anche a me interessa ma che abbia dei controlli decenti e fisicamente integrati a dovere.
Ovviamente non per i giochini p2win :)
@tiger: nono, non scherzo, ieri ho fatto proprio così! Tw2 era per prova, ma se avessi lanciato grid, a quest'ora starei sempre sulla tazza a giocare :D
Viva il taZblet :asd: !!!
appleroof
14-02-2015, 13:24
ma una cosa positiva c'è, lo SHIELD tablet oggi è tra i migliori, se non il migliore, tablet dal rapporto prezzo-hardware venduto... e ha pure il pennino accluso (seppur non paragonabile a quello dei note).
il problema è che restano appunto, tablet.... io volevo comprarlo ma non lo farò finchè non avrà un sistema di controllo accluso che lo trasformi in una specie di console portatile usabile on-the-fly, e con giochi "decenti".
i giochi per android mi fanno vomitare a spandente.
Puoi pure farci lo stream da PC però, comodo per situazioni alla egounix :D o spaparanzato sul divano... Pur riconoscendo questo cmq per ora non mi attira per nulla un domani chissà
TigerTank
14-02-2015, 13:28
Puoi pure farci lo stream da PC però, comodo per situazioni alla egounix :D o spaparanzato sul divano... Pur riconoscendo questo cmq per ora non mi attira per nulla un domani chissà
Verissimo, pure io lo faccio con il tablet....manca giusto il lato gaming :D
In ogni caso accanto a gaming su pc e su console, il gaming mobile "sempre e dovunque" ha di sicuro un mercato da arraffare.
Poi certo...ci sono cose insostituibili come giocare ad un fps con mouse e tastiera. Via touch/pad non ci riuscirei mai.
Magari verrà più facile alle nuove generazioni che iniziano in queste circostanze.
appleroof
14-02-2015, 13:32
Verissimo, pure io lo faccio con il tablet....manca giusto il lato gaming :D
In ogni caso accanto a gaming su pc e su console, il gaming mobile "sempre e dovunque" ha di sicuro un mercato da arraffare.
Poi certo...ci sono cose insostituibili come giocare ad un fps con mouse e tastiera. Via touch/pad non ci riuscirei mai.
Magari verrà più facile alle nuove generazioni che iniziano in queste circostanze.
Si infatti, è pure un discorso di periferiche di controllo, sono vecchio ormai :D
e disponibile l'estate... quindi non ammazzano cosi veloce il GM204:stordita:
hai centrato il nocciolo della questione ..se esce adesso gm200 non vendono piu le 980, le ammazzerebbero a pochi mesi dal debutto
TigerTank
14-02-2015, 13:38
Si infatti, è pure un discorso di periferiche di controllo, sono vecchio ormai :D
Anch'io :D
Non dimentichiamo anche la questione risoluzione, di sicuro non sarà mai come giocare su un monitor o una tv...a meno che non compensino la cosa con un'evoluzione massiccia dei dispositivi ottici di realtà virtuale.
In quel caso....borg totali :asd:
killeragosta90
14-02-2015, 13:51
Non si può campare solo di vga, e poi, l'evento apposito per gm200 sarà a fine marzo ;).
Si parla di 17-20 marzo! :)
illidan2000
14-02-2015, 14:19
Anch'io :D
Non dimentichiamo anche la questione risoluzione, di sicuro non sarà mai come giocare su un monitor o una tv...a meno che non compensino la cosa con un'evoluzione massiccia dei dispositivi ottici di realtà virtuale.
In quel caso....borg totali :asd:
Beh, oramai smartphones e tablet top di gamma sono a 2k. Se metti che la dimensione è molto minore del monitor, è come se giochi su un 4k
Il nabbo di turno
14-02-2015, 17:00
Si parla di 17-20 marzo! :)
Appunto ;).
TigerTank
14-02-2015, 20:37
Beh, oramai smartphones e tablet top di gamma sono a 2k. Se metti che la dimensione è molto minore del monitor, è come se giochi su un 4k
Sì scusa, in effetti ho sbagliato, intendevo dire la dimensione. Giocare su quegli schermi non è come su un 27-30" o più :D
Devourer88
15-02-2015, 00:05
gm200 dovrebbe scaldare parecchio in caso di overclock, da evitare le versioni stock e occate con voltaggi limitanti. si sa' il bus e la ram che dovrebbero utilizzare?
Si parla di 17-20 marzo! :)
Ma come? Ma allora aspetto di vedere cosa fanno e poi vedo se prendere la 980 o quelle nuove..che palle però, manca un mese
Fine Marzo per la presentazione, poi bisognerà vedere la disponibilità, e l'uscita delle versioni custom, quindi sarà molto più di un mese...
E poi, da quello che si legge su internet, non sarà il vero Full Maxwell, per cui bisognerà aspettare ancora un bel po'...
Io fossi in te, prenderei una bella 980 che potrai goderti per più di un anno tranquillamente, e al massimo, o farai uno SLI trovandola a prezzo più basso, oppure la cambierei nel 2016 ;)
Inviato dal mio iPhone utilizzando Tapatalk
Sì infatti anche perchè se uno sta sempre ad aspettare non compra più niente. Andiamo di 980 singola per il momento e poi si vedrà, anche perchè mi son rotto le balle di pensare a ste schede video :D :sofico:
Legolas84
15-02-2015, 21:23
In Germania le HOF sono andate in esaurimento.... chissà se è per che tra qualche settimana ci saranno novità :D
:D :D
E poi bisognerà vedere che giochi faranno, se il 4k sarà sfruttato a dovere, etc...I fattori sono molteplici...
Adesso con la 980 giochi bene in 2k, e forse 30fps nel 4k li fai, poi nel futuro, quando cominceranno a programmare giochi come si deve (si spera), allora ci sarà il nuovo super chippone disponibile :D
In ogni caso sono curioso di vedere come andranno, ma sicuramente non le prenderò ;)
Vado stra bene con una 970 e una 980, rispettivamente per 1080p e 1440p ;)
con dx12 le 980 daranno soddisfazioni anche in 4k :asd:
con dx12 le 980 daranno soddisfazioni anche in 4k :asd:
Si spera, ma quando escono ste DX12?
Si spera, ma quando escono ste DX12?
esclusiva windows10 “back to school” settembre 2015, rtm già a giugno
esclusiva windows10 “back to school” settembre 2015, rtm già a giugno
Ah, addirittura? Pensavo almeno Windows 8... Poco male, farò una bella formattata e clean install per l'occasione :asd:
esclusiva windows10 “back to school” settembre 2015, rtm già a giugno
La rtm si potra' gia' utilizzare e sara' identica a quella di settembre ?
mircocatta
16-02-2015, 14:17
Se comprate una 980 con la speranza che in dx12 rullerà ancora mi sa che state freschi :asd:
prima di vedere titoli dx12 ottimizzati mi sa che passerà almeno un annetto dopo windows10... per non parlare di giochi che "sommano" la vram di due vga in parallelo grazie alle dx12...sarà possibile sulla carta ma la vedo difficile che venga implementato a dovere fino a renderlo conveniente
prima di vedere titoli dx12 ottimizzati mi sa che passerà almeno un annetto dopo windows10...
Fai pure due (ma io scommetto 3... quanto c'è voluto per avere giochi only-dx11?... e ancora adesso escono giochi dx9!) ... :O
Comunque sarà un lasso di tempo tale, da rendere le 980 pezzi di hardware che nessuno qua dentro si sognerebbe di tenere ancora nel case (visto il ritmo di "ricambio" a cui assiste qua sul forum)
Il nabbo di turno
16-02-2015, 14:35
Con i chipponi alle porte, imho la 980 ora non ha senso, e quando ci saranno le titan 2 e 390x, la 980 costerà molto meno.
Beh una 980 adesso non ha senso? Ma come? Cioè quanto tempo passerà prima di vedere le nuove schede 1) presentate 2) commercializzate 3) testate per bene (prima che ci troviamo ancora con sorprese stile 970) 4) vendute da produttori tipo gigabyte e compagnia.
4,5 mesi?
mircocatta
16-02-2015, 14:59
Beh una 980 adesso non ha senso? Ma come? Cioè quanto tempo passerà prima di vedere le nuove schede 1) presentate 2) commercializzate 3) testate per bene (prima che ci troviamo ancora con sorprese stile 970) 4) vendute da produttori tipo gigabyte e compagnia.
4,5 mesi?
Beh se non ho capito male tempo un mese e mezzo e amd presenta qualcosa di grosso, ma non sto dicendo che non ha senso acquistare una 980, dico che non ha senso acquistarla pensando alle prestazioni che avrà in dx12
Beh se non ho capito male tempo un mese e mezzo e amd presenta qualcosa di grosso, ma non sto dicendo che non ha senso acquistare una 980, dico che non ha senso acquistarla pensando alle prestazioni che avrà in dx12
no vabbè, ignoro quasi completamente cosa porterà il dx12 come miglioramenti quindi su quello hai sicuramente ragione. E' che voglio liberarmi delle 970, e ho bisogno di andare avanti. Volevo uno SLI di 980 ma non ha senso, e la spesa è esageratamente esagerata. Ne prendo una sola e via.. Mi sono veramente rotto di diventare matto con ste schede video e non voglio finire a cambiarle ogni anno. :muro: Alla fine ho tirato 7 anni con una 4870, non voglio avere sempre il massimo ogni anno, voglio fare un acquisto che mi duri nel tempo anche a costo di dover già sacrificare qualche dettaglio l'anno prossimo... ma mi basta che duri e che almeno all'inizio spacchi :read: :asd:
mircocatta
16-02-2015, 15:06
no vabbè, ignoro quasi completamente cosa porterà il dx12 come miglioramenti quindi su quello hai sicuramente ragione. E' che voglio liberarmi delle 970, e ho bisogno di andare avanti. Volevo uno SLI di 980 ma non ha senso, e la spesa è esageratamente esagerata. Ne prendo una sola e via.. Mi sono veramente rotto di diventare matto con ste schede video e non voglio finire a cambiarle ogni anno. :muro: Alla fine ho tirato 7 anni con una 4870, non voglio avere sempre il massimo ogni anno, voglio fare un acquisto che mi duri nel tempo anche a costo di dover già sacrificare qualche dettaglio l'anno prossimo... ma mi basta che duri e che almeno all'inizio spacchi :read: :asd:
beh visto che avevi già due 970 se fossi stato in te avrei aspettato la nuova amd (anzi, è esattamente quello che sto facendo), fino a quel momento avresti comunque giocato ottimamente (anzi diciamocelo: con due 970 si gioca divinamente anche in 4k percui...!) e sicuramente la 390x darà la polvere alle 980 con una spesa non troppo distante da esse com'è solita fare AMD :)
per di più che vieni da una 4870 per cui non sei riluttante alle rosse e immagino che ben sai che le dicerie sui pessimi driver sono al 90% fuffa (vedendo cosa combina poi nvidia ultimamente con driver e hardware..)
beh visto che avevi già due 970 se fossi stato in te avrei aspettato la nuova amd (anzi, è esattamente quello che sto facendo), fino a quel momento avresti comunque giocato ottimamente e sicuramente la 390x darà la polvere alle 980 con una spesa non troppo distante da esse come è solita fare AMD :)
per di più che vieni da una 4870 per cui non sei riluttante alle rosse e immagino che ben sai che le dicerie sui pessimi driver sono al 90% fuffa (vedendo cosa combina poi nvidia ultimamente con driver e hardware..)
No no, non volevo che gli shop mi dicessero che era troppo tardi per il rimborso e ho preferito darle indietro il prima possibile. (Tra l'altro una la ho ancora qua e sto aspettando notizie dallo shop)
Poi ok, le nuove AMD le cacceranno alla 980 però, la domanda è, quando caspita potrei averla nel mio case, magari versione custom, pronta all'uso? Il 24 marzo esce GTA 5 voglio esser pronto :read:
A sto punto allora torno ad avere il dubbio che mi convenga stare in singola fino all'uscita delle nuove vga?
Quasi quasi allora mi regalo un monitor nel frattempo :asd:
mircocatta
16-02-2015, 15:12
No no, non volevo che gli shop mi dicessero che era troppo tardi per il rimborso e ho preferito darle indietro il prima possibile. (Tra l'altro una la ho ancora qua e sto aspettando notizie dallo shop)
Poi ok, le nuove AMD le cacceranno alla 980 però, la domanda è, quando caspita potrei averla nel mio case, magari versione custom, pronta all'uso? Il 24 marzo esce GTA 5 voglio esser pronto :read:
A sto punto allora torno ad avere il dubbio che mi convenga stare in singola fino all'uscita delle nuove vga?
Quasi quasi allora mi regalo un monitor nel frattempo :asd:
Ti prude il portafogli vedo! :D
cmq per il 24 marzo penso che qualcosa di nuovo potebbe esserci già! e di solito le vga sono disponibili all'acquisto nel giorno che scade l'nda
curiosità OT: che schermo pensavi? anche io vorrei cambiarlo e pensavo ad un 27/28 4k ma per gaming ancora c'è poco e niente (credo ) :cry:
fr4nc3sco
16-02-2015, 15:26
Ti prude il portafogli vedo! :D
cmq per il 24 marzo penso che qualcosa di nuovo potebbe esserci già! e di solito le vga sono disponibili all'acquisto nel giorno che scade l'nda
curiosità OT: che schermo pensavi? anche io vorrei cambiarlo e pensavo ad un 27/28 4k ma per gaming ancora c'è poco e niente (credo ) :cry:
Sotto 32 il 4k e ridicolo.... almeno che non hai una vista da falco
mircocatta
16-02-2015, 15:27
Sotto 32 il 4k e ridicolo.... almeno che non hai una vista da falco
come ho già detto triliardi di volte voglio scordarmi dell'aliasing una volta per tutte via hardware, degli AA mi sono strarotto gli zebedei.. per cui l'unico modo è avere uno schermo con ppi molto alto come un 28 4k
A sto punto allora torno ad avere il dubbio che mi convenga stare in singola fino all'uscita delle nuove vga?
Mi pare te l'avessimo già detto... Mi domando cosa metta "in crisi" il tuo modo di giocare una singola 970! Io gioco da dio con una singola 7970!... "adattati" ed accontentati per un paio di mesi, via!
Poi chiaro... i soldi sono tuoi... se ne hai in abbondanza da sprecare, meglio per te e fai quelli che credi! :D
The Pein
16-02-2015, 15:36
Beh una 980 adesso non ha senso? Ma come? Cioè quanto tempo passerà prima di vedere le nuove schede 1) presentate 2) commercializzate 3) testate per bene (prima che ci troviamo ancora con sorprese stile 970) 4) vendute da produttori tipo gigabyte e compagnia.
4,5 mesi?
maggio giugno
Ti prude il portafogli vedo! :D
cmq per il 24 marzo penso che qualcosa di nuovo potebbe esserci già! e di solito le vga sono disponibili all'acquisto nel giorno che scade l'nda
curiosità OT: che schermo pensavi? anche io vorrei cambiarlo e pensavo ad un 27/28 4k ma per gaming ancora c'è poco e niente (credo ) :cry:
No mi sa che siamo su idee diverse :asd: a me serve 144 Hz (cioè lo vorrei così) e poi penso che mi accontenterei di 24 pollici, visto che ci sono abituato. e vorrei provare il G-SYNC. :D
Pensavo a questo: AOC G2460PG 24"
Ma se non ricordo male qualcuno aveva dei problemi.. Dovrei indagare.
Aggiudicato, aspetto :asd:
Ale55andr0
16-02-2015, 16:18
Non è confermata la compressione rops
se la 390 viene dichiarata come "gcn 1.3" mi aspetto minimo le stesse evoluzioni dell'architettura approntate in gcn 1.2, se non ulteriore affinamento della stessa, non il contrario :)
Ale55andr0
16-02-2015, 16:21
come ho già detto triliardi di volte voglio scordarmi dell'aliasing una volta per tutte via hardware, degli AA mi sono strarotto gli zebedei.. per cui l'unico modo è avere uno schermo con ppi molto alto come un 28 4k
non puoi però trascurare il problema dei fonts, cioè vedrai tutto minuscolo, non è una questione di sensato o meno il 4k su 27-28" ma di ergonomia ed affaticamento della vista. Comunque anche col 4k dubito che si potrà fare a meno del tuttodell'aa, magari ne basterà uno più blando, ma tenerlo spento...
mircocatta
16-02-2015, 16:26
non puoi però trascurare il problema dei fonts, cioè vedrai tutto minuscolo, non è una questione di sensato o meno il 4k su 27-28" ma di ergonomia ed affaticamento della vista. Comunque credo che anche col 4k dubito che si potrà fare a meno del tutto dell'aa, magari ne basterà uno più blando, ma tenerlo spento...
a desktop terrei full hd, il downscaling non dovrebbe essere traumantico visto la proporzione diretta 1:4
solo in game userei la risoluzione nativa del 4k..... sto provando il DSR a 4k e tutti i game per ora non hanno HUD microscopici, a quanto pare i giochi ad oggi sono 4k "addicted" cioè riscalano bene l' hud in base alla risoluzione scelta
questione AA: è vero, l'aliasing non sparirà, come non sparisce impostando un msaa8x sul mio 24 fullhd (ci sono rimasto male ma su far cry4 è così), per cui, tanto vale avere un 4k che darà sicuramente meno noie (e sarà qualitativamente migliore) anche se con un dispendio maggiore di performance
se confermato in estate arriva ! :eek:
"Which is to introduce the new products in the holiday season".
The most profitable season typically in the semiconductor industry and many others.
There has been no official confirmation from Nvidia about their upcoming GPUs, But gamers are expecting a Geforce GTX 980 Ti or GTX 990 model in the coming months. There are also reports that the GTX 980 Ti Apecs were leaked online.
GameDebate.com's John Sutton claimed that the GTX 980 Ti will be at least 50% percent faster than one of today's fastest single GPU cards on the market.
Sutton said "Initial specs (of the GTX 980 Ti) put this monstrous Maxwell-powered graphics card at roughly 50% more powerful than the GTX Titan Black. That's some serious power under the hood, but where does it all come from? Firstly, the GM200 GPU will be on a 551mm2 die, with an estimated 20-22 Streaming Multiprocessors Maxwell (SMM) giving a total of between 2560 and 2816 CUDA cores. This will all be on a 384-bit memory bus, up from the 256-bit bus seen on the GeForce GTX 980 and the GeForce GTX 970."
The powerful new graphics card from NVIDA will reportedly operate around 1753 MHz. Gaming sites are speculating that the Nvidia GTX 980 Ti will probably cost somewhere between $700 to $1,000, but the new features might hike the price.
Il nabbo di turno
17-02-2015, 18:06
50% mi sembra un po' troppo ottimistico come risultato, però è bello vedere il chip top di gamma all'opera!
killeragosta90
17-02-2015, 18:10
se confermato in estate arriva ! :eek:
"Which is to introduce the new products in the holiday season".
The most profitable season typically in the semiconductor industry and many others.
There has been no official confirmation from Nvidia about their upcoming GPUs, But gamers are expecting a Geforce GTX 980 Ti or GTX 990 model in the coming months. There are also reports that the GTX 980 Ti Apecs were leaked online.
GameDebate.com's John Sutton claimed that the GTX 980 Ti will be at least 50% percent faster than one of today's fastest single GPU cards on the market.
Sutton said "Initial specs (of the GTX 980 Ti) put this monstrous Maxwell-powered graphics card at roughly 50% more powerful than the GTX Titan Black. That's some serious power under the hood, but where does it all come from? Firstly, the GM200 GPU will be on a 551mm2 die, with an estimated 20-22 Streaming Multiprocessors Maxwell (SMM) giving a total of between 2560 and 2816 CUDA cores. This will all be on a 384-bit memory bus, up from the 256-bit bus seen on the GeForce GTX 980 and the GeForce GTX 970."
The powerful new graphics card from NVIDA will reportedly operate around 1753 MHz. Gaming sites are speculating that the Nvidia GTX 980 Ti will probably cost somewhere between $700 to $1,000, but the new features might hike the price.
Potresti postare la fonte gentilmente? Grazie :)
mikael84
17-02-2015, 18:11
se confermato in estate arriva ! :eek:
"Which is to introduce the new products in the holiday season".
The most profitable season typically in the semiconductor industry and many others.
There has been no official confirmation from Nvidia about their upcoming GPUs, But gamers are expecting a Geforce GTX 980 Ti or GTX 990 model in the coming months. There are also reports that the GTX 980 Ti Apecs were leaked online.
GameDebate.com's John Sutton claimed that the GTX 980 Ti will be at least 50% percent faster than one of today's fastest single GPU cards on the market.
Sutton said "Initial specs (of the GTX 980 Ti) put this monstrous Maxwell-powered graphics card at roughly 50% more powerful than the GTX Titan Black. That's some serious power under the hood, but where does it all come from? Firstly, the GM200 GPU will be on a 551mm2 die, with an estimated 20-22 Streaming Multiprocessors Maxwell (SMM) giving a total of between 2560 and 2816 CUDA cores. This will all be on a 384-bit memory bus, up from the 256-bit bus seen on the GeForce GTX 980 and the GeForce GTX 970."
The powerful new graphics card from NVIDA will reportedly operate around 1753 MHz. Gaming sites are speculating that the Nvidia GTX 980 Ti will probably cost somewhere between $700 to $1,000, but the new features might hike the price.
Fonte?
we non è che sono la farnesina :asd:
semplice cazz egio su glugle
anyway eccola
http://www.kpopstarz.com/articles/175211/20150216/gtx-980-ti-release-date-moved-2016-nvidia.htm
appleroof
17-02-2015, 18:46
Estate? Spero di no perchè potrebbe ritardare l'uscita delle 16nm...:fagiano:
Therinai
17-02-2015, 18:50
Pensavo a questo: AOC G2460PG 24"
Ma se non ricordo male qualcuno aveva dei problemi.. Dovrei indagare.
L'unico problema è che quel monitor vale 100€ ma ne costa 400. Con questo mi riferisco alle ultime rivelazioni secondo cui g-sync sia aria fritta, o meglio soldi rubati.
TigerTank
17-02-2015, 20:53
Mah....a me per ora sembra più che altro una sparata di gossip per cercare di sviare l'attenzione dalla pessima figuraccia con le gtx970 :stordita:
Nessun sito informatico autorevole riporta una notizia simile.
Io ho ricevuto l'autorizzazione per il reso della seconda (e ultima) delle mie 970. Ma nn so cosa fare!!!!!!!!!! Dovrei sicuramente prendere una sostituta, non voglio mettere dentro la HD4870 finchè non escono le 390 o chi per esso... Aiutooo cosa posso fare? Ho un po' di paura di "perderci" troppo a rivendere privatamente la 970 fra sei mesi :muro:
Legolas84
17-02-2015, 22:32
L'unico problema è che quel monitor vale 100 ma ne costa 400. Con questo mi riferisco alle ultime rivelazioni secondo cui g-sync sia aria fritta, o meglio soldi rubati.
Guarda che per ora a parte aria fritta non sono ancora riusciti a farlo funzionare sto g-sync senza modulo.... Quindi a parte tutte le fuffe lette in giro il modulo serve se si vuole il g-sync.....
Se non lo si vuole è un altro discorso.
Inviato dal mio iPhone utilizzando Tapatalk
Io ho ricevuto l'autorizzazione per il reso della seconda (e ultima) delle mie 970. Ma nn so cosa fare!!!!!!!!!! Dovrei sicuramente prendere una sostituta, non voglio mettere dentro la HD4870 finchè non escono le 390 o chi per esso... Aiutooo cosa posso fare? Ho un po' di paura di "perderci" troppo a rivendere privatamente la 970 fra sei mesi :muro:
metti la HD4870 dentro e aspetta il cippone ;) tanto se 390X la presentano a marzo, aprile/maggio sarà in vendita (speriamo :ciapet: )
sinceramente non credo possa uscire "per questa estate" (intendendo da giugno in poi) la "980Ti"...
come data massima sembra ragionevole aspettarsi da metà aprile ai primi di maggio se si vuol andare per le lunghe (quindi 2 mese/2 mesi e mezzo da ora), con un'uscita come the witcher 3 non vedo come possa nvidia perdere l'occasione per mostrare i "muscoli" con la top di gamma proprio in occasione di uno dei giochi più attesi dell'anno.
p.s. Buttandola lì, ci stà che il medesimo ragionamento si possa applicare a GTA V per AMD e le sue 3xx invece, dato che sembrano ancora più imminenti (e in fondo manca ancora 1 mesetto all'uscita di quel titolo su PC)
No Life King
18-02-2015, 07:15
Comunque anche col 4k dubito che si potrà fare a meno del tuttodell'aa, magari ne basterà uno più blando, ma tenerlo spento...
Pensa che io non uso quasi più l'AA pure sul mio 27" 1440p :asd:
con un'uscita come the witcher 3 non vedo come possa nvidia perdere l'occasione per mostrare i "muscoli" con la top di gamma proprio in occasione di uno dei giochi più attesi dell'anno.
Con la full Maxwell e 390/x forse riusciremo a giocarlo maxato a 60 fps su scheda singola :asd:
Guarda che per ora a parte aria fritta non sono ancora riusciti a farlo funzionare sto g-sync senza modulo.... Quindi a parte tutte le fuffe lette in giro il modulo serve se si vuole il g-sync.....
Se non lo si vuole è un altro discorso.
Inviato dal mio iPhone utilizzando Tapatalk
Aria fritta non proprio perche' senza modulo funziona sui notebook quindi evitiamo di fare disinformazione per cortesia e ci sono articoli e video che attestano la cosa mettendo in evidenza che il modulo non serve a una mazza.
Al momento l'autore della cosa sta lavorando per farlo funzionare su altri monitor e a detta sua su alcuni funziona.
fireradeon
18-02-2015, 11:21
Aria fritta non proprio perche' senza modulo funziona sui notebook quindi evitiamo di fare disinformazione per cortesia e ci sono articoli e video che attestano la cosa mettendo in evidenza che il modulo non serve a una mazza.
Al momento l'autore della cosa sta lavorando per farlo funzionare su altri monitor e a detta sua su alcuni funziona.
Vero, funziona sui notebook ma sui monitor meno. Io ho voluto provare per curiosità e sul Dell in firma non funziona pur avendo dp 1.2 e cavo dp 1.2 e il monitor è uscito dopo il 2010 come indicato dal tizio.
Cmq ricordiamoci che fare quello che ha fatto lui, equivale a craccare un gioco o una console perché i sistemi di protezione stanno li per un motivo, poi se a te il motivo non piace non lo compri, ma parliamo pur sempre di una cosa che non so quanto sia corretta.
Io il prossimo monitor me lo compro G-synch. Se vuoi una cosa la paghi altrimenti ti attacchi (imho).
killeragosta90
18-02-2015, 13:32
we non è che sono la farnesina :asd:
semplice cazz egio su glugle
anyway eccola
http://www.kpopstarz.com/articles/175211/20150216/gtx-980-ti-release-date-moved-2016-nvidia.htm
Ahhhh beh, fonte attendibilissima :asd:
Grazie comunque per la segnalazione! :)
magnusll
18-02-2015, 19:36
Io il prossimo monitor me lo compro G-synch. Se vuoi una cosa la paghi altrimenti ti attacchi (imho).
Mi sa che non ti e' chiaro il dettaglio che il Gsync di Nvidia, stando a quanto e' venuto fuori dopo la storia dei driver moddati, altro non sarebbe che un modulo DRM per bloccare quello che sarebbe il normale (e gratuito) funzionamento del freesync. E' per quello che la gente si e' incazzata.
Mi sa che non ti e' chiaro il dettaglio che il Gsync di Nvidia, stando a quanto e' venuto fuori dopo la storia dei driver moddati, altro non sarebbe che un modulo DRM per bloccare quello che sarebbe il normale (e gratuito) funzionamento del freesync. E' per quello che la gente si e' incazzata.
Quoto , mi hai fregato la scrittura dalle dita :D
Infatti è da vedere se i monitor freesync andranno anche con schede nvidia... Sai che beffa :asd:
Legolas84
18-02-2015, 23:56
Peccato poi che i famosi driver moddati che farebbero funzionare il g-sync non funzionino per nulla :asd:
Approfondite le le notizie non leggete solo gli scoop che poi si finisce con il fare disinformazione ;)
Il g-sync è un modulo necessario ad oggi che integra una tecnologia che sui monitor di oggi ancora non c'è e che consente il refresh adattivo. Sui monitor che stanno uscendo ora la tecnologia è già integrata bello scaler ma non si sa se nvidia voglia usare quella o continuare con la sua proprietaria che fa comunque la stessa cosa.
Ma il modulo g-sync non è un drm come qualche blog ha cercato di dire.... È esattamente la stessa tecnologia del free sync ma sviluppata in anticipo da nvidia. Ne più ne meno. I driver moddati che facevano apparire la bella scritta "schermo g-sync collegato" facevano appunto solo questo senza che il g-sync effettivamente funzionasse e davano problemi di frame rate e schermate nere lampeggianti.
Inviato dal mio iPhone utilizzando Tapatalk
appleroof
19-02-2015, 07:20
il freesync dovrebbe andare perchè dipende unicamente dalla DP 1.2a http://www.anandtech.com/show/8008/vesa-adds-adaptivesync-to-displayport-12a-standard-variable-refresh-monitors-move-forward
in teoria dunque, poichè è uno standard VESA, tutte le vga con dp1.2a dovrebbero supportarlo, poi non so se nVidia lo castrerà via driver/bios ma non sarebbe corretto
con il fatto che sia uno standard il freesync ha messo all'angolo il gsync c'è poco da dire, uno paga qualcosa in più per usarlo solo con vga nvidia, mentre l'altro sistema è gratis e lo puoi usare in teoria con qualcunque vga.....poi non so tra i due sistemi quale sia il più efficace questo toccherà aspettare review comparative :fagiano:
MrBrillio
19-02-2015, 07:42
corretto
con il fatto che sia uno standard il freesync ha messo all'angolo il gsync c'è poco da dire, uno paga qualcosa in più per usarlo solo con vga nvidia, mentre l'altro sistema è gratis e lo puoi usare in teoria con qualcunque vga.....poi non so tra i due sistemi quale sia il più efficace questo toccherà aspettare review comparative :fagiano:
Ecco, per tirare le conclusioni sarà davvero interessante vedere se il freesync funzionerà bene quanto il gsync....se non ricordo male quando uscì il gsync si parlava proprio del fatto che il metodo presentato da ati non funzionasse così bene per un limite di banda o qualcosa del genere boh :confused:
Comunque in ogni caso è stata una mossa commerciale da parte di Nvidia che gli avrà fruttato un bel po' di soldi...penso che chiunque avrebbe reso esclusiva per i propri prodotti una tecnologia del genere per guadagnare se ne avesse avuto l'occasione. Il freesync arriva dopo mesi e si spera che funzioni ugualmente bene, ma il fatto di farlo diventare uno standard piuttosto che qualcosa di esclusivo secondo me è una mossa quasi obbligatoria.
In ogni caso io stesso pur avendo speso un capitale per lo swift spero che il freesync funzioni bene, almeno mi sparo un bel 34" 21:9 non appena possibile, senza l'obbligo di dover cercare per forza qualche modello con gsync :D
TigerTank
19-02-2015, 08:24
Io semplicemente mi auguro che il gsync o diventi l'equivalente nvidia del freesync...e cioè un semplice supporto proprietario ad uno standard universale, o che vada in fallimento perchè il fatto che un orpello proprietario a pagamento blocchi uno standard vesa non credo piaccia a molti.
Per astratto sarebbe l'equivalente ad esempio del dover comprare un modulino esterno di bypass per poter usare l'hdmi sulla scheda.
appleroof
19-02-2015, 08:29
questo è davvero interessante, la posto qui ma potrei pure postarla nell' "aspettando le amd" perchè si parla genericamente di "unrelesead gpu" (certo che potevano lasciarlo aperto il thread sulle dx12 :fagiano: )
Brad Wardell, Stardock’s CEO has been tweeting some very interesting details about DirectX 12. Wardell mentioned that he saw a difference of over 100fps in a recent test, which was conducted using an unreleased GPU on a system that was, as he called it “way beyond console stuff”.
Read more: http://wccftech.com/directx-12-directx-11-100fps-difference-unreleased-gpu/#ixzz3SB4pDGJr
questo è davvero interessante, la posto qui ma potrei pure postarla nell' "aspettando le amd" perchè si parla genericamente di "unrelesead gpu" (certo che potevano lasciarlo aperto il thread sulle dx12 :fagiano: )
Brad Wardell, Stardock’s CEO has been tweeting some very interesting details about DirectX 12. Wardell mentioned that he saw a difference of over 100fps in a recent test, which was conducted using an unreleased GPU on a system that was, as he called it “way beyond console stuff”.
Read more: http://wccftech.com/directx-12-directx-11-100fps-difference-unreleased-gpu/#ixzz3SB4pDGJr
Su Tom's (http://www.tomshw.it/cont/news/directx-12-100-fps-in-piu-delle-directx-11-con-una-nuova-gpu/62583/1.html) scrivono che il tizio ha chiarito si trattasse di una config. Crossfire.
"Wardell afferma quindi di aver provato un core grafico di nuova generazione e di aver visto un enorme miglioramento prestazionale derivante dalla nuova API. In un altro tweet il dirigente ha chiarito che il PC usato aveva una configurazione CrossFire (le GPU perciò erano di AMD) e un processore Core i7 di ultima generazione."
magnusll
19-02-2015, 08:37
Ma il modulo g-sync non è un drm come qualche blog ha cercato di dire.... È esattamente la stessa tecnologia del free sync ma sviluppata in anticipo da nvidia.
Stando a quanto si legge, Nvidia non ha sviluppato un tubo. Ha preso pari pari le specifiche VESA del freesync e ci ha costruito sopra un modulino hardware con funzioni di DRM.
In pratica si e' messa d' accordo con i costruttori di monitor con un discorso tipo "ok voi mettete il cazzettino nostro sui vostri nuovi modelli che implementano il nuovo standard, noi blocchiamo le funzionalita' tramite driver a meno che non rilevino il nostro modulino, lo chiamiamo col fantastico nome marchettaro di G-Sync, carichiamo 200 euro in piu' ai polli e poi ci smezziamo il surplus".
appleroof
19-02-2015, 08:38
Su Tom's scrivono che il tizio ha chiarito si trattasse di una config. Crossfire.
ma forse si riferiscono alla seconda parte, quella in cui parla di multi gpu viste come una sola gpu?
MrBrillio
19-02-2015, 08:45
questo è davvero interessante, la posto qui ma potrei pure postarla nell' "aspettando le amd" perchè si parla genericamente di "unrelesead gpu" (certo che potevano lasciarlo aperto il thread sulle dx12 :fagiano: )
Brad Wardell, Stardock’s CEO has been tweeting some very interesting details about DirectX 12. Wardell mentioned that he saw a difference of over 100fps in a recent test, which was conducted using an unreleased GPU on a system that was, as he called it “way beyond console stuff”.
Read more: http://wccftech.com/directx-12-directx-11-100fps-difference-unreleased-gpu/#ixzz3SB4pDGJr
Impressionante :eek:
Speriamo...molto meglio questi "miglioramenti" che star dietro al cambio di gpu per 10 fps in più...che sia la volta buona che si ottimizza?
ma forse si riferiscono alla seconda parte, quella in cui parla di multi gpu viste come una sola gpu?
Non ho letto tweets del tizio di Stardock, ma da come è scritto l'articolo di Tom's non sembrerebbe; può anche aver frainteso l'autore dell'articolo o aver comunicato male il tizio tweettando. Comunque... San Tommaso batte tutti.
appleroof
19-02-2015, 08:48
Non ho letto tweets del tizio di Stardock, ma da come è scritto l'articolo di Tom's non sembrerebbe; può anche aver frainteso l'autore dell'articolo o aver comunicato male il tizio tweettando. Comunque... San Tommaso batte tutti.
posteresti il link di Tom's che non lo trovo? :D
edit: chissà che le mirabolanti cose che promette nvidia al GCD possano riguardare la nuova modalità sli....
edit2: ed infatti pure il tipo di wccftech conclude Many developers including Microsoft and Stardock, will be present at this year’s GDC taking place early next month, where further details of DirectX 12 will be discussed and demonstrated. Nvidia is also hosting a press event on March 3rd About What Will “Redefine Future of Gaming” where DirectX 12 will likely be discussed as well. AMD will also be present at GDC, discussing and demonstrating their new TressFX technology along with other “new and exciting” information.
Read more: http://wccftech.com/directx-12-directx-11-100fps-difference-unreleased-gpu/#ixzz3SBBZyPE7
appleroof
19-02-2015, 08:51
Impressionante :eek:
Speriamo...molto meglio questi "miglioramenti" che star dietro al cambio di gpu per 10 fps in più...che sia la volta buona che si ottimizza?
si sembrano molto promettenti le dx12...teniamo pur sempre presente che si parla ancora di bench sintetici (ma anche di OS e driver beta/alpha) e i giochi sono altra cosa, ma sulla carta sembra un cambiamento davvero consistente, forse il maggiore dai tempi del passaggio alle dx9c...:)
posteresti il link di Tom's che non lo trovo? :D
edit: chissà che le mirabolanti cose che promette nvidia al GCD possano riguardare la nuova modalità sli....
edit2: ed infatti pure il tipo di wccftech conclude Many developers including Microsoft and Stardock, will be present at this year’s GDC taking place early next month, where further details of DirectX 12 will be discussed and demonstrated. Nvidia is also hosting a press event on March 3rd About What Will “Redefine Future of Gaming” where DirectX 12 will likely be discussed as well. AMD will also be present at GDC, discussing and demonstrating their new TressFX technology along with other “new and exciting” information.
Read more: http://wccftech.com/directx-12-directx-11-100fps-difference-unreleased-gpu/#ixzz3SBBZyPE7
Ho modificato il post, scrolla in alto, clicca su Tom's.
Ecco, mi sembrava strano che si parlasse di rivoluzione del gaming e poi si presentasse un toilet migliorato, speriamo però che il riferimento alle DX12 non significhi che grazie a queste si potrà giocare meglio sui toilets.
MrBrillio
19-02-2015, 09:19
Speriamo va...io intanto sto ancora aspettando il supporto al DSR, MLAA e VR SLI per le mie 2 980 :muro:
Impressionante :eek:
Speriamo...molto meglio questi "miglioramenti" che star dietro al cambio di gpu per 10 fps in più...che sia la volta buona che si ottimizza?
Non credo dal punto di vista dei developer cambi molto da quel punto di vista. La cosa che cambia veramente tanto e in meglio è l'eliminazione del sotware layer che fa da collo di bottiglia tra l'api e l'hardware. Gia solo quello apporterà un boost prestazione tangibile. Bisgona vedere poi in reatà di quanto in percentuale ma la tecnologia promette bene.
Poi finalmente con le DX12 avremo finalmente una gestione del multigpu con un senso (almeno sulla carta). Vedremo ...
Legolas84
19-02-2015, 09:55
Stando a quanto si legge, Nvidia non ha sviluppato un tubo. Ha preso pari pari le specifiche VESA del freesync e ci ha costruito sopra un modulino hardware con funzioni di DRM.
In pratica si e' messa d' accordo con i costruttori di monitor con un discorso tipo "ok voi mettete il cazzettino nostro sui vostri nuovi modelli che implementano il nuovo standard, noi blocchiamo le funzionalita' tramite driver a meno che non rilevino il nostro modulino, lo chiamiamo col fantastico nome marchettaro di G-Sync, carichiamo 200 euro in piu' ai polli e poi ci smezziamo il surplus".
Quel blog ha ottenuto esattamente quello che voleva.... fare la sparata e ottenere un incremento esponenziale degli accessi.... missione compiuta.
La realtà sta però altrove.
Il G-Sync NON E' UN MODULO DRM.
Sia G-sync che Free-Sync hanno bisogno di un hardware apposito per funzionare.
G-Sync usa un modulo creato da nVIDIA, Free-Sync usa un hardware integrato negli scaler Realtek e di altri marchi.
A Settembre 2014 quando sono usciti i monitor g-sync non esisteva nessun monitor che avesse l'hardware necessario per funzionare in modalità g-sync o freesync, se non appunto i monitor dotati di hardware g-sync.
Ora sono 6 mesi che abbiamo sotto gli occhi i monitor g-sync e sappiamo che funzionano alla grande e non solo sono la soluzione definitiva al problema del v-sync, tearing e input lag, ma consentono pure di giocare alla grande quando gli FPS scendono sotto i 60 senza percepire alcun tipo di rallentamento.
Quando usciranno i monitor Free-Sync vedremo se andranno altrettanto bene.
Riguardo al fatto che sui notebook ci sarebbero dei tentativi di far funzionare G-Sync, be è la stessa nVIDIA che ci sta lavorando (e non il tipo dei driver leaked)... ora vi chiederete come questo sia possibile?
E' molto semplice se si conosce un poco l'hardware sia dei notebook che dei desktop. Sui desktop il pannello LCD è controllato dall'elettronica che è integrata nel Monitor. Nei notebook a controllare l'lcd invece è la gpu. Ecco quindi che diventa possibile in linea teorica demandare i compiti del G-Sync direttamente sulla gpu.... funzionerà? Andrà altrettanto bene? Per ora non si sa in quanto è tutto in fase Alpha, e si è visto funzionare su un singolo gioco (sebbene con qualche problema per ora).
Il Futuro?
Be con l'arrivo degli scaler di Realtek e compagni arriverà anche Free-Sync e bisognerà vedere se andrà altrettanto bene. nVIDIA dal canto suo potrà decidere di supportare anche questi nuovi scaler, nessuno glielo impedisce.
Tuttavia conoscendola credo che cercherà di spingere al meglio sul suo g-sync magari aggiungendo nuove feature.
Ma una cosa è certa, sia G-Sync che Free-Sync senza un hardware apposito (che sia il modulo nVIDIA, uno scaler apposito, caricando la gpu come stanno provando sui notebook) non può funzionare.
Questo un articolo che analizza le fregnacce di quel blog:
http://www.extremetech.com/extreme/198603-leaked-nvidia-driver-offers-taste-of-mobile-g-sync
Blog, che tra l'altro ha riempito il suo articolo di cavolate epiche e imprecisioni tecniche come sbagliare completamente il chip che monta il g-Sync per adattarlo ai propri scopi e definirlo un DRM, o dire di avere dei driver hacked quando in realtà li ha presi di stratoforo da ASUS per colpa di un loro errore e non è neanche stato in grado di analizzarli e capire che il lavoro del g-Sync in quei driver veniva demandato alla gpu con però diversi problemi all'atto pratico (per via dell'immaturità dei driver).
Particolarmente interessante questo stralcio di articolo:
Back when Nvidia announced G-Sync, the company said it was exploring mobile options as well. This leaked alpha driver is proof that the company is still working to build that support into shipping hardware, but it’s not clear when we’ll see shipping solutions. The fact that G-sync worked on a single Asus laptop and with one particular title doesn’t mean that the support is finalized or working across all games / laptops.
Unlike desktop monitors, which have independent chips for controlling their own timing and other characteristics, mobile displays tend to take their settings directly from the GPU itself. That’s how AMD was able to demo its first iteration of FreeSync on a mobile display more than a year ago — the embedded DisplayPort (eDP) standard contains certain features that conventional DisplayPort 1.2 lacked.
spero che questo ponga la parola fine alla questione del G-Sync ;)
magnusll
19-02-2015, 11:54
Quel blog ha ottenuto esattamente quello che voleva.... fare la sparata e ottenere un incremento esponenziale degli accessi.... missione compiuta.
La realtà sta però altrove.
Il G-Sync NON E' UN MODULO DRM.
Sia G-sync che Free-Sync hanno bisogno di un hardware apposito per funzionare.
G-Sync usa un modulo creato da nVIDIA, Free-Sync usa un hardware integrato negli scaler Realtek e di altri marchi.
A Settembre 2014 quando sono usciti i monitor g-sync non esisteva nessun monitor che avesse l'hardware necessario per funzionare in modalità g-sync o freesync, se non appunto i monitor dotati di hardware g-sync.
Ora sono 6 mesi che abbiamo sotto gli occhi i monitor g-sync e sappiamo che funzionano alla grande e non solo sono la soluzione definitiva al problema del v-sync, tearing e input lag, ma consentono pure di giocare alla grande quando gli FPS scendono sotto i 60 senza percepire alcun tipo di rallentamento.
Quando usciranno i monitor Free-Sync vedremo se andranno altrettanto bene.
Ho letto l' articolo che hai linkato e il panorama non e' cosi' roseo per Nvidia come lo dipingi tu.
Un punto che rimane importante e' se sia vero o meno il fatto che il modulino G-Sync sia un' implementazione dello standard VESA (il FreeSync) che andra' ad essere implementato da qualunque monitor supporti il DisplayPort 1.2a. Questo al momento non e' dato saperlo perche' Nvidia non ha rilasciato alcun dettaglio sulle specifiche della sua soluzione proprietaria.
Per quanto riguarda se e quanto G-Sync possa essere migliore del Freesync, da quel che dice lo stesso articolo non vedo onestamente come si possano distinguere. Il motivo per cui il driver funziona sui laptop e' perche' i monitor dei portatili utilizzano uno standard differente (l' embedded display port) che permette direttamente alla GPU di pilotare alcune delle caratteristiche del monitor. Ironicamente sui laptop questo e' fatto per risparmiare soldi, delegando alla GPU compiti che sui monitor desktop vengono svolti da elettronica dedicata. Questo implica che se il DisplayPort 1.2a permette lo stesso bypass, il risultato finale non puo' che essere lo stesso.
Comunque vedremo a breve.
fireradeon
19-02-2015, 11:55
Mi sa che non ti e' chiaro il dettaglio che il Gsync di Nvidia, stando a quanto e' venuto fuori dopo la storia dei driver moddati, altro non sarebbe che un modulo DRM per bloccare quello che sarebbe il normale (e gratuito) funzionamento del freesync. E' per quello che la gente si e' incazzata.
Quoto , mi hai fregato la scrittura dalle dita :D
Infatti è da vedere se i monitor freesync andranno anche con schede nvidia... Sai che beffa :asd:
Veramente so leggere e mi è charissimo. Sono scelte di mercato, può dare fastidio o meno ma se loro per farti avere il freesync mettono un modulo DRM (e lo chiamano Gsynch), sta a te decidere se prenderlo o meno. Sono politiche commerciali, la gente se non è convinta cambia marca e passa ad AMD.
Il mondo è pieno di scelte commerciali discutibili ma non mi sembra che facciamo la guerra per ognuna di esse.
Legolas84
19-02-2015, 12:27
Ma non è un modulo drm... ;) ho spiegato prima il funzionamento del g-sync... È tutto qualche post fa....
Riguardo a te magnusll, lo standard vesa per l'adaptive sync presenta due necessità: la dp1.2a è uno scaler con elettronica compatibile.... Che può essere un realtek (+altre due Marche che ora non ricordo) o il nvidia g-sync.... Punto la situazione è questa...
Il drm o altro sono fregnacce scritte e riportate a convenienza.
Con tutta l'elettronica che c'è in gioco e i driver a pilotare il tutto non credo che differenze tra le varie soluzioni siano tanto impossibili, anzi....
Infine per quanto riguarda i notebook non fai che confermare quanto ho scritto, ma ti ricordo in ogni caso che per ora questo sistema non funziona come dovrebbe proprio a causa forse dei driver acerbi è molto lontani dall'essere rilasciati.
Inviato dal mio iPhone utilizzando Tapatalk
Devourer88
19-02-2015, 13:18
Comunque ho scoperto che nvenc h265 funziona solo con la serie 900 che ha l'encoder hw e che successivamente lo abiliteranno in shadowplay. In pratica già adesso la 980 è buona ma le prossime saranno bestioline sicuro!
appleroof
19-02-2015, 13:24
Ma non è un modulo drm... ;) ho spiegato prima il funzionamento del g-sync... È tutto qualche post fa....
Riguardo a te magnusll, lo standard vesa per l'adaptive sync presenta due necessità: la dp1.2a è uno scaler con elettronica compatibile.... Che può essere un realtek (+altre due Marche che ora non ricordo) o il nvidia g-sync.... Punto la situazione è questa...
Il drm o altro sono fregnacce scritte e riportate a convenienza.
Con tutta l'elettronica che c'è in gioco e i driver a pilotare il tutto non credo che differenze tra le varie soluzioni siano tanto impossibili, anzi....
Infine per quanto riguarda i notebook non fai che confermare quanto ho scritto, ma ti ricordo in ogni caso che per ora questo sistema non funziona come dovrebbe proprio a causa forse dei driver acerbi è molto lontani dall'essere rilasciati.
Inviato dal mio iPhone utilizzando Tapatalk
Ah interessante... Ossia non basta la dp1.2a di per sè?
Legolas84
19-02-2015, 13:35
Serve lo standard vesa che prevede anche uno scaler modificato rispetto al passato che rispetta determinati parametri è che dovrebbe fare lo stesso lavoro che fa il modulo g-sync....
Inviato dal mio iPhone utilizzando Tapatalk
ironman72
19-02-2015, 13:37
G-Sync esiste e FUNZIONA ed e' HARDWARE.
Free sync per ora tante belle parole... che funzioni poi quanto G-Sync e' da vedere.
I forum stanno diventando come Facebook... uno spara una ca..ata e tutti a condividerla senza ragionarci su..." e' scritto su intern(d)et!".
Legolas84
19-02-2015, 13:44
Eh purtroppo è la triste realtà che ci troviamo ad affrontare... Si riporta quello che fa comodo anche se palesemente errato e falso, senza ragionarci sopra un attimino....
Inviato dal mio iPhone utilizzando Tapatalk
fireradeon
19-02-2015, 14:13
Ammetto la mia ignoranza e ho riportato il discorso DRM perché così veniva descritto dal tizio che ha rilasciato i driver.
Poi ho fatto la prova per testare con mano e non funziona (almeno a me). Quindi per ora a parte i video postati dal tizio io ho visto poco e niente. Poi ripeto, se voglio il g-synch mi compro un monitor che lo supporta, non mi metto a stare dietro ad una persona che rilascia driver apposta (e che dovrebbe per giunta star li ad aggiornarli sempre etc. etc.) quando spendendo una fesseria in più prendo un monitor con G-synch.
Legolas84
19-02-2015, 14:26
Soprattutto perché quel tizio non è in grado di fare un bel nulla.... Ha solo spacciato dei driver alpha per notebook rubati ad asus come se fosserò driver hackerati, creandoci sopra un castello pieno di inesattezze e dati sbagliati, solo per fare notizia....
In pratica è solo una grande bolla di sapone...
Inviato dal mio iPhone utilizzando Tapatalk
Obrigado
19-02-2015, 14:26
G-Sync esiste e FUNZIONA ed e' HARDWARE.
Free sync per ora tante belle parole... che funzioni poi quanto G-Sync e' da vedere.
I forum stanno diventando come Facebook... uno spara una ca..ata e tutti a condividerla senza ragionarci su..." e' scritto su intern(d)et!".
vero..... :(
TigerTank
19-02-2015, 14:29
G-Sync esiste e FUNZIONA ed e' HARDWARE.
Free sync per ora tante belle parole... che funzioni poi quanto G-Sync e' da vedere.
I forum stanno diventando come Facebook... uno spara una ca..ata e tutti a condividerla senza ragionarci su..." e' scritto su intern(d)et!".
Eh purtroppo è la triste realtà che ci troviamo ad affrontare... Si riporta quello che fa comodo anche se palesemente errato e falso, senza ragionarci sopra un attimino....
Il punto del discorso in ogni caso resta il fatto che:
-l'adaptive sync sia un nuovo standard vesa, non una cosa di amd...per cui è lecito aspettarsi che sia supportato da tutti.
-amd lo farà tramite freesync, utilizzabile da tutti i possessori di schede amd + monitor abilitati al nuovo standard.
-se nvidia ostacolerà una tecnologia universale per favorire la propria commetterà un illecito. Al massimo imho dovrebbe consentire l'uso di un nuovo vsync(magari in sostituzione all'attuale vsync adattivo) + gsync per chi vuole proprio il top e prendere un monitor dotato di tale supporto e non solo del semplice adaptive sync.
Alla fine non cambia molto...è un pò come è successo per i 120Hz ed il 3DVision...chi voleva usufruirne prendeva un monitor certificato, altrimenti si godeva comunque i 120Hz + vsync adattivo con una nvidia.
Legolas84
19-02-2015, 14:33
Tiger, io spero che nvidia supporti lo standard vesa, ma non è obbligata per forza a farlo...
Conoscendola penso spingerà sul suo g-sync, e magari ci aggiungerà qualche feature per renderlo ancora più appetibile.....
Inviato dal mio iPhone utilizzando Tapatalk
TigerTank
19-02-2015, 14:39
Tiger, io spero che nvidia supporti lo standard vesa, ma non è obbligata per forza a farlo...
Conoscendola penso spingerà sul suo g-sync, e magari ci aggiungerà qualche feature per renderlo ancora più appetibile.....
Secondo me sì...perchè è un pò come se Intel non supportasse più le usb o le altre connessioni per favorire thunderbolt.
illidan2000
19-02-2015, 14:41
Secondo me sì...perchè è un pò come se Intel non supportasse più le usb o le altre connessioni per favorire thunderbolt.
lo potrebbe pure fare se gli gira...ovvio che perderebbe acquirenti
Legolas84
19-02-2015, 14:44
Be, vedremo come si evolverà a prescindere dalla fuffa scritta da quel blog e dal relativo polverone venuto fuori dal nulla.... ;)
Inviato dal mio iPhone utilizzando Tapatalk
TigerTank
19-02-2015, 14:50
lo potrebbe pure fare se gli gira...ovvio che perderebbe acquirenti
Eh sì....sarebbe una cosa altrettanto rognosetta e direi che per quest'anno basti già la storia della non totale chiarezza sulle gtx970.
Be, vedremo come si evolverà a prescindere dalla fuffa scritta da quel blog e dal relativo polverone venuto fuori dal nulla.... ;)
Certamente, per ora pure io mi attengo ai dati concreti che si conoscono. Il resto verrà quando ci saranno le dimostrazioni pratiche e i relativi confronti. Aspettiamo ;)
quindi se ho capito bene G-Sync è un Hardware? Perchè ho letto tante di quelle cavolate in giro che è solamente un Software che Nvidia ha inventato...:oink: :ciapet:
Legolas84
19-02-2015, 15:17
No, è una scheda che va inserita nel monitor... :) inserita dai produttori non dagli utenti....
Inviato dal mio iPhone utilizzando Tapatalk
No, è una scheda che va inserita nel monitor... :) inserita dai produttori non dagli utenti....
Inviato dal mio iPhone utilizzando Tapatalk
:sofico:
AceGranger
19-02-2015, 15:52
Ah interessante... Ossia non basta la dp1.2a di per sè?
eh no....
quando è stato presentato il Freesync, AMD da furbacchiona lo ha presentato sui portatili dove NON c'è un chip scaler; per presentare un prototipo di monitor Freesync ha dovuto aspettare che i produttori adottassero i nuovi chip scaler, cosa che nVidia non ha fatto e se lo è progettata lei in casa.
sui notebook sara solo questione di driver, ma sui monitor "fissi" o è presente il chip G-Sync o è presente uno dei nuovi chip scaler.
Legolas84
19-02-2015, 15:54
eh no....
quando è stato presentato il Freesync, AMD da furbacchiona lo ha presentato sui portatili dove NON c'è un chip scaler; per presentare un prototipo di monitor Freesync ha dovuto aspettare che i produttori adottassero i nuovi chip scaler, cosa che nVidia non ha fatto e se lo è progettata lei in casa.
sui notebook sara solo questione di driver, ma sui monitor "fissi" o è presente il chip G-Sync o è presente uno dei nuovi chip scaler.
;)
Inviato dal mio iPhone utilizzando Tapatalk
jotaro75
19-02-2015, 16:10
che poi questa cosa di g-sync/freesync...indipendentemente quale sarà la migliore...sarà una fregatura per tutti noi se ho inteso bene...nel senso che a quel punto il cambio di marca di scheda video comporterà anche un cambio del monitor se si vorrà continuare a sfruttare questa funzionalità sia andando in un verso che nell'altro perchè è vero che freesync non è una tecnologia proprietaria ma nel momento in cui nvidia ha fatto il suo chip, nella realtà dei fatti dal punto di vista del consumatore è come se avesse trasformato in proprietaria anche l'altra...
Fidelizzi forzatamente il cliente visto che uno prima di cambiare marca ci penserà 2 volte dovendo cambiare anche il monitor...ma ne paghi anche le conseguenze a livello di acquisizione di clienti nuovi...
per me il g-sync puo rimanere anche sugli scaffali :ciapet: :ciapet: :D
killeragosta90
19-02-2015, 17:46
per me il g-sync puo rimanere anche sugli scaffali :ciapet: :ciapet: :D
Io al contrario, non vedo l'ora che il G-Sync "prenda piede" con prezzi più accessibili...un'innovazione del genere la attendevo da anni....
cire92cry
19-02-2015, 17:59
per me il g-sync puo rimanere anche sugli scaffali :ciapet: :ciapet: :D
:D Non sai cosa ti perdi :D
Il g-sync o freesync se funzionerà come il g-sync sono la soluzione definitiva relativa alla parte hardware.
Mi spiego meglio sei hai il G-SYNC attivo e il gioco ha dei problemi di lag o scatti o altro il problema è il gioco è la programmazione software.
In giochi dove non ci sono problemi di programmazione come crysis 3 o evolve il g-sync rende benissimo tutto va fluido costante i cali di fps si notano poco o se si notano non intralciano l'esperienza di gioco e sopratutto non te ne frega più degli fps non devi perforza fare più di 60 fps per avere un gioco che va liscio.
Purtroppo il problema rimane come ho detto nel software se i giochi sono programmati con i piedi c'è poco da fare :rolleyes:
Ma qui dovrebbero arrivare le DX12... sperando che risolvano un po il problema.
G-SYNC + DX12 .... forse la soluzione definitiva .
P.S: Opinione che non tiene in considerazione in alcun modo al prezzo del G-SYNC o di componenti di fascia alta.
appleroof
19-02-2015, 18:42
Serve lo standard vesa che prevede anche uno scaler modificato rispetto al passato che rispetta determinati parametri è che dovrebbe fare lo stesso lavoro che fa il modulo g-sync....
Inviato dal mio iPhone utilizzando Tapatalk
eh no....
quando è stato presentato il Freesync, AMD da furbacchiona lo ha presentato sui portatili dove NON c'è un chip scaler; per presentare un prototipo di monitor Freesync ha dovuto aspettare che i produttori adottassero i nuovi chip scaler, cosa che nVidia non ha fatto e se lo è progettata lei in casa.
sui notebook sara solo questione di driver, ma sui monitor "fissi" o è presente il chip G-Sync o è presente uno dei nuovi chip scaler.
ah ok grazie mille, allora cambia non poco, c'è da dire che i vantaggi sono sempre che costa meno all'utente finale...
magnusll
19-02-2015, 19:54
:D Non sai cosa ti perdi :D
Il g-sync o freesync se funzionerà come il g-sync sono la soluzione definitiva relativa alla parte hardware.
Questa robaccia serve solo per gli scrausissimi monitor LCD che rifilano da 15 anni a questa parte.
Per il mio CRT non serve a una ceppa, e non servira' piu' a una ceppa quando usciranno i prossimi monitor con tecnologia decente (OLED, che ormai dovrebbero arrivare in 3-4 anni visto quanto LG sta pompando sugli OLED TV).
Un monitor free sync permette a qualsiasi scheda non nvidia di godere del beneficio di un nuovo standard vesa, il problema è di nvidia non di tutti gli altri...perchè castrera via driver vedrete....mi aspetto dei begli hack su monitor freesync meno costosi da parte di un po di utenti verdi :asd:
TigerTank
19-02-2015, 20:10
Io al contrario, non vedo l'ora che il G-Sync "prenda piede" con prezzi più accessibili...un'innovazione del genere la attendevo da anni....
Idem, in un modo o in un altro è comunque un nuovo step evolutivo del gaming che oltretutto si andrà a sposare bene con le dx12. Resta da vedere cosa farà nvidia a riguardo.
Un monitor free sync permette a qualsiasi scheda non nvidia di godere del beneficio di un nuovo standard vesa, il problema è di nvidia non di tutti gli altri...perchè castrera via driver vedrete....mi aspetto dei begli hack su monitor freesync meno costosi da parte di un po di utenti verdi :asd:
Come successo per il 3dvision, uscirono degli hack per i monitors non certificati(anche se non funzionava un granchè) ma poi venne bloccato tutto via drivers.
cire92cry
19-02-2015, 20:23
Questa robaccia serve solo per gli scrausissimi monitor LCD che rifilano da 15 anni a questa parte.
Per il mio CRT non serve a una ceppa, e non servira' piu' a una ceppa quando usciranno i prossimi monitor con tecnologia decente (OLED, che ormai dovrebbero arrivare in 3-4 anni visto quanto LG sta pompando sugli OLED TV).
Tearing e stuttering ci sono anche sui CRT non c'entra nulla con il tipo di pannello :rolleyes:
Legolas84
19-02-2015, 20:30
Tearing e stuttering ci sono anche sui CRT non c'entra nulla con il tipo di pannello :rolleyes:
shhhhh non dirglielo...... :asd:
magnusll
19-02-2015, 20:45
Tearing e stuttering ci sono anche sui CRT non c'entra nulla con il tipo di pannello :rolleyes:
Il meccanismo di refresh dei CRT e' completamente diverso da quello degli LCD.
Non esiste input lag e le frequenze di refresh (perlomeno per i CRT decenti) sono superiori ai 60hz. Questo significa che il vsync (se serve) ha meno impatto prestazionale e lo "stuttering" non esiste (a meno che non parliamo di quello causato da una scheda video che non ce la fa e quello non lo rimuovi certo col GSync).
Per un CRT (e sara' lo stesso per gli OLED quando e se usciranno con elettronica di bordo adeguata) nel peggiore dei casi basta semplicemente attivare vsync + triple buffering.
Legolas84
19-02-2015, 21:02
L'unica cosa vera che hai detto è quella dell'input lag.
Per il resto invece, il tearing e il lag da V-Sync sono presenti anche sui CRT (eh si che prima di avere gli LCD giocavamo tutti su quelli, e ho avuto LG Flatron, Sony Trinitron e anche il mitico Samsung 959NF considerato uno dei miglior CRT in assoluto, quindi i CRT li conosco molto bene).
L'unico modo per eliminare lo stuttering e il tearing è sincronizzare il refresh del monitor con l'output della scheda video. punto.
Tra l'altro inserire il V-Sync genera un pò di input lag anche nei CRT per natura stessa della tecnologia dove a volte i frame non vengono visualizzati o non vengono visualizzati per intero e questo genera stuttering e input-lag.
Il triple buffering mitiga solo il taglio di frame catastrofico, per sottomultipli, che si avrebbe con il V-Sync attivo. Però costa molta VRAM alla scheda video che è costretta a generare un nuovo buffer.
cire92cry
19-02-2015, 21:03
Il meccanismo di refresh dei CRT e' completamente diverso da quello degli LCD.
Non esiste input lag e le frequenze di refresh (perlomeno per i CRT decenti) sono superiori ai 60hz. Questo significa che il vsync (se serve) ha meno impatto prestazionale e lo "stuttering" non esiste (a meno che non parliamo di quello causato da una scheda video che non ce la fa e quello non lo rimuovi certo col GSync).
Per un CRT (e sara' lo stesso per gli OLED quando e se usciranno con elettronica di bordo adeguata) nel peggiore dei casi basta semplicemente attivare vsync + triple buffering.
Ma non c'entra se hai 60 hz e hai 200 fps senza v-sync anche con il CRT ti becchi tearing ,e lo stesso se hai il v-sync attivo e hai 50 fps al posto di 60 lo stuttering te lo ritrovi perchè la scheda video non riesce a generare il frame in tempo prima del refresh successivo .
L'unica cosa vera che hai detto è quella dell'input lag.
Per il resto invece, il tearing e il lag da V-Sync sono presenti anche sui CRT (eh si che prima di avere gli LCD giocavamo tutti su quelli, e ho avuto LG Flatron, Sony Trinitron e anche il mitico Samsung 959NF considerato uno dei miglior CRT in assoluto, quindi i CRT li conosco molto bene).
L'unico modo per eliminare lo stuttering e il tearing è sincronizzare il refresh del monitor con l'output della scheda video. punto.
Tra l'altro inserire il V-Sync genera un pò di input lag anche nei CRT per natura stessa della tecnologia dove a volte i frame non vengono visualizzati o non vengono visualizzati per intero e questo genera stuttering e input-lag.
Il triple buffering mitiga solo il taglio di frame catastrofico, per sottomultipli, che si avrebbe con il V-Sync attivo. Però costa molta VRAM alla scheda video che è costretta a generare un nuovo buffer.
Esatto
Devourer88
19-02-2015, 21:04
Da quello che vedo con 3d vision 2, tutti i giorni, cerco di giocare a qualche gioco poi scopro: 3d non ottimizzato, stuttering, incremento eccessivo di vram, alcuni poi ottimizzati bene non c'è che dire però dopo un pò mi viene mal di testa. Morale della favola? Il gsync potrebbe essere rivalutato in combinazione al 3d vision. Quacuno ha avuto modo di provarlo in 3d?
cire92cry
19-02-2015, 21:21
Purtroppo il 3d ora come ora non è compatibile con il g-sync non so se sia una questione che di driver o hardware con il tempo lo sapremo :)
magnusll
19-02-2015, 21:23
L'unica cosa vera che hai detto è quella dell'input lag.
Per il resto invece, il tearing e il lag da V-Sync sono presenti anche sui CRT (eh si che prima di avere gli LCD giocavamo tutti su quelli, e ho avuto LG Flatron, Sony Trinitron e anche il mitico Samsung 959NF considerato uno dei miglior CRT in assoluto, quindi i CRT li conosco molto bene).
L'unico modo per eliminare lo stuttering e il tearing è sincronizzare il refresh del monitor con l'output della scheda video. punto.
Tra l'altro inserire il V-Sync genera un pò di input lag anche nei CRT per natura stessa della tecnologia dove a volte i frame non vengono visualizzati o non vengono visualizzati per intero e questo genera stuttering e input-lag.
Il triple buffering mitiga solo il taglio di frame catastrofico, per sottomultipli, che si avrebbe con il V-Sync attivo. Però costa molta VRAM alla scheda video che è costretta a generare un nuovo buffer.
Mai detto che il tearing non esiste sui CRT, ho detto che per la natura di quei display il vsync penalizza di meno.
Il problema del vsync e' quello di dover attendere il tempo di due frame invece di uno se il nuovo frame arriva fuori sincrono rispetto al refresh rate del monitor. Chiaramente piu' e' alto il refresh rate meno il problema diventa percettibile. Anche sui moderni TN a 144hz per esempio il "taglio di frame catastrofico" implica alla peggio un drop a 72 fps (sempre ammettendo che la scheda video sia in grado di sparare 144 fps, senno' tutto il discorso e' accademico). Che poi oltretutto dovresti avere una sfiga della madonna a beccare il frame pronto sempre subito dopo il refresh del monitor per dimezzare gli fps per un intero secondo, ma vabbe'.
Il mio CRT per esempio sta a 120hz a risoluzione desktop (1024x768) e scende a 85hz quando salgo a 1600x1200 per i videogiochi. Il che significa che male che mi vada sto a 42 fps, almeno per quel che concerne il possibile impatto da vsync senza triple buffering. A questo si aggiunge il fatto che ho comunque zero lag da "refresh di pannello" semplicemente perche' il CRT usa il cannone elettronico per generare l' immagine, quindi una volta che il frame e' pronto da parte della GPU e inizia il refresh dello schermo la visualizzazione e la risposta a eventuale input sono istantanei.
Il tutto ovviamente senza neanche considerare i giocatori di alto livello che si limitano semplicemente a usare CRT con vysnc off e si beccano il tearing pur di avere tempi di risposta piu' bassi possibile. Tra l' altro l' input lag si puo' comunque ridurre per valori di fps alti, anche superiori al refresh rate del monitor in uso.
Non e' una comparazione CRT-LCD, ma comunque la lettura di questo thread dovrebbe chiarire un po' di cose:
http://forums.blurbusters.com/viewtopic.php?f=5&t=52&sid=558c3832af7248a60790dedddab7512e
cire92cry
19-02-2015, 21:59
L'unica cosa vera che hai detto è quella dell'input lag.
Per il resto invece, il tearing e il lag da V-Sync sono presenti anche sui CRT (eh si che prima di avere gli LCD giocavamo tutti su quelli, e ho avuto LG Flatron, Sony Trinitron e anche il mitico Samsung 959NF considerato uno dei miglior CRT in assoluto, quindi i CRT li conosco molto bene).
L'unico modo per eliminare lo stuttering e il tearing è sincronizzare il refresh del monitor con l'output della scheda video. punto.
Tra l'altro inserire il V-Sync genera un pò di input lag anche nei CRT per natura stessa della tecnologia dove a volte i frame non vengono visualizzati o non vengono visualizzati per intero e questo genera stuttering e input-lag.
Il triple buffering mitiga solo il taglio di frame catastrofico, per sottomultipli, che si avrebbe con il V-Sync attivo. Però costa molta VRAM alla scheda video che è costretta a generare un nuovo buffer.
Sull'imput lag non c'è storia il crt è il migliore solo i migliori TN con light boost attivo riescono ad avvicinarsi un po ai crt.
Però quello che dicevamo è che non c'entra nulla con il g-sync con tearing e stuttering :D
Legolas84
19-02-2015, 22:04
Si ma infatti sull'input lag l'ho detto subito che ha ragione ci mancherebbe lo so bene ;)
Però lo stuttering e il tearing sono purtroppo bestiacce ben presenti anche sui CRT.... e l'unico modo per debellarle senza effetti collaterali è appunto usare una sincronizzazione adattiva.... tutto qui. Per questo il G-Sync è così importante.
scorpion73
20-02-2015, 07:54
Ragazzi pure io la pensavo come voi.
Poi, per puro sfizio di provare, mi sono preso iun 24 AOC con sto benedetto G-Sync.
Se non lo vedete non ci credete: avevo un 27 pollici, l'ho buttato sulla scatoletta, e sta sempre spento.
Ora senza il mio AOC non so giocare.. quando vado dai miei dove ho un ottimo 22 della samsung il tearing lo vedo anche al minimo, tanto mi sono abituato bene.
Cioé, è proprio un altro mondo, altro che scaffale... potrà essere anche caro, ma ci si gioca da signori...
Goofy Goober
20-02-2015, 07:57
Ragazzi pure io la pensavo come voi.
Poi, per puro sfizio di provare, mi sono preso iun 24 AOC con sto benedetto G-Sync.
Se non lo vedete non ci credete: avevo un 27 pollici, l'ho buttato sulla scatoletta, e sta sempre spento.
Ora senza il mio AOC non so giocare.. quando vado dai miei dove ho un ottimo 22 della samsung il tearing lo vedo anche al minimo, tanto mi sono abituato bene.
Cioé, è proprio un altro mondo, altro che scaffale... potrà essere anche caro, ma ci si gioca da signori...
Stesse mie considerazioni :)
Legolas84
20-02-2015, 07:58
Esatto, è proprio questo il fatto... Se non lo provi davvero non puoi capire la portata di questa tecnologia....
Inviato dal mio iPhone utilizzando Tapatalk
magnusll
20-02-2015, 08:24
La portata di questa tecnologia sono al massimo 16.6 millisecondi (su un 60hz), non ci sono cazzi, e' fisica.
17 millisecondi da soli non fanno la differenza, non e' percepibile.
Quello che vi frega (sui pannelli LCD che non siano gli ultimi TN a 120/144) e' anche il lag di refresh che e' BEN LONTANO dall' essere quello dichiarato dalle stronzate di marketing delle case produttrici.
Vi faccio tre esempi (e questi sono tre monitor di quelli tra i piu' veloci nelle rispettive categorie, potete divertirvi a spulciare il database di recensioni e scoprire cosa succede sugli altri):
Lag reale dell' Eizo FG2421 (http://www.tftcentral.co.uk/reviews/content/eizo_fg2421.htm#gaming)
Lag reale del Dell P2414 (http://www.tftcentral.co.uk/reviews/content/dell_p2414h.htm#gaming)
Lag reale del Benq XL2720Z (http://www.tftcentral.co.uk/reviews/content/benq_xl2720z.htm#gaming)
Se ai 16.7 millisecondi ci aggiungete gli 8-10 del refresh (che va a culo perche' dipende dalla transizione dominante del frame precedente rispetto a quello successivo) ecco li' che la differenza potrebbe farsi percepibile.
Poi: se passate da un 60 hz a un 144, la differenza vera la fa il refresh, non il gsync.
Riformulo meglio la mia precedente affermazione: sui pannelli CRT di alta qualita' (quelli di fascia alta usciti negli ultimi anni del loro ciclo di vita), sui TN moderni ad alta frequenza di refresh (120/144) e, presumibilmente, sugli OLED quando usciranno, il gsync non serve a una ceppa.
Peraltro, non serve a una ceppa anche sugli LCD "lenti" nel caso in cui la vostra scheda non scenda mai sotto i 60 fps.
Il gsync fa la differenza solo in condizioni limite, vale a dire: schermo lento e scheda lenta. Ma a quel punto tanto vale spendere i soldi per upgradare la scheda. Ci puo' stare se giocate a 4k o in multimonitor a qualche mattone che non vi fa arrivare ai 60 fps manco con un tri-sli di gtx980, toh.
MrBrillio
20-02-2015, 08:38
Il gsync fa la differenza solo in condizioni limite, vale a dire: schermo lento e scheda lenta. Ma a quel punto tanto vale spendere i soldi per upgradare la scheda. Ci puo' stare se giocate a 4k o in multimonitor a qualche mattone che non vi fa arrivare ai 60 fps manco con un tri-sli di gtx980, toh.
Mmmmm io sinceramente non sono d'accordo col fatto che serva in condizioni limite...proprio perchè il tearing mica si presenta quando il refresh del monitor non sta dietro alla scheda che pompa fps?
Il gsync servirà sempre per evitare il tearing proprio perchè senza un modulo del genere non avrai mai il refresh del monitor abbinato perfettamente agli fps che produce la vga..a meno che non usi vsync e ti becchi input lag.
Quante pippe che vi fate, se continuate cosi poi il monitor non lo vedete proprio :asd:
Che funzioni o non funzioni ormai ce lo becchiamo, che sia gsync o freesync...
Legolas84
20-02-2015, 08:47
Mmmmm io sinceramente non sono d'accordo col fatto che serva in condizioni limite...proprio perchè il tearing mica si presenta quando il refresh del monitor non sta dietro alla scheda che pompa fps?
Il gsync servirà sempre per evitare il tearing proprio perchè senza un modulo del genere non avrai mai il refresh del monitor abbinato perfettamente agli fps che produce la vga..a meno che non usi vsync e ti becchi input lag.
Infatti avere monitor e scheda video sincronizzati è un plus devastante.... E di fatti chiunque abbia provato questa tecnologia non è più tornato indietro ;)
Inviato dal mio iPhone utilizzando Tapatalk
MrBrillio
20-02-2015, 08:56
Infatti avere monitor e scheda video sincronizzati è un plus devastante.... E di fatti chiunque abbia provato questa tecnologia non è più tornato indietro ;)
Inviato dal mio iPhone utilizzando Tapatalk
Io spesso e volentieri quando gioco su CS:GO o Fifa tendo a spegnere il gsync per avere il maggior numero di fps possibili, ma sinceramente la differenza è imbarazzante e qualitativamente parlando senza gsync l'esperienza di gioco è notevolmente inferiore.
Quante pippe che vi fate, se continuate cosi poi il monitor non lo vedete proprio :asd:
Che funzioni o non funzioni ormai ce lo becchiamo, che sia gsync o freesync...
Hai anche ragione Froz, però caspita vedere gente che viene qui a "vomitare" dati su lag dei monitor, su calcoli al millisecondo e che forti di questo affermano che una tecnologia che a detta di tutti (esperti del settore o giocatori che hanno già un monitor del genere) sia ottima sotto ogni aspetto, sia in realtà una stupidata fa strano no? Sul fatto che sia costosa non ci piove, ma che non porti effettivi vantaggi non si può proprio sentire eh :fagiano:
Legolas84
20-02-2015, 09:03
Io spesso e volentieri quando gioco su CS:GO o Fifa tendo a spegnere il gsync per avere il maggior numero di fps possibili, ma sinceramente la differenza è imbarazzante e qualitativamente parlando senza gsync l'esperienza di gioco è notevolmente inferiore.
Hai anche ragione Froz, però caspita vedere gente che viene qui a "vomitare" dati su lag dei monitor, su calcoli al millisecondo e che forti di questo affermano che una tecnologia che a detta di tutti (esperti del settore o giocatori che hanno già un monitor del genere) sia ottima sotto ogni aspetto, sia in realtà una stupidata fa strano no? Sul fatto che sia costosa non ci piove, ma che non porti effettivi vantaggi non si può proprio sentire eh :fagiano:
Ma infatti, basta vedere quante notizie inesatte sono state riportate volontariamente solo qualche pagina fa.... Purtroppo la situazione è questa. Basta provarlo per qualche ora per capire la portata dei benefici del g-sync...
Inviato dal mio iPhone utilizzando Tapatalk
Se non lo provi davvero non puoi capire la portata di questa tecnologia....
E di fatti chiunque abbia provato questa tecnologia non è più tornato indietro ;)
Basta provarlo per qualche ora per capire la portata dei benefici del g-sync...
Per questo il G-Sync è così importante.
ooooook?!.... abbiamo capito, te l'assicuro!!! :stordita:
:sofico:
Legolas84
20-02-2015, 10:21
Alcuni tuoi compari non credo.... Ma sai, i dati sono sotto gli occhi di tutti... Per il resto don't feed the troll....
Inviato dal mio iPhone utilizzando Tapatalk
Alcuni tuoi compari non credo.... Ma sai, i dati sono sotto gli occhi di tutti... Per il resto don't feed the troll....
Inviato dal mio iPhone utilizzando Tapatalk
Stop OT (gsync) ...e stop con certi epiteti
>bYeZ<
scorpion73
20-02-2015, 16:53
edit
sorry non avevo visto il msg del moderatore
maurilio968
20-02-2015, 21:39
nel thread aspettando le nuove AMD ho esposto questo dubbio
Usando le nuove directx 12 esiste realmente la possibilità di sommare la ram in SLI anche per le attuali vga (per esempio cross di amd 280-290x oppure sli di gtx 970-980) ?
E anche per le future vga, basta davvero una nuova api (mantle o directx 12 che sia) e nuovi driver per consentire la cosa?
che mi sembra interessante anche per le schede Nvidia. Per evitare crossposting se volete potete leggerlo di là:
http://www.hwupgrade.it/forum/showpost.php?p=42170233&postcount=10238
Legolas84
20-02-2015, 21:51
Per ora è un Rumor.... mi sa che bisognerà aspettare per vedere se è veramente fattibile... forse mikael84 ha qualche competenza in più per poter fare pronostici :D
AceGranger
21-02-2015, 00:33
nel thread aspettando le nuove AMD ho esposto questo dubbio
Usando le nuove directx 12 esiste realmente la possibilità di sommare la ram in SLI anche per le attuali vga (per esempio cross di amd 280-290x oppure sli di gtx 970-980) ?
E anche per le future vga, basta davvero una nuova api (mantle o directx 12 che sia) e nuovi driver per consentire la cosa?
che mi sembra interessante anche per le schede Nvidia. Per evitare crossposting se volete potete leggerlo di là:
http://www.hwupgrade.it/forum/showpost.php?p=42170233&postcount=10238
non sono un tecnico ed è una supposizione:
- nVidia con CUDA ha creato un "layer" software che permette di unificare la memoria della GPU con quella di sistema in modo similare a cio che fa Kaveri ma lo fa via software
- L'Unified Memory Hardware arrivera con Pascal
Ora, partendo da questi 2 punti, se la unified Memory è in grado di "unire" la ram della GPU e della CPU credo che possa farlo tranquillamente anche con piu GPU; Se le DX 12 possano effettuare una cosa simile non ne ho idea, pero credo che concettualmente possa funzionare.
Per la questione PCI-EX e banda ridotta, se non ricordo male i bench, fra PCI-EX 2.0 e 3.0 in campo gaming non cambia praticamente nulla, nemmeno con le super top gamma; credo che di banda a disposizione ce ne sia parecchia per fare le letture da una GPU all'altra; per le latenze del bus non saprei.
appleroof
21-02-2015, 06:44
Bè con Pascal dovrebbe debuttare nvlink, 12 volte più veloce di pci_express 3, per interconnessioni non solo tra gpu e cpu ma anche tra due o più gpu devblogs.nvidia.com/parallelforall/how-nvlink-will-enable-faster-easier-multi-gpu-computing/
Ora, nvlink è stato pensato per i supercomputers ma nulla vieta di pensare che possa trovare applicazione anche nel mondo consumer chissà
sgrinfia
21-02-2015, 07:00
Caso GeForce GTX 970
Nvidia e Gigabyte sono state denunciate negli Stati Uniti per pubblicità ingannevole e pratiche commerciali scorrette, illegali e ingannevoli. La causa, che mira a trasformarsi in class action, riguarda la GTX 970, l'uso che fa dei 4 GB di memoria grafica e la modifica di alcune specifiche dopo mesi dall'arrivo sul mercato.
Nvidia, insieme al partner Gigabyte Technology, è stata denunciata per pubblicità ingannevole, scorrette, illegali e ingannevoli. Al centro della vicenda la GeForce GTX 970, una scheda video recentemente al centro delle polemiche per l'uso "particolare" di 4 GB di memoria (qui la spiegazione), ma soprattutto per un cambio di specifiche che ha riguardato il numero di ROPs e la quantità di cache L2.
Nvidia logo
La denuncia (qui il testo) è stata depositata da Andrew Ostrowski, per conto di sé stesso e altri che sono nella sua stessa posizione. La class action, depositata presso una corte californiana, richiede che si tenga un processo con giuria e la restituzione dei profitti ottenuti con le presunte pratiche illecite, i danni ingiuntivi e tutto ciò che è consentito dalla legge della California.
"Gli imputati hanno condotto un'azione volta a indurre in errore il consumatore circa le caratteristiche, le qualità e i vantaggi della GTX 970 affermando che la scheda fornisce 4 GB di memoria effettivi, 64 ROPs e 2048 KB di cache L2, quando in realtà non lo fa", si legge nel testo della denuncia. "Il marketing legato alla GTX 970 portato avanti dagli imputati era inteso e ha creato la percezione tra i consumatori che il prodotto era, di fatto, in grado di conformarsi con le specifiche come pubblicizzato".
Gigabyte GTX 970 4GB Windforce 3X
Gigabyte GTX 970 4GB Windforce 3X € 351,44Acquista+
Nvidia ha finora spiegato che la scheda funziona come da progetto, almeno per quanto concerne l'uso dei 4 GB di memoria. Di questa quantità di memoria solo 3,5 GB sono ad accesso prioritario e rapido, mentre la restante parte è più lenta e vi si accede solo in determinati casi e momenti. Questo è da ricondursi alla "modifica" del chip GM204, castrato (1664 CUDA core) rispetto alla sua massima espressione (che riscontriamo nella GTX 980 con 2048 CUDA core).
La scheda si comporta bene nei test, vi sono però dei casi - come il gaming in 4K con dettagli alti, ma anche in QHD con alcuni titoli - in cui gli appassionati hanno rilevato prestazioni non sempre uniformi (stuttering). Ed è proprio da questo comportamento che la vicenda è montata, sfociando in gennaio con le dichiarazioni di Nvidia. Per quanto riguarda le specifiche tecniche, l'azienda ha ammesso di aver comunicato male le informazioni alla stampa: la GPU ha solo 56 ROPs e una cache L2 di 1792 KB.
appleroof
21-02-2015, 08:11
Sgrinfia alla faccia del cross-posting, potevi pure postarla in qualche thread della sezione hard disk, cellulari, stampanti e mercatino :asd:
MrBrillio
21-02-2015, 08:27
Ahahahah
In ogni caso...il fatto di unificare la vram in multi gpu, non dovrebbe essere anche qualcosa che possa centrare con il VR SLI che nvidia sbandiera da quando sono uscite le 9xx? Alla fine con quella tecnologia ogni vga dovrebbe renderizzare un immagine singola che viene poi visualizzata nel visore.
appleroof
21-02-2015, 08:34
Ahahahah
In ogni caso...il fatto di unificare la vram in multi gpu, non dovrebbe essere anche qualcosa che possa centrare con il VR SLI che nvidia sbandiera da quando sono uscite le 9xx? Alla fine con quella tecnologia ogni vga dovrebbe renderizzare un immagine singola che viene poi visualizzata nel visore.
mmm...parlo per logica eh, quindi nulla di tecnico :D ma quella potrebbe essere una tecnica per splittare l'immagine su due visori, trasportata nel mondo desktop magari 2 monitor e ciascuna vga si occupa del rispettivo visore/monitor? Non so quanto possa centrare con la memoria unificata in multigpu insomma....:fagiano:
maxmix65
22-02-2015, 17:11
Forse e' Old?? Ma lo posto
http://s15.postimg.org/tt72q6kfr/ddefsew.jpg (http://postimg.org/image/tt72q6kfr/)
sgrinfia
25-02-2015, 07:43
Le DirectX 12, le nuove API integrate in Windows 10 più vicine all'hardware in modo simile all'API AMD Mantle, consentiranno di realizzare sistemi con più schede videoformati sia da GPU AMD che da GPU Nvidia.
È questa la clamorosa rivelazione che una fonte ritenuta affidabile ha fatto ai nostri colleghi di Tom's Hardware USA. Le GPU Nvidia GeForce e AMD Radeon saranno quindi in grado di lavorare insieme per renderizzare lo stesso gioco - persino lo stesso frame.
DirectX 12
"Questo è particolarmente interessante perché permette di sfruttare i benefici tecnologici di entrambe le piattaforme hardware se si desidera farlo. Se vi piace il software GeForce Experience di Nvidia e il 3D Vision, ma volete usare il TrueAudio e FreeSync di AMD, vi sono possibilità che potrete farlo con le DirectX 12", scrivono i colleghi.
Probabilmente una scheda funzionerà come una soluzione "master", mentre l'altra sarà usata per avere maggiore potenza a disposizione. Il tutto è legato alla capacità delle DirectX 12 di "aggregare risorse hardware", di calcolo o memoria, nel modo più efficiente possibile.
"Tutto questo non porta benefici solo con sistemi con più GPU desktop dedicate. Anche i portatili con soluzioni Dual Graphics o i sistemi con APU e GPU saranno in grado di beneficiarne. L'aggregazione legata alle DirectX 12 permetterà a GPU che oggi non si abbinano di lavorare insieme, rendendo forse tecnologie come SLI e CrossFire obsolete in futuro".
Tutto questo però, molto probabilmente, dipenderà dal lavoro di ottimizzazione che fa capo agli sviluppatori di giochi. A ogni modo, le DirectX 12 faciliteranno la vita alle software house non solo con l'aggregazione, ma anche con l'SFR (split-frame rendering).
"Una delle grandi cose delle DirectX 12 sono le capacità definite come Explicit Asynchronous Multi-GPU", spiegano i colleghi. Le API combinano tutte le differenti risorse grafiche del sistema e le inseriscono in una sorta di calderone. Sarà poi lo sviluppatore del gioco a dividere il carico tra le differenti risorse a disposizione.
"A favorire questa nuova caratteristica che aiuta le configurazioni multi-GPU è che il frame buffer (la memoria a disposizione della GPU) non deve più essere rispecchiato. Con le API attuali, per beneficiare di più GPU e farle lavorare insieme ognuna deve renderizzare un frame alternato (AFR). Questo richiede di avere tutti i dati di texture e geometria nei rispettivi frame buffer, il che significa che nonostante si abbiano due schede da 4 GB di memoria, avrete ancora un frame buffer da solo 4 GB".
Le DirectX 12 rimuoveranno tutto questo grazie all'SFR, ossia lo Split Frame Rendering. Gli sviluppatori saranno in grado di dividere, manualmente o automaticamente, i dati di texture e geometria tra le GPU, e tutte le GPU potranno poi lavorare insieme su ogni frame. Ogni GPU poi lavorerà su una specifica porzione dello schermo, con il numero di porzioni equivalente al numero di GPU installate.
DX 12
"La nostra fonte suggerisce che questa tecnologia ridurrà nettamente la latenza e la spiegazione è semplice. Con l'AFR un certo numero di frame deve essere in coda per fornire un'esperienza fluida, ma ciò significa che l'immagine a schermo sarà sempre 4-5 frame dietro gli input dell'utente".
"Questo favorisce un frame rate molto alto, ma la latenza rende il gioco meno reattivo. Con SFR, tuttavia, la queue depth è sempre pari a uno o meno e ogni GPU lavora su una parte differente dello schermo. Con la queue depth che scende, il frame rate dovrebbe salire per via delle risorse liberate".
"Legando più GPU insieme, le DirectX 12 trattano l'intero sottosistema grafico come un'unica e più potente scheda grafica. Così, gli utenti ottengono la stabilità di lavorare con una singola GPU, ma con più schede video", concludono i colleghi.:cool:
Per avere maggiori informazioni e dettagli non ci resta che attendere la GDC 2015, tra il 2 e il 6 marzo, palcoscenico in cui le DirectX 12 sanno uno degli argomenti principali. Incrociamo le dita, perché tra "sparate" più o meno veritiere e benchmark interessanti (qui e qui) la curiosità di saperne di più è più viva che mai.
MrBrillio
25-02-2015, 10:24
Oddio..già lo SLI/CF non va benissimo con le stesse schede...immagino utilizzare un sistema multy gpu misto..comunque interessante come cosa :stordita:
AragornElessar
26-02-2015, 11:34
le gtx 980 da 8GB di ram sono in uscita a marzo per davvero? Leggevo fine novembre, poi anno nuovo, poi febbraio e ora marzo.. Ma c'è qualcosa che sta andando storto?
Invece pare che la gtx 980 ti non uscirà prima del 2016 Q1.
Risulta anche a voi?
Qui pare ci siano dichiarati problemi con l'hardware..
le gtx 980 da 8GB di ram sono in uscita a marzo per davvero? Leggevo fine novembre, poi anno nuovo, poi febbraio e ora marzo.. Ma c'è qualcosa che sta andando storto?
Invece pare che la gtx 980 ti non uscirà prima del 2016 Q1.
Risulta anche a voi?
Qui pare ci siano dichiarati problemi con l'hardware..
Di un eventuale 960ti o cmq 960 più prestante si sa niente invece?!
illidan2000
26-02-2015, 14:53
le gtx 980 da 8GB di ram sono in uscita a marzo per davvero? Leggevo fine novembre, poi anno nuovo, poi febbraio e ora marzo.. Ma c'è qualcosa che sta andando storto?
Invece pare che la gtx 980 ti non uscirà prima del 2016 Q1.
Risulta anche a voi?
Qui pare ci siano dichiarati problemi con l'hardware..
non so dove hai preso queste notizie. non credo uscirà nulla del genere...
Oddio..già lo SLI/CF non va benissimo con le stesse schede...immagino utilizzare un sistema multy gpu misto..comunque interessante come cosa :stordita:
Si infatti. Come se il CF e SLI non avessero abbastanza problemi :doh:
le gtx 980 da 8GB di ram sono in uscita a marzo per davvero? Leggevo fine novembre, poi anno nuovo, poi febbraio e ora marzo.. Ma c'è qualcosa che sta andando storto?
Invece pare che la gtx 980 ti non uscirà prima del 2016 Q1.
Risulta anche a voi?
Qui pare ci siano dichiarati problemi con l'hardware..
difficile reperibilità delle ram
AragornElessar
26-02-2015, 17:42
difficile reperibilità delle ram
quindi tocca aspettare senza sapere.. uff.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.