View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Rhadamanthis
29-08-2014, 09:43
quindi dalla slide si evince che la 780 ti stà tra la 980 e la 970, correggetemi se sbaglio, in oc la 780 ti POTREBBe eguagliare una 980 stock giusto?
Quindi la gtx 880 uscirà con supporto diretto alle dx12 come avevo letto tempo fa.
Ora bisognerà vedere quanto saranno limitate le serie più vecchie in questo senso.
Quindi facendo un rapido calcolo anche se fosse il 10% più potente della gtx 780 ti,ma avendo il boost prestazionale del 50% grazie alle dx12,potrà diventare un must have.
Il boost prestazionale delle dx12 riguarderà soprattutto configurazioni cpu limited, quindi quel 50% in una config equilibrata, dove per equilibrata intendo una cpu all'altezza della gpu, te lo scordi ;)
Inviato con il mio smartphone, utilizzando Tapatalk
Goofy Goober
29-08-2014, 09:53
quindi dalla slide si evince che la 780 ti stà tra la 980 e la 970, correggetemi se sbaglio, in oc la 780 ti POTREBBe eguagliare una 980 stock giusto?
quella slide ha una valenza per le prestazioni delle schede pari a quella dei pronostici astrofisici di pino lo spazzino.
aspetta che escano.
quella slide ha una valenza per le prestazioni delle schede pari a quella dei pronostici astrofisici di pino lo spazzino.
aspetta che escano.
:rotfl: :rotfl: :rotfl:
Sto ridendo da 10 minuti lol ! pino lo spazzino hahah !!
Quoto comunque lol ! :D
PaulGuru
29-08-2014, 10:21
Scusate ma le serie mobile come sigla non era già allineate ? Perchè hanno rinominato la serie 700M in 800M ?
Mah, speriamo si sbrighino, sinceramente mi piace l'idea di pensionare lo SLI di 670 attualmente.
Probabilmente starò senza SLI per un pò di tempo...
Endy.
giubox360
29-08-2014, 11:30
sinceramente io da quel che ho capito a parte il nome (gtx 880 o 980) queste schede video non saranno il vero maxwell, ma una fascia intermedia per così dire in attesa dei 16 o 20 nm, per cui mi aspetto performance simili alle gtx 780 Oc, ma non come le gtx 780 ti, se non sono rimasto indietro con i rumor...di buono si vocifera che avranno almeno 4 gb di ram, ma per le dx 12 come sempre è solo e soltanto marketing....( oppure vedremo miglioramenti...ma per chi è Cpu limited) attendiamo l'uscita e le prestazioni vanno valutate come sempre sui bench e giochi..;)
quella slide ha una valenza per le prestazioni delle schede pari a quella dei pronostici astrofisici di pino lo spazzino.
aspetta che escano.
Ciao sono lo zio PPPPINO!!!! Lo zio PPPINO!!!!
C'è da spostare una macchina!!!!
Allora pino mi ha gabbato, mi ha detto che sarebbero state chiamate r9x tonga ati 9700 e ati 9800!!! Allora mi ha gabbato!
Dimitri-
29-08-2014, 11:52
Erano "affidabilissimi" quei test sulla "GTX 880"...
:asd: :asd: :asd:
Inviato dal mio OnePlus One utilizzando Tapatalk
mi spieghi cosa c'entra il cambio di nome con i benchmark leaked? la fonte non ha mai citato il nome reale della gpu, ha solo detto che si tratta di una nuova gpu maxwell.E poi nvidia il nome lo puo' cambiare anche 1 giorno prima del lancio,quindi non significa niente.
Se ti aspetti prestazioni di una 880 superiori del 15% a quella di una 780 ti avrai una brutta sorpresa..e in overclock ti garantisco che il gk110 asfaltera' maxwell che e' gia bello tirato di suo a 28nm.
Ah, poi non lamentiamoci quando nvidia presentera' il vero maxwell gm200 dopo 4 mesi dal lancio del gm204
fireradeon
29-08-2014, 11:58
Io ho una 780 e sto pensando che anche andassero il 50% in più di una 780 a che servirebbe? Per giocare A COSA? FIFA 15? Il nuovo (vecchio) COD? Strabasta la 780 LISCIA!!!
L'unica vera killer application per pc sarà The Witcher 3 che esce a febbraio 2015 (così come il nuovo Batman etc). Quindi tanto vale tenere quello che hai e in caso fare l'upgrade a febbraio quando si troveranno le 980 a prezzi ribassati (oltre che custom a iosa). Poi cambiare per il discorso energetico é follia. Risparmi 15 euro e il passaggio te ne costa 200/300! :D
P.s. Prima volevo cambiare VGA. Ora ho cambiato idea che é meglio e risparmio.
PaulGuru
29-08-2014, 12:12
Se ti aspetti prestazioni di una 880 superiori del 15% a quella di una 780 ti avrai una brutta sorpresa..e in overclock ti garantisco che il gk110 asfaltera' maxwell che e' gia bello tirato di suo a 28nm.
L'architettura Maxwell è superiore e non ha alcun senso portarla se non garantisse un minimo di distacco, già la 970 dovrebbe essere uguale o superiore alla 780Ti, altrimenti non ha motivo di esistere.
Io ho una 780 e sto pensando che anche andassero il 50% in più di una 780 a che servirebbe? Per giocare A COSA? FIFA 15? Il nuovo (vecchio) COD? Strabasta la 780 LISCIA!!!
L'unica vera killer application per pc sarà The Witcher 3 che esce a febbraio 2015 (così come il nuovo Batman etc). Il nuovo COD ha una grafica parecchio pompata invece, e considerando il livello di ottimizzazione .....
fenicered
29-08-2014, 12:24
vado a memoria (astenersi linciaggi), nel mondo dei portatili
la famiglia 800m e gia utilizzata da piu di 6 mesi
880m kepler 1536 core gk104
870m kepler 1344 core gk104
860m kepler 1056 core gk104
860m maxwell 640 core gm107
850m
Dimitri-
29-08-2014, 12:29
L'architettura Maxwell è superiore e non ha alcun senso portarla se non garantisse un minimo di distacco, già la 970 dovrebbe essere uguale o superiore alla 780Ti, altrimenti non ha motivo di esistere.
Il nuovo COD ha una grafica parecchio pompata invece, e considerando il livello di ottimizzazione .....
no, non sara' cosi. Hai dato un'occhiata al benchmark della 970? performance simili ad una 780, quindi la 780ti potrebbe essere raggiunta da una 980.E tutto questo ha senso, perche la 980 sara' la nuova top di gamma insieme alla Ti con consumi nettamente inferiori e 1gb di vram in piu. Nvidia si giustifichera' cosi,poi dopo pochi mesi lancera' il vero maxwell gm200. Parliamoci chiaro, i 28nm limitano troppo, ecco perche' queste 970-980 saranno solo fascia media
PaulGuru
29-08-2014, 12:39
no, non sara' cosi. Hai dato un'occhiata al benchmark della 970? performance simili ad una 780, quindi la 780ti potrebbe essere raggiunta da una 980.E tutto questo ha senso, perche la 980 sara' la nuova top di gamma insieme alla Ti con consumi nettamente inferiori e 1gb di vram in piu. Nvidia si giustifichera' cosi,poi dopo pochi mesi lancera' il vero maxwell gm200. Parliamoci chiaro, i 28nm limitano troppo, ecco perche' queste 970-980 saranno solo fascia mediaMa quali bench hai visto te ? Se è per questo ce nè un altro bench dove l'ipotetica 880 andava sui +35% rispetto ad una 780 con tanto di screen.
Soliti fake, senza contare che è un architettura NUOVA quindi i driver ottimizzati ancora non ci sono.
Dici che i 28nm limitano troppo e poi aggiungi dicendo che avranno un TDP e consumo minore ?
illidan2000
29-08-2014, 12:52
Io ho una 780 e sto pensando che anche andassero il 50% in più di una 780 a che servirebbe? Per giocare A COSA? FIFA 15? Il nuovo (vecchio) COD? Strabasta la 780 LISCIA!!!
L'unica vera killer application per pc sarà The Witcher 3 che esce a febbraio 2015 (così come il nuovo Batman etc). Quindi tanto vale tenere quello che hai e in caso fare l'upgrade a febbraio quando si troveranno le 980 a prezzi ribassati (oltre che custom a iosa). Poi cambiare per il discorso energetico é follia. Risparmi 15 euro e il passaggio te ne costa 200/300! :D
P.s. Prima volevo cambiare VGA. Ora ho cambiato idea che é meglio e risparmio.
watch dogs, tomb raider, ac unity...
watch dogs, tomb raider, ac unity...
@_@
L'architettura Maxwell è superiore e non ha alcun senso portarla se non garantisse un minimo di distacco, già la 970 dovrebbe essere uguale o superiore alla 780Ti, altrimenti non ha motivo di esistere.
Il nuovo COD ha una grafica parecchio pompata invece, e considerando il livello di ottimizzazione .....
il punto è che cod a parte 4 miliardi di bbk chi lo compra più? il gameplay ormai fa ridere i polli (non che bf stia andando meglio eh)
watch dogs, tomb raider, ac unity...
Watch Dogs a me gira a Ultra con una r9 290 overcloccata, nonostante sia ottimizzato coi piedi, e poi come detto è già uscito qualche mese fa, Tomb Raider è uscito l'anno scorso e gira perfettamente anche quello a ultra e oltre 60fps sulla mia 290, se invece intendi il seguito quello sarà esclusiva Xbox One ed esce a fine 2015, l'unico appunto sarebbe AC Unity, ma non credo sia anche quello cosi pesante da mettere in crisi le attuali 780 e r9 290, e sopratutto sarà un gioco che richederà una buona CPUpiù che una GPU per non avere cali nelle zone con più roba in giro.
Per cui sono con lui, chi gioca a 1080p e vuole comunque dettagli ultra e buon frame rate, fa bene a tenersi le r9 290/gtx 780 aspettando anno prossimo per un eventuale cambio di scheda con le 20/16nm
LurenZ87
29-08-2014, 13:18
mi spieghi cosa c'entra il cambio di nome con i benchmark leaked? la fonte non ha mai citato il nome reale della gpu, ha solo detto che si tratta di una nuova gpu maxwell.E poi nvidia il nome lo puo' cambiare anche 1 giorno prima del lancio,quindi non significa niente.
Se ti aspetti prestazioni di una 880 superiori del 15% a quella di una 780 ti avrai una brutta sorpresa..e in overclock ti garantisco che il gk110 asfaltera' maxwell che e' gia bello tirato di suo a 28nm.
Ah, poi non lamentiamoci quando nvidia presentera' il vero maxwell gm200 dopo 4 mesi dal lancio del gm204
Per esserne così convinto hai qualche dato alla mano o hai la scheda??? Ti rispondo direttamente io, non hai ancora nulla tra le mani in quanto ancora non è stata ne presentata, ne sono state divulgate informazioni riservate in merito.
Inviato dal mio OnePlus One utilizzando Tapatalk
Io ho una 780 e sto pensando che anche andassero il 50% in più di una 780 a che servirebbe? Per giocare A COSA? FIFA 15? Il nuovo (vecchio) COD? Strabasta la 780 LISCIA!!!
L'unica vera killer application per pc sarà The Witcher 3 che esce a febbraio 2015 (così come il nuovo Batman etc). Quindi tanto vale tenere quello che hai e in caso fare l'upgrade a febbraio quando si troveranno le 980 a prezzi ribassati (oltre che custom a iosa). Poi cambiare per il discorso energetico é follia. Risparmi 15 euro e il passaggio te ne costa 200/300! :D
P.s. Prima volevo cambiare VGA. Ora ho cambiato idea che é meglio e risparmio.
Batman?
Ma va, usa lo stesso engine di Arkham Asylum, l'UE 3.
A meno che non lo strariempiano di nuovi effetti, texture pesantissime, il gioco sempre così gira.
watch dogs, tomb raider, ac unity...
non è vero, fa solo figo avere l'ultimo pezzo uscito, è cosi ovunque :asd:
appleroof
29-08-2014, 13:24
C'è fc4 pure e la versione definitiva di Project Cars, poi DAI con il frostbyte 3 :fagiano: poi spero che il rinvio di gta5 sia fake :(
Cmq è vero, a parte pcars nulla che possa davvero piegare una 780/780ti/290/290x, magari per chi ha una 770 in giù oppure per chi vuole Cmq più fps a 1440p o aspira a 60 fissi maxato in fullhd... D'altra parte parliamoci chiaro, se fosse per giocare più che degnamente bastavano le 680/7970 e si potevano saltare pure le 700 e 290 ma evidentemente spesso il bisogno di potenza non basta mai per alcuni...
Mandest22
29-08-2014, 13:26
secondo me state sottovalutando "Ryse son of Rome" secondo me sarà di un pesante.....
appleroof
29-08-2014, 13:27
secondo me state sottovalutando "Ryse son of Rome" secondo me sarà di un pesante.....
Già c'è pure quello...
Mandest22
29-08-2014, 13:29
Io con la mia 7870 XT mi sento quasi obbligato al cambio....
Inviato dal mio Nexus7 2013 (4.4.4)
mircocatta
29-08-2014, 13:30
secondo me state sottovalutando "Ryse son of Rome" secondo me sarà di un pesante.....
lo faranno anche per pc? non è esclusiva per xbox?
PaulGuru
29-08-2014, 13:34
il punto è che cod a parte 4 miliardi di bbk chi lo compra più? il gameplay ormai fa ridere i polli (non che bf stia andando meglio eh)
Lo compreranno parecchi invece essendo ancora un punto di riferimento fra gli FPS moderni, BF idem, il prossimo Hardline lo compreranno eccome, tutti critici all'inizio e poi lo comprano.
Ghost non l'ha preso perchè fisicamente non potevi giocarci, BF4 invece l'ha comprato un casino e i servers pieni ce ne sono sempre nonostante le lagne sul netcode ( che io non ho mai visto ).
Mandest22
29-08-2014, 13:35
lo faranno anche per pc? non è esclusiva per xbox?
Si lo faranno anche per noi, uscita entro fine anno...
Inviato dal mio Nexus7 2013 (4.4.4)
PaulGuru
29-08-2014, 13:37
Batman?
Ma va, usa lo stesso engine di Arkham Asylum, l'UE 3.
A meno che non lo strariempiano di nuovi effetti, texture pesantissime, il gioco sempre così gira.Userà l'UE4 e già dal trailer si vede di brutto !
watch dogs, tomb raider, ac unity...Ubizoz, non gireranno mai a 60 fissi.
mircocatta
29-08-2014, 13:39
Si lo faranno anche per noi, uscita entro fine anno...
Inviato dal mio Nexus7 2013 (4.4.4)
perfetto, mi ha sempre ispirato parecchio!
Batman?
Ma va, usa lo stesso engine di Arkham Asylum, l'UE 3.
A meno che non lo strariempiano di nuovi effetti, texture pesantissime, il gioco sempre così gira.
arkham knight usa l'ue4. e comunque avendolo qui l'ue4 è meno esoso in fatto di risorse nella fattiscpecie se utilizzano le texture pbr cosa che a quanto pare dagli screen sembra probabile.
sickofitall
29-08-2014, 14:08
arkham knight usa l'ue4. e comunque avendolo qui l'ue4 è meno esoso in fatto di risorse nella fattiscpecie se utilizzano le texture pbr cosa che a quanto pare dagli screen sembra probabile.
boh, leggevo pure io che il knight usa ancora ue3 con qualche feature del 4 aggiunta
Lo compreranno parecchi invece essendo ancora un punto di riferimento fra gli FPS moderni, BF idem, il prossimo Hardline lo compreranno eccome, tutti critici all'inizio e poi lo comprano.
Ghost non l'ha preso perchè fisicamente non potevi giocarci, BF4 invece l'ha comprato un casino e i servers pieni ce ne sono sempre nonostante le lagne sul netcode ( che io non ho mai visto ).
non ho mica scritto che non lo compra nessuno, infatti 4 miliari non mi sembrano pochi :) ma il gioco resta una fogna, anche se prima magari voglio vedere un filmato finale del gioco per rendermi conto se magari stanno tornando nella retta via, chi lo sa.
boh, leggevo pure io che il knight usa ancora ue3 con qualche feature del 4 aggiunta
la cosa mi pare alquanto assurda visto il costo delle licenze del 3 e del 4, magari tra loro hanno accordi diversi.
Psycho77
29-08-2014, 14:38
Il boost prestazionale delle dx12 riguarderà soprattutto configurazioni cpu limited, quindi quel 50% in una config equilibrata, dove per equilibrata intendo una cpu all'altezza della gpu, te lo scordi ;)
Inviato con il mio smartphone, utilizzando Tapatalk
Se le software house sfruttassero da subito le dx12,potrei tenere il mio i7 2600k per altri 4 anni almeno allora.E' uno scenario niente male.:sofico:
Per le dx12 leggetevi questo articolo,le vecchie gpu le supporteranno,ma non completamente.
https://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0CCEQFjAA&url=http%3A%2F%2Fwww.tomshw.it%2Fcont%2Fnews%2Fdirectx-12-alcune-novita-richiederanno-nuovi-chip-grafici%2F54574%2F1.html&ei=D4IAVMqZJumg7Aa3kIDoBw&usg=AFQjCNE6pm5-89BR9FsJsfkbOGwaIwyg1Q
La serie 8xx avrà questi chip dedicati che serviranno per avere le dx12 in forma completa,un po' come i chip per le dx11 che montava la gtx 480.
Ragazzi per batman arkham knight sbagliate,userà l'unreal engine 3.Ma non pensate erroneamente che per questo sarà leggero,anche un unreal engine 3 con 3 milioni di poligoni a schermo può mettere a pecora gpu top di gamma,e dai video questo si può travisare.
giubox360
29-08-2014, 14:48
Se le software house sfruttassero da subito le dx12,potrei tenere il mio i7 2600k per altri 4 anni almeno allora.E' uno scenario niente male.:sofico:
Per le dx12 leggetevi questo articolo,le vecchie gpu le supporteranno,ma non completamente.
https://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0CCEQFjAA&url=http%3A%2F%2Fwww.tomshw.it%2Fcont%2Fnews%2Fdirectx-12-alcune-novita-richiederanno-nuovi-chip-grafici%2F54574%2F1.html&ei=D4IAVMqZJumg7Aa3kIDoBw&usg=AFQjCNE6pm5-89BR9FsJsfkbOGwaIwyg1Q
La serie 8xx avrà questi chip dedicati che serviranno per avere le dx12 in forma completa.
Mi spiace, ma per me è solo marketing...non ci cascate, anche tra dx 11 e 11.2 non c'è stata differenza e anche se fosse tutto vero bisognerebbe essere un bel pò cpu limited per avere benefici grossi, un pò come ora con i mantle per amd.
p.s.
l'unica volta che ci sono stati veri e notevoli cambiamenti sia grafici che di guadagno prestazionale che io ricordi fu col passaggio dalle dx 8 alle dx 9 ;)
Agel2197
29-08-2014, 14:53
Mi spiace, ma per me è solo marketing...non ci cascate, anche tra dx 11 e 11.2 non c'è stata differenza e anche se fosse tutto vero bisognerebbe essere un bel pò cpu limited per avere benefici grossi, un pò come ora con i mantle per amd.
p.s.
l'unica volta che ci sono stati veri e notevoli cambiamenti sia grafici che di guadagno prestazionale che io ricordi fu col passaggio dalle dx 8 alle dx 9 ;)
Come non quotarti, non sanno più che inventarsi
Psycho77
29-08-2014, 14:54
Mi spiace, ma per me è solo marketing...non ci cascate, anche tra dx 11 e 11.2 non c'è stata differenza e anche se fosse tutto vero bisognerebbe essere un bel pò cpu limited per avere benefici grossi, un pò come ora con i mantle per amd.
p.s.
l'unica volta che ci sono stati veri e notevoli cambiamenti sia grafici che di guadagno prestazionale che io ricordi fu col passaggio dalle dx 8 alle dx 9 ;)
Ma scherzi?Dalle dx9/10 alle dx11 c'è stato un bel salto.
Quando giocai crysis 2 con la patch dx11(con maldo 4.0) tra un po' svengo.
L'unica cosa da imputare alle dx11 sono la loro pesantezza,che poteva essere ottimizzata meglio secondo me.Ho grandi speranze per le dx12.:D
Per la precisione,ad oggi nessun gioco supporta le dx11.2
Agel2197
29-08-2014, 14:55
Ma scherzi?Dalle dx9/10 alle dx11 c'è stato un bel salto.
Quando giocai crysis 2 con la patch dx11(con maldo 4.0) tra un po' svengo.
L'unica cosa da imputare alle dx11 sono la loro pesantezza,che poteva essere ottimizzata meglio secondo me.Ho grandi speranze per le dx12.:D
Per la precisione,ad oggi nessun gioco supporta le dx11.2
Si ma apparte crysis 2 in molti giochi la differenza è irrisoria se non assente
Psycho77
29-08-2014, 15:02
Si ma apparte crysis 2 in molti giochi la differenza è irrisoria se non assente
Colpa delle software house che non si impegnano nello sviluppo pc.
Ad oggi senza dx11 non avremmo crysis 3,battlefield 4,arma 3,Max payne 3 e pochi altri è vero.
Ma con l'uscita delle nuove console next gen lo sviluppo di giochi su pc sarà per forza in dx11 e dx12.
Da non trascurare il fatto che oggi il pc gaming è più in forma che mai,7 anni fa era in piena crisi.:D
http://th09.deviantart.net/fs71/200H/f/2013/008/2/2/_wallpaper__glorious_pc_gaming_master_race_by_admiralserenity-d5qvxos.png
Agel2197
29-08-2014, 15:12
Colpa delle software house che non si impegnano nello sviluppo pc.
Ad oggi senza dx11 non avremmo crysis 3,battlefield 4,arma 3,Max payne 3 e pochi altri è vero.
Ma con l'uscita delle nuove console next gen lo sviluppo di giochi su pc sarà per forza in dx11 e dx12.
Da non trascurare il fatto che oggi il pc gaming è più in forma che mai,7 anni fa era in piena crisi.:D
mah... a dire il vero dopo crysis (1) assassin creed 1 far cry 1 e 2 mi sembra che siamo alla frutta
fireradeon
29-08-2014, 15:12
Il nuovo COD ha una grafica parecchio pompata invece, e considerando il livello di ottimizzazione .....
Paul ma nel single o nel multy. Perchè il single le campagne sono ridicole (durano pochissimo) e secondo me una 780 occata già lo tiene, in multy gira bene BF4 con una 780 figurati COD.
watch dogs, tomb raider, ac unity...
Watch dogs io l'ho giocato con lo sli di 780 e faceva schifo, tanto era mal ottimizzato, manco con il tri way sli lo giocavi bene. Tomb raider quale? Il nuovo Tomb Raider è esclusiva Xbox One (http://www.gamemag.it/news/tomb-raider-non-su-pc-e-ps4-square-enix-non-e-stata-una-decisione-facile_53729.html) e non esce tanto presto. AC Unity voglio vedere proprio quanto sarà pompato, per ora non è che ho visto chissà che nei video.
Batman?
Ma va, usa lo stesso engine di Arkham Asylum, l'UE 3.
A meno che non lo strariempiano di nuovi effetti, texture pesantissime, il gioco sempre così gira.
Batman l'ultimo uscito era bello pompato su pc in dx11 e girava cmq tranquillamente, iniziava a dare "problemi" a 1440p (e con problemi intendo che in sli di 780 ogni tanto scendeva sotto i 60fps, ma bazzecole).
Poi ho visto il nuovo Batman e pur usando lo stesso engine si vede ad occhio che lo hanno pompato molto, secondo me non sarà come The Witcher 3 ma senz'altro peserà più della media, poi se non è così la mia tesi ha ancora più valore.
Io francamente non vedo il motivo di fare un cambio, ma è una cosa soggettiva, anche perchè dipende TUTTO da cosa pensiamo di giocare nei prossimi mesi. Preferisco aspettare ed eventualmente fare il passaggio a inizio 2015 se sarà necessario, tutti i migliori giochi (di un certo spessore e pesantezza) escono nel 2015. Poi se uno non ha una 780 secondo me fa benissimo a cambiare!!
Agel2197
29-08-2014, 15:15
Paul ma nel single o nel multy. Perchè il single le campagne sono ridicole (durano pochissimo) e secondo me una 780 occata già lo tiene, in multy gira bene BF4 con una 780 figurati COD.
Watch dogs io l'ho giocato con lo sli di 780 e faceva schifo, tanto era mal ottimizzato, manco con il tri way sli lo giocavi bene. Tomb raider quale? Il nuovo Tomb Raider è esclusiva Xbox One (http://www.gamemag.it/news/tomb-raider-non-su-pc-e-ps4-square-enix-non-e-stata-una-decisione-facile_53729.html) e non esce tanto presto. AC Unity voglio vedere proprio quanto sarà pompato, per ora non è che ho visto chissà che nei video.
Batman l'ultimo uscito era bello pompato su pc in dx11 e girava cmq tranquillamente, iniziava a dare "problemi" a 1440p (e con problemi intendo che in sli di 780 ogni tanto scendeva sotto i 60fps, ma bazzecole).
Poi ho visto il nuovo Batman e pur usando lo stesso engine si vede ad occhio che lo hanno pompato molto, secondo me non sarà come The Witcher 3 ma senz'altro peserà più della media, poi se non è così la mia tesi ha ancora più valore.
Io francamente non vedo il motivo di fare un cambio, ma è una cosa soggettiva. Preferisco aspettare ed eventualmente fare il passaggio a inizio 2015 se sarà necessario.
ho come il sospetto che a dettagli ultra si affatichi volontariamente la gpu
Psycho77
29-08-2014, 15:16
mah... a dire il vero dopo crysis (1) assassin creed 1 far cry 1 e 2 mi sembra che siamo alla frutta
Non offenderti,ma se non hai visto un bel salto tecnologico in crysis 3,battlefield 4 e arma 3 ti conviene giocare su console.
giubox360
29-08-2014, 15:16
Colpa delle software house che non si impegnano nello sviluppo pc.
Ad oggi senza dx11 non avremmo crysis 3,battlefield 4,arma 3,Max payne 3 e pochi altri è vero.
Ma con l'uscita delle nuove console next gen lo sviluppo di giochi su pc sarà per forza in dx11 e dx12.
Da non trascurare il fatto che oggi il pc gaming è più in forma che mai,7 anni fa era in piena crisi.:D
Dal tuo nick penso che conosci bene il primo Crysis....ecco in dx 9 moddando il setting.cfg potevi tranquilamente avere gli effetti delle dx 10, (parallax mapping, soft shadow, depth of field, ecc ecc..) il migliore risultato grafico che abbia mai visto su un videogioco c'era già nel 2007 e girava con dx 9 ;) se avesse avuto textures in full hd non avrebbe temuto di certo neppure crysis 3 :)
sicuramente le dx 11 hanno aggiunto qualche effetto e filtro in più, ma il grosso lo fa la risoluzione che rispetto al 2007 dove in molti eravamo ancora @720p ora siamo tutti minimo in full hd.
p.s.
(e in teoria tra i grossi miglioramenti dei nuovi motori grafici ci sarebbe la
"global illumination" che però non vedremo mai su un gioco PC per molto tempo per via delle console che non ce la fanno a gestirlo, basti pensare che l'UE4 all'inizio lo prevedeva...e ora non più...ah il marketing...:doh: )
io mi sento di dire che in questo ultimo decennio c'è stata poca innovazione un pò su tutto..e anche l'ambito grafico ha risentito di questa crisi economica di cui tanto si parla.
Agel2197
29-08-2014, 15:19
Dal tuo nick penso che conosci bene il primo Crysis....ecco in dx 9 moddando il setting.cfg potevi tranquilamente avere gli effetti delle dx 10, (parallax mapping, soft shadow, depth of field, ecc ecc..) il migliore risultato grafico che abbia mai visto su un videogioco c'era già nel 2007 e girava con dx 9 ;) se avesse avuto textures in full hd non avrebbe temuto di certo neppure crysis 3 :)
sicuramente le dx 11 hanno aggiunto qualche effetto e filtro in più, ma il grosso lo fa la risoluzione che rispetto al 2007 dove in molti eravamo ancora @720p ora siamo tutti minimo in full hd.
p.s.
(e in teoria tra i grossi miglioramenti dei nuovi motori grafici ci sarebbe la
"global illumination" che però non vedremo mai su un gioco PC per molto tempo per via delle console che non ce la fanno a gestirlo, basti pensare che l'UE4 all'inizio lo prevedeva...e ora non più...ah il marketing...:doh: )
io mi sento di dire che in questo ultimo decennio c'è stata poca innovazione un pò su tutto..e anche l'ambito grafico ha risentito di questa crisi economica di cui tanto si parla.
esatto...
Agel2197
29-08-2014, 15:23
Non offenderti,ma se non hai visto un bel salto tecnologico in crysis 3,battlefield 4 e arma 3 ti conviene giocare su console.
il salto che c'è stato con il primo crysis è stato di gran lunga tra il primo e il secondo, quella la chiamerei ottimizzazione
fireradeon
29-08-2014, 15:23
Raga unici giochi MATTONE ma veramente MATTONE per PC a mio avviso sono: Crysis 3 - Metro Last Light - BF4 single player - Tomb Raider. Il resto anche con piccoli "sacrifici" si giocano bene con singola scheda 780/780 ti.
Psycho77
29-08-2014, 15:24
Dal tuo nick penso che conosci bene il primo Crysis....ecco in dx 9 moddando il setting.cfg potevi tranquilamente avere gli effetti delle dx 10, (parallax mapping, soft shadow, depth of field, ecc ecc..) il migliore risultato grafico che abbia mai visto su un videogioco c'era già nel 2007 e girava con dx 9 ;) se avesse avuto textures in full hd non avrebbe temuto di certo neppure crysis 3 :)
sicuramente le dx 11 hanno aggiunto qualche effetto e filtro in più, ma il grosso lo fa la risoluzione che rispetto al 2007 dove in molti eravamo ancora @720p ora siamo tutti minimo in full hd.
p.s.
(e in teoria tra i grossi miglioramenti dei nuovi motori grafici ci sarebbe la
"global illumination" che però non vedremo mai su un gioco PC per molto tempo per via delle console che non ce la fanno a gestirlo, basti pensare che l'UE4 all'inizio lo prevedeva...e ora non più...ah il marketing...:doh: )
io mi sento di dire che in questo ultimo decennio c'è stata poca innovazione un pò su tutto..e anche l'ambito grafico ha risentito di questa crisi economica di cui tanto si parla.
Crysis è una ragione di vita per me.:D
Non c'è mod che tenga però,nessuno può minimamente pensare di potersi avvicinare alla resa grafica che offre crysis 3.
Tonnellate di effetti con quintali di tessellation ovunque.
Guarda anche se il mio capitolo preferito è crysis warhead,ho creato questo video poco tempo fa per far notare alla gente tutti gli effetti che ha di serie il terzo capitolo.
CAUSTICHE IN TEMPO REALE cazz0,è l'unico gioco ad averle con valanghe di poligoni ed effetti,ad oggi mette a 90 gradi qualsiasi cosa,battlefield 4 incluso.
Guardate il video e spero che vi piaccia,ho anche scritto nella descrizione quasi tutti gli effetti che si possono ammirare nel video.:D
http://youtu.be/W3qT9RVKfcQ
sickofitall
29-08-2014, 15:29
Crysis è una ragione di vita per me.:D
Non c'è mod che tenga però,nessuno può minimamente pensare di potersi avvicinare alla resa grafica che offre crysis 3.
Tonnellate di effetti con quintali di tessellation ovunque.
Guarda anche se il mio capitolo preferito è crysis warhead,ho creato questo video poco tempo fa per far notare alla gente tutti gli effetti che ha di serie il terzo capitolo.
CAUSTICHE IN TEMPO REALE cazz0,è l'unico gioco ad averle con valanghe di poligoni ed effetti,ad oggi mette a 90 gradi qualsiasi cosa,battlefield 4 incluso.
Guardate il video e spero che vi piaccia,ho anche scritto nella descrizione quasi tutti gli effetti che si possono ammirare nel video.:D
http://youtu.be/W3qT9RVKfcQ
certo che usare il pad per giocare ad un fps :help: :banned:
Questo gioco con le impostazioni maxate stuttera molto, la cpu ha delle spike di utilizzo che non hanno mai risolto....
Basta abbassare le opzioni di una tacca sotto ultra, spegnendo totalmente l'antialiasing, e il gioco mi sta tranquillamente sempre sopra 100fps a 1440p
Psycho77
29-08-2014, 15:30
certo che usare il pad per giocare ad un fps :help: :banned:
Riesco a giocare con tutto,mouse e tastiera sono fondamentali per il multi,ma le campagne le finisco ad occhi chiusi anche il pad xbox one.:)
giubox360
29-08-2014, 15:32
Sicuramente ai tempi del primo crysis probabilmente non l'hai giocato maxato per bene...bastava che ti facevi il livello dell'astronave aliena con tutti gli effetti attivi per rimanere a bocca aperta:D anche la fisica per me è da evoluzione e pietra miliare del gaming per Pc, fu tra l'altro il primo gioco a sfruttare i quad core intel...Senza nulla togliere a crysis 3 che gira bene su VGA da 4/5 t flops rispetto ai modesti 400 g-flop della mia vecchia gtx 8800 gts direi che crysis 1 è un capolavoro, qualcosa di inconcepibile per quei tempi nel 2007....;) se la crytek non torna a mettere il Pc al primo posto della sua programmazione non vedremo mai un simile salto generazionale sul mondo dei PC.
Psycho77
29-08-2014, 15:33
certo che usare il pad per giocare ad un fps :help: :banned:
Questo gioco con le impostazioni maxate stuttera molto, la cpu ha delle spike di utilizzo che non hanno mai risolto....
Basta abbassare le opzioni di una tacca sotto ultra, spegnendo totalmente l'antialiasing, e il gioco mi sta tranquillamente sempre sopra 100fps a 1440p
Scherzi vero?Crysis 3 è il gioco più fluido e con il rendering più pulito che ho giocato in tutta la mia vita.
Ho provato e fatelo anche voi la mod cryzen per il primo crysis.
Molto bella soprattutto per global illumination e shader dell'acqua,ma dof invasivo e rendering ormai vecchio,per non parlare dei pochi poligoni usati per strutture ed altro.Ma per essere un gioco del 2007,è capolavorico sotto tutti gli aspetti.
http://youtu.be/PECqrhxhpTA
sickofitall
29-08-2014, 15:38
Scherzi vero?Crysis 3 è il gioco più fluido e con il rendering più pulito che ho giocato in tutta la mia vita.
questo non lo metto in dubbio, ma se cerchi un pò ci stanno un sacco di persone che hanno dei cali paurosi in determinate zone della mappa, e monitorando la cpu si vede chiaramente il picco a 100% con l'utilizzo della vga che cala di colpo....
Forse il fatto di avere il multithreading aiuta, il mio 4670k non lo ha
giubox360
29-08-2014, 15:45
Scherzi vero?Crysis 3 è il gioco più fluido e con il rendering più pulito che ho giocato in tutta la mia vita.
Ho provato e fatelo anche voi la mod cryzen per il primo crysis.
Molto bella soprattutto per global illumination e shader dell'acqua,ma dof invasivo e rendering ormai vecchio,per non parlare dei pochi poligoni usati per strutture ed altro.Ma per essere un gioco del 2007,è capolavorico sotto tutti gli aspetti.
http://youtu.be/PECqrhxhpTA
Mi hai fatto venire voglia di reistallarlo....scusami ma a me con questa mod dal video sembra addirittura meglio di crysis 3...de gustibus...lassa gì ;)
Psycho77
29-08-2014, 15:53
Mi hai fatto venire voglia di reistallarlo....scusami ma a me con questa mod dal video sembra addirittura meglio di crysis 3...de gustibus...lassa gì ;)
Meglio di crysis 3 manco per idea,ma è comunque bellissimo.
La parte forte è la palette di colori e come già detto illuminazione globale e shader dell'acqua.;)
Chiudiamo l'ot se no ci linciano.
Dimitri-
29-08-2014, 16:03
Ma quali bench hai visto te ? Se è per questo ce nè un altro bench dove l'ipotetica 880 andava sui +35% rispetto ad una 780 con tanto di screen.
Soliti fake, senza contare che è un architettura NUOVA quindi i driver ottimizzati ancora non ci sono.
Dici che i 28nm limitano troppo e poi aggiungi dicendo che avranno un TDP e consumo minore ?
il bench della 880 e' fake perche non c'e' nessuno screen di gpuz, e non si trova nemmeno sul sito 3dmark. Quello della 870 invece, ha tutto.Puoi trovarli sul sito, vedrai che corrisponde con 4gb di vram e una nuova sigla che non appartiene a nessuna scheda esistente. E no, non puoi modificare i valori sul sito del 3dmark, quindi al 99% le performance saranno quelle. Scordati un 15-20% in piu della 880 sulla 780 ti.
Ad ogni modo, vedremo tra poco chi ha ragione ;)
Dimitri-
29-08-2014, 16:07
Per esserne così convinto hai qualche dato alla mano o hai la scheda??? Ti rispondo direttamente io, non hai ancora nulla tra le mani in quanto ancora non è stata ne presentata, ne sono state divulgate informazioni riservate in merito.
Inviato dal mio OnePlus One utilizzando Tapatalk
gia, perche di benchmark leaked a meno di un mese dal rilascio di una nuova scheda video non si sono mai visti.. e chissa come mai quelli sulla titan,780 e 780 ti erano tutti veri.
fireradeon
29-08-2014, 16:29
Io ormai continuo a seguire la cosa solo per curiosità, ma per la prima volta dopo molti anni, passo e aspetto inizio 2015.
Poi vedrete che la 980 andrà 10/20% di più della 780 ti, di più no (mia opinione personale eh).
se facesse x 3 750ti e consumasse 150 sarebbe ottima, ma è un sogno
Dimitri-
29-08-2014, 17:33
Io ormai continuo a seguire la cosa solo per curiosità, ma per la prima volta dopo molti anni, passo e aspetto inizio 2015.
Poi vedrete che la 980 andrà 10/20% di più della 780 ti, di più no (mia opinione personale eh).
il 20% è impossibile. Nella previsione più ottimistica possibile andrà il 9-10% in più della 780 Ti grazie alle frequenze pompate.In pratica il divario è nullo, se consideriamo poi che le 780ti si overcloccano da dio.
Dubito altamente che queste maxwell tirate a 1200+ mhz stock riusciranno ad avere le stesse capacità in oc.
PaulGuru
29-08-2014, 18:04
il 20% è impossibile. Nella previsione più ottimistica possibile andrà il 9-10% in più della 780 Ti grazie alle frequenze pompate.In pratica il divario è nullo, se consideriamo poi che le 780ti si overcloccano da dio.
Dubito altamente che queste maxwell tirate a 1200+ mhz stock riusciranno ad avere le stesse capacità in oc.
disse il possessore della sfera di cristallo.
Me la presti così vinco il super enalotto ?
ancora la scheda manco è uscita,.. come si fà a dire con tanta sicurezza che è impossibile che vada un 20% in + sulla TI,per caso già ne possiede una?:rolleyes:
...
Goofy Goober
30-08-2014, 16:50
Pino lo spazzino si è messo a leggere i fondi di caffè :asd:
illidan2000
30-08-2014, 17:15
ancora la scheda manco è uscita,.. come si fà a dire con tanta sicurezza che è impossibile che vada un 20% in + sulla TI,per caso già ne possiede una?:rolleyes:
...
io torno a dire che se va come una 780ti o poco più (5%) è un mezzo flop. è passato un po' di tempo dall'uscita della ti...
Pino lo spazzino si è messo a leggere i fondi di caffè :asd:
:asd:
io torno a dire che se va come una 780ti o poco più (5%) è un mezzo flop. è passato un po' di tempo dall'uscita della ti...
lo credo anch'io,staremo a vedere...
siluro85
30-08-2014, 21:36
50
LurenZ87
30-08-2014, 21:53
Va più o meno un "settordici" % della GTX 780Ti...
:asd:
Inviato dal mio OnePlus One utilizzando Tapatalk
Dimitri-
30-08-2014, 23:33
disse il possessore della sfera di cristallo.
Me la presti così vinco il super enalotto ?
No, semplicemente mi baso sul benchmark della 870 (o 970 :asd:) che al 99% è reale. Quindi è logico che non può esserci una differenza del 40% tra x70 e x80 ;). Mettiamo che la differenza tra le due maxwell sia del 20-25%, la x80 potrà andare massimo un 5% in più della 780Ti.
PaulGuru
30-08-2014, 23:49
No, semplicemente mi baso sul benchmark della 870 (o 970 :asd:) che al 99% è reale. Quindi è logico che non può esserci una differenza del 40% tra x70 e x80 ;). Mettiamo che la differenza tra le due maxwell sia del 20-25%, la x80 potrà andare massimo un 5% in più della 780Ti.Ancora io non sò a qualche caspita di bench ti riferisci sinceramente.
appleroof
31-08-2014, 08:19
Ancora io non sò a qualche caspita di bench ti riferisci sinceramente.
Credo sia questo videocardz.com/51172/nvidia-geforce-gtx-870-specifications-leaked
andrà a 15% :asd:, di sicuro non potrà andare al 50%+, il range sarà tra 10 e 30% imho, ma a me interessa più il consumo, se andrà anche solo il 10% ma con un consumo di 150w, sarà un bel affare cmq
mikael84
31-08-2014, 11:44
andrà a 15% :asd:, di sicuro non potrà andare al 50%+, il range sarà tra 10 e 30% imho, ma a me interessa più il consumo, se andrà anche solo il 10% ma con un consumo di 150w, sarà un bel affare cmq
Se la 970 conferma 1664 cuda(13smx) e la 980 1920cuda(15smx) ci sarà il 15% sui cuda e basta, quindi in linea perfetta con le 780/TI, da considerare pure che queste boostano ad oltre 1200, non a 1006/1020 come le attuali:)
Poi bisogna vedere se saranno veramente quelli i cuda:fagiano: , bus e rops dovrebbero essere confermati
LurenZ87
31-08-2014, 11:45
Il problema è che non potete valutare una scheda tramite un 3DMark, per quanto veritiero possa essere...
Inviato dal mio OnePlus One utilizzando Tapatalk
francisco9751
31-08-2014, 11:59
Il problema è che non potete valutare una scheda tramite un 3DMark, per quanto veritiero possa essere...
Inviato dal mio OnePlus One utilizzando Tapatalk
no,però grosso modo la prestazione è quella
tapatalked with LG G2
PaulGuru
31-08-2014, 12:00
Credo sia questo videocardz.com/51172/nvidia-geforce-gtx-870-specifications-leaked
1664sp appena fanno ridere, i rumors iniziali parlavano di 3200sp !!! Capisco averne un po' meno ma addirittura la metà ......
Poi con sole 32 rops e 256bit ?
Fa quasi ridere !
I core Maxwell sono più piccoli di quelli Kepler, mi aspetto un die minuscolo, quindi di fascia media sta roba.
Ale55andr0
31-08-2014, 12:20
1664sp appena fanno ridere, i rumors iniziali parlavano di 3200sp !!! Capisco averne un po' meno ma addirittura la metà ......
Poi con sole 32 rops e 256bit ?
Fa quasi ridere !
I core Maxwell sono più piccoli di quelli Kepler, mi aspetto un die minuscolo, quindi di fascia media sta roba.
si parla di nuova architettura, ergo le varie unità possono differire in termini di prestazioni/complessità e quindi, probabilmente, paragonarne il numero 1:1 non ha molto senso, anche se si trattasse di una diversa fascia commerciale :)
PaulGuru
31-08-2014, 12:29
si parla di nuova architettura, ergo le varie unità possono differire in termini di prestazioni/complessità e quindi, probabilmente, paragonarne il numero 1:1 non ha molto senso, anche se si trattasse di una diversa fascia commerciale :)
Generalmente sì ma considerando che i cores maxwell sono molto più piccoli direi che invece avrebbe dovuto averne di più, non di meno, anzi quì ne ha MOOOLTI di meno.
Generalmente sì ma considerando che i cores maxwell sono molto più piccoli direi che invece avrebbe dovuto averne di più, non di meno, anzi quì ne ha MOOOLTI di meno.
però questa è la 870 la 880 ne dovrebbe avere di più....
Dimitri-
31-08-2014, 14:41
però questa è la 870 la 880 ne dovrebbe avere di più....
al massimo potrà avere circa 1900 cuda cores..quindi un 15-20% in più come performance ;)
appleroof
31-08-2014, 15:09
si parla di nuova architettura, ergo le varie unità possono differire in termini di prestazioni/complessità e quindi, probabilmente, paragonarne il numero 1:1 non ha molto senso, anche se si trattasse di una diversa fascia commerciale :)
Quoto...
però questa è la 870 la 880 ne dovrebbe avere di più....
E se fosse la 860? :Perfido: (ci credo poco :sofico: )
mikael84
31-08-2014, 15:13
Quoto...
E se fosse la 860? :Perfido: (ci credo poco :sofico: )
Ti dirò Apple che questo pensiero l'ho avuto pure io:p .
Ricordiamoci pure che si parlava di 1920 e 2560cuda che stravolgerebbe davvero tutto.
Ormai non do niente per scontato:)
appleroof
31-08-2014, 15:20
Ti dirò Apple che questo pensiero l'ho avuto pure io:p .
Ricordiamoci pure che si parlava di 1920 e 2560cuda che stravolgerebbe davvero tutto.
Ormai non do niente per scontato:)
Esatto mikael, la mia è fondamentalmente una battuta ma come credo si capisce sotto sotto la possibilità non la escludo, sarebbe una grossa sorpresa in questo caso... Vediamo :D
Dimitri-
31-08-2014, 15:38
Non so se è gia stato postato:
http://cdn.overclock.net/c/c0/350x700px-LL-c00078e9_image.jpeg
Quindi da poco tempo hanno preso la decisione di cambiare nome da 8xx a 9xx.
mikael84
31-08-2014, 15:47
Esatto mikael, la mia è fondamentalmente una battuta ma come credo si capisce sotto sotto la possibilità non la escludo, sarebbe una grossa sorpresa in questo caso... Vediamo :D
Io apple rimango sempre col dubbio dei 1920/2560(in questo caso sarebbe tranquillamente avanti la TI)
Ma ora parliamo di dati puramente tecnici, io inizialmente confidavo su una possibile decurtazione da 15(1920) a 13 smx ma ricordiamoci che quel link di GPU-Z è sballato, quindi FAKE
Forse molti non ci hanno fatto caso.
Lo riprendo:
http://cdn.videocardz.com/1/2014/08/GeForce-GTX-870-specs.png
Guardalo bene prima di leggere e te ne renderai conto
Come ben sappiamo Maxwell integra su SMX 8 TMU non 12, non 16 ma 8.
Gli SMX di base sono 13, ogni SMX integra 8 TMU, di conseguenza le TMU sono 104 non 138, di conseguenza i g.texel saranno solo 109G, non 145(bella differenza)
138TMU come le rapporti, visto che 12 a SMX farebbero 156TMU.
I g.texel del link sono stati rapportati a 138TMU( che vorrebbe dire 11,5 a SMX):fagiano:
Vogliamo parlare dei driver :)
appleroof
31-08-2014, 16:12
Io apple rimango sempre col dubbio dei 1920/2560(in questo caso sarebbe tranquillamente avanti la TI)
Ma ora parliamo di dati puramente tecnici, io inizialmente confidavo su una possibile decurtazione da 15(1920) a 13 smx ma ricordiamoci che quel link di GPU-Z è sballato, quindi FAKE
Forse molti non ci hanno fatto caso.
Lo riprendo:
http://cdn.videocardz.com/1/2014/08/GeForce-GTX-870-specs.png
Guardalo bene prima di leggere e te ne renderai conto
Come ben sappiamo Maxwell integra su SMX 8 TMU non 12, non 16 ma 8.
Gli SMX di base sono 13, ogni SMX integra 8 TMU, di conseguenza le TMU sono 104 non 138, di conseguenza i g.texel saranno solo 109G, non 145(bella differenza)
138TMU come le rapporti, visto che 12 a SMX farebbero 156TMU.
I g.texel del link sono stati rapportati a 138TMU( che vorrebbe dire 11,5 a SMX):fagiano:
Vogliamo parlare dei driver :)
molto interessante (e pure io avevo pensato al discorso driver...) ma c'è un ma...diamo per scontato che il chip sia organizzato come gm107, e se fosse così non avresti torto a giudicare fake quello screen, l'unico dubbio è che Maxwell gen 2 (ossia gm204) sia organizzato in maniera ancora differente...sbaglio? :fagiano:
edit: se n'è parlato pure qui... http://forum.beyond3d.com/showthread.php?t=59531&page=75
LurenZ87
31-08-2014, 16:15
Non so se è gia stato postato:
http://cdn.overclock.net/c/c0/350x700px-LL-c00078e9_image.jpeg
Quindi da poco tempo hanno preso la decisione di cambiare nome da 8xx a 9xx.
È arrivata anche a me quell'immagine, la cosa curiosa è che oltre alle ex GTX 880 e GTX 870 (GM204) c'è il supporto per la fantomatica GTX 745, per AMD Carrizo, GM107 e GM108 e molte altre...
Inviato dal mio OnePlus One utilizzando Tapatalk
appleroof
31-08-2014, 16:21
@mikael, tengo molto in considerazione questo utente, che in passato ha sempre dimostrato di essere ben informato su nvidia, che dice questo:
I don't think the rumors that the GM204 based GPUs will have a lower MSRP is a coincidence either and no I don't expect the biggest 204 based SKU to exceed a GK110b by ~20% in performance as you're suggesting. It sounds more like give or take the same performance ballpark with vendor specific higher clocked variants to reach that much higher than a 780Ti.
http://forum.beyond3d.com/showpost.php?p=1865759&postcount=1854
:boh:
mikael84
31-08-2014, 16:23
molto interessante (e pure io avevo pensato al discorso driver...) ma c'è un ma...diamo per scontato che il chip sia organizzato come gm107, e se fosse così non avresti torto a giudicare fake quello screen, l'unico dubbio è che Maxwell gen 2 (ossia gm204) sia organizzato in maniera ancora differente...sbaglio? :fagiano:
Non penso che per GM204 l'architettura sia differente, inoltre mi viene difficile vedere la spartizione dei cuda con quel 1664.:)
Aumentando pure il numero di TMU a SMX a 12, avremmo ben 156TMU.
Il rapporto dimostrato è di 11,5TMU a SMX e quel numero non mi pare tanto divisibile a meno di non avere 23SMX da 6TMU ma in questo caso gli SMX sarebbero da 72,5:fagiano: :sofico:
Quindi siamo di fronte ad un fake completo o meglio magari qualche VGA gli si avvicina pure in termini di cuda:)
appleroof
31-08-2014, 16:25
Non penso che per GM204 l'architettura sia differente, inoltre mi viene difficile vedere la spartizione dei cuda con quel 1664.:)
Aumentando pure il numero di TMU a SMX a 12, avremmo ben 156TMU.
Il rapporto dimostrato è di 11,5TMU a SMX e quel numero non mi pare tanto divisibile a meno di non avere 23SMX da 6TMU ma in questo caso gli SMX sarebbero da 72,5:fagiano: :sofico:
Quindi siamo di fronte ad un fake completo o meglio magari qualche VGA gli si avvicina pure in termini di cuda :)
se vuoi dai una letta agli ultimi link....cosa ne pensi?
mirmeleon
31-08-2014, 16:29
Personalmente penso che gtx 980 avrà un bus a 384 bit, per il resto vedremo :eek: :eek:
mikael84
31-08-2014, 16:34
@mikael, tengo molto in considerazione questo utente, che in passato ha sempre dimostrato di essere ben informato su nvidia, che dice questo:
I don't think the rumors that the GM204 based GPUs will have a lower MSRP is a coincidence either and no I don't expect the biggest 204 based SKU to exceed a GK110b by ~20% in performance as you're suggesting. It sounds more like give or take the same performance ballpark with vendor specific higher clocked variants to reach that much higher than a 780Ti.
http://forum.beyond3d.com/showpost.php?p=1865759&postcount=1854
:boh:
Qua Apple siamo sempre sul "penso", pure io vedrei bene il GM204 con 2560cuda e penso che siano pienamente abilitabili e questo comporterebbe un'aumento sostanziale sulla 780TI. :)
Se non ho capito male l'utente intende dire che sarà un battaglia a suon di mhz con le Kepler e su questo punto ci credo pure io ma non pensa che possano andare meglio.
Io continuo a ribadire che il principale obbiettivo di Nvidia sarà raddoppiare le prestazioni per watt momentaneamente.
Parlare di 2560 cuda sbloccabili mi fa pure pensare ad una eventuale contromossa da utilizzare piu'avanti, oppure nel caso li utilizzi già da subito stravolgerebbe tutte le nostre previsioni ma non quelle di Nvidia:)
appleroof
31-08-2014, 16:41
Qua Apple siamo sempre sul "penso", pure io vedrei bene il GM204 con 2560cuda e penso che siano pienamente abilitabili e questo comporterebbe un'aumento sostanziale sulla 780TI. :)
Se non ho capito male l'utente intende dire che sarà un battaglia a suon di mhz con le Kepler e su questo punto ci credo pure io ma non pensa che possano andare meglio.
Io continuo a ribadire che il principale obbiettivo di Nvidia sarà raddoppiare le prestazioni per watt momentaneamente.
Parlare di 2560 cuda sbloccabili mi fa pure pensare ad una eventuale contromossa da utilizzare piu'avanti, oppure nel caso li utilizzi già da subito stravolgerebbe tutte le nostre previsioni ma non quelle di Nvidia:)
vediamo Mikael, intanto credo che quel bench sia fake come dici visto che la tua analisi è ineccepibile, oppure gpu-z non legge bene le specifiche (anche perchè le ignora :D )...non resta che aspettare ormai non manca molto :boh:
mikael84
31-08-2014, 17:06
vediamo Mikael, intanto credo che quel bench sia fake come dici visto che la tua analisi è ineccepibile, oppure gpu-z non legge bene le specifiche (anche perchè le ignora :D )...non resta che aspettare ormai non manca molto :boh:
Questo sopratutto:p , da notare pure i driver 343.61 siamo appena passati ai 340:mc:
Per il resto confermo ormai dal 9/10 dovremmo avere qualche certezza(forse):fagiano:
LurenZ87
31-08-2014, 17:09
Per il resto confermo ormai dal 9/10 dovremmo avere qualche certezza(forse):fagiano:
;)
Inviato dal mio OnePlus One utilizzando Tapatalk
PaulGuru
31-08-2014, 19:07
2560sp sono comunque troppo pochi, se GK110 ne ha 2880, Maxwell dovrebbe averne almeno oltre i 3000sp, a meno che Nvidia abbia deciso di puntare tutto su un prodotto con la più alta resa possibile, il chè sarebbe un fail totale.
1664sp è da muletti.
se non ricordo male i maxwell cuda cores sono superiori ai kepler quindi non si dovrebbe fare un confronto 1:1, ma più vicino a 1:1.5 in favore di maxwell
appleroof
31-08-2014, 19:21
2560sp sono comunque troppo pochi, se GK110 ne ha 2880, Maxwell dovrebbe averne almeno oltre i 3000sp, a meno che Nvidia abbia deciso di puntare tutto su un prodotto con la più alta resa possibile, il chè sarebbe un fail totale.
1664sp è da muletti.
Come detto non puoi confrontare direttamente le due architetture, Maxwell ha meno cuda cores per smm ma più cache etc prendi ad esempio gm107 che ha 640cc (e meno rops e meno bus) e va quasi gk106 che ne ha 960
The end result is that we’re looking at either a significant reduction in power consumption for similar performance to GK106, or a massive increase in performance as compared to GK107.
www.anandtech.com/show/7764/the-nvidia-geforce-gtx-750-ti-and-gtx-750-review-maxwell/4
Adesso non dico che un gm204 con 1664cc possa andare meglio di un gk110full ma, a parte vedere se quelle specifiche siano vere, bisogna appunto evitare di fare questi confronti diretti...
appleroof
31-08-2014, 19:24
se non ricordo male i maxwell cuda cores sono superiori ai kepler quindi non si dovrebbe fare un confronto 1:1, ma più vicino a 1:1.5 in favore di maxwell
Esatto...
PaulGuru
31-08-2014, 19:37
Come detto non puoi confrontare direttamente le due architetture, Maxwell ha meno cuda cores per smm ma più cache etc prendi ad esempio gm107 che ha 640cc (e meno rops e meno bus) e va quasi gk106 che ne ha 960
Va come GK106 ma con un die molto più piccolo.
GM107 teoricamente dovrebbe essere di una fascia inferiore al GK106.
A parità di dimensione del die Maxwell dovrebbe integrarne di più, se ne integra di meno avrà un die piccolo.
appleroof
31-08-2014, 19:54
Va come GK106 ma con un die molto più piccolo.
GM107 teoricamente dovrebbe essere di una fascia inferiore al GK106.
A parità di dimensione del die Maxwell dovrebbe integrarne di più, se ne integra di meno avrà un die piccolo.
Eh ma infatti le uniche immagini leaked del presunto gm204 mostrano un die più piccolo di gk110 (probabilmente pure per la mancanza delle fp64? Correggetemi se dico castronerie) ma poco più grande di gk104
P.s. : immaginiamo come sarebbe stato gm107, e di conseguenza gli altri a scalare, a 20nm :(
PaulGuru
31-08-2014, 20:10
Eh ma infatti le uniche immagini leaked del presunto gm204 mostrano un die più piccolo di gk110 (probabilmente pure per la mancanza delle fp64? Correggetemi se dico castronerie) ma poco più grande di gk104
P.s. : immaginiamo come sarebbe stato gm107, e di conseguenza gli altri a scalare, a 20nm :(
:mc: :doh:
Credevo che almeno per compensare il fatto che fosse a 28nm avrebbero cercato tutto il margine possibile.
appleroof
31-08-2014, 20:20
:mc: :doh:
Credevo che almeno per compensare il fatto che fosse a 28nm avrebbero cercato tutto il margine possibile.
Bè per quello probabile ci sia gm200..
fireradeon
31-08-2014, 20:20
Rassegnamoci, sarà una scheda di passaggio senza troppi botti. Tanto ripeto non ci sono giochi che necessitino di così tanta potenza. Altrimenti fatevi uno sli che va da Dio e ci fate girare tutto a MINIMO 60fps
Psycho77
31-08-2014, 21:23
Secondo me invece avremo un bel +30 dalla gtx 780 ti,altrimenti non avrebbe senso fare una nuova serie.
Nvidia poteva benissimo rilanciare una kepler gtx 780 "pi" e vendere lo stesso,la gente mica si mette ad aprire le vga per fare l'autopsia ai chip.:D :D
Io personalmente farò uno sli di gtx 980 tenendo l'i7 2600k a 4.5 ghz con 8 gb g.skill 1866 mhz.Cambierò tutto il pc tra circa 2 anni con ddr4 e gpu Pascal.
Chi compra gtx 780 o 780 ti ora è masochista,sottovaluta l'importanza dei 4gb di vram(cod advanced warfare già ne richiede 4 nei raccomandati) e oltretutto il supporto nativo che avrà la gtx 980 con le dx12,cosa che le vecchie serie supporteranno soltanto in parte.
mikael84
31-08-2014, 22:02
Come detto non puoi confrontare direttamente le due architetture, Maxwell ha meno cuda cores per smm ma più cache etc prendi ad esempio gm107 che ha 640cc (e meno rops e meno bus) e va quasi gk106 che ne ha 960
The end result is that we’re looking at either a significant reduction in power consumption for similar performance to GK106, or a massive increase in performance as compared to GK107.
www.anandtech.com/show/7764/the-nvidia-geforce-gtx-750-ti-and-gtx-750-review-maxwell/4
Adesso non dico che un gm204 con 1664cc possa andare meglio di un gk110full ma, a parte vedere se quelle specifiche siano vere, bisogna appunto evitare di fare questi confronti diretti...
Esatto Apple, Maxwel rispetto a GK106 è molto avanti al di la dei cuda.
Partiamo dalla dimensione 148mmq contro i 221mmq del GK106.
Il vero punto di forza di Maxwel è come dicevi la cache, 2 partizioni da 128k per un totale di 1MB a frazione(8 cluster), per 2 frazioni 2MB totali, ognuno dialoganti con 64bit di banda.
Questo dato è incredibilmente superiore a GK106 visto che partiziona 2 parti da soli 128kb, questo per Maxwel significa migliorare drasticamente i tempi che necessitano il caricamento delle texture e nello stesso momento non intasare la banda. Questo ovviamente produce un netto calo di risorse e consumi e cosa non da poco la latenza.:)
Hai fatto benissimo a dargli il giusto nome SMM(shader multiprocessor), quindi abituiamoci a chiamarli cosi':)
Riprendo il discorso DP.
Con Maxwell la DP è portata ad 1/32 contro le 1/24 di gk 106 e rispettiva serie Kepler:)
Dimitri-
31-08-2014, 22:31
Secondo me invece avremo un bel +30 dalla gtx 780 ti,altrimenti non avrebbe senso fare una nuova serie.
Nvidia poteva benissimo rilanciare una kepler gtx 780 "pi" e vendere lo stesso,la gente mica si mette ad aprire le vga per fare l'autopsia ai chip.:D :D
Io personalmente farò uno sli di gtx 980 tenendo l'i7 2600k a 4.5 ghz con 8 gb g.skill 1866 mhz.Cambierò tutto il pc tra circa 2 anni con ddr4 e gpu Pascal.
Chi compra gtx 780 o 780 ti ora è masochista,sottovaluta l'importanza dei 4gb di vram(cod advanced warfare già ne richiede 4 nei raccomandati) e oltretutto il supporto nativo che avrà la gtx 980 con le dx12,cosa che le vecchie serie supporteranno soltanto in parte.
il 30% lo vedrai con il binocolo forse :sofico:, quello che dici tu con kepler è falso,perchè i massimi cuda cores per questa architettura sono appunto 2880. Oltre non si può andare,quindi nvidia non poteva di certo creare una scheda nuova con architettura kepler.Anzi, a dire il vero gia lo ha fatto con la titan black :rolleyes:. (una 780ti con 6gb di ram)
Ormai è palese che questo gm204 sia fascia media, con il gm200-210 che uscira 5-7 mesi dopo a 20nm. Solo con quelle gpu si potrà superare una Ti anche ben oltre il 30% ;)
Nhirlathothep
31-08-2014, 22:49
ciao, volevo capire se resisto senza gpu fino alla serie 8: quando escono ?
quanto cambia rispetto una gtx 780/780ti ?
Psycho77
31-08-2014, 23:46
il 30% lo vedrai con il binocolo forse :sofico:, quello che dici tu con kepler è falso,perchè i massimi cuda cores per questa architettura sono appunto 2880. Oltre non si può andare,quindi nvidia non poteva di certo creare una scheda nuova con architettura kepler.Anzi, a dire il vero gia lo ha fatto con la titan black :rolleyes:. (una 780ti con 6gb di ram)
Ormai è palese che questo gm204 sia fascia media, con il gm200-210 che uscira 5-7 mesi dopo a 20nm. Solo con quelle gpu si potrà superare una Ti anche ben oltre il 30% ;)
Non sono d'accordo per niente,ne riparleremo tra una quindicina di giorni.;)
Come fai a classificare una serie 980 top, fascia media,poi me lo devi spiegare.
Nhirlathothep,anche io ho un alienware aurora ed ho venduto tutto(vga si intende) per aspettare la serie 9xx,circa 10 giorni fa.
Nessuno può darti risposte certe,io ho rischiato e sicuramente non me ne pentirò.Oltretutto non fa male disintossicarsi dal pc per 30/40 giorni.:D
PaulGuru
01-09-2014, 08:38
il 30% lo vedrai con il binocolo forse :sofico:, quello che dici tu con kepler è falso,perchè i massimi cuda cores per questa architettura sono appunto 2880. Oltre non si può andare,quindi nvidia non poteva di certo creare una scheda nuova con architettura kepler.Anzi, a dire il vero gia lo ha fatto con la titan black :rolleyes:. (una 780ti con 6gb di ram)
Ormai è palese che questo gm204 sia fascia media, con il gm200-210 che uscira 5-7 mesi dopo a 20nm. Solo con quelle gpu si potrà superare una Ti anche ben oltre il 30% ;)
GM200 a 20nm che andrà +30% ? Se così fosse sarebbe un fail totale.
Mi aspetto che vada almeno come uno SLI di 780Ti !!!
Forse non sò se qualcuno l'ha notato ma l'obbiettivo è far girare il 4K !
appleroof
01-09-2014, 08:52
Tra l'altro non credo proprio che gm200 sarà a 20nm, è un pp disastroso che in quanto tale costerebbe troppo per produrre gpu grosse, almeno questo leggo in giro
PaulGuru
01-09-2014, 08:53
Tra l'altro non credo proprio che gm200 sarà a 20nm, è un pp disastroso che in quanto tale costerebbe troppo per produrre gpu grosse, almeno questo leggo in giro
Han detto che potrebbero passare direttamente ai 16nm, ma a quel punto mi aspetto che facciano girare i next gen con il 4K a 60 fissi.
appleroof
01-09-2014, 09:03
Han detto che potrebbero passare direttamente ai 16nm, ma a quel punto mi aspetto che facciano girare i next gen con il 4K a 60 fissi.
Si li potrebbe avvenire, anche perché pure qua ho letto che non ci sarà lo shrink di Maxwell a 16nm, ma forse solo un chip di "test" del nuovo pp (presumibilmente di fascia bassa o medio bassa) e poi Volta a 16nm, quindi si parla come minimo di fine 2015 se non primi 2016...questi i rumors poi boh :fagiano:
Dimitri-
01-09-2014, 09:30
Non sono d'accordo per niente,ne riparleremo tra una quindicina di giorni.;)
Come fai a classificare una serie 980 top, fascia media,poi me lo devi spiegare.
Nhirlathothep,anche io ho un alienware aurora ed ho venduto tutto(vga si intende) per aspettare la serie 9xx,circa 10 giorni fa.
Nessuno può darti risposte certe,io ho rischiato e sicuramente non me ne pentirò.Oltretutto non fa male disintossicarsi dal pc per 30/40 giorni.:D
perche il gm204 e' fascia media, come lo e' stato il gk104. Non lo dico io, il gm200 e' gia stato leakato,quindi vuol dire che sara' proprio come la serie kepler..prima una gpu media(gtx680), e poi ti tirano fuori il chippone (titan e 780). Questa volta pero' e' anche peggio, perche' non c'e' il cambio di pp, come e' accaduto con il passaggio gtx580 a 40nm e gtx680 a 28.
mi chiedo come tu possa aspettarti un 30% in piu con una scheda con lo stesso pp e con 180w di tdp :asd:.E' tecnicamente impossibile
Psycho77
01-09-2014, 09:30
Han detto che potrebbero passare direttamente ai 16nm, ma a quel punto mi aspetto che facciano girare i next gen con il 4K a 60 fissi.
Scenario plausibile intorno al 2018 circa,dopo Pascal.
Toglietevi dalla testa che una sola gpu mandi un gioco next gen a 4k e 60 frame(maxato) prima del 2018 circa.
Ci vorranno almeno 18 tflop per singola scheda,mica bruscolini.
Guardate che succede con circa 10 tflop di potenza complessiva.
http://media.bestofmicro.com/U/I/401562/original/crysis-frame-rate.png
Oltretutto i giochi del 2015/2018 saranno anche più pesanti di crysis 3.
illidan2000
01-09-2014, 09:46
Scenario plausibile intorno al 2018 circa,dopo Pascal.
Toglietevi dalla testa che una sola gpu mandi un gioco next gen a 4k e 60 frame(maxato) prima del 2018 circa.
Ci vorranno almeno 18 tflop per singola scheda,mica bruscolini.
Guardate che succede con circa 10 tflop di potenza complessiva.
http://media.bestofmicro.com/U/I/401562/original/crysis-frame-rate.png
Oltretutto i giochi del 2015/2018 saranno anche più pesanti di crysis 3.
prendi 3 titan e stai apposto... :D
usata varrà un 400 euro ora, magari sbattendosi un po' sul mercatino si può fare!
delly ha una config del genere
Psycho77
01-09-2014, 09:56
prendi 3 titan e stai apposto... :D
usata varrà un 400 euro ora, magari sbattendosi un po' sul mercatino si può fare!
delly ha una config del genere
Parliamo di 3 gpu però.:asd:
Ci ho pensato anche io,ma secondo me è ancora troppo presto.Ci si ritroverebbe con un pc che consuma un terawatt e soprattutto odio il microstuttering,che con una configurazione tri way sli,regna sovrano.:D
mikael84
01-09-2014, 10:03
Sinceramente faccio fatica a capire quei test.:stordita:
Crysis 3 scala quasi al 100% con 2 GPU come le Titan non al 20%
https://scontent-a-mxp.xx.fbcdn.net/hphotos-prn2/t31.0-8/10003676_10201984410868062_3025308017742956089_o.jpg
Che il 4k sia fuori portata ok ma i dati non corrispondono al vero, senza considerare che si parla di un mattone pesantissimo pure su 1440p dove già vai di smaa 1x, non 2x vista la densità;)
Psycho77
01-09-2014, 10:09
Sinceramente faccio fatica a capire quei test.:stordita:
Crysis 3 scala quasi al 100% con 2 GPU come le Titan non al 20%
https://scontent-a-mxp.xx.fbcdn.net/hphotos-prn2/t31.0-8/10003676_10201984410868062_3025308017742956089_o.jpg
Che il 4k sia fuori portata ok ma i dati non corrispondono al vero, senza considerare che si parla di un mattone pesantissimo pure su 1440p dove già vai di smaa 1x, non 2x vista la densità;)
Crysis 3 è un gioco del 2013,bisognerà confrontarsi con giochi ancora più moderni e pieni zeppi di poligoni ed effetti.Solo a pensare a the witcher 3 mi viene già la paura.:D
Comunque non ho tenuto conto l'eventuale boost che ci darà mantle e le dx12 in fatto di ottimizzazione,magari grazie a queste nuove api,il 4k a 60 frame con singola scheda top di gamma,diverrà realtà ancor prima di quello che penso.:ciapet:
mircocatta
01-09-2014, 10:14
Sinceramente faccio fatica a capire quei test.:stordita:
Crysis 3 scala quasi al 100% con 2 GPU come le Titan non al 20%
https://scontent-a-mxp.xx.fbcdn.net/hphotos-prn2/t31.0-8/10003676_10201984410868062_3025308017742956089_o.jpg
Che il 4k sia fuori portata ok ma i dati non corrispondono al vero, senza considerare che si parla di un mattone pesantissimo pure su 1440p dove già vai di smaa 1x, non 2x vista la densità;)
Stessa cosa che pensavo anche io
30fps con singola scheda e neanche 40 con lo sli? qualcosa tocca... 10tflops con singola scheda potrebbe bastare a fare 60 frame
Psycho77
01-09-2014, 10:24
Stessa cosa che pensavo anche io
30fps con singola scheda e neanche 40 con lo sli? qualcosa tocca... 10tflops con singola scheda potrebbe bastare a fare 60 frame
A 60 frame non ci arriverai mai,e se nel caso ci arrivassi,tutti sappiamo che per avere un 60 frame rock solid con v-sync attivo,bisogna arrivare ad almeno a 85/90 frame di picco,proprio per evitare i cali e giocare fluido.
Non c'è nulla di peggio che giocare a 60 frame con frame rate che cala spesso anche a 30/35,a questo punto meglio v-syncare a 30.
Con il g-sync la situazione migliora,ma non è certo come giocare a 60 frame fissi.
mircocatta
01-09-2014, 10:43
A 60 frame non ci arriverai mai,e se nel caso ci arrivassi,tutti sappiamo che per avere un 60 frame rock solid con v-sync attivo,bisogna arrivare ad almeno a 85/90 frame di picco,proprio per evitare i cali e giocare fluido.
Non c'è nulla di peggio che giocare a 60 frame con frame rate che cala spesso anche a 30/35,a questo punto meglio v-syncare a 30.
Con il g-sync la situazione migliora,ma non è certo come giocare a 60 frame fissi.
beh, credo che le potenzialità di uno sli di maxwell a 16 (o 12?) nm siano sufficienti ad avere almeno un 70-80 frame medi, no? parlo per giochi tipo crysis 3, che ne fa 30 con l'attuale titan singola
illidan2000
01-09-2014, 10:50
Parliamo di 3 gpu però.:asd:
Ci ho pensato anche io,ma secondo me è ancora troppo presto.Ci si ritroverebbe con un pc che consuma un terawatt e soprattutto odio il microstuttering,che con una configurazione tri way sli,regna sovrano.:D
triplo si, triplo buffer... :D va beh, lagghi un po'...
Crysis 3 è un gioco del 2013,bisognerà confrontarsi con giochi ancora più moderni e pieni zeppi di poligoni ed effetti.Solo a pensare a the witcher 3 mi viene già la paura.:D
Comunque non ho tenuto conto l'eventuale boost che ci darà mantle e le dx12 in fatto di ottimizzazione,magari grazie a queste nuove api,il 4k a 60 frame con singola scheda top di gamma,diverrà realtà ancor prima di quello che penso.:ciapet:
nei mattoni bisognerà rinunciare a qualcosa, ma su tutti gli altri giochi penso bastino pure 2 gtx780 per andare a 60 fissi.
non dimentichiamo che c'è il nuovo motore unreal 4, che secondo me non sarà pesante.
se poi pensiamo che molte software house sfornano bei giochi anche con unreal engine 3...
mikael84
01-09-2014, 10:52
Tra l'altro non credo proprio che gm200 sarà a 20nm, è un pp disastroso che in quanto tale costerebbe troppo per produrre gpu grosse, almeno questo leggo in giro
Io penso che sia a 28nm e non mi stupirebbe se debutasse per the witcher 3, ricalcando quello che successe con le Titan per il debutto di crysis3:fagiano:
Cmq, pronto pure il nuovo dissipatore MSI twin frozr 5, come si puo'notare sono 2 connettori da 6 pin, quindi il TDP sarà basso
http://videocardz.com/51457/msi-teases-geforce-gtx-980970-gaming-twin-frozr-v
illidan2000
01-09-2014, 10:57
Io penso che sia a 28nm e non mi stupirebbe se debutasse per the witcher 3, ricalcando quello che successe con le Titan per il debutto di crysis3:fagiano:
Cmq, pronto pure il nuovo dissipatore MSI twin frozr 5, come si puo'notare sono 2 connettori da 6 pin, quindi il TDP sarà basso
http://videocardz.com/51457/msi-teases-geforce-gtx-980970-gaming-twin-frozr-v
ma di GTA5 non importa a nessuno? :D
in molti forse pensano che oramai non uscirà più.... l'hanno appena posticipato al 2015!
francisco9751
01-09-2014, 11:23
ragazzi ma davvero tenete più al consumo che alla potenza???non vi capisco...io sinceramente preferirei una scheda da 300W che faccia 40 fps in un X gioco, che una vga che ne faccia 30 e consumi 200W..che poi quei 100W in un anno vi faranno risparmiare si e no 20 euro...posso capire per chi cerca di farsi un itx,che vuol dire meno calore da dissipare,ma per schede di fascia top,non lo capisco questa cosa..sono rimasto a quando un enthusiast gamer cercav la potenza prima di tutto...cioè se mi tirano fuori una nuova gpu che va uguale alla vecchia consumando meno,personalmente rimango deluso..
tapatalked with LG G2
ragazzi ma davvero tenete più al consumo che alla potenza???non vi capisco...io sinceramente preferirei una scheda da 300W che faccia 40 fps in un X gioco, che una vga che ne faccia 30 e consumi 200W..che poi quei 100W in un anno vi faranno risparmiare si e no 20 euro...posso capire per chi cerca di farsi un itx,che vuol dire meno calore da dissipare,ma per schede di fascia top,non lo capisco questa cosa..sono rimasto a quando un enthusiast gamer cercav la potenza prima di tutto...cioè se mi tirano fuori una nuova gpu che va uguale alla vecchia consumando meno,personalmente rimango deluso..
tapatalked with LG G2
si perché mi serve anche per minare :D, meno consuma meglio è, ovviamente non devo perdere potenza, spero che vada come un x4 750ti, anche se ne dubito
Major Clock
01-09-2014, 11:33
si perché mi serve anche per minare :D
E da quando nvidia fa schede da mining?
ragazzi ma davvero tenete più al consumo che alla potenza???non vi capisco...io sinceramente preferirei una scheda da 300W che faccia 40 fps in un X gioco, che una vga che ne faccia 30 e consumi 200W..che poi quei 100W in un anno vi faranno risparmiare si e no 20 euro...posso capire per chi cerca di farsi un itx,che vuol dire meno calore da dissipare,ma per schede di fascia top,non lo capisco questa cosa..sono rimasto a quando un enthusiast gamer cercav la potenza prima di tutto...cioè se mi tirano fuori una nuova gpu che va uguale alla vecchia consumando meno,personalmente rimango deluso..
tapatalked with LG G2
Mah relativamente al fatto che enthusiast nel 2005 voleva dire avere un sistemino tutto in ordine bello compatto e che consumava 400 - 500 watt, schedine video top-end con dissipatori da fascia bassa di adesso e dimensioni irrisorie, è anche giusto puntare un po al efficenza tanto di potenza ne abbiamo abbastanza, Intel sta facendo scuola in tal senso , sarebbe ora anche che i programmatori tornassero a ottimizzarli sti benedetti giochi invece di fare conversioni 1-1 da console a pc.
Il 4k è molto bello a parole ma con texture che stentano far vedere differenza dal full hd al 2k è solo una moda al momento .
Psycho77
01-09-2014, 11:49
ma di GTA5 non importa a nessuno? :D
in molti forse pensano che oramai non uscirà più.... l'hanno appena posticipato al 2015!
gta 5 uscirà ad ottobre/novembre,non è mai stato posticipato da rockstar.:D
http://multiplayer.it/notizie/136762-grand-theft-auto-v-gta-5-rockstar-conferma-luscita-di-grand-theft-auto-v-per-lautunno-2014.html
Non vedo l'ora di averlo,ovviamente vado di day one e scatolato.:ciapet:
http://videocardz.com/51457/msi-teases-geforce-gtx-980970-gaming-twin-frozr-v
illidan2000
01-09-2014, 12:03
gta 5 uscirà ad ottobre/novembre,non è mai stato posticipato da rockstar.:D
http://multiplayer.it/notizie/136762-grand-theft-auto-v-gta-5-rockstar-conferma-luscita-di-grand-theft-auto-v-per-lautunno-2014.html
Non vedo l'ora di averlo,ovviamente vado di day one e scatolato.:ciapet:
e questa:
http://www.gamemag.it/news/gta-5-per-pc-e-console-next-gen-posticipato-al-2015-secondo-nuovi-rumor_53778.html
?
falsa?
appleroof
01-09-2014, 12:05
http://videocardz.com/51457/msi-teases-geforce-gtx-980970-gaming-twin-frozr-v
Già postato Zorco ;)
e questa:
http://www.gamemag.it/news/gta-5-per-pc-e-console-next-gen-posticipato-al-2015-secondo-nuovi-rumor_53778.html
?
falsa?
Pare di si per fortuna :D
Già postato Zorco ;)
:Prrr:
PaulGuru
01-09-2014, 12:19
Scenario plausibile intorno al 2018 circa,dopo Pascal.
Toglietevi dalla testa che una sola gpu mandi un gioco next gen a 4k e 60 frame(maxato) prima del 2018 circa.
Ci vorranno almeno 18 tflop per singola scheda,mica bruscolini.
Guardate che succede con circa 10 tflop di potenza complessiva.
http://media.bestofmicro.com/U/I/401562/original/crysis-frame-rate.png
Oltretutto i giochi del 2015/2018 saranno anche più pesanti di crysis 3.
Prima di tutto è Crysis 3 e secondo ha l'MSAA abilitato.
Anche a me più o meno gira così.
E da quando nvidia fa schede da mining?
c'è il minatore apposta, gia da un po ottimizzato per nivida, ma le migliori sono quelle con tech maxwell che battono amd fin troppo facilmente
Psycho77
01-09-2014, 12:43
Prima di tutto è Crysis 3 e secondo ha l'MSAA abilitato.
Anche a me più o meno gira così.
Leggi bene si tratta di smaa 2x la forma più leggera(l'smaa più pesante che comunque è molto più leggero del msaa è il smaa 2xt,che implementa un forma di ssaa temporale) non di msaa,che è ben più pesante.
Anche a 4k c'è bisogno di avere un antialiasing decente,direi che un smaa è perfetto per questa risoluzione.:)
mircocatta
01-09-2014, 13:14
Leggi bene si tratta di smaa 2x la forma più leggera(l'smaa più pesante che comunque è molto più leggero del msaa è il smaa 2xt,che implementa un forma di ssaa temporale) non di msaa,che è ben più pesante.
Anche a 4k c'è bisogno di avere un antialiasing decente,direi che un smaa è perfetto per questa risoluzione.:)
bah in 4k direi che l'antialiasing sia davvero superfluo
alla distanza giusta diventa inutile olte i 60 cm non vedi differenza, sfido stare più vicini ad un 28 pollici 4k
calcolo fatto con 90 ( indicatore Apple per i suoi display retina)/ ppi
Psycho77
01-09-2014, 13:16
bah in 4k direi che l'antialiasing sia davvero superfluo
alla distanza giusta diventa superfluo,tipo ad un metro su un 28 pollici
Vedrai che ce ne sarà bisogno di una spruzzata di AA,se conti poi che l'smaa è quasi gratis in termini di performance perchè rinunciarci?
illidan2000
01-09-2014, 13:22
bah in 4k direi che l'antialiasing sia davvero superfluo
alla distanza giusta diventa inutile ,tipo ad un metro su un 28 pollici
su un 32" a 80cm forse un 2x di AA qualsiasi forse ci vuole lo stesso..., ma secondo me è molto soggettivo, io già a 1080p oscillo tra 2x e 4x al massimo, se non leva troppi fps...
mikael84
01-09-2014, 13:23
ma di GTA5 non importa a nessuno? :D
in molti forse pensano che oramai non uscirà più.... l'hanno appena posticipato al 2015!
Come no ma alla fine sarà un porting bello pompato(meglio di niente):p ma the witcher dovrebbe aprire la strada alla next gen(che in parte fa ridere visto l'HW console):)
Vediamo anche AC5 che ci riserva
ragazzi ma davvero tenete più al consumo che alla potenza???non vi capisco...io sinceramente preferirei una scheda da 300W che faccia 40 fps in un X gioco, che una vga che ne faccia 30 e consumi 200W..che poi quei 100W in un anno vi faranno risparmiare si e no 20 euro...posso capire per chi cerca di farsi un itx,che vuol dire meno calore da dissipare,ma per schede di fascia top,non lo capisco questa cosa..sono rimasto a quando un enthusiast gamer cercav la potenza prima di tutto...cioè se mi tirano fuori una nuova gpu che va uguale alla vecchia consumando meno,personalmente rimango deluso..
tapatalked with LG G2
Ci sta tutto Francisco;) purtroppo il PP è quello, quindi devi puntare prima sull'efficienza poi alle prestazioni finali.
Ora debutta GM204 poi con il 200 finalmente arriverà il successore delle 780 ed ovviamente con piu' watt.
Nvidia stima 25flops per watt per GM200 contro i 12 di gk110, quindi penso che sia la strada giusta per essere con il solito PP attualmente;)
quindi il consumo dovrebbe essere quello della 780ti diviso 2? quanto consumavano le 780ti
appleroof
01-09-2014, 13:49
quindi il consumo dovrebbe essere quello della 780ti diviso 2?, quanto consumavano le 780ti
Non so dove hai preso l'informazione, i rumors parlano di tdp della 680, che è 195w contro 250w della 780ti
mikael84
01-09-2014, 13:50
quindi il consumo dovrebbe essere quello della 780ti diviso 2?, quanto consumavano le 780ti
Il TDP delle 780TI è di 250watt, io con la Asus ho calcolato 289watt con il taglio.
Ad 1,21v e frequenza sopra i 1300 e bios mod arriva quasi ai 400watt puliti;)
Quei dati calcolando i T.flops sono totalmente sballati(ancora non ho chiaro se capiscono come si calcolano alcuni dati, ma ne dubito) tuttavia, Nvidia specifica che riuscirà a pari watt ad andare ben di piu'.;)
Nvidia parla di flops per watt noncurante che con Maxwel per via dell'efficienza i T.flops son piu'bassi:rolleyes:
http://videocardz.com/51195/nvidia-maxwell-gm200-pascal-gp100-confirmed-research-paper
appleroof
01-09-2014, 13:56
cut
Nvidia parla di flops per watt noncurante che con Maxwel per via dell'efficienza i T.flops son piu'bassi:rolleyes:
http://videocardz.com/51195/nvidia-maxwell-gm200-pascal-gp100-confirmed-research-paper
Aspetta mikael questa non l'ho capita...
mircocatta
01-09-2014, 14:07
Vedrai che ce ne sarà bisogno di una spruzzata di AA,se conti poi che l'smaa è quasi gratis in termini di performance perchè rinunciarci?
come ho riportato sopra, display retina, cioè un display in cui l'occhio umano non guadagna più all'aumento della risoluzione, è calcolato dividendo 90/ppi ... il risultato è la distanza alla quale oltre non si distingue più differenza
un 4k da 28 pollici ha 157ppi circa, che dal calcolo risulta attorno ai 58cm, oltre il quale l'aumento di risoluzione è superfluo... sfido chiunque a stare costantemente sotto i 58cm di distanza da uno schermo 28 pollici!!!
per questo mi ha roso abbastanza un mese fa acquistare un full hd 24 pollici, avrei voluto acquistare un 28pollici 4k per poter scordarmi finalmente l'AA, ma erano (e sono) ancora troppo acerbi e vga che li reggano non ci sono!...ho comunque speso poco (sotto i 200€), il 1680x1050 20 pollici che avevo prima cominciava ad essere davvero obsoleto
mikael84
01-09-2014, 14:08
Aspetta mikael questa non l'ho capita...
La potenza di calcolo rimane sempre superiore via kepler, solitamente la calcolano alla base del core clock ma va calcolata via boost(in quanto è data dalla frequenza x cuda).
una TI base ad esempio boosta a 1020 x i Cuda al 2° = 5,87TF
Per doppiare il numero di calcolo in virgola mobile o Tflops di una TI, dovresti avere esattamente il doppio dei cuda, oppure utilizzare una frequenza di base ben piu'elevata.
Se maxell GM 204 avrà 1920cuda per un boost ipotetico di 1200, avremmo 1200 x 1920 al 2°= 4,6TF
Quindi a conti fatti raddoppiare i flops per watt è realisticamente impossibile:fagiano: a meno di non creare un GM 200 da 3600/4000cuda operante sopra i 1200
appleroof
01-09-2014, 14:15
La potenza di calcolo rimane sempre superiore via kepler, solitamente la calcolano alla base del core clock ma va calcolata via boost(in quanto è data dalla frequenza x cuda).
una TI base ad esempio boosta a 1020 x i Cuda al 2° = 5,87TF
Per doppiare il numero di calcolo in virgola mobile o Tflops di una TI, dovresti avere esattamente il doppio dei cuda, oppure utilizzare una frequenza di base ben piu'elevata.
Se maxell GM 204 avrà 1920cuda per un boost ipotetico di 1200, avremmo 1200 x 1920 al 2°= 4,6TF
Quindi a conti fatti raddoppiare i flops per watt è realisticamente impossibile:fagiano: a meno di non creare un GM 200 da 3600/4000cuda operante sopra i 1200
Bè nel tuo ragionamento mi pare manchino 2 dati: le specifiche finali di gm200 e prima ancora il confrontare in maniera diretta due architetture diverse, anche se simili.... Anche perché Mikael non ho mai visto alcun sito, anche tecnico come anandtech o altri, contestare i dati dichiarati da amd intel o nvidia in questo senso....:boh:
mircocatta
01-09-2014, 14:21
La potenza di calcolo rimane sempre superiore via kepler, solitamente la calcolano alla base del core clock ma va calcolata via boost(in quanto è data dalla frequenza x cuda).
una TI base ad esempio boosta a 1020 x i Cuda al 2° = 5,87TF
Per doppiare il numero di calcolo in virgola mobile o Tflops di una TI, dovresti avere esattamente il doppio dei cuda, oppure utilizzare una frequenza di base ben piu'elevata.
Se maxell GM 204 avrà 1920cuda per un boost ipotetico di 1200, avremmo 1200 x 1920 al 2°= 4,6TF
Quindi a conti fatti raddoppiare i flops per watt è realisticamente impossibile:fagiano: a meno di non creare un GM 200 da 3600/4000cuda operante sopra i 1200
la butto li, vedo questa slide
http://images.anandtech.com/doci/7764/Screen%20Shot%202014-02-18%20at%208.48.24%20AM.png
non è che, al tuo risultato, non vada aggiunto il 35% che è la potenza per core maggiore di maxwell rispetto a kepler? arriviamo a 6,22tf..no?:stordita:
un 6% in più della 780ti...il che sarebbe anche possibile visti i rumors che la davano attorno alla 780ti o lievemente superiore
mikael84
01-09-2014, 14:25
Bè nel tuo ragionamento mi pare manchino 2 dati: le specifiche finali di gm200 e prima ancora il confrontare in maniera diretta due architetture diverse, anche se simili.... Anche perché Mikael non ho mai visto alcun sito, anche tecnico come anandtech o altri, contestare i dati dichiarati da amd intel o nvidia in questo senso....:boh:
Be Apple un conto sono le prestazioni finali dettati dall'efficienza un conto parlare di flops per watt, visto che per calcolarli si va di matematica(frequenza per cuda) c'e'poco da fare:)
Anandtech, grande testata parla a prodotto finito qua parliamo di dati ipotetici dove la matematica non aiuta aimè:)
la butto li, vedo questa slide
http://images.anandtech.com/doci/7764/Screen%20Shot%202014-02-18%20at%208.48.24%20AM.png
non è che, al tuo risultato, non vada aggiunto il 35% che è la potenza per core maggiore di maxwell rispetto a kepler? arriviamo a 6,22tf..no?:stordita:
un 6% in più della 780ti...il che sarebbe anche possibile visti i rumors che la davano attorno alla 780ti o lievemente superiore
Qua si parla di performance per watt(performance dettati dall'efficienza, cache e quant'altro), questo è già diverso non di flops(che segue una regola matematica) :)
Una 750 TI ad esempio ha 1,3TF(clock per cuda al secondo)
Non so dove hai preso l'informazione, i rumors parlano di tdp della 680, che è 195w contro 250w della 780ti
credevo stessero confrontando con l'ultima generazione uscita, come giusto che sia(si lo so che la 680 è sempre kepler, ma pensavo si riferissero alla serie 7, quindi alla 780), se fara 200w, per forza di cosa dovrà essere un x4 750ti o poco meno, incrocio le dita
appleroof
01-09-2014, 16:23
Be Apple un conto sono le prestazioni finali dettati dall'efficienza un conto parlare di flops per watt, visto che per calcolarli si va di matematica(frequenza per cuda) c'e'poco da fare:)
Anandtech, grande testata parla a prodotto finito qua parliamo di dati ipotetici dove la matematica non aiuta aimè:)
cut
ed io questo dicevo...
cmq per il discorso che si faceva di FLOPS necessari per il 4k etc. teniamo pure presente che la potenza di un chip misurata attraverso benchmark che mostrino la capacità in termini di flops è indicativa (dà cmq un buon indicatore) ma mostra pur sempre un dato isolato, non tiene conto di tutto il resto...sarebbe come dire che una vga capace, per dire, di 500GTexel/s o 250GPixel/s è sicuramente in grado di gestire i 4k, cosa non del tutto veritiera...inoltre bisogna vedere pure a quale tipo di calcoli si riferisce quella tabella di videocardz, e il tipo di equazione usata per avere il dato FLOPS/watt
appleroof
01-09-2014, 16:28
credevo stessero confrontando con l'ultima generazione uscita, come giusto che sia(si lo so che la 680 è sempre kepler, ma pensavo si riferissero alla serie 7, quindi alla 780), se fara 200w, per forza di cosa dovrà essere un x4 750ti o poco meno, incrocio le dita
bè GM204 sostituisce GK104 :D
cmq non sono certo (magari correggetemi) che si possa fare l'equazione gm107 ha un tdp di 60W, se gm204 ha un tdp di 200W deve andare per forza almeno 3 volte tanto, perchè anche a parità di architettura non penso le prestazioni per watt scalino in maniera perfettamente lineare (perchè credo bisogna come al solito tenere in conto pure altre variabili, come bus/frequenza ram, rapporto rops/tmu etc etc)...ma ripeto, potrei sbagliare completamente :fagiano:
bè GM204 sostituisce GK104 :D
cmq non sono certo (magari correggetemi) che si possa fare l'equazione gm107 ha un tdp di 60W, se gm204 ha un tdp di 200W deve andare per forza almeno 3 volte tanto, perchè anche a parità di architettura non penso le prestazioni per watt scalino in maniera perfettamente lineare (perchè credo bisogna come al solito tenere in conto pure altre variabili, come bus/frequenza ram, rapporto rops/tmu etc etc)...ma ripeto, potrei sbagliare completamente :fagiano:
É cosi, lo scaling nn é lineare, ma un indicazione di massimi può darla
mikael84
01-09-2014, 19:16
bè GM204 sostituisce GK104 :D
cmq non sono certo (magari correggetemi) che si possa fare l'equazione gm107 ha un tdp di 60W, se gm204 ha un tdp di 200W deve andare per forza almeno 3 volte tanto, perchè anche a parità di architettura non penso le prestazioni per watt scalino in maniera perfettamente lineare (perchè credo bisogna come al solito tenere in conto pure altre variabili, come bus/frequenza ram, rapporto rops/tmu etc etc)...ma ripeto, potrei sbagliare completamente :fagiano:
No lo scaling non è lineare, dipende da molti fattori
Cmq se pensiamo che la 760 ha un rapporto di 3-2-2(1152/32/256)con la massima espressione del GK107 e la 980 dovrebbe avere lo stesso rapporto di 3-2-2(1920/32/256) vedo abbastanza probabile un risultato simile e quindi in game 140-160watt:)
Quindi per ottobre GM206 GTX960 con 1280 cuda 24 rops e 192bit, 100 watt e cavo ad un singolo pin:sofico:
cire92cry
01-09-2014, 19:58
Sinceramente faccio fatica a capire quei test.:stordita:
Crysis 3 scala quasi al 100% con 2 GPU come le Titan non al 20%
https://scontent-a-mxp.xx.fbcdn.net/hphotos-prn2/t31.0-8/10003676_10201984410868062_3025308017742956089_o.jpg
Che il 4k sia fuori portata ok ma i dati non corrispondono al vero, senza considerare che si parla di un mattone pesantissimo pure su 1440p dove già vai di smaa 1x, non 2x vista la densità;)
Si avevo fatto dei test tempo fa anche in 4k:
http://cire92cry.it/images/hardware/C3gr1.JPG
Ne ho altri sul mio sito :)
I test di tom's hardware sono vecchi inizialmente crysis 3 aveva problemi con l'SLI ora nel 99% del gioco le schede scalano quasi del 100% ( ci gioco spesso :D :D :D ) .
Poi se metti ad alto le ombre già guadagni 10 15 fps rendendolo giocabile :D
Al di la di questo il 4k per ora è off limit se si vuole maxare tutto :D
mirmeleon
01-09-2014, 21:57
http://wccftech.com/nvidia-announces-game-24-event-980-970-announcement/
Mi sono registrato all'evento!
:eek: :eek: :eek:
Psycho77
01-09-2014, 23:08
http://wccftech.com/nvidia-announces-game-24-event-980-970-announcement/
Mi sono registrato all'evento!
:eek: :eek: :eek:
Anche io,grazie per il link.:D
illidan2000
02-09-2014, 07:39
Si avevo fatto dei test tempo fa anche in 4k:
http://cire92cry.it/images/hardware/C3gr1.JPG
Ne ho altri sul mio sito :)
I test di tom's hardware sono vecchi inizialmente crysis 3 aveva problemi con l'SLI ora nel 99% del gioco le schede scalano quasi del 100% ( ci gioco spesso :D :D :D ) .
Poi se metti ad alto le ombre già guadagni 10 15 fps rendendolo giocabile :D
Al di la di questo il 4k per ora è off limit se si vuole maxare tutto :D
per me potrebbero pure non esserci ombre, non ne sentirei la mancanza. peccato che in molti giochi le puoi mettere solo su basso, e non eliminarle del tutto...certo se poi mi avanzano fps le lascio là!
Il 4k è una cagata pazzesca [cit.]
Ma alla fine quanto vanno ste 9x0? :stordita:
Ho vinto "quaccheccosa"?
PaulGuru
02-09-2014, 11:33
MSI ha mostrato qualche particolare sulle 980 e 970 Twin Frozr V
http://www.overclock.net/t/1510645/wccf-msi-teases-geforce-gtx-980-and-geforce-gtx-970-gpus#post_22784779
Costeranno 499$ e 399$ e avranno un misero TDP di soli 190W o inferiore ( :doh: :doh: :doh: :doh: )
A questo punto spero di potermi permettere una versione ultra cloccata di fabbrica della 980.
francisco9751
02-09-2014, 12:12
speriamo facciano un versione ITX da 17cm della 970 :D
speriamo facciano un versione ITX da 17cm della 970 :D
Se tagliano un po' il tdp, magari, con un pcb short 670 like. Poi se mi tagliano il prezzo e me la vendono in bundle con un bel fullcover, ci sta glieli possa dare 399.
Per poi ficcarla nell'itx.
LurenZ87
02-09-2014, 12:42
Il 4k è una cagata pazzesca [cit.]
Ma alla fine quanto vanno ste 9x0? :stordita:
Ho vinto "quaccheccosa"?
Bella domanda... La presentazione "dovrebbe" essere il 19 di questo mese, ma di sample o datasheet ancora nemmeno l'ombra... Poi si parla anche del presunto cambio di nome per via del processo produttivo a 20nm...
Tocca aspettare, come sempre...
PS: veramente questo 4k è una caxata pazzesca???
Inviato dal mio OnePlus One utilizzando Tapatalk
Dimitri-
02-09-2014, 12:52
con quel tpd, o sono a 20nm o sono una c*** pazzesca a 28 :D
con quel tpd, o sono a 20nm o sono una c*** pazzesca a 28 :D
È vietato parlare di politica.
con quel tpd, o sono a 20nm o sono una c*** pazzesca a 28 :D
Beh, se come pare si tratterà di soluzioni mid-range, il conto tornerebbe no?:mbe:
Più che altro 499 dollari corrispondono a 365 euro. Mi sembra impossibile che una top di gamma costerà così poco.
Più che altro 499 dollari corrispondono a 365 euro. Mi sembra impossibile che una top di gamma costerà così poco.
da noi si fa il cambio 1:1 come è giusto che sia :read:
:muro:
Più che altro 499 dollari corrispondono a 365 euro. Mi sembra impossibile che una top di gamma costerà così poco.
Che moltiplicati per 1,22 diventano circa 450 e che inizialmente si troveranno sui 500 come successe per le 680, ma che a differenza di quest'ultime che andavano un 30% in più delle 580, se rispetto ad una 780 (non ti) non vanno altrettanto più forte chi se le compra, a parte coloro che soffrono di crisi di astinenza da cambio hardware ?
francisco9751
02-09-2014, 13:21
i fanboy :O
come gia detto sopra, per me una scheda che va uguale alla 780ti non ha senso, consuma meno..ok,sarà adatta per chi deve comprare una vga da una vecchia(tipo chi ha ancora la 6xx) sennò per chi ha una 780/ti non ha molto senso
mikael84
02-09-2014, 13:46
Beh, se come pare si tratterà di soluzioni mid-range, il conto tornerebbe no?:mbe:
Purtroppo ne stiamo parlando da svariati giorni, siamo ormai svariate pagine che parliamo sempre della stessa cosa ma ancora il quadro della situazione non è compreso.
Ci hai visto bene GM 204 è il sostituto di GK104, ovvero la 680/770/660ti/670, non della 780/780ti(gk110)
Per quello bisogna aspettare il debutto di GM200, il sostituto di GK110, che dovrebbe debuttare ad inizio 2015;)
GM204 andrà quanto le 780 pur consumando molto meno in quanto l'obbiettivo di Nvidia è raddoppiare i flops per watt e per essere a 28nm è un'ottimo risultato.
Iceman69
02-09-2014, 13:46
i fanboy :O
come gia detto sopra, per me una scheda che va uguale alla 780ti non ha senso, consuma meno..ok,sarà adatta per chi deve comprare una vga da una vecchia(tipo chi ha ancora la 6xx) sennò per chi ha una 780/ti non ha molto senso
Quoto, devono esserci almeno un 30% di prestazioni in più, se non non ha senso cambiare.
Dovendo rifare il pc in firma voi andreste di 980? Oppure cerchereste una 780ti? O magari uno sli di Ti?? Mi solleticava l'idea dello sli, anche perchè molto probabilmente prenderò il rog della asus come monitor...
mircocatta
02-09-2014, 13:53
Dovendo rifare il pc in firma voi andreste di 980? Oppure cerchereste una 780ti? O magari uno sli di Ti?? Mi solleticava l'idea dello sli, anche perchè molto probabilmente prenderò il rog della asus come monitor...
780 (o TI ) usata e aspetta maxwell 20nm (o 16nm?) come ho fatto io (venendo da una 7950)
Dimitri-
02-09-2014, 14:03
Dovendo rifare il pc in firma voi andreste di 980? Oppure cerchereste una 780ti? O magari uno sli di Ti?? Mi solleticava l'idea dello sli, anche perchè molto probabilmente prenderò il rog della asus come monitor...
se la 880 dovesse andare come una 780 ti o leggermente sopra, io andrei senza alcun dubbio sulla Ti usata ;)
PaulGuru
02-09-2014, 14:03
i fanboy :O
come gia detto sopra, per me una scheda che va uguale alla 780ti non ha senso, consuma meno..ok,sarà adatta per chi deve comprare una vga da una vecchia(tipo chi ha ancora la 6xx) sennò per chi ha una 780/ti non ha molto sensoCon 190W di TDP a pari processo vuol dire che Nvidia ha preferito buttarsi a capofitto su prodotti in versione più economica da produrre.
Mi sembrava strano che avessero così pochi cores, Maxwell dovrebbe averne di più a parità di dimensione.
mircocatta
02-09-2014, 14:15
i fanboy :O
come gia detto sopra, per me una scheda che va uguale alla 780ti non ha senso, consuma meno..ok,sarà adatta per chi deve comprare una vga da una vecchia(tipo chi ha ancora la 6xx) sennò per chi ha una 780/ti non ha molto senso
permetterebbero a molti di entrare nel mondo dello "SLI" anche avendo un alimentatore onesto, come il mio 850watt
illidan2000
02-09-2014, 14:25
permetterebbero a molti di entrare nel mondo dello "SLI" anche avendo un alimentatore onesto, come il mio 850watt
due 780 le puoi tenere lo stesso con l'850 ( se è un modello "serio")
io col 950w in firma tenevo le due titan ed ero circa al 60%-70% del carico, con leggero OC. certo, è sempre bene non superare queste percentuali...
PaulGuru
02-09-2014, 14:37
permetterebbero a molti di entrare nel mondo dello "SLI" anche avendo un alimentatore onesto, come il mio 850watt
A questo punto è come farsi uno sli di fascia media, quindi non c'è nessuna novità.
francisco9751
02-09-2014, 14:57
permetterebbero a molti di entrare nel mondo dello "SLI" anche avendo un alimentatore onesto, come il mio 850watt
non serve mica una 850 per farsi uno sli
appleroof
02-09-2014, 14:58
A questo punto è come farsi uno sli di fascia media, quindi non c'è nessuna novità.
Se fascia media sono prestazioni a livello - o maggiori- di 780ti, ad un prezzo di 500euro, allora devo rivedere il mio concetto di fascia media
Faccio notare che le prestazioni ventilate sono ottenute con un tdp da gk104 o, per stare all'attualità, Tonga, il tutto a 28nm....se le prestazioni venissero confermate non sarà un gran salto dalla 780ti ma non penso proprio si potrà parlare di scheda deludente, poi è solo la mia idea...
paolox86
02-09-2014, 15:21
Ma perchè adesso ho voglia di vendere la mia 780?!?!? :muro: Ogni volta è la stessa storia e ho superato la barriera dei 30 anni. :D
illidan2000
02-09-2014, 15:27
Se fascia media sono prestazioni a livello - o maggiori- di 780ti, ad un prezzo di 500euro, allora devo rivedere il mio concetto di fascia media
Faccio notare che le prestazioni ventilate sono ottenute con un tdp da gk104 o, per stare all'attualità, Tonga, il tutto a 28nm....se le prestazioni venissero confermate non sarà un gran salto dalla 780ti ma non penso proprio si potrà parlare di scheda deludente, poi è solo la mia idea...
certo, se la 285 va meno della 280, ci si può aspettare di tutto.
non è che sotto sotto nVidia e ATI si sono messi d'accordo per far uscire schede depotenziate con il numeretto maggiore?
mircocatta
02-09-2014, 15:28
non serve mica una 850 per farsi uno sli
chiedi a mikael quanto consuma una 780ti in overclock ;)
se non ricordo male, ha misurato fino a quasi 400watt
se faccio uno sli voglio mantenermi la possibilità di tirarle un po in OC... ho già il 3570k a 4.4ghz, due 780 lisce overcloccate a 1.2v 1200/1500 non credo che andrei tanto tranquillo con il mio AX850, sicuramente sarebbe proibitivo con le 780ti
appleroof
02-09-2014, 15:42
certo, se la 285 va meno della 280 cut
Ho guardato al volo giusto due grafici della rece di questo sito è no ho visto altre rece, ma non mi pare che la 285 vada meno della 280
Cmq per stare in topic bisogna vedere "sul campo" questo gm204, se fosse confermato quanto si prospetta finora non sarà in generale un buon cambio per i possessori di 780/780ti, per tutti gli altri però direi che rispetto a queste rappresenterebbe un ottimo salto di qualità... Tocca aspettare per vedere
Cmq per stare in topic bisogna vedere "sul campo" questo gm204, se fosse confermato quanto si prospetta finora non sarà in generale un buon cambio per i possessori di 780/780ti, per tutti gli altri però direi che rispetto a queste rappresenterebbe un ottimo salto di qualità... Tocca aspettare per vedere
ti ho sentito dire queste cose almeno un milione di volte,ormai penso sia quasi un copia incolla ogni tot post :asd:
LurenZ87
02-09-2014, 16:01
ti ho sentito dire queste cose almeno un milione di volte,ormai penso sia quasi un copia incolla ogni tot post :asd:
:asd: :asd: :asd:
Io sono pronto :sofico:
Edit :P
:D :D :D
Inviato dal mio OnePlus One utilizzando Tapatalk
appleroof
02-09-2014, 16:13
ti ho sentito dire queste cose almeno un milione di volte,ormai penso sia quasi un copia incolla ogni tot post :asd:
infatti è così, ce l'ho pronto alla bisogna :asd: :asd:
@Lurenz..sei riuscito a spaginarmi il monitor 1440p..complimenti non ci era riuscito mai nessuno :D :D
illidan2000
02-09-2014, 16:17
immagine troppo piccola, non si legge bene Lurenz
infatti è così, ce l'ho pronto alla bisogna :asd: :asd:
@Lurenz..sei riuscito a spaginarmi il monitor 1440p..complimenti non ci era riuscito mai nessuno :D :D
ti ci vuole il 4k...
LurenZ87
02-09-2014, 16:17
infatti è così, ce l'ho pronto alla bisogna :asd: :asd:
@Lurenz..sei riuscito a spaginarmi il monitor 1440p..complimenti non ci era riuscito mai nessuno :D :D
Le bellezze di navigare tramite smartphone :asd:, comunque ho editato :P
Inviato dal mio OnePlus One utilizzando Tapatalk
PaulGuru
02-09-2014, 16:23
Se fascia media sono prestazioni a livello - o maggiori- di 780ti, ad un prezzo di 500euro, allora devo rivedere il mio concetto di fascia media
La 780 è una scheda vecchia oramai, mentre la 980 è una scheda nuova di zecca, nuova generazione e nuova architettura ( non solo un refresh ) e se è vero che vanno poco più solo perchè Nvidia ha tirato appositamente il freno a mano per questa serie allora altro non sarà altro in pratica che una fascia media, che poi sia classificata e venduta come fascia alta è un altra cosa.
1920sp ? col caxxo che ci gira TW3 a 60 fissi a 1440p ! ( ma forse manco a 1080p )
C'erano altri 60-85W di TDP da sfruttare che Nvidia non ha fatto, 190W di TDP è roba da chippetti
appleroof
02-09-2014, 16:28
ti ci vuole il 4k...
:D
Le bellezze di navigare tramite smartphone :asd:, comunque ho editato :P
Inviato dal mio OnePlus One utilizzando Tapatalk
già :asd:
La 780 è una scheda vecchia oramai, mentre la 980 è una scheda nuova di zecca, e se è vero che vanno poco più allora altro non sarà altro in pratica che una fascia media, che poi sia classificata e venduta come fascia alta è un altra cosa.
dimentichi però che a differenza delle passate gen dove la nuova top (ok, a parte 480/580 per le note vicende) era prodotta con nuovo pp, qui si è sempre a 28nm -pare :D-
PaulGuru
02-09-2014, 16:34
dimentichi però che a differenza delle passate gen dove la nuova top (ok, a parte 480/580 per le note vicende) era prodotta con nuovo pp, qui si è sempre a 28nm -pare :D-
Perdonami Apple ma se a 28nm stanno con un misero 190W di TDP, se fossero state a 20nm cosa avrebbero sfornato ? Una VGA Mobile "heatsink-less" ?
Le VGA high end attuali hanno 250-275W di TDP, perchè Nvidia non ha realizzato GPU del genere ?
Praticamente castrato 2 volte, non solo dal PP vecchio ma ci hanno anche realizzato una soluzione rilassata con questo PP.
mikael84
02-09-2014, 16:42
Perdonami Apple ma se a 28nm stanno con un misero 190W di TDP, se fossero state a 20nm cosa avrebbero sfornato ? Una VGA Mobile "heatsink-less" ?
Le VGA high end attuali hanno 250-275W di TDP, perchè Nvidia non ha realizzato GPU del genere ?
Praticamente castrato 2 volte, non solo dal PP vecchio ma ci hanno anche realizzato una soluzione rilassata con questo PP.
Questo è il GM 204 che succede al Gk104(ovvero le 670-680) non le 780(chi ha queste salvo consumi e 4gb non ha motivo di cambiare).
Il GK110 verrà sostituito da GM200 forse in data pre the witcher e quello sarà il chip pieno che sostituirà le 780 con svariati cuda e piu'watt;)
PaulGuru
02-09-2014, 16:45
Questo è il GM 204 che succede al Gk104(ovvero le 670-680) non le 780(chi ha queste salvo consumi e 4gb non ha motivo di cambiere).
Il GK110 verrà sostituito da GM200 forse in data pre the witcher e quello sarà il chip pieno che sostituirà le 780 con svariati cuda e piu'watt;)
GK104 è sempre a 28nm ma ha lo stesso TDP di 190W !
Se fosse stato costruito col PP precedente avrebbe avuto un TDP alto, cosa che invece non è accaduto con questo GM104, segno che la soluzione è stata ulteriormente castrata.
Quindi o vogliono creare il prossimo GM110 sempre a 28nm e stanno lasciando del margine apposta oppure è una scelta che porta vantaggi solo a Nvidia.
appleroof
02-09-2014, 16:45
Perdonami Apple ma se a 28nm stanno con un misero 190W di TDP, se fossero state a 20nm cosa avrebbero sfornato ? Una VGA Mobile "heatsink-less" ?
Le VGA high end attuali hanno 250-275W di TDP, perchè Nvidia non ha realizzato GPU del genere ?
Praticamente castrato 2 volte, non solo dal PP vecchio ma ci hanno anche realizzato una soluzione rilassata con questo PP.
premesso che parliamo sempre in teoria perchè mancano dati ufficiali, se fosse come dici o hanno semplicemente replicato la storia 680/Titan (con la differenza che la 680 rispetto alla 580 non solo consumava molto meno, ma andava come ricordato un 30% in più grazie anche al cambio di pp) e quindi lasciato spazio al chippone (che dovrebbe logicamnete battere i record di dimensioni :D e che dovrebbe debuttare prima rispetto a quanto ha fatto la titan rispetto alla 680), e in misura minore a future revisioni e/o schede pompate dei partner, oppure pur avendo un tdp sui 200W andranno abbastanza meglio delle 780/780ti
non sono certo masochisti, per cui altre ragioni, non mi stanco di ripetere se i dati saranno questi, non ne vedo non so voi :boh:
GK104 è sempre a 28nm ma ha lo stesso TDP identico !
cut
stesso pp, stesso tdp, ma in teoria prestazioni ben minori...sarebbe questa l'evoluzione
mikael84
02-09-2014, 16:48
GK104 è sempre a 28nm ma ha lo stesso TDP di 190W !
Se fosse stato costruito col PP precedente avrebbe avuto un TDP alto, cosa che invece non è accaduto con questo GM104.
GM204 ha lo stesso PP di GK104 ma ha prestazioni quasi doppie che vanno calcolate alla base delle 670-680 non della 780(per quello ci sarà GM200).
Questo è l'obbiettivo di Nvidia e mi sembra un ottimo lavoro essendo appunto a pari PP
mircocatta
02-09-2014, 16:51
Questo è il GM 204 che succede al Gk104(ovvero le 670-680) non le 780(chi ha queste salvo consumi e 4gb non ha motivo di cambiare).
Il GK110 verrà sostituito da GM200 forse in data pre the witcher e quello sarà il chip pieno che sostituirà le 780 con svariati cuda e piu'watt;)
allora le dovrebbero chiamare gtx 970 non 980..è il solito gioco di nvidia per vendere il più possibile, come fece con le 680
sta di fatto che hanno raddoppiato le prestazioni a parità di consumo cambiando solo l'architettura di un'architettura che era già un gioiello (kepler)
tanto di cappello agli ingenieri nvidia...un maxwell da 270watt di consumo a 28nm surclasserebbe le 780ti di parecchio, figuriamoci quando usciranno a 20nm
appleroof
02-09-2014, 16:51
GM204 ha lo stesso PP di GK104 ma ha prestazioni quasi doppie che vanno calcolate alla base delle 670-680 non della 780(per quello ci sarà GM200).
Questo è l'obbiettivo di Nvidia e mi sembra un ottimo lavoro essendo appunto a pari PP
quoto
PaulGuru
02-09-2014, 16:52
premesso che parliamo sempre in teoria perchè mancano dati ufficiali, se fosse come dici o hanno semplicemente replicato la storia 680/Titan (con la differenza che la 680 rispetto alla 580 non solo consumava molto meno, ma andava come ricordato un 30% in più grazie anche al cambio di pp) e quindi lasciato spazio al chippone (che dovrebbe logicamnete battere i record di dimensioni :D e che dovrebbe debuttare prima rispetto a quanto ha fatto la titan rispetto alla 680), e in misura minore a future revisioni e/o schede pompate dei partner, oppure pur avendo un tdp sui 200W andranno abbastanza meglio delle 780/780ti
non sono certo masochisti, per cui altre ragioni, non mi stanco di ripetere se i dati saranno questi, non ne vedo non so voi :boh:
Quello che volevo dire è semplice.
Una GPU originariamente realizzata per avere 190W di TDP sui 20nm, se poi per vari problemi tocca realizzarla con il vecchio 28nm non rimane mica a 190W il TDP ! Quindi :
1) O questa GPU non è mai stata pensata per la prossima generazione o è stata pesantemente castrata !
2) Con 190W di TDP han lasciato del margine, perchè ???? Il TDP alto sarebbe stato solamente conseguenza del vecchio PP, per lasciare spazio a GM110 sarebbe sufficiente realizzarlo con il prossimo PP.
stesso pp, stesso tdp, ma in teoria prestazioni ben minori...sarebbe questa l'evoluzioneLa 680 è 2 generazioni passate, non una.
appleroof
02-09-2014, 16:54
Quello che volevo dire è semplice.
Una GPU che intendeva essere realizzata con 190W di TDP con il 20nm, se poi se viene realizzata per problemi con il vecchio 28nm non rimane mica a 190W il TDP !
Quindi questa GPU non è mai stata pensata per la prossima generazione e per giunta ha lasciato del margine, ma perchè ????
Per lasciare spazio a GM110 sarebbe sufficiente realizzarlo con il prossimo PP.
scusa ma davvero non ti seguo, colpa mia :boh:
visto che hai editato:
1) nessuno ci dice che se fosse stata fatta a 20nm sarebbe andata uguale ma con 150w di tdp, e collocata ancora più in basso come segmento commerciale
2) l'ho spiegato perchè (secondo me): per lasciare spazio a versioni pompate dei partner/perchè è sufficiente così (come fu sufficiente per gtx680 al debutto) ed inutile pomparla al limite
La 680 è 2 generazioni passate
ehm no, solo come nome commerciale
mircocatta
02-09-2014, 16:56
La 680 è 2 generazioni passate, non una.
è una kepler e se non sbaglio ha watt/performance simile se non uguale alla 780/780ti
o sbaglio?
comunque PaulGuru io ti do ragione... tanto valeva far uscire una gpu da 250watt con maxwell a 28nm che tecnicamente andrebbe un 50-60% di performance in più rispetto alla 780ti
ma forse è una questione di "tagli" dei chip che non hanno voluto variare dopo il ritardo dei 20nm...boh!
LurenZ87
02-09-2014, 16:56
Comunque ragazzi vi posso annunciare che il nome GTX 980 e 970 non è stato scelto da poco ma a tavolino dall'inizio...
Inviato dal mio OnePlus One utilizzando Tapatalk
appleroof
02-09-2014, 16:59
Comunque ragazzi vi posso annunciare che il nome GTX 980 e 970 non è stato scelto da poco ma a tavolino dall'inizio...
Inviato dal mio OnePlus One utilizzando Tapatalk
scusa Lurenz se sembro antipatico via forum, ma.....e quindi...? :D
PaulGuru
02-09-2014, 17:00
1) nessuno ci dice che se fosse stata fatta a 20nm sarebbe andata uguale ma con 150w di tdp
ESATTO E' PROPRIO CIO' CHE INTENDEVO.
, e collocata ancora più in basso come segmento commerciale
2) l'ho spiegato perchè (secondo me): per lasciare spazio a versioni pompate dei partner/perchè è sufficiente così (come fu sufficiente per gtx680 al debutto) ed inutile pomparla al limite
ehm no, solo come nome commercialeQuesto è ciò che spaventa di più
Lasciare del margine pur essendo già castrati dai 28nm ? Tutto questo lascia presagire che la soluzione superiore sarà sempre a 28nm ! :doh:
mikael84
02-09-2014, 17:00
allora le dovrebbero chiamare gtx 970 non 980..è il solito gioco di nvidia per vendere il più possibile, come fece con le 680
sta di fatto che hanno raddoppiato le prestazioni a parità di consumo cambiando solo l'architettura di un'architettura che era già un gioiello (kepler)
tanto di cappello agli ingenieri nvidia...un maxwell da 270watt di consumo a 28nm surclasserebbe le 780ti di parecchio, figuriamoci quando usciranno a 20nm
Nvidia ha l'obbiettivo come piu'volte detto di raddoppiare le prestazioni per watt, ora come ora non aspira a stravolgere la fascia alta.
Purtroppo siamo sempre ancorati con i 28NM e per creare una GPU potente ed allo stesso tempo efficiente ha dovuto rivedere l'architettura, grazie al lavoro svolto via cache
La 680 o 670 non sarebbero state un granchè se non ci fosse stato un cambio di PP(per via dei clock) ma lo stesso cambio ha permesso di inserire piu'cuda a SMX.
Il GM200 permetterà a Maxwel di inserire svariati cuda in un TDP da 780/780TI ma allo stesso tempo di raddoppiare quasi le prestazioni per watt
PaulGuru
02-09-2014, 17:02
comunque PaulGuru io ti do ragione... tanto valeva far uscire una gpu da 250watt con maxwell a 28nm che tecnicamente andrebbe un 50-60% di performance in più rispetto alla 780ti
ma forse è una questione di "tagli" dei chip che non hanno voluto variare dopo il ritardo dei 20nm...boh!Hanno semplicemente piazzato un prodotto uguale ma molto più piccolo ed economico da realizzare per loro.
Probabilmente avranno prezzi di produzione paragonabili al GK104 e invece lo spacciano a 499$.
LurenZ87
02-09-2014, 17:02
scusa Lurenz se sembro antipatico via forum, ma.....e quindi...? :D
Sostanzialmente tutti i test e le info che sono usciti adesso con il nome di GTX 880 sono fake...
Inviato dal mio OnePlus One utilizzando Tapatalk
appleroof
02-09-2014, 17:04
Sostanzialmente tutti i test e le info che sono usciti adesso con il nome di GTX 880 sono fake...
Inviato dal mio OnePlus One utilizzando Tapatalk
insomma fiumi di chiacchere inutili da thread "aspettando"...nulla di nuovo sotto il sole :asd:
PaulGuru
02-09-2014, 17:07
insomma fiumi di chiacchere inutili da thread "aspettando"...nulla di nuovo sotto il sole :asd:
MSI ha detto che avranno 190W o meno di TDP, questo presumo sia ufficiale.
Non conosciamo ancora le prestazioni questo è vero ma in ogni caso sappiamo già che non sarà il massimo esprimibile con 28nm, quindi partiamo già col freno a mano.
A questo punto spero che i distributori rimedino in parte fornendo modelli uberclocked.
appleroof
02-09-2014, 17:09
MSI ha detto che avranno 190W o meno di TDP, questo presumo sia ufficiale.
Non conosciamo ancora le prestazioni questo è vero ma in ogni caso sappia già che non sarà il massimo esprimibile con 28nm, quindi partiamo già col freno a mano.
ricollegandomi ad un tuo post di prima, ricordo che infatti è previsto -i rumors dicono :asd: - un gm200 con presumibilmente 250w di tdp entro massimo inizio 2015, sempre a 28nm...
poi ci sono purerumors che invece le nuove vga siano a 20nm e via di spiazzamento totale :fiufiu:
PaulGuru
02-09-2014, 17:11
ricollegandomi ad un tuo post di prima, ricordo che infatti è previsto -i rumors dicono :asd: - un gm200 con presumibilmente 250w di tdp entro massimo inizio 2015, sempre a 28nm...
ALLORA CALMA
Se è vero che GM200 sarà a 28nm, allora ecco che la politica Nvidia ha il suo perchè, io davo per scontato che GM200 avrebbe avuto sicuramente il prossimo PP.
Praticamente GM200 sarà ciò che sarebbe dovuto essere l'imminente 980.
Quindi abbiamo la quasi conferma che anche il prossimo chippone sarà sempre a 28nm, bene ! L'abbiamo preso nel di dietro !
mircocatta
02-09-2014, 17:11
Lasciare del margine pur essendo già castrati dai 28nm ? Tutto questo lascia presagire che la soluzione superiore sarà sempre a 28nm ! :doh:
e chiamali stupidi!
hanno due colpi in canna che permetterebbe a loro di fare soldi a palate: nuovo pp in arrivo e nuova architettura maxwell
-possono fare una generazione di gpu a basso consumo con prestazioni top con maxwell a 28nm -> soldi quasi a palate, perchè fidati, venderà
-poi possono fare una generazione gpu ad alto consumo con prestazioni uber con maxswell a 28nm -> soldi a palate
-poi possono fare una generazione di gpu basso consumo con prestazioni uber con maxwell (rivisto?) a 20nm -> soldi a palate
-infine fare full maxwell 20nm con prestazioni imbarazzanti -> soldi a palate
Loro sono a posto fino al 2016! vista poi la concorrenza
chiamali stupidi...ovvio che noi tutti vorremmo subito la terza opzione e poi più avanti l'ultima,...ma è anche ovvio che loro non guardano a fare contenti noi, vogliono vendere e hanno la possibilità di tirare fuori tante "generazioni" di gpu grazie a maxwell
LurenZ87
02-09-2014, 17:11
insomma fiumi di chiacchere inutili da thread "aspettando"...nulla di nuovo sotto il sole :asd:
Esatto :)
ricollegandomi ad un tuo post di prima, ricordo che infatti è previsto -i rumors dicono :asd: - un gm200 con presumibilmente 250w di tdp entro massimo inizio 2015, sempre a 28nm...
poi ci sono purerumors che invece le nuove vga siano a 20nm e via di spiazzamento totale :fiufiu:
Sui 20nm ci credo poco, ma tutto è possibile, anche se GM204 a dimensioni di die non è così piccolino, quindi imho saranno a 28nm.
Inviato dal mio OnePlus One utilizzando Tapatalk
mikael84
02-09-2014, 17:16
Ora faccio un'altra domanda per chi vorrebbe il chippone full(che dopo tanto ci starebbe pure):stordita:
Se Nvidia sostituisse prima il GK110 con GM200, non avendo urgenza di abbassare il prezzo della TI e questo chip va quasi il doppio lo comprereste?
Con la TI a 550/600 euro, questi quanto costerebbero essendo appunto senza concorrenza? Portiamo la fascia alta a 1000 euro, cosi'poi AMD rilancia.
Niente di personale ma tanti desiderosi di chippone hanno ancora schede vecchiotte come 5870 o fasce medie da 200 euro adesso.
Personalmente ora come ora per il chippone lascerei passare tempo.
Trovo piu'utile un GM204 per permettere anche a chi ha fasce medie di upgrade senza svenarsi.;)
PaulGuru
02-09-2014, 17:18
e chiamali stupidi!
hanno due colpi in canna che permetterebbe a loro di fare soldi a palate: nuovo pp in arrivo e nuova architettura maxwell
-possono fare una generazione di gpu a basso consumo con prestazioni top con maxwell a 28nm -> soldi quasi a palate, perchè fidati, venderà
-poi possono fare una generazione gpu ad alto consumo con prestazioni uber con maxswell a 28nm -> soldi a palate
-poi possono fare una generazione di gpu basso consumo con prestazioni uber con maxwell (rivisto?) a 20nm -> soldi a palate
-infine fare full maxwell 20nm con prestazioni imbarazzanti -> soldi a palate
Loro sono a posto fino al 2016! vista poi la concorrenza
chiamali stupidi...ovvio che noi tutti vorremmo subito la terza opzione e poi più avanti l'ultima,...ma è anche ovvio che loro non guardano a fare contenti noi, vogliono vendere e hanno la possibilità di tirare fuori tante "generazioni" di gpu grazie a maxwell
Certo che venderà, e sicuramente faranno soldi a palate derubandoci e noi non possiamo che comprarlo ( io vengo da una 770 e non posso rinunciare all'update con sta caccola che non vedo l'ora di sbarazzarmi ).
Mi domando a cosa serva la presenza di AMD ! Concorrenza zero, si allinea alle soluzioni di NVidia e basta.
PaulGuru
02-09-2014, 17:19
Ora faccio un'altra domanda per chi vorrebbe il chippone full(che dopo tanto ci starebbe pure):stordita:
Se Nvidia sostituisse prima il GK110 con GM200, non avendo urgenza di abbassare il prezzo della TI e questo chip va quasi il doppio lo comprereste?
Con la TI a 550/600 euro, questi quanto costerebbero essendo appunto senza concorrenza? Portiamo la fascia alta a 1000 euro, cosi'poi AMD rilancia.
Niente di personale ma tanti desiderosi di chippone hanno ancora schede vecchiotte come 5870 o fasce medie da 200 euro adesso.
Personalmente ora come ora per il chippone lascerei passare tempo.
Trovo piu'utile un GM200 per permettere anche a chi ha fasce medie di upgrade senza svenarsi.;)
Se il chippone avrà lo stesso TDP e dimensione del die dovrà costare uguale alle 780-780Ti !
Che fine faranno queste ultime ? Verranno rimpiazzate come è sempre successo con l'arrivo delle nuove generazioni.
LurenZ87
02-09-2014, 17:21
Ora faccio un'altra domanda per chi vorrebbe il chippone full(che dopo tanto ci starebbe pure):stordita:
Se Nvidia sostituisse prima il GK110 con GM200, non avendo urgenza di abbassare il prezzo della TI e questo chip va quasi il doppio lo comprereste?
Con la TI a 550/600 euro, questi quanto costerebbero essendo appunto senza concorrenza? Portiamo la fascia alta a 1000 euro, cosi'poi AMD rilancia.
Niente di personale ma tanti desiderosi di chippone hanno ancora schede vecchiotte come 5870 o fasce medie da 200 euro adesso.
Personalmente ora come ora per il chippone lascerei passare tempo.
Trovo piu'utile un GM200 per permettere anche a chi ha fasce medie di upgrade senza svenarsi.;)
Concordo, anzi ti dirò che mi dispiace non poter mettere due GTX 750Ti in SLi, senno sarebbe stata una soluzione decisamente interessante per pochi spicci...
Inviato dal mio OnePlus One utilizzando Tapatalk
appleroof
02-09-2014, 17:22
Esatto :)
Sui 20nm ci credo poco, ma tutto è possibile, anche se GM204 a dimensioni di die non è così piccolino, quindi imho saranno a 28nm.
Inviato dal mio OnePlus One utilizzando Tapatalk
se quella immagine non è fake, e se fosse a 20nm, sarebbe una bestia quel chip :D
Ora faccio un'altra domanda per chi vorrebbe il chippone full(che dopo tanto ci starebbe pure):stordita:
Se Nvidia sostituisse prima il GK110 con GM200, non avendo urgenza di abbassare il prezzo della TI e questo chip va quasi il doppio lo comprereste?
Con la TI a 550/600 euro, questi quanto costerebbero essendo appunto senza concorrenza? Portiamo la fascia alta a 1000 euro, cosi'poi AMD rilancia.
Niente di personale ma tanti desiderosi di chippone hanno ancora schede vecchiotte come 5870 o fasce medie da 200 euro adesso.
Personalmente ora come ora per il chippone lascerei passare tempo.
Trovo piu'utile un GM200 per permettere anche a chi ha fasce medie di upgrade senza svenarsi.;)
interessante punto di vista, aggiungo poi che in genere quando questi hanno chip pronti li fanno uscire perchè avranno un tornaconto che magari conoscono solo loro, fossero anche maggiori ricavi sui costi (sennò qualcuno mi spieghi altrimenti il senso di Tonga) imho non esiste che uno aspetta cosa fà l'altro per strategia (tipo, secondo me se gm200 fosse pronto oggi sarebbe già uscito, così come gk110 all'epoca, o Hawai etc etc)
cut
Mi domando a cosa serva la presenza di AMD ! Concorrenza zero, si allinea alle soluzioni di NVidia e basta.
veramente Tahiti è uscito prima di gk104, tanto per dirne una
PaulGuru
02-09-2014, 17:29
veramente Tahiti è uscito prima di gk104, tanto per dirne unaLa sigla x04 è usata da anni per la fascia media, non credo sia un caso che la rivalutazione e la promozione a fascia alta sia avvenuta proprio in quel periodo per puro caso.
mikael84
02-09-2014, 17:40
se quella immagine non è fake, e se fosse a 20nm, sarebbe una bestia quel chip :D
interessante punto di vista, aggiungo poi che in genere quando questi hanno chip pronti li fanno uscire perchè avranno un tornaconto che magari conoscono solo loro, fossero anche maggiori ricavi sui costi (sennò qualcuno mi spieghi altrimenti il senso di Tonga) imho non esiste che uno aspetta cosa fà l'altro per strategia (tipo, secondo me se gm200 fosse pronto oggi sarebbe già uscito, così come gk110 all'epoca, o Hawai etc etc)
Conoscendo Nvidia se deve piazzarla la piazza ma ora come ora, o alzi il prezzo o levi completamente 780/780TI dal mercato
La 780 inizialmente costava 550/600 euro prezzo non certo allineato alle vecchie e la concorrenza AMD aveva le 7970 da 300 euro calanti a 250 euro, non l'ha piazzata a 350 euro di botto.:)
appleroof
02-09-2014, 17:51
La sigla x04 è usata da anni per la fascia media, non credo sia un caso che la rivalutazione e la promozione a fascia alta sia avvenuta proprio in quel periodo per puro caso.
si infatti, la storia (corroborata indirettamente anche dalle parole di un ingengnere nvidia, qualcuno lo ricorderà) fu che gk110 subì grossi ritardi, la fortuna per nvidia fu che il chip pensato per la fascia media, appunto gk104 (per inciso, magari con tdp da 150w) si sia rivelato all'altezza di Tahiti e quindi lo piazzò al top rivedendone le frequenze etc
adesso vedremo se la storia si ripete, come pare dai rumors, oppure no
Conoscendo Nvidia se deve piazzarla la piazza ma ora come ora, o alzi il prezzo o levi completamente 780/780TI dal mercato
La 780 inizialmente costava 550/600 euro prezzo non certo allineato alle vecchie e la concorrenza AMD aveva le 7970 da 300 euro calanti a 250 euro, non l'ha piazzata a 350 euro di botto.:)
io penso che le 780/780ti come sempre stato andranno in eol dopo il debutto delle 980/970, poi :boh:
PaulGuru
02-09-2014, 17:57
si infatti, la storia (corroborata indirettamente anche dalle parole di un ingengnere nvidia, qualcuno lo ricorderà) fu che gk110 subì grossi ritardi, la fortuna per nvidia fu che il chip pensato per la fascia media, appunto gk104 (per inciso, magari con tdp da 150w) si sia rivelato all'altezza di Tahiti e quindi lo piazzò al top rivedendone le frequenze etc
adesso vedremo se la storia si ripete, come pare dai rumors, oppure no
Più che altro ora come ora se questo Maxwell sarà così pietoso AMD non si muoverà più di tanto.
appleroof
02-09-2014, 18:11
Più che altro ora come ora se questo Maxwell sarà così pietoso AMD non si muoverà più di tanto.
già, resta da vedere perchè lo definisci tale, magari un "imho" a volte è meglio esplicitarlo, tanto più che, già se fossero confermati i rumors attuali, avresti prestazioni ben maggiori della tua 770 con il doppio di ram e lo stesso consumo, se è pietoso questo hai aspettative davvero alte devo dire
poi AMD stai certo che si muove per la sua strada, come dicevo poi oh, ognuno rimanga delle sue idee per carità :boh:
mircocatta
02-09-2014, 18:28
Più che altro ora come ora se questo Maxwell sarà così pietoso AMD non si muoverà più di tanto.
Pietoso? lol
A me sembra più un'evoluzione mai vista prima, altro che chip pietoso... Come ho detto prima permetterà ad Nvidia di giocare con noi consumatori, sfornando varie generazioni basate tutte su maxwell
LurenZ87
02-09-2014, 18:33
Secondo me ha sbagliato a scrivere, imho intendeva che se questa nuova architettura di AMD introdotta con Tonga (GCN 1.2) sarà così pietosa, Nvidia non si muoverà più di tanto nel contrastarla.
Inviato dal mio OnePlus One utilizzando Tapatalk
PaulGuru
02-09-2014, 18:34
già, resta da vedere perchè lo definisci tale, magari un "imho" a volte è meglio esplicitarlo, tanto più che, già se fossero confermati i rumors attuali, avresti prestazioni ben maggiori della tua 770 con il doppio di ram e lo stesso consumo, se è pietoso questo hai aspettative davvero alte devo dire
poi AMD stai certo che si muove per la sua strada, come dicevo poi oh, ognuno rimanga delle sue idee per carità :boh:
Bè io speravo di giocare al prossimo TW3 a 1440p a 60 fissi con AA, ma suppongo che nonostante manchino un po' di mesi posso già cominciare a sognarmelo la notte.
appleroof
02-09-2014, 18:39
Bè io speravo di giocare al prossimo TW3 a 1440p a 60 fissi con AA, ma suppongo che nonostante manchino un po' di mesi non sarà possibile.
inutile farti sti conti senza l'oste, prima vedi quando escono le vga, poi il gioco, non puoi avere certezze prima
poi per inciso aggiungo...cosa te ne fai di 60fps fissi in un arpg?
PaulGuru
02-09-2014, 18:54
inutile farti sti conti senza l'oste, prima vedi quando escono le vga, poi il gioco, non puoi avere certezze prima
poi per inciso aggiungo...cosa te ne fai di 60fps fissi in un arpg?
Se non è a 60 fissi sincronizzati mi fa schifo alla vista e rovina l'esperienza di gioco.
Qualche calo quì e là ok ma uno scenario perennemente sotto no.
Psycho77
02-09-2014, 19:18
Se non è a 60 fissi sincronizzati mi fa schifo alla vista e rovina l'esperienza di gioco.
Qualche calo quì e là ok ma uno scenario perennemente sotto no.
Esatto,senza contare che tw3 non è un rpg a turni ma è un rpg ACTION,dove il combat system DEVE essere almeno a 60 frame,se possibile rock solid,per poter vantare un input lag e risposta ai comandi degni di questo nome.
Nessuno comprerebbe gpu da 500 e passa euro se si accontentasse di giocare a 30 frame come accade su console,la differenza è abnorme.
Secondo me con una gtx 980 ci si giocherà a 1080p maxato a 60 frame,ma neanche subito credo.Bisognerà aspettare come sempre patch e driver ottimizzati di nvidia.
mikael84
02-09-2014, 19:18
Pietoso? lol
A me sembra più un'evoluzione mai vista prima, altro che chip pietoso... Come ho detto prima permetterà ad Nvidia di giocare con noi consumatori, sfornando varie generazioni basate tutte su maxwell
Concordo, considerando i risultati della 750TI, scheda apprezzatissima non mi stupirei se fosse un secondo successone per Nvidia.
Per The witcher 3 è probabile che sia già debuttato GM200
fireradeon
02-09-2014, 19:24
TW3 rock solid a 60fps perché? Potrei capire fosse multy...
Psycho77
02-09-2014, 19:29
TW3 rock solid a 60fps perché? Potrei capire fosse multy...
Semplicemente perchè non esiste genere che ha più bisogno dei 60 frame di un action(alla ninja gaiden o devil may cry) o racing game.
Ok tw3 non sarà un action puro,ma il combat system è presente e ha un ruolo importante,se non primario nel gioco.
Un esempio è dark souls 2 su pc,che è di gran lunga superiore alla versione console sotto il profilo della giocabilità e risposta ai comandi grazie ai 60 frame.
appleroof
02-09-2014, 20:17
Mah... 60fps granitici (o superiori) li capisco in un fps anche single, in un gioco di corse, ma non in altri giochi come appunto tw, mi basta non scenda mai sotto i 30, ovvio maxato perché così mi piace
cire92cry
02-09-2014, 20:45
La 980 penso che vada più di una 780ti ,magari di poco, ma non avrebbe senso mettere una nuova vga che va meno delle vecchie . Commercialmente non puoi mettere una scheda top gamma che va meno della precedente anche se il rapporto prestazioni / consumo è il doppio della precedente serie. Alla fine la massa guarda se va di più o no.
Quindi per me al 99.99% la 980 sarà almeno un 10/15 % più veloce della 780ti. :)
ecco per chi si fa tutte le pare della memoria video..
come riportato sul thread delle 780 , porto anche qui un tool utilizzato per creare textures per l'unreal engine 4 utilizzando tecniche pbr (quindi cry3, ue4 e praticamente tutti gli engine moderni).
video (https://www.youtube.com/watch?v=gpkhZzE8GPo)
da 2gb a 50 mb...beh ci credo poco però sicuramente ci sarà un reale ribasso alle richieste di vram. a meno che non abbiate in mente di giocare a roba vecchia tipo crysis 1/2/3 o metro.
a quanto pare l'ottimizzazzione con le console di "nuova generazione" si comincia a vedere qualche risultato
Ragazzi scusate se faccio una domanda probabilmente idiota ma è da un paio di settimane che non seguo la discussione causa impegni vari e non riesco a portarmi in pari :D
in pratica io ero rimasto al fatto che la 880 (ora 980 mi sembra) sarebbe stata più performante della 780 ma sotto o alla pari delle Ti in quanto il silicio sarebbe già stato tirato ad alte frequenze di default e avrebbe dovuto avere al massimo circa 1900 CUDA con bus a 256bit e 28nm...
Le previsioni sono ancora queste o ci sono grandi novità che mi sono perso? :)
Grazie in anticipo e scusate
mikael84
02-09-2014, 21:28
La 980 penso che vada più di una 780ti ,magari di poco, ma non avrebbe senso mettere una nuova vga che va meno delle vecchie . Commercialmente non puoi mettere una scheda top gamma che va meno della precedente anche se il rapporto prestazioni / consumo è il doppio della precedente serie. Alla fine la massa guarda se va di più o no.
Quindi per me al 99.99% la 980 sarà almeno un 10/15 % più veloce della 780ti. :)
Ed infatti andrà molto di piu', rispetto alla 670-680-760, ovvero il GK 104, questo è il GM204, il successore del GK104 non GK110.
Quando debutterà GM200 prenderà il posto delle 780 nella Top di gamma.
La 750TI in qualità di GM107 doppia quasi la GTX650 GK107 ma a sua volta viene battuta dalla GTX 650 TI boost(gk106), quindi la 750 non è un fallimento semplicemente ha ripreso GK107 ovvero la 650 non TI
Ad ottobre debutterà la GTX960(GM206) sostituto del GK106), quella ribalterà le prestazioni della 650 TI boost e 660 non TI(alias GK104);)
PaulGuru
02-09-2014, 22:12
TW3 rock solid a 60fps perché? Potrei capire fosse multy...
Perchè mi piace e sono esigente, se avessi voluto i accontentarmi mi compravo il playstation.
Sotto i 60fps ( anche 59 ) si perde la sincronizzazione e non è più perfettamente liscio.
PaulGuru
02-09-2014, 22:16
Ed infatti andrà molto di piu', rispetto alla 670-680-760, ovvero il GK 104, questo è il GM204, il successore del GK104 non GK110.
Quando debutterà GM200 prenderà il posto delle 780 nella Top di gamma.
La 750TI in qualità di GM107 doppia quasi la GTX650 GK107 ma a sua volta viene battuta dalla GTX 650 TI boost(gk106), quindi la 750 non è un fallimento semplicemente ha ripreso GK107 ovvero la 650 non TI
Infatti si chiama 750, non 750Ti.
mikael84
02-09-2014, 22:18
Infatti si chiama 750 e non 860
Che significa non ti capisco
Perchè mi piace e sono esigente, se avessi voluto i accontentarmi mi compravo il playstation.
Sotto i 60fps ( anche 59 ) si perde la sincronizzazione e non è più perfettamente liscio.
Credo ke i nuovi monitor con free sync \ g sync saranno una manna per i videogiocatori come te, hai considerato di prenderne uno?
PaulGuru
02-09-2014, 22:25
Credo ke i nuovi monitor con free sync \ g sync saranno una manna per i videogiocatori come te, hai considerato di prenderne uno?Il Gsync elimina il tearing, lo stuttering dovuto al vsync in caso di assenza di TB nel gioco e assieme ovviamente l'input lag extra dovuto al vsync stesso.
Ma non risolve il problema della sincronizzazione, anche a 59fps i fotogrammi non saranno visualizzati in modo equi-distribuiti ( 1fps ogni 1/59 di secondo ), e il risultato è confermato dai possessori, sotto i 60 non è più fluido, meglio dei monitor classici ma non risolve il problema.
cire92cry
02-09-2014, 22:26
Ed infatti andrà molto di piu', rispetto alla 670-680-760, ovvero il GK 104, questo è il GM204, il successore del GK104 non GK110.
Quando debutterà GM200 prenderà il posto delle 780 nella Top di gamma.
La 750TI in qualità di GM107 doppia quasi la GTX650 GK107 ma a sua volta viene battuta dalla GTX 650 TI boost(gk106), quindi la 750 non è un fallimento semplicemente ha ripreso GK107 ovvero la 650 non TI
Ad ottobre debutterà la GTX960(GM206) sostituto del GK106), quella ribalterà le prestazioni della 650 TI boost e 660 non TI(alias GK104);)
Non confondiamoci le idee .
Premesso che sappiamo tutti che il vero chip successore del GK110 sarà il GM210 o GM110 .. , però non è mai successo che una nuova serie andasse meno della precedente.
Come per la 680 non era il vero chip top gamma ma andava un po di più della 580 , poi nei mesi con i driver la 680 è migliorata tantissimo.
Non avrebbe senso come mossa far uscire una scheda chiamata GTX 980 che va meno della 780 ti è proprio insensato non so chi sarebbe in grado di pensare una cosa simile ^^.
PaulGuru
02-09-2014, 22:28
Non confondiamoci le idee .
Premesso che sappiamo tutti che il vero chip successore del GK110 sarà il GM210 o GM110 .. , però non è mai successo che una nuova serie andasse meno della precedente.
Come per la 680 non era il vero chip top gamma ma andava un po di più della 580 , poi nei mesi con i driver la 680 è migliorata tantissimo.
Non avrebbe senso come mossa far uscire una scheda chiamata GTX 980 che va meno della 780 ti è proprio insensato.
Infatti non andrà di meno, andrà penso poco di più, ma comunque il risultato sarà per forza di cose positivo e non negativo.
Chi pensa il contrario si illude.
fireradeon
02-09-2014, 22:28
Perchè mi piace e sono esigente, se avessi voluto i accontentarmi mi compravo il playstation.
Sotto i 60fps ( anche 59 ) si perde la sincronizzazione e non è più perfettamente liscio.
Vabbè anche io lo sono, infatti sto sempre con lo SLI fisso e sotto i 60 non scendo (scendevo visto che una l'ho venduta) mai. Solo che ho pensato di vendere una 780 perchè attualmente fino a inizio prossimo anno è inutile (almeno per me).
Vediamo come va questa 980 ma se sta veramente solo 10/15% in più resta dove sta, aspetto la prossima generazione.
cire92cry
02-09-2014, 22:32
Infatti non andrà di meno, andrà penso poco di più, ma comunque il risultato sarà per forza di cose positivo e non negativo.
Chi pensa il contrario si illude.
Si quello è chiaro sarà poco più veloce. Queste schede saranno a mio avviso le schede perfette per chi ora ha schede vecchie GTX 500 ecc.
mikael84
02-09-2014, 22:39
Non confondiamoci le idee .
Premesso che sappiamo tutti che il vero chip successore del GK110 sarà il GM210 o GM110 .. , però non è mai successo che una nuova serie andasse meno della precedente.
Come per la 680 non era il vero chip top gamma ma andava un po di più della 580 , poi nei mesi con i driver la 680 è migliorata tantissimo.
Non avrebbe senso come mossa far uscire una scheda chiamata GTX 980 che va meno della 780 ti è proprio insensato non so chi sarebbe in grado di pensare una cosa simile ^^.
Partiamo dal fatto che dati definitivi non ne abbiamo ancora, quindi è impossibile dire con esattezza il valore della GTX980, VGA che potrebbe andare pure meglio di una TI/Titan se incorpora 2560cuda oppure uguale o lievemente peggio per clock se come previsto avrà 1920cuda.
Con la 680 c'e'stato un cambio di PP che ha permesso l'aumento architetturale con SMX da 192 e il cambio di frequenza.
Con la 980 non abbiamo cambio PP ma stesso PP con architettura rivista.
Il bus a 256bit e le rops a 32 fanno ben pensare a chi mastica di VGA che si tratta di fascia media(chiamiamola la media dell'enthusiast)
La 680 operava a 1110 e le rops potevano effettuare calcoli come la 580 che ne integrava 48, la memoria pur operante a 256bit andava di pari passo con la 580 con bus a 384bit.
Tuttavia il cambio PP ha permesso alla 680 un raddoppio sulla potenza di calcolo grazie ai cuda aggiuntivi.
1570x 512cuda =1,6TF per la 580
1110 x1536 cuda= 3,4TF per la 680
Quindi con la frequenza ha pareggiato le rops e bus ma ha doppiato in virgola mobile, questo dovuto al cambio di PP da 40 a 28NM
Qua stiamo parlando di un'architettura che si basa piu'che altro sulla cache che permette una notevole efficienza.
Il rapporto di 3-2-2 con la 750 TI dovrebbe essere mantenuto cosi'come le frequenze di clock, di fato la versione finale dovrebbe essere 1920/32/256 contro i 2880/48/384bit.
Se ci pensi è un miracolo che una simile architettura possa andare quanto una GPU(kepler) con quasi il doppio dei requisiti tecnici e consumi ben più elevati
GM200 manterà bus e rops di GK110 con l'integrazione di una buona dose di cuda(magari doppia);)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.