View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
appleroof
27-12-2013, 23:39
Tornato dalle vacanze cosa trovo ad aspettarmi? I rumors dell' admin di Videocardz!!! :D.
Secondo Lui (con la L maiuscola, of course) la serie GTX700 non è ancora completa: la GTX790 con il dual GK110 uscirà a breve (?) per chiudere in grande stile la Kepler-generation. In seguito avremo il debutto della GTX800 family.
Bell'affare...se non la fanno, la gtx790, non credo qualcuno si strapperà i capelli.
Phenomenale
28-12-2013, 11:50
Beh certo, schede come una dual-GK110 da $1000 si fanno come dimostrazione di forza.
Sono schede da "vetrina" per far vedere che Nvidia c'è l'ha più :sofico: di AMD...
PS. comunque sono solo i soliti rumors di WhyCry by Videocardz
<Masquerade>
29-12-2013, 13:32
Tornato dalle vacanze cosa trovo ad aspettarmi? I rumors dell' admin di Videocardz!!! :D.
Secondo Lui (con la L maiuscola, of course) la serie GTX700 non è ancora completa: la GTX790 con il dual GK110 uscirà a breve (?) per chiudere in grande stile la Kepler-generation. In seguito avremo il debutto della GTX800 family.
se per qualche magia fosse realizzabile,
se la lanciano con un boost bassissimo, che sia almeno una 2880core x2.
Phenomenale
03-01-2014, 14:18
che sia almeno una 2880core x2
Nisba, gli ultimi rumors di WhyCry la danno come 2x2496 cuda core, sono 2 SMX disabilitati a chip GK110. Qualcosa devono pur segare per rientrare in un TDP umano...
A proposito di Maxwell :D sembra che al CES 2014 di Las Vegas Nvidia alzerà il sipario sulle '800 (solo una presentazione cartacea), confermato il debutto a 28nm con una scheda di fascia media (GTX860? 870?) non in grado di superare la 780TI, il "top" che arriverà a febbraio dovrebbe essere la già gitata dual GTX790; Maxwell a 20nm arriverà, ma più avanti in una seconda tornata di schede.
Se questi rumors fossero veri confermerebbero la bontà e la longevità dell' investimento in una sfavillante 780TI :D e pensare che in altri topic c'è pure chi la sconsiglia chiamandola vecchia di due anni (il GK110 step A1 avrà 1 anno, il B1 qualche mese) :nonsifa:
Io resto in attesa sul mercato... per ora con una 780 liscia gioco a tutto, nel corso dell'anno prevedo un upgrade (non day-one prezzi-pompati) che sarà più per la scimmia che reale necessità... ma l'importante è divertirsi: ed anche nel 2014 ce ne sarà parecchio IMHO :boxe:
Videocardz http://videocardz.com/48610/nvidia-maxwell-details-revealed-ces-2014
mikael84
03-01-2014, 14:26
Nisba, gli ultimi rumors di WhyCry la danno come 2x2496 cuda core, sono 2 SMX disabilitati a chip GK110. Qualcosa devono pur segare per rientrare in un TDP umano...
A proposito di Maxwell :D sembra che al CES 2014 di Las Vegas Nvidia alzerà il sipario sulle '800 (solo una presentazione cartacea), confermato il debutto a 28nm con una scheda di fascia media (GTX860? 870?) non in grado di superare la 780TI, il "top" che arriverà a febbraio dovrebbe essere la già gitata dual GTX790; Maxwell a 20nm arriverà, ma più avanti in una seconda tornata di schede.
Se questi rumors fossero veri confermerebbero la bontà e la longevità dell' investimento in una sfavillante 780TI :D e pensare che in altri topic c'è pure chi la sconsiglia chiamandola vecchia di due anni (il GK110 step A1 avrà 1 anno, il B1 qualche mese) :nonsifa:
Io resto in attesa sul mercato... per ora con una 780 liscia gioco a tutto, nel corso dell'anno prevedo un upgrade (non day-one prezzi-pompati) che sarà più per la scimmia che reale necessità... ma l'importante è divertirsi: ed anche nel 2014 ce ne sarà parecchio IMHO :boxe:
Videocardz http://www.tecnocino.it/2014/01/articolo/ces-2014-las-vegas-le-novita-e-le-aspettative/45191/
Non e'che le prossime top saranno direttamente le gtx 980 20nm? Io almeno non credo in un'altra Top 28nm che non sia una dual.
Secondo me e'improbabile una versione con 3 o 4 smx aggiuntivi attualmente
I 20nm NON sono pronti :O per nessuno.....
Phenomenale
03-01-2014, 15:42
Non e'che le prossime top saranno direttamente le gtx 980 20nm?
Secondo i rumors di Videocardz, si: hai ragione. :)
La settimana prossima c'è questo benedetto CES 2014 :asd: sapremo tutto ( o quasi)...
illidan2000
03-01-2014, 15:55
I 20nm NON sono pronti :O per nessuno.....
non penso manchi molto però...
mikael84
03-01-2014, 17:08
I 20nm NON sono pronti :O per nessuno.....
Aspettiamo dai, godiamoci ancora queste schede:)
Secondo i rumors di Videocardz, si: hai ragione. :)
La settimana prossima c'è questo benedetto CES 2014 :asd: sapremo tutto ( o quasi)...
Io sinceramente preferisco aspettare ancora ma avere una architettura nuova o almeno ben piu'prestante...stiamo a vedere:)
appleroof
03-01-2014, 22:18
Nisba, gli ultimi rumors di WhyCry la danno come 2x2496 cuda core, sono 2 SMX disabilitati a chip GK110. Qualcosa devono pur segare per rientrare in un TDP umano...
A proposito di Maxwell :D sembra che al CES 2014 di Las Vegas Nvidia alzerà il sipario sulle '800 (solo una presentazione cartacea), confermato il debutto a 28nm con una scheda di fascia media (GTX860? 870?) non in grado di superare la 780TI, il "top" che arriverà a febbraio dovrebbe essere la già gitata dual GTX790; Maxwell a 20nm arriverà, ma più avanti in una seconda tornata di schede.
Se questi rumors fossero veri confermerebbero la bontà e la longevità dell' investimento in una sfavillante 780TI :D e pensare che in altri topic c'è pure chi la sconsiglia chiamandola vecchia di due anni (il GK110 step A1 avrà 1 anno, il B1 qualche mese) :nonsifa:
Io resto in attesa sul mercato... per ora con una 780 liscia gioco a tutto, nel corso dell'anno prevedo un upgrade (non day-one prezzi-pompati) che sarà più per la scimmia che reale necessità... ma l'importante è divertirsi: ed anche nel 2014 ce ne sarà parecchio IMHO :boxe:
Videocardz http://videocardz.com/48610/nvidia-maxwell-details-revealed-ces-2014
Non vedevo il senso di una gtx790 già prima, alla luce di questi rumors ne vedo ancora meno: se fai un "gm104" che non và come un gk110 full ma -sennò che senso avrebbe- più di un gk104, allora per farti la top in attesa dei 20nm usa 2 x gm104, chip nuovi con tutte le migliorie del caso e vga che comunque và meglio della 780ti, insomma una riedizione della situazione gtx680/gtx690 in attesa del chippone delle meraviglie questa volta a 20nm.....Mah, vedremo.
killeragosta90
04-01-2014, 22:31
GTX 780M – Rebrand con 8GB di memoria (http://pc-gaming.it/gtx-780m-rebrand-con-8gb-di-memoria/)
Certo che su un portatile (ma anche sul fisso, eh...) fa comodo avere 8 GIGGGGA di memoria, così si può giocare bene a calll of duttty :O Con 8 GIGGGGGA di memoria non ci si dimentica degli avversari che ci hanno appena killllll@to :O
GTX 780M – Rebrand con 8GB di memoria (http://pc-gaming.it/gtx-780m-rebrand-con-8gb-di-memoria/)
Certo che su un portatile (ma anche sul fisso, eh...) fa comodo avere 8 GIGGGGA di memoria, così si può giocare bene a calll of duttty :O Con 8 GIGGGGGA di memoria non ci si dimentica degli avversari che ci hanno appena killllll@to :OChe io sappia hanno 4GB, anche perchè sono sul mercato da un pezzo.
Le 680m sono delle gtx670 downcloccate, queste sono delle gtx680 downcloccate.
killeragosta90
04-01-2014, 23:03
Che io sappia hanno 4GB, anche perchè sono sul mercato da un pezzo.
Le 680m sono delle gtx670 downcloccate, queste sono delle gtx680 downcloccate.
Non hai aperto la news?
http://imageshack.com/a/img34/886/d5gq.jpg
Comunque credo abbiano sbagliato titolo :wtf: In realtà si parla di 880M...
Non hai aperto la news?
http://imageshack.com/a/img34/886/d5gq.jpg
Comunque credo abbiano sbagliato titolo :wtf: In realtà si parla di 880M...L'ho letta, non ho aperto l'immagine.
La news da come è scritta merita il premio per l'epic fail, visto che parlano proprio di 780m, successore della 680m :asd:
killeragosta90
05-01-2014, 10:05
L'ho letta, non ho aperto l'immagine.
La news da come è scritta merita il premio per l'epic fail, visto che parlano proprio di 780m, successore della 680m :asd:
Si in effetti ora lo segnalo ai moderatori del sito, non ha molto senso :D Ok che può sfuggire un errore, ma quella news è tutta sbagliata, per lo meno gli screen sono interessanti :)
Comunque assurdo il voler adottare 8Gb di Vram per questi rebranding, come al solito non ha senso, soprattutto su dei portatili (limitati al 95% dei casi al FullHD) e senza poter usufruire del lato GPGPU, dato che come tutti sanno le Kepler in questo campo sono castrate. Tutto marketing per i "bimbi" convinti che more GIGGGGGA si traduca in more POWWWWER.
<Masquerade>
05-01-2014, 10:06
GTX 790 5GB:
◾CUDA Cores: 2496 (x2)
◾Memoria: 5Gb GDDR5 (x2)
◾Bus: 320bit (x2)
◾Nucleo: GK110 (x2 presumo step B1)
ha le spec come il tesla K20:
http://www.tomshw.it/cont/news/nvidia-tesla-k20-e-k20x-sprigionano-la-potenza-di-gk110/41008/1.html#.UskuE2d3uHs
dicono esce a febbraio:
http://wccftech.com/details-nvidia-geforce-gtx-790-finally-surface-4992-cuda-cores-10-gb-memory-5/
<Masquerade>
05-01-2014, 10:08
PedantOne:
"yes, it is true, dual card with 2x 5GB for core (riferito al 790GTX)
ps. First Maxwell desktop cards will be GeForce GTX 850 and 860 (Ti) successor of GTX 650 and 660"
ps. First Maxwell desktop cards will be GeForce GTX 850 and 860 (Ti) successor of GTX 650 and 660"
Ok possiamo tornare ad aspettare allora...
<Masquerade>
05-01-2014, 10:24
in pratica uscirebbe la dual nel periodo che uscì la Titan.
sarà la soluzione più veloce di nvidia per alcuni mesi (come lo fu la Titan)
poi penso che dopo l'estate / verso fine anno arriva il maxwell che sostituirà la 780 Ti, come nuova top singola gpu (un 104 penso)
mentre magari il Maxwell bove uscirà durante la prima metà del 2015, come serie 900 , con un modello costosissimo e potentissimo.
Cmq se risulterà abbastanza veloce, più ottimizzato ecc, anche un paio di Maxwell GTX860Ti (se è vero che escono presto) da metter in SLI potrebbero essere una buona soluzione.
<Masquerade>
05-01-2014, 10:31
x la 790 che clock pensate voi?
sarà una classica GK110 che boosta max sui 1000mhz, con magari memorie @ 7Ghz (che compenserebbero il bus leggermente + piccolo rispetto ad un 780, Titan e 780ti) ???
oppure sarà peggio di così come frequenze?
qualcosa di più conservativo?
killeragosta90
05-01-2014, 10:35
GTX 790 5GB:
◾CUDA Cores: 2496 (x2)
◾Memoria: 5Gb GDDR5 (x2)
◾Bus: 320bit (x2)
◾Nucleo: GK110 (x2 presumo step B1)
ha le spec come il tesla K20:
http://www.tomshw.it/cont/news/nvidia-tesla-k20-e-k20x-sprigionano-la-potenza-di-gk110/41008/1.html#.UskuE2d3uHs
dicono esce a febbraio:
http://wccftech.com/details-nvidia-geforce-gtx-790-finally-surface-4992-cuda-cores-10-gb-memory-5/
Devo essere sincero che questa scheda mi incuriosisce molto....NON per un futuro acquisto, ma per semplice curiosità su quello che sarà lo sviluppo e la realizzazione...
P.S. Il futuro vulcano di AMD che fine ha fatto? :stordita:
<Masquerade>
05-01-2014, 10:58
Devo essere sincero che questa scheda mi incuriosisce molto....NON per un futuro acquisto, ma per semplice curiosità su quello che sarà lo sviluppo e la realizzazione...
P.S. Il futuro vulcano di AMD che fine ha fatto? :stordita:
la penso come te: non mi interessa acquistarla, farei prima a metter la seconda 780, ma cmq sono curioso di vede quello che esce fuori dalla 790, se c'è per davvero.
cmq se i rumors son veri è praticamente imminente.
quindi, se uscisse a febbraio davvero, già durante questo mese dovrebbe saltar fuori qualche immagine di questa dual.
scorpion73
05-01-2014, 11:28
News trovata su internet sulla prossima GTX 860Ti. Sarà vero? Se è così beh... mi pare un po' esagerato onestamente... a voi per le opinioni...
http://www.game-debate.com/hardware/?gid=1989&graphics=GeForce%20GTX%20860%20Ti
mikael84
05-01-2014, 11:42
GTX 790 5GB:
◾CUDA Cores: 2496 (x2)
◾Memoria: 5Gb GDDR5 (x2)
◾Bus: 320bit (x2)
◾Nucleo: GK110 (x2 presumo step B1)
ha le spec come il tesla K20:
http://www.tomshw.it/cont/news/nvidia-tesla-k20-e-k20x-sprigionano-la-potenza-di-gk110/41008/1.html#.UskuE2d3uHs
dicono esce a febbraio:
http://wccftech.com/details-nvidia-geforce-gtx-790-finally-surface-4992-cuda-cores-10-gb-memory-5/
Sarei curioso di vederla ma per come la vedo io, con le 780 a 400 euro sara'ben poco conveniente.
Discutibile il bus, potevano lasciare benissimo l'attuale, tanto per quello che costera' magari avrei decurtato un SMX e fatto direttamente una 780dual:)
Un chip del genere secondo me avra'un boost stile Titan
cire92cry
05-01-2014, 14:10
News trovata su internet sulla prossima GTX 860Ti. Sarà vero? Se è così beh... mi pare un po' esagerato onestamente... a voi per le opinioni...
http://www.game-debate.com/hardware/?gid=1989&graphics=GeForce%20GTX%20860%20Ti
2 gb di vram e bus di 320? E' un po strano
<Masquerade>
05-01-2014, 14:13
2 gb di vram e bus di 320? E' un po strano
e dovrebbe avere 40ROPs non 32.
quello è FAKE.
cire92cry
05-01-2014, 15:09
e dovrebbe avere 40ROPs non 32.
quello è FAKE.
A si pure quello XD
scorpion73
05-01-2014, 19:12
in realtà quella news sta su più di un sito.
Però sa di fake pure a me... anche perché 2GB su una VGA di nuova generazione mi sembrano pochi anche per la fascia media
athlon xp 2400
05-01-2014, 19:47
GTX 790 5GB:
◾CUDA Cores: 2496 (x2)
◾Memoria: 5Gb GDDR5 (x2)
◾Bus: 320bit (x2)
◾Nucleo: GK110 (x2 presumo step B1)
ha le spec come il tesla K20:
http://www.tomshw.it/cont/news/nvidia-tesla-k20-e-k20x-sprigionano-la-potenza-di-gk110/41008/1.html#.UskuE2d3uHs
dicono esce a febbraio:
http://wccftech.com/details-nvidia-geforce-gtx-790-finally-surface-4992-cuda-cores-10-gb-memory-5/
costo previsto? 1500?:sofico:
<Masquerade>
05-01-2014, 20:28
costo previsto? 1500?:sofico:
tra i 700 , 900€ penso.
Devourer88
06-01-2014, 13:58
tra i 700 , 900€ penso.
Dal costo si saprà se avrà successo
Si in effetti ora lo segnalo ai moderatori del sito, non ha molto senso :D Ok che può sfuggire un errore, ma quella news è tutta sbagliata, per lo meno gli screen sono interessanti :)
Comunque assurdo il voler adottare 8Gb di Vram per questi rebranding, come al solito non ha senso, soprattutto su dei portatili (limitati al 95% dei casi al FullHD) e senza poter usufruire del lato GPGPU, dato che come tutti sanno le Kepler in questo campo sono castrate. Tutto marketing per i "bimbi" convinti che more GIGGGGGA si traduca in more POWWWWER.Infatti. Che poi il divario con le mie 680m@1000/2400 da 2GB è praticamente ZERO. :asd:
Mentre uno sli di 780/880 non si può occare a causa dell'alimentatore da 330W che arriva al massimo.
Phenomenale
08-01-2014, 16:14
Nvidia ha tirato il colpo basso, è uscito l'annuncio che nessuno si aspettava!!! :yeah:
780TI 6Gb VRAM
http://wccftech.com/nvidia-preparing-gtx-780-ti-6gb-edition/
780TI 6Gb VRAM
Bastano 2GB :O :stordita:
<Masquerade>
08-01-2014, 17:23
Nvidia ha tirato il colpo basso, è uscito l'annuncio che nessuno si aspettava!!! :yeah:
780TI 6Gb VRAM
http://wccftech.com/nvidia-preparing-gtx-780-ti-6gb-edition/
ora stai a vedere che alcuni che hanno le 780ti 3GB, passeranno a questo modello + costoso (ed inutile aggiungo, per i discorsi fatti ieri nel 3D delle GTX) :rotfl:
spero che cmq con l'introduzione di questa scheda,magari abbassino il prezzo della TI da 3GB
ora stai a vedere che alcuni che hanno le 780ti 3GB, passeranno a questo modello + costoso (ed inutile aggiungo, per i discorsi fatti ieri nel 3D delle GTX) :rotfl:
spero che cmq con l'introduzione di questa scheda,magari abbassino il prezzo della TI da 3GB
in entramabi i casi, lo spero vivamente :angel:
<Masquerade>
08-01-2014, 18:31
http://techreport.com/news/25878/nvidia-responds-to-amd-free-sync-demo
<Masquerade>
08-01-2014, 18:32
in entramabi i casi, lo spero vivamente :angel:
:asd:
mikael84
08-01-2014, 21:04
ora stai a vedere che alcuni che hanno le 780ti 3GB, passeranno a questo modello + costoso (ed inutile aggiungo, per i discorsi fatti ieri nel 3D delle GTX) :rotfl:
spero che cmq con l'introduzione di questa scheda,magari abbassino il prezzo della TI da 3GB
Oltre a questo, spesso i modelli con ram molto elevata hanno latenze mediamente superiori:)
AceGranger
08-01-2014, 21:45
http://techreport.com/news/25878/nvidia-responds-to-amd-free-sync-demo
ed ecco spiegato perchè hanno usato un notebook per fare un test spiccatamente indirizzato ai monitor desktop ed ai gamer :asd:
una di quelle occasioni dove stare zitti avrebbe fatto sicuramente bene; sono sempre piu convinto che in AMD abbiano la "divisione sputt@namento"
MrBrillio
09-01-2014, 10:20
una di quelle occasioni dove stare zitti avrebbe fatto sicuramente bene; sono sempre piu convinto che in AMD abbiano la "divisione sputt@namento"
Boh io aspetterei ad arrivare a conclusioni così affrettate...non credo che in AMD tirino fuori qualcosa del genere non avendo basi fondate. Credo siano consapevoli che fare affermazioni del genere è come screditare il lavoro di NVidia. L'ideale sarebbe uno standard per qualsiasi VGA a prescindere dalla marca, ma tanto non sarà mai così :muro:
Il funzionamento del G-sync è davvero interessante e potrebbe essere davvero uno dei motivi per le scelte delle prossime schede video (almeno da parte mia).
La strada di AMD è quella di usare "cose che già ci sono senza dover ricreare la ruota ogni volta" quello di nvidia è "la mia ruota è questa comprala". Se poi non ci siano monitor che potrebbero trarne beneficio OGGI dal freesync la soluzione rimane per entrambi i casi o di prendere un g-sync per il proprio monitor "vecchio" o cambiarlo con uno nuovo già predisposto per l'utilizzo dinamico del vblank (strada AMD).
Comunque sia si dovrà spendere :asd: ma l'approccio AMD costerà meno all'utente finale ...... quello che è vero nel ragionamento del tizio che comunque sia spingeremo l'industria dei monitor a prendersi carico del "problema"....poi avremo comunque giochi che dropperanno a 25fps con gtx880\r10 ma quello è un altro discorso :asd:
La strada di AMD è quella di usare "cose che già ci sono senza dover ricreare la ruota ogni volta" quello di nvidia è "la mia ruota è questa comprala". Se poi non ci siano monitor che potrebbero trarne beneficio OGGI dal freesync la soluzione rimane per entrambi i casi o di prendere un g-sync per il proprio monitor "vecchio" o cambiarlo con uno nuovo già predisposto per l'utilizzo dinamico del vblank (strada AMD).
Comunque sia si dovrà spendere :asd: ma l'approccio AMD costerà meno all'utente finale ...... quello che è vero nel ragionamento del tizio che comunque sia spingeremo l'industria dei monitor a prendersi carico del "problema"....poi avremo comunque giochi che dropperanno a 25fps con gtx880\r10 ma quello è un altro discorso :asd:Però 25fps freesync/gsync saranno MOLTO meglio dei 25 fps convenzionali ;)
appleroof
09-01-2014, 17:58
http://techreport.com/news/25878/nvidia-responds-to-amd-free-sync-demo
molto interessante, certo che techreport è la bestia nera per Amd, immagino la faccia dei suoi dirigenti quando ne leggono gli articoli:
http://i.imgur.com/Mo0Iqltl.jpg (http://imgur.com/Mo0Iqlt)
:D
La strada di AMD è quella di usare "cose che già ci sono senza dover ricreare la ruota ogni volta" quello di nvidia è "la mia ruota è questa comprala". cut
già, peccato per mantle...
più in generale forse non hanno la forza economica o la voglia di spendere troppo o verso determinate strade in R&S? Tra l'altro normalmente se spendi molto in R&S poi ti aspetti di ritornare in guadagni, lavorare per la gloria andrebbe pure bene, ma le aziende poi in genere perseguono lo scopo di lucro.
Però 25fps freesync/gsync saranno MOLTO meglio dei 25 fps convenzionali ;)
:mano:
già, peccato per mantle...
più in generale forse non hanno la forza economica o la voglia di spendere troppo o verso determinate strade in R&S? Tra l'altro normalmente se spendi molto in R&S poi ti aspetti di ritornare in guadagni, lavorare per la gloria andrebbe pure bene, ma le aziende poi in genere perseguono lo scopo di lucro.
Mantle viene dalle console e dall'esigenza di spostare i carichi dei videogame in favore delle gpu e non delle cpu.......vorrà dire qualcosa se secondo loro un 8350 a 2ghz rende lo stesso di un 4770 su BF4 :stordita:
Poi oh, vi auguro di comprare un 4k gsync a 300€ :asd:
Mantle viene dalle console e dall'esigenza di spostare i carichi dei videogame in favore delle gpu e non delle cpu.......vorrà dire qualcosa se secondo loro un 8350 a 2ghz rende lo stesso di un 4770 su BF4 :stordita:
Poi oh, vi auguro di comprare un 4k gsync a 300 :asd:
Hai intrapreso davvero una brutta strada...
...
...
Vieni da me cucciolotto!!!!!! @@
Sent from DingDingDong (by Gunther) using my Tralala!
Sì ma tutto questo cosa centra con le future Nvidia? Sempre i soliti poi.
Phenomenale
10-01-2014, 09:24
Mantle viene dalle console
Nessuna console è basata su Mantle, confermato ufficialmente da Sony e Microsoft e dal fatto che le nuove console esistono già, Mantle non ancora.
Che Mantle fosse un API nativa delle nuove console era una millanteria della prima presentazione fatta alle Hawaii, dove si cercava di sottointendere, falsamente, che Mantle fossero le API di PS4 & XB1 portate "nativamente" sul PC, tutto falso e smentito ufficiamente dagli interessati. :doh:
Sì ma tutto questo cosa centra con le future Nvidia? Sempre i soliti poi.Non c'entra nulla, e sono sempre i soliti castori...
AceGranger
10-01-2014, 09:31
Boh io aspetterei ad arrivare a conclusioni così affrettate...non credo che in AMD tirino fuori qualcosa del genere non avendo basi fondate. Credo siano consapevoli che fare affermazioni del genere è come screditare il lavoro di NVidia. L'ideale sarebbe uno standard per qualsiasi VGA a prescindere dalla marca, ma tanto non sarà mai così :muro:
Il funzionamento del G-sync è davvero interessante e potrebbe essere davvero uno dei motivi per le scelte delle prossime schede video (almeno da parte mia).
AMD ha presentato il VBLANK come se fosse disponibile ovunque e invece è possibile farlo solo sui notebook perchè la VGA è collegata direttamente al monitor; lato desktop è impossibile perchè non esistono chip scaler che permettono di farlo, motivo per il quale lo hanno mostrato su un notebook e non su un monitor desktop, cioè... non esiste nemmeno un prototipo e non si sono nemmeno sbattuti a farlo...
La strada di AMD è quella di usare "cose che già ci sono senza dover ricreare la ruota ogni volta" quello di nvidia è "la mia ruota è questa comprala". Se poi non ci siano monitor che potrebbero trarne beneficio OGGI dal freesync la soluzione rimane per entrambi i casi o di prendere un g-sync per il proprio monitor "vecchio" o cambiarlo con uno nuovo già predisposto per l'utilizzo dinamico del vblank (strada AMD).
l'approccio di AMD è "lo faccio fare agli altri", perchè secondo il suo ragionamento tutti i produttori di monitor dovrebbero mettersi intorno al tavolo accordarsi e svilupparsi da soli i chip scaler che permettano di utilizzare il VBLANK.
nVidia ha preferito sbattersi in proprio, offrire ai produttori una componente fatta, finita e pubblicizzata e arrivare in tempi stretti ad un prodotto commerciale.
Il VBLANK c'è da tantissimo tempo e AMD si sveglia solo oggi :fagiano: ? il risultato è con AMD non avevi nulla ieri, non hai nulla oggi e non sai nemmeno se lo avrai domani, con nVidia hai un prodotto finito e acquistabile oggi.
Comunque sia si dovrà spendere :asd: ma l'approccio AMD costerà meno all'utente finale ...... quello che è vero nel ragionamento del tizio che comunque sia spingeremo l'industria dei monitor a prendersi carico del "problema"....poi avremo comunque giochi che dropperanno a 25fps con gtx880\r10 ma quello è un altro discorso :asd:
i nuovi chip scaler li dovresti pagare come paghi il G-Sync, e non è certo scontato che lo mettano in tutti i monitor ma solo sui top gamma, quindi la differenza potrebbe essere minima se non nulla.
Foglia Morta
10-01-2014, 09:52
ed ecco spiegato perchè hanno usato un notebook per fare un test spiccatamente indirizzato ai monitor desktop ed ai gamer :asd:
una di quelle occasioni dove stare zitti avrebbe fatto sicuramente bene; sono sempre piu convinto che in AMD abbiano la "divisione sputt@namento"
Faresti meglio a informarti meglio prima di parlare... Petersen è male informato , in commercio esistono già monitor con il nuovo scaler ma per supportare il VBLANK è necessario un update software dopo che sarà ratificato lo standard DP 1.3 .
Nessuna console è basata su Mantle, confermato ufficialmente da Sony e Microsoft e dal fatto che le nuove console esistono già, Mantle non ancora.
Che Mantle fosse un API nativa delle nuove console era una millanteria della prima presentazione fatta alle Hawaii, dove si cercava di sottointendere, falsamente, che Mantle fossero le API di PS4 & XB1 portate "nativamente" sul PC, tutto falso e smentito ufficiamente dagli interessati. :doh:
Non c'entra nulla, e sono sempre i soliti castori...
Te l' avevo già spiegato nel thread "aspettando le nuove AMD .... " , a quei tempi si poteva perdonare la tua ignoranza ma ora si tratta di malafede di un fanboy ( o un hater ) visto che persisti. Te lo rispiego: l' ipotesi che Mantle fosse l' API delle console ( quella di X1 ) era una ipotesi di AnandTech , nella sua presentazione AMD non l' ha né detto né fatto credere.
AMD ha presentato il VBLANK come se fosse disponibile ovunque e invece è possibile farlo solo sui notebook perchè la VGA è collegata direttamente al monitor; lato desktop è impossibile perchè non esistono chip scaler che permettono di farlo, motivo per il quale lo hanno mostrato su un notebook e non su un monitor desktop, cioè... non esiste nemmeno un prototipo e non si sono nemmeno sbattuti a farlo...
Ti ripeto che sei male informato... il chip scaler esiste già ed è presente su alcuni monitor in commercio
http://forum.beyond3d.com/showpost.php?p=1819648&postcount=66
http://forum.beyond3d.com/showpost.php?p=1819673&postcount=69
stai sereno che quel tizio è molto meglio informato di te... puoi fidarti
l'approccio di AMD è "lo faccio fare agli altri", perchè secondo il suo ragionamento tutti i produttori di monitor dovrebbero mettersi intorno al tavolo accordarsi e svilupparsi da soli i chip scaler che permettano di utilizzare il VBLANK.
nVidia ha preferito sbattersi in proprio, offrire ai produttori una componente fatta, finita e pubblicizzata e arrivare in tempi stretti ad un prodotto commerciale.
Il VBLANK c'è da tantissimo tempo e AMD si sveglia solo oggi :fagiano: ? il risultato è con AMD non avevi nulla ieri, non hai nulla oggi e non sai nemmeno se lo avrai domani, con nVidia hai un prodotto finito e acquistabile oggi.
L' approccio AMD è quello di seguire il consorzio che da una vita detta le regole in quel campo. L' aggiornamento verrà ratificato nei prossimi 2 o 3 mesi e successivamente i produttori di monitor potranno mettere a disposzione la feature senza alcuna tassa nVidia.
i nuovi chip scaler li dovresti pagare come paghi il G-Sync, e non è certo scontato che lo mettano in tutti i monitor ma solo sui top gamma, quindi la differenza potrebbe essere minima se non nulla.
Con G-Synk paghi inoltre un ASIC ( o fpga , quel che sarà ) e 3 moduli di memoria 120 dollari il tutto per qualche mese di vantaggio, quindi è una tua personale religione quella del credere che i costi siano comparabili.
Heimdallr
10-01-2014, 11:22
domanda stupida, ma c'è speranza di vedere le schede a 20nm per giugno 2014 o si parla ormai di autunno?
domanda stupida, ma c'è speranza di vedere le schede a 20nm per giugno 2014 o si parla ormai di autunno?
Bhe a quanto pare usciranno prima i modelli non top, quindi presumo che quelle veramente interessanti tarderanno qualche mese.
Heimdallr
10-01-2014, 11:30
Bhe a quanto pare usciranno prima i modelli non top, quindi presumo che quelle veramente interessanti tarderanno qualche mese.
si ho visto che a breve usciranno anche le soluzioni mobile, sono molto tentato di fare uno sli ma non se se nei prossimi 4-5 mesi escono le nuove schede a 20nm.
i nuovi chip scaler li dovresti pagare come paghi il G-Sync, e non è certo scontato che lo mettano in tutti i monitor ma solo sui top gamma, quindi la differenza potrebbe essere minima se non nulla.
Quindi g-sync è un nuovo scaler diciamo, o un interfaccia agli scaler esistenti? non ho capito.....e ci credo poco che nVidia non guadagni su un qualcosa sul quale ha sviluppato, speso tempo e soldi....costeranno di più rispetto agli scaler dei produttori, è innegabile....poi oh certo, stiamo parlando probabilmente del 5% dei monitor pc.....gli alienware di Dell aspettano solo che AMD lasci il freesync invece :D
AceGranger
10-01-2014, 14:22
Quindi g-sync è un nuovo scaler diciamo, o un interfaccia agli scaler esistenti? non ho capito.....e ci credo poco che nVidia non guadagni su un qualcosa sul quale ha sviluppato, speso tempo e soldi....costeranno di più rispetto agli scaler dei produttori, è innegabile....poi oh certo, stiamo parlando probabilmente del 5% dei monitor pc.....gli alienware di Dell aspettano solo che AMD lasci il freesync invece :D
non ne ho idea, se usciranno vedremo quanto costeranno :) ed eventualmente quanto tagliera il prezzo nVidia; finche non c'è concorrenza nVidia puo fare quello che vuole.
si ho visto che a breve usciranno anche le soluzioni mobile, sono molto tentato di fare uno sli ma non se se nei prossimi 4-5 mesi escono le nuove schede a 20nm.
Ma le soluzioni mobile sono rebrand delle 28 nm, sicuramente qualcosa uscirà ma si tratterà di soluzioni di fascia media, comunque molto competitive, un po' come successo con Kepler, ma forse non ancora giuste per il 4k (tutte le schede attuali a 4k stentano).
appleroof
10-01-2014, 14:43
Ma le soluzioni mobile sono rebrand delle 28 nm, sicuramente qualcosa uscirà ma si tratterà di soluzioni di fascia media, comunque molto competitive, un po' come successo con Kepler, ma forse non ancora giuste per il 4k (tutte le schede attuali a 4k stentano).
faccio fatica a pensare che le prossime possano riuscire ad offrire le performance che una 780ti o una 290x offrono oggi in fullhd...però ricordo che la 8800gtx in proporzione offriva prestazioni eccellenti nella poco diffusa e stratosferica (per allora) risoluzione fullhd, quando ha debuttato, mah..spero ovviamente di sbagliarmi perchè vorrei regalrmi un monitor 4k nei prossimi mesi...
<Masquerade>
10-01-2014, 15:24
mah..spero ovviamente di sbagliarmi perchè vorrei regalrmi un monitor 4k nei prossimi mesi...
c'è pure il 21:9 da 3440x1440
e quella è una soluzione con circa il 35% di pixel in + di un 2560x1440.
con una prox GTX880 ci giocheresti come si gioca oggi con una GTX 780ti a 2560x1440
;)
faccio fatica a pensare che le prossime possano riuscire ad offrire le performance che una 780ti o una 290x offrono oggi in fullhd...però ricordo che la 8800gtx in proporzione offriva prestazioni eccellenti nella poco diffusa e stratosferica (per allora) risoluzione fullhd, quando ha debuttato, mah..spero ovviamente di sbagliarmi perchè vorrei regalrmi un monitor 4k nei prossimi mesi...
Considerando che i filtri a quella risoluzione sono inutili, io sono abbastanza fiducioso.
appleroof
10-01-2014, 16:04
c'è pure il 21:9 da 3440x1440
e quella è una soluzione con circa il 35% di pixel in + di un 2560x1440.
con una prox GTX880 ci giocheresti come si gioca oggi con una GTX 780ti a 2560x1440
;)
eh io li seguo perchè la soluzione wide ultimamente mi attira (poi magari tra un mese ricambio) ma il paragone che facevo imho regge comunque: a parte che non è che cambio monitor come cambio vga (ancora, per fortuna :D ) la 88gtx la presi quasi contemporaneamente ad un Dell s-pva 27" 1920x1200, il massimo dell'epoca...poi ripeto, si vedrà :boh:
Considerando che i filtri a quella risoluzione sono inutili, io sono abbastanza fiducioso.
mah, dalle mie prove di DS pesa più la sola risoluzione uhd senza AA che un fullhd infarcito di filtri...è un test molto casereccio (anche perchè in DS i pixel effettivi sono meno che 3840×2160) ma dà un'idea credo :fagiano:
cmq anche qui, vediamo...il problema per quanto mi riguarda sarà resistere a prendere il monitor prima che escano vga capaci di pilotarlo per bene :doh: :D
<Masquerade>
10-01-2014, 16:10
mah, dalle mie prove di DS pesa più la sola risoluzione uhd senza AA che un fullhd infarcito di filtri...è un test molto casereccio (anche perchè in DS i pixel effettivi sono meno che 3840×2160) ma dà un'idea credo :fagiano:
se te giochi in downsampling @UHD il peso prestazionale è il medesimo di un UHD vero.
appleroof
10-01-2014, 16:20
se te giochi in downsampling @UHD il peso prestazionale è il medesimo di un UHD vero.
cioè anche se non metti 3820x2160 qui?:
http://i.imgur.com/NGhRqNZ.jpg (http://imgur.com/NGhRqNZ)
C'è sempre il ROG con g-sync non 4k ma a 120 hz che un mio amico vuol prendere in attesa di hw adeguato per il 4k 120 fps LOL
Il problema è GPU prima ma poi anche quale 4K???
Il PB287Q 800 dollari 60 hz... TN non IPS, poi c'è Lenovo e Dell di cui uno dei due ci scommetto sarà 30 hz..
Obrigado
10-01-2014, 16:22
cioè anche se non metti 3820x2160 qui?:
http://i.imgur.com/NGhRqNZ.jpg (http://imgur.com/NGhRqNZ)
il vero ds va fatto con i pixel totali identici ai pixel voluti nella modalita' di visualizzazione!
quello con meno pixel totali e' un fake....
<Masquerade>
10-01-2014, 16:24
cioè anche se non metti 3820x2160 qui?:
[URL=http://imgur.com/NGhRqNZ][IMG]http://i.imgur.com/NGhRqNZ.
esatto apple.
il peso per la gpu è identico alla vera risoluzione di 3840x.
appleroof
10-01-2014, 16:29
C'è sempre il ROG con g-sync non 4k ma a 120 hz che un mio amico vuol prendere in attesa di hw adeguato per il 4k 120 fps LOL
Il problema è GPU prima ma poi anche quale 4K???
Il PB287Q 800 dollari 60 hz... TN non IPS, poi c'è Lenovo e Dell di cui uno dei due ci scommetto sarà 30 hz..
tu ci scherzi, ma il ROG oltre che essere molto bello mi pare un ottimo candidato come monitor "intermedio" prima che gli UHD risultino essere tecnicamente affinati e a prezzi più bassi, se uno lo prende adesso e se lo sfrutta un 3 anni poi al momento di cambiare ha monitor UHD a bizzeffe, con tecnologie mature e a prezzi "normali"...il difetto personalmente risiede solo nel prezzo, l'avrei preferito con 1 centone in meno, anche perchè è TN e ormai questi pannelli te li tirano dietro per quanto possano aver raggiunto il massimo di affinamento...
per gli altri, il PB287Q non mi piace esteticamente, il Dell è uscito fuori essere 30hz quindi per giocare non và bene, sul Lenovo devo informarmi meglio...se non è il ROG personalmente nel breve periodo vedo i 21:9 ma anche qui bisogna vedere prezzi etc (non sono informato bene ancora)
il vero ds va fatto con i pixel totali identici ai pixel voluti nella modalita' di visualizzazione!
quello con meno pixel totali e' un fake....
eh, infatti sapevo così pure io, per quello chiedevo.....:what:
esatto apple.
il peso per la gpu è identico alla vera risoluzione di 3840x.
ah ecco, finora non ho trovato un setup che mi consenta di mettere 3820x2160 anche nei pixel effettivi, per quello dicevo che non credo che i miei test siano più che indicativi..
<Masquerade>
10-01-2014, 16:47
ecco come girerebbe Crysis con un 780 OC singolo @3440x1440:
http://abload.de/img/crysis8orkq.png (http://abload.de/image.php?img=crysis8orkq.png)
<Masquerade>
10-01-2014, 16:48
ah ecco, finora non ho trovato un setup che mi consenta di mettere 3820x2160 anche nei pixel effettivi, per quello dicevo che non credo che i miei test siano più che indicativi..
non importa il discorso dei pixel effettivi apple ;)
ho fatto delle prove prestazionali prima con un 1920x1080@downsampling 2560x1440, poi ho riprovato su un 2560x1440 e le prestazioni tornavano, erano uguali.
fidati di quello che ti dico io ;)
<Masquerade>
10-01-2014, 16:53
Singolo 780 OC @Ultra HD
http://abload.de/img/3840x2160lnpah.png (http://abload.de/image.php?img=3840x2160lnpah.png)
maxmix65
10-01-2014, 17:01
il vero ds va fatto con i pixel totali identici ai pixel voluti nella modalita' di visualizzazione!
quello con meno pixel totali e' un fake....
scusate se sono OT ma per un monitor 1920x1200 16/10 a quanto dovrebbe essere la risoluzione ??
mikael84
10-01-2014, 17:04
scusate se sono OT ma per un monitor 1920x1200 16/10 a quanto dovrebbe essere la risoluzione ??
2560x1600
<Masquerade>
10-01-2014, 17:06
scusate se sono OT ma per un monitor 1920x1200 16/10 a quanto dovrebbe essere la risoluzione ??
ma in downsampling?
deve essere sempre 16/10 ovviamente.
devi mettere la 2560x1600,oppure ultra hd 16/10 3840x2400
prova a fare questo downsampling con i total pixel orizzontale 2012 e verticale 1097
<Masquerade>
10-01-2014, 17:10
eh, infatti sapevo così pure io, per quello chiedevo.....:what:
è una fregnaccia.
anche perché non è possibile fare downsampling mettendo i total pixel come la risoluzione (in downsampling) che hai impostato, perché non funzionerebbe.
il downsampling si fa in quel modo.
ed il discorso dei total pixel non riguarda il peso della vga (che corrispode alla risoluzione vera), ma la qualità. che cmq è ottima (come avrai notato pure tu) anche con i total pixel inferiori alla risoluzione da te scelta.
maxmix65
10-01-2014, 17:13
ma in downsampling?
deve essere sempre 16/10 ovviamente.
devi mettere la 2560x1600,oppure ultra hd 16/10 3840x2400
prova a fare questo downsampling con i total pixel orizzontale 2012 e verticale 1097
allora io a 1920x1200 ho esattamente pixel orizzontali 2080 e 1235 verticale quindi a quanto li debbo impostare per stare a 2560X1600 ??
<Masquerade>
10-01-2014, 17:15
allora io a 1920x1200 ho esattamente pixel orizzontali 2080 e 1235 verticale quindi a quanto li debbo impostare per stare a 2560X1600 ??
prova come ti ho detto sopra.
<Masquerade>
10-01-2014, 17:17
se non funge cerca i setting per il tuo 16/10 nel thread di 3dcenter
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129
appleroof
10-01-2014, 17:23
è una fregnaccia.
anche perché non è possibile fare downsampling mettendo i total pixel come la risoluzione (in downsampling) che hai impostato, perché non funzionerebbe.
il downsampling si fa in quel modo.
ed il discorso dei total pixel non riguarda il peso della vga (che corrispode alla risoluzione vera), ma la qualità. che cmq è ottima (come avrai notato pure tu) anche con i total pixel inferiori alla risoluzione da te scelta.
non ci ho capito nulla
<Masquerade>
10-01-2014, 17:26
non ci ho capito nulla
ES
te metti una risoluzione downsampling di 3840x2160 ok?
se te metti i total pixel 3840 e 2160 non funzionerà mai.
se guardi i thread nei vari forum dedicati al downsampling, non è possibile.
te cmq fidati di quello che ti ho detto io x le prestazioni
;)
appleroof
10-01-2014, 17:37
ES
te metti una risoluzione downsampling di 3840x2160 ok?
se te metti i total pixel 3840 e 2160 non funzionerà mai.
se guardi i thread nei vari forum dedicati al downsampling, non è possibile.
te cmq fidati di quello che ti ho detto io x le prestazioni
;)
ah ok, si per i pixel totali me n'ero accorto, per le prestazioni ti credo perché non dovrei?
Mah, vediamo quando uscirà sta 880gtx o quello che sarà
<Masquerade>
10-01-2014, 17:39
Cmq in UHD il vecchio Crysis è decente con una scheda, 40fps di media... considerando che quel gioco regge bene ad un basso frames...ed il 780 non era nemmeno occato al max, cioè come lo uso io...era un oc nella norma...
se ti accontenti...
mentre con uno SLI di 780 OC vola.
con un 21:9 3440:1440 ci si giocherebbe di lusso, già con la singola
cire92cry
10-01-2014, 17:53
Cmq in UHD il vecchio Crysis è decente con una scheda, 40fps di media... considerando che quel gioco regge bene ad un basso frames...ed il 780 non era nemmeno occato al max, cioè come lo uso io...era un oc nella norma...
se ti accontenti...
mentre con uno SLI di 780 OC vola.
con un 21:9 3440:1440 ci si giocherebbe di lusso, già con la singola
Si ho provato pure io con la titan in 4k vai bene anche con la singola poi be per sfizio ho provato a osare di più visto che su crysis puoi scegliere in game la risoluzione con i comandi console ho messo tipo 8000x2160 solo che mi ha saturato la ram della titan e è crashato XD:D
Obrigado
10-01-2014, 21:17
cosi si fa il downsampling....(per chi ha un monitor 1920x1080 e vuole vedere come girano i giochi a 2560x1440)
http://i.imgur.com/DpTwkiz.png
se lo fate inferiore sui pixel totali semplicemente la resa non e' ottimale e lo sfocamento dell'immagine e' ancor piu' accentuato.
<Masquerade>
10-01-2014, 21:24
cosi si fa il downsampling....(per chi ha un monitor 1920x1080 e vuole vedere come girano i giochi a 2560x1440)
NO.
se lo fate inferiore sui pixel totali semplicemente la resa non e' ottimale e lo sfocamento dell'immagine e' ancor piu' accentuato.
e NO.
appleroof
10-01-2014, 21:25
cosi si fa il downsampling....(per chi ha un monitor 1920x1080 e vuole vedere come girano i giochi a 2560x1440)
http://i.imgur.com/DpTwkiz.png
se lo fate inferiore sui pixel totali semplicemente la resa non e' ottimale e lo sfocamento dell'immagine e' ancor piu' accentuato.
Io lo uso così a 85hz, sennò abbasso i pixel totali per avere i 120hz, devo dire che levato grid2 non ho mai avuto in decine di giochi sfocatura immagine, nè con con il settaggio che ho detto a 85hz nè 120hz
<Masquerade>
10-01-2014, 21:29
non ho mai avuto in decine di giochi sfocatura immagine, nè con con il settaggio che ho detto a 85hz nè 120hz
nemmeno io apple.
ed uso i total pixel inferiori.
con il setting trovato nel 1440p però un po c'è.
ma in altri 3 monitor cher ho provato: total pixel inferiori alla risoluzione ed immagine nitida, come alla nativa.
e per le prestazioni,ovviamento ho ragione pure li.
lo saprò ? visto che ho fatto il confronto tra un 1440p vero, contro un 1440p in downsampling :rotfl:
mikael84
10-01-2014, 21:38
ES
te metti una risoluzione downsampling di 3840x2160 ok?
se te metti i total pixel 3840 e 2160 non funzionerà mai.
se guardi i thread nei vari forum dedicati al downsampling, non è possibile.
te cmq fidati di quello che ti ho detto io x le prestazioni
;)
E'assolutamente vero, se imposti i pixel totali ti da subito schermo nero e fuori campo.;)
Basta impostare la risoluzione ed il resto in automatico.
Obrigado
10-01-2014, 21:44
E'assolutamente vero, se imposti i pixel totali ti da subito schermo nero e fuori campo.;)
Basta impostare la risoluzione ed il resto in automatico.
semplicemente perche si raggiunge il limite di mhz delle ramdac!(il valore orologio clock) intorno ai 400mhz inizia ad avere problemi...
ps: alla vostra risoluzione 2560x1440 quando fate il ds verso risoluzioni superiori
ps2: sapevate che le nuove radeon arrivano fino a 600mhz per essere compatibili con l'hdmi 2.0 per supportare i 4k 60hz?
Te l' avevo già spiegato nel thread "aspettando le nuove AMD .... " , a quei tempi si poteva perdonare la tua ignoranza ma ora si tratta di malafede di un fanboy ( o un hater ) visto che persisti. Te lo rispiego: l' ipotesi che Mantle fosse l' API delle console ( quella di X1 ) era una ipotesi di AnandTech , nella sua presentazione AMD non l' ha né detto né fatto credere.
OT, flame ed insulti.. sospeso 10gg
>bYeZ<
<Masquerade>
10-01-2014, 21:57
E'assolutamente vero, se imposti i pixel totali ti da subito schermo nero e fuori campo.;)
Basta impostare la risoluzione ed il resto in automatico.
aspetta però, ho visto una cosina adesso, ho il 780 collegato ad un 1920x1080.
mentre a risoluzioni più alte non lo puoi fare, e sicuramente è per quello che ha scritto Obrigado , in questo caso concordo.
ma se te imposti i total pixel di un 1920x1080 @2560x1440, e fai quindi downsampling a 2560x1440, riesce perfettamente.
ma indovina un po?
su questo pannello che ho provato ora (pure un bench)
1 la qualità del downsampling con total pixel di 2012 e 1097 vs total pixel 2560 e 1440 è la medesima
2 le prestazioni che sono risultate dal benchamrk, sono le medesime, e corrispondono a quelle di un 2560x1440p vero.
;)
Ma non si aumenta il lag con tutto quel lavoro a livello di scaler? :mbe:
<Masquerade>
10-01-2014, 22:23
Ma non si aumenta il lag con tutto quel lavoro a livello di scaler? :mbe:
mah, io personalmente non l'ho mai notato.. e non mi pare di aver letto, nei thread del downsampling (anche in altri forum) ...del lag che aumenta
poi :boh:
Obrigado
11-01-2014, 06:51
Ma non si aumenta il lag con tutto quel lavoro a livello di scaler? :mbe:
io avendo un 120hz, ho notato a 75hz in ds una reattivita' peggiore (di poco) rispetto a 60hz pilotati normalmente...
quindi se chiedi a me, la risposta e' si....
e non solo mia...
fonte neogaf:
Depending on your general preferences you might notice an increase in input lag as you downsample from a higher resolution. Some people claim they don't notice any kind of increase in inputlag whereas me and my irl buddy and fellow gaffer Tyrantguardian ( both fighting game nerds ) experience a noticeable increase in inputlag in certain games where such a thing is easily noticed.
link:http://www.neogaf.com/forum/showthread.php?t=509076
io avendo un 120hz, ho notato a 75hz in ds una reattivita' peggiore (di poco) rispetto a 60hz pilotati normalmente...
quindi se chiedi a me, la risposta e' si....
e non solo mia...
fonte neogaf:
Depending on your general preferences you might notice an increase in input lag as you downsample from a higher resolution. Some people claim they don't notice any kind of increase in inputlag whereas me and my irl buddy and fellow gaffer Tyrantguardian ( both fighting game nerds ) experience a noticeable increase in inputlag in certain games where such a thing is easily noticed.
link:http://www.neogaf.com/forum/showthread.php?t=509076
Eh appunto, mi veniva il dubbio........poi vabbè, se uno vuole fare il competitivo di solito la risoluzione la riduce (chi ha detto BF3? :asd: ) non la spara al massimo per guardarsi le rane in uHD.....oh sant'iddio mi è venuto in mente questo (http://www.youtube.com/watch?v=ody0TQ1cQrA) :rotfl: li adoro i BFFriends.....
Old?
http://forums.evga.com/tm.aspx?m=2092678
Eh appunto, mi veniva il dubbio........poi vabbè, se uno vuole fare il competitivo di solito la risoluzione la riduce (chi ha detto BF3? :asd: ) non la spara al massimo per guardarsi le rane in uHD.....oh sant'iddio mi è venuto in mente questo (http://www.youtube.com/watch?v=ody0TQ1cQrA) :rotfl: li adoro i BFFriends.....
infatti io con il monitor in firma mi sto ciecando giocando a bf4 :D
Non è tanto comodo giocare a risoluzioni alte online
AndreaMan
11-01-2014, 12:20
Si ho provato pure io con la titan in 4k vai bene anche con la singola poi be per sfizio ho provato a osare di più visto che su crysis puoi scegliere in game la risoluzione con i comandi console ho messo tipo 8000x2160 solo che mi ha saturato la ram della titan e è crashato XD:D
eric vediamo ora con 2 titan come andrà :D :D :D
a buon intenditore poche parole :sofico: :sofico: :sofico:
si sa nulla di nuovo su un'eventuale (data) presentazione di maxwell?
cire92cry
11-01-2014, 12:27
eric vediamo ora con 2 titan come andrà :D :D :D
a buon intenditore poche parole :sofico: :sofico: :sofico:
:D
Delusione. Speravo in qualche novità sulla serie 8xx al CES. Forza Nvidia che voglio cambiare scheda video con qualche cosa dalla potenza devastante:yeah:
appleroof
12-01-2014, 12:45
http://forum.beyond3d.com/showpost.php?p=1820311&postcount=486
questo è un tipo molto ben informato su nvidia, nel post fà riferimento al fatto che nessuno si aspetta il chippone top Maxwell per la prima metà dell'anno, quindi direi una conferma che non si vedrà prima di almeno giugno (più probabile per l'autunno) :fagiano:
http://forum.beyond3d.com/showpost.php?p=1820311&postcount=486
questo è un tipo molto ben informato su nvidia, nel post fà riferimento al fatto che nessuno si aspetta il chippone top Maxwell per la prima metà dell'anno, quindi direi una conferma che non si vedrà prima di almeno giugno (più probabile per l'autunno) :fagiano:
Bhe vedremo, le medie usciranno quasi sicuramente e se dovessero giocarsela con le top o arrivare vicine, potrebbero interessare piu' di una persona.
appleroof
12-01-2014, 12:57
Bhe vedremo, le medie usciranno quasi sicuramente e se dovessero giocarsela con le top o arrivare vicine, potrebbero interessare piu' di una persona.
si, anche se c'è una cosa che non mi torna: se è vero che usciranno ancora a 28nm, credo possano aspirare anche ad eguagliare o anche superare -di poco?- gk110 in versione 780ti, basta pensare ad un chip che sia privo della parte dp e quindi abbia tutto lo spazio dedicato al gaming..ma visto lo stesso pp avrà le dimensioni di gk110 più o meno (a meno che l'architettura verrà rivoluzionata) quindi chip caloroso e costoso da produrre, insomma a causa dei 28nm c'è il caso che non si abbia un altro gk104, chip secondo me eccellente per il gaming: piccolo, parsimonioso in energia e quindi calore e molto performante. L'alternativa è avere chip più piccoli ma che vanno meno di una 780ti, che sarebbe una novità per una nuova serie...tutto questo ripeto a meno l'architettura non sia profondamente rivista :boh:
forse se le cose stanno così, e guardando in casa Amd, sarebbe meglio per nvidia starsene buona fino al prossimo pp
Phenomenale
12-01-2014, 13:00
le medie usciranno quasi sicuramente e se dovessero giocarsela con le top o arrivare vicine
No scordiamocelo proprio, il GM117 a 128 bit non arriverà vicino a nulla che sembri lontanamente un top... per ora non c'è nulla a contrastare i GK110/GK104 :nonsifa:
Bhe vedremo, le medie usciranno quasi sicuramente e se dovessero giocarsela con le top o arrivare vicine, potrebbero interessare piu' di una persona.
:rotfl:
Quindi ti aspetti che una 860Ti a 28nm se la giocherà con una 780Ti?
:rotfl:
Quindi ti aspetti che una 860Ti a 28nm se la giocherà con una 780Ti?
Ho scritto dovesse, anche perche' GM104 2048 cc, 320 bit, frequenze maggiori di 158 mhz rispetto a 780 ti, nuova architettura, se veri questi dati chi lo sa dove si colloca, per me potrebbe benissimo arrivarci molto vicino o piu' realisticamente collocarsi tra 780 e 780ti ma con un prezzo di 300 dollari.
No scordiamocelo proprio, il GM117 a 128 bit non arriverà vicino a nulla che sembri lontanamente un top... per ora non c'è nulla a contrastare i GK110/GK104
Lol ma Gm117 sostituira' la fascia bassa di mercato :) mai ho pensato potesse contrastare le top :)
Ragazzi sto considerando l'idea di montare 2 780Ti K|ngp|n Edition non appena saranno disponibili, secondo voi rischio di rimanere fregato con l'uscita delle GTX 880 o sono ancora lontane?
Il sostituto delle 780Ti non arriverà prima dell'estate a sentire in giro......a marzo "dovrebbero" uscire le maxwell medie ma rimarranno a 28nm, bisognerà vedere l'architettura che vantaggi darà........dalle slide che ricordo con maxwell c'era un bel incremento su performance/watt ma probabilmente speravano di farle sui 20 o 16nm che invece non arriveranno prima di fine anno......
Ma prendersi due 780ti custom normali e risparmiare dei bei soldoni invece che far diventare ricco il sig.r Kingpin? :D
Il sostituto delle 780Ti non arriverà prima dell'estate a sentire in giro......a marzo "dovrebbero" uscire le maxwell medie ma rimarranno a 28nm, bisognerà vedere l'architettura che vantaggi darà........dalle slide che ricordo con maxwell c'era un bel incremento su performance/watt ma probabilmente speravano di farle sui 20 o 16nm che invece non arriveranno prima di fine anno......
Ma prendersi due 780ti custom normali e risparmiare dei bei soldoni invece che far diventare ricco il sig.r Kingpin? :D
Guarda solitamente faccio un upgrade alle schede video all'anno :), e fin'ora sono sempre andato di serie in serie: 580 SLI > 680 SLI > 780 SLI ..
Quello che temo è di veder venir fuori all'improvviso la serie 8xx e di trovarmi indietro subito dopo aver speso un capitale per uno SLI di 780Ti ...
Dici che non ci sono speranze di raggiungere frequenze più elevate in OC con le KP Edition rispetto alle altre 780Ti?
Devourer88
12-01-2014, 20:04
Secondo me potrebbe aver ragione videocardz. Aspettiamo febbraio e vediamo cosa accade.!
Ok grazie! ;) Tanto non penso proprio che le 780Ti Classy KP saranno disponibili tanto presto. Manco in USA si trovano..
Obrigado
12-01-2014, 21:02
Ragazzi sto considerando l'idea di montare 2 780Ti K|ngp|n Edition non appena saranno disponibili, secondo voi rischio di rimanere fregato con l'uscita delle GTX 880 o sono ancora lontane?
prendere adesso due di quelle e' la peggior idea che ti possa venire!
aspetta aprile.... magari prendendo una sola 780.... adesso
ps: ma hai gia 2 780 e vuoi prendere 2 780ti??? are you fucking crazy?
sai che al massimo ti cambiano 10 15 frame e dove girano di merda adesso i giochi gireranno di merda pure con le ti?
Il sostituto delle 780Ti non arriverà prima dell'estate a sentire in giro......a marzo "dovrebbero" uscire le maxwell medie ma rimarranno a 28nm, bisognerà vedere l'architettura che vantaggi darà........
Le Maxwell "top" non arriveranno prima di quest'autunno...
Wuillyc2
12-01-2014, 21:08
prendere adesso due di quelle e' la peggior idea che ti possa venire!
aspetta aprile.... magari prendendo una sola 780.... adesso
ps: ma hai gia 2 780 e vuoi prendere 2 780ti??? are you fucking crazy?
sai che al massimo ti cambiano 10 15 frame e dove girano di merda adesso i giochi gireranno di merda pure con le ti?
Quoto in assoluto, venendo da 2780 in sli cosa ci guadagni a mettere altre 2 780 ti in sli? Se proprio ti piace vedere il numerino e vuoi giocare i classici top in versione mattone metti la terza e ci perdi comunque meno.
Obrigado
12-01-2014, 21:11
Quoto in assoluto, venendo da 2780 in sli cosa ci guadagni a mettere altre 2 780 ti in sli? Se proprio ti piace vedere il numerino e vuoi giocare i classici top in versione mattone metti la terza e ci perdi comunque meno.
infatti visto che la mobo permette, via di 3way con 400€ e ci arriva al top fino a fine anno!
coi soldi risparmiati ci si prende l'asus rog swift pg278q (http://rog.asus.com/296652014/news/rog-announces-the-pg278q-swift-27-inch-wqhd-g-sync-gaming-monitor/)
puo' accompagnare solo..... ahahahhah
scorpion73
12-01-2014, 21:16
Ragazzi sto considerando l'idea di montare 2 780Ti K|ngp|n Edition non appena saranno disponibili, secondo voi rischio di rimanere fregato con l'uscita delle GTX 880 o sono ancora lontane?
Tieniti le tue due 780, non hai motivo alcuno per cambiarle.
Anzi, ti dirò che siccome i giochi attuali con il GK110 vanno benone (con due volano), non so manco quanto valga la pena passare alle future 880 se la situazione del gaming resta questa, e con le nuove scatole che fanno schifo dubito che facciano giochi per PC che gli danno le mela più di quelli attuali, sennò non le compra più nessuno...
Tu pensa che io, a parte i due Titani in firma, gioco perfettamente anche con una sola GTX 680....
puo' accompagnare solo..... ahahahhah
:asd: :asd: :asd:
Wuillyc2
12-01-2014, 21:31
infatti visto che la mobo permette, via di 3way con 400€ e ci arriva al top fino a fine anno!
coi soldi risparmiati ci si prende l'asus rog swift pg278q (http://rog.asus.com/296652014/news/rog-announces-the-pg278q-swift-27-inch-wqhd-g-sync-gaming-monitor/)
puo' accompagnare solo..... ahahahhah
Ahahahaah qui ci cala a pennello :D
Le Maxwell "top" non arriveranno prima di quest'autunno...
Si ma basterà la 860Ti per detronizzare 780Ti e 290X :asd: per quello mettevo in guardia il ragazzo :asd:
p.s: chi si ricorda ***********? :D l'ho beccato su oc.net che commentava proprio quel monitor g-sync 120hz di asus :asd:
Wuillyc2
12-01-2014, 21:40
Si ma basterà la 860Ti per detronizzare 780Ti e 290X :asd: per quello mettevo in guardia il ragazzo :asd:
p.s: chi si ricorda **********? :D l'ho beccato su oc.net che commentava proprio quel monitor g-sync 120hz di asus :asd:
Il numero uno, purtroppo lo abbiamo perso qui, sembra che vada poco a genio alla gente le persone competenti.
Si ma basterà la 860Ti per detronizzare 780Ti e 290X
Io ne dubito... ok che la 680 (chip "medio") era meglio della 580 (chip "top"), ma non credo che la cosa si ripeterà... forse saranno lì lì...
Se invece sarà davvero meglio, allora la 880 si vedrà nel 2015! :O (un po' come successe con 680/780)
p.s: chi si ricorda ************? :D l'ho beccato su oc.net che commentava proprio quel monitor g-sync 120hz di asus :asd:
Il numero uno, purtroppo lo abbiamo perso qui, sembra che vada poco a genio alla gente le persone competenti.
Non si tirano in ballo gli utenti bannati dal forum! :O
E che porno monitor!! Ma perchè mi linkate sta roba? Ahahah
Grazie dei vari consigli ragazzi poi valuterò il da farsi. ;)
(Mi scuso per l'OT ma è anche 3D Vision 2 Ready?)
Wuillyc2
12-01-2014, 21:46
E che porno monitor!! Ma perchè mi linkate sta roba? Ahahah
Grazie dei vari consigli ragazzi poi valuterò il da farsi. ;)
Vattelo a vedere per bene online, guarda che roba.
Obrigado
12-01-2014, 22:02
E che porno monitor!! Ma perchè mi linkate sta roba? Ahahah
Grazie dei vari consigli ragazzi poi valuterò il da farsi. ;)
(Mi scuso per l'OT ma è anche 3D Vision 2 Ready?)
è in fase di definizione sia il refresh finale che il 3d vision!
appleroof
12-01-2014, 22:19
cut
coi soldi risparmiati ci si prende l'asus rog swift pg278q (http://rog.asus.com/296652014/news/rog-announces-the-pg278q-swift-27-inch-wqhd-g-sync-gaming-monitor/)
Cut
Why is the display TN rather than IPS/PVA/MVA, etc?
Not all TN’s are made the same: the premium panel used in the PG278Q is of very high quality. IPS panels (and their derivatives like PVA/MVA etc) are not suitable for a multitude of reasons: 1) the response rate is simply not fast enough to react to the active change in refresh rate and 2) They cannot reliably achieve >60Hz without significantly affecting the quality of the image. IGZO technology (and LTPS – low temperature polysilicon – likewise) – yields 100′s of times faster electron mobility versus standard amorphous silicon panels – and thus can provide a response rate comparable to TN (up to 60Hz currently), but, however desirable this technology is, it is still currently cost prohibitively for many PC gaming enthusiasts in 2014, which is why ROG has used a better price/performance, high quality TN panel.
:read: :read:
Io ne dubito... ok che la 680 (chip "medio") era meglio della 580 (chip "top"), ma non credo che la cosa si ripeterà... forse saranno lì lì...
Se invece sarà davvero meglio, allora la 880 si vedrà nel 2015! (un po' come successe con 680/780)
E' il mio stesso pensiero ma stranamente la cosa se la dico io fa ridere
:rotfl:
Io ne dubito... ok che la 680 (chip "medio") era meglio della 580 (chip "top"), ma non credo che la cosa si ripeterà... forse saranno lì lì...
Se invece sarà davvero meglio, allora la 880 si vedrà nel 2015! :O (un po' come successe con 680/780)
Non si tirano in ballo gli utenti bannati dal forum! :O
Ero sarcastico raven per la 860ti miracolosa :stordita: e mi scuso per il bannato ....
Phenomenale
13-01-2014, 09:08
sembra che vada poco a genio alla gente le persone competenti.
Quoto... è come nella favola di Collodi.
Il Grillo Parlante andava poco a genio a Pinocchio, meglio le belle parole del Gatto e la Volpe.
Non so se è già stato postato ma si vocifera che nVidia questa volta partirà dalla con un refresh della fascia bassa usando GM117 che andrà a sostituire l'attuale GK208 (GTX 630/640..etc)
Non so se è già stato postato ma si vocifera che nVidia questa volta partirà dalla con un refresh della fascia bassa usando GM117 che andrà a sostituire l'attuale GK208 (GTX 630/640..etc)
Si' era una notizia che era gia' trapelata.
bronzodiriace
14-01-2014, 00:00
puo' accompagnare solo..... ahahahhah
:rotfl:
Phenomenale
14-01-2014, 10:29
Un sito famoso per la sua grande affidabilità e serietà pubblica una non-notizia su Maxwell e nessuno la segnala? :doh:
http://www.fudzilla.com/home/item/33638-maxwell-is-not-directx-12-next-compatible
killeragosta90
14-01-2014, 10:32
Un sito famoso per la sua grande affidabilità e serietà pubblica una non-notizia su Maxwell e nessuno la segnala? :doh:
http://www.fudzilla.com/home/item/33638-maxwell-is-not-directx-12-next-compatible
LOL fudzilla, mi strappa sempre una risata :D
Un sito famoso per la sua grande affidabilità e serietà pubblica una non-notizia su Maxwell e nessuno la segnala? :doh:
http://www.fudzilla.com/home/item/33638-maxwell-is-not-directx-12-next-compatible
Quoto, e non è nemmeno una notizia in se, ma una semplice deduzione logica.
Phenomenale
14-01-2014, 12:06
Finalmente le nebbie su Maxwell iniziano a diradarsi, altro che fascia media... il precedentemente vociferato GM117 non sarà un prodotto desktop ma la nuova GT820M, ovvero una GPU mobile! Pareva strano!!! :D
Tutte le specifiche tecniche della 820M (che uscirà a febbraio debuttando l'architettura Maxwell al pubblico) eccole qui:
http://wccftech.com/geforce-820m-maxwell-mobility
E come dicono gli americani, stay tuned ;)
Vabbè si potrà fare un bel confronto con le kepler mobile.....e da lì si capiranno già un po' di cosucce....quale sarebbe la gpu mobile equivalente della precedente generazione? La 640M?
Finalmente le nebbie su Maxwell iniziano a diradarsi, altro che fascia media... il precedentemente vociferato GM117 non sarà un prodotto desktop ma la nuova GT820M, ovvero una GPU mobile! Pareva strano!!! :D
Tutte le specifiche tecniche della 820M (che uscirà a febbraio debuttando l'architettura Maxwell al pubblico) eccole qui:
http://wccftech.com/geforce-820m-maxwell-mobility
E come dicono gli americani, stay tuned ;)
Sono molte vaghe, sicuro non sia un rebrand? ddr3???
appleroof
14-01-2014, 14:58
Sono molte vaghe, sicuro non sia un rebrand? ddr3???
ho pensato la stessa cosa...:fagiano:
illidan2000
14-01-2014, 16:01
ho pensato la stessa cosa...:fagiano:
ot: inquitante il tuo nuovo avatar...
appleroof
14-01-2014, 16:29
ot: inquitante il tuo nuovo avatar...
http://c.fastcompany.net/multisite_files/codesign/imagecache/inline-large/post-inline/tumblr_lazw0p6WrO1qe0eclo1_r9_500.gif
:D
Phenomenale
14-01-2014, 16:29
Sono molte vaghe, sicuro non sia un rebrand?
ho pensato la stessa cosa...
Purtroppo nessuna sicurezza con questi "rumori" :(
Però un chippino "piccolo" come il GM117 mi sembra più adatto ad un debutto mobile che ad uno desktop.
Se Nvidia lancia la next-gen su desktop con una schedina low-end del genere... tutti a comprare le 290X della concorrenza^^
Aspettiamo dunque altri rumors, come si dice in America: stay tuned ;)
EDIT: falso allarme, la 820M è una vecchia Fermi rebrandata.
Smentita direttamente da Videocardz:
http://videocardz.com/48697/nvidia-silently-launches-geforce-820m-first-graphics-card-geforce-800-series
Vincono Pat & Apple per il loro intuito^^ :)
Phenomenale
15-01-2014, 13:35
Fudzilla pubblica altre non-notizie su Maxwell :p
Per me sta diventando un non-sito :asd:
http://www.fudzilla.com/home/item/33657-maxwell-is-a-28nm-chip
Fudzilla pubblica altre non-notizie su Maxwell :p
Per me sta diventando un non-sito :asd:
http://www.fudzilla.com/home/item/33657-maxwell-is-a-28nm-chip
Che notiziona LOL pensavo fosse un 24 nm lol
Snickers
16-01-2014, 11:59
Non male 199 fichi per un coso da dover installare dentro un monitor!
http://www.hwupgrade.it/news/periferiche/disponibile-g-sync-upgrade-kit-per-asus-vg248qe-video-mostra-come-effettuare-l-installazione_50532.html
:uh: :uh: :uh: :uh: :uh: :uh: :uh: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk:
Non male 199 fichi per un coso da dover installare dentro un monitor!
http://www.hwupgrade.it/news/periferiche/disponibile-g-sync-upgrade-kit-per-asus-vg248qe-video-mostra-come-effettuare-l-installazione_50532.html
:uh: :uh: :uh: :uh: :uh: :uh: :uh: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk:
Il problema è che è un componente di aggiornamento, la telecamera di Skype per Samsung Smart TV costa 130 euro originale come accessorio, ci sono Tv che la integrano e costano quasi uguali a quelle senza.
una volta integrato non inciderà imho molto sul prezzo.
Obrigado
16-01-2014, 12:13
Non male 199 fichi per un coso da dover installare dentro un monitor!
http://www.hwupgrade.it/news/periferiche/disponibile-g-sync-upgrade-kit-per-asus-vg248qe-video-mostra-come-effettuare-l-installazione_50532.html
:uh: :uh: :uh: :uh: :uh: :uh: :uh: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk:
vabbe' ma se non sai neanche bene a che serve... che senso ha il tuo commento?
Snickers
16-01-2014, 12:20
Il problema è che è un componente di aggiornamento, la telecamera di Skype per Samsung Smart TV costa 130 euro originale come accessorio, ci sono Tv che la integrano e costano quasi uguali a quelle senza.
una volta integrato non inciderà imho molto sul prezzo.
Sì, probabile, ma dato il prezzo di lancio dell'addon e il fatto che il primo schermo che lo integrerà sarà uno della serie ROG mi sa che nvidia rischia di favorire l'arrivo di freesync con buona pace per i costi sostenuti dalla stessa nvidia per sviluppare questa tecnologia :read:
vabbe' ma se non sai neanche bene a che serve... che senso ha il tuo commento?
So benissimo a cosa serve, e 199 dollari PIU' il costo di un monitor sono un qualcosa di assurdo per attivare il G-Sync
Sì, probabile, ma dato il prezzo di lancio dell'addon e il fatto che il primo schermo che lo integrerà sarà uno della serie ROG mi sa che nvidia rischia di favorire l'arrivo di freesync con buona pace per i costi sostenuti dalla stessa nvidia per sviluppare questa tecnologia :read:
So benissimo a cosa serve, e 199 dollari PIU' il costo di un monitor sono un qualcosa di assurdo per attivare il G-Sync
Ora con "assurdo" non esageriamo.
È un prodotto uscito adesso, non integrato e non ammortizzato nel prezzo di un monitor.
Sent from DingDingDong (by Gunther) using my Tralala!
Phenomenale
16-01-2014, 12:36
199 dollari PIU' il costo di un monitor sono un qualcosa di assurdo per attivare il G-Sync
Solo per chi ha le saccoccie vuote... nella fascia enthusiast 199$ sono noccioline: ricordiamoci l'anno scorso dove le Titan a 1000$ andavano via come il pane, e la fascia a cui punta il g-sync è proprio quella! :read:
Non è un prodotto per te o per me. :nonsifa:
Immagino che quando ci saranno dei monitor che lo integrano il costo del prodotto in se sarà sotto i 100€...alla fine in un monitor che costa 500/600€ non sono tantissimi a fronte di un vantaggio che a vedere dalle prove (non da slide di powerpoint) sembra più che tangibile!
Infatti credo che il costo aggiuntivo sarà modesto, per me questa soluzione offre vantaggi tangibili a un problema che c'è da sempre, inizialmente verrà proposto su monitor di alto profilo, comunque, credo.
appleroof
16-01-2014, 13:15
Infatti credo che il costo aggiuntivo sarà modesto, per me questa soluzione offre vantaggi tangibili a un problema che c'è da sempre, inizialmente verrà proposto su monitor di alto profilo, comunque, credo.
Pat ma che canzone hai in firma...:sbonk:
Pat ma che canzone hai in firma...:sbonk:
Una mia personale scoperta :) il minuto 2.17 mitico LOL
killeragosta90
16-01-2014, 17:34
A GeForce GTX 750 Ti with Maxwell GPU in February (http://videocardz.com/48726/nvidia-geforce-gtx-750-ti-maxwell-gpu-february)
"As we told you numerous times before first Maxwell GPUs are not high-end parts. Instead NVIDIA decided it will slowly progress to 20nm process with more advanced GPUs later.
The first Maxwell GPU, probably GM107, will be used with GeForce GTX 750 Ti, a new mid-range graphics card replacing GeForce 650 Ti. The exact details remain unknown, but are almost 100% sure its 28nm process GPU."
appleroof
16-01-2014, 18:09
A GeForce GTX 750 Ti with Maxwell GPU in February (http://videocardz.com/48726/nvidia-geforce-gtx-750-ti-maxwell-gpu-february)
"As we told you numerous times before first Maxwell GPUs are not high-end parts. Instead NVIDIA decided it will slowly progress to 20nm process with more advanced GPUs later.
The first Maxwell GPU, probably GM107, will be used with GeForce GTX 750 Ti, a new mid-range graphics card replacing GeForce 650 Ti. The exact details remain unknown, but are almost 100% sure its 28nm process GPU."
interessante...trovo singolare il fatto di lanciarla ancora come serie 7, se fosse vero, ma Sweclockers è molto affidabile :fagiano:
Phenomenale
17-01-2014, 08:24
Ah, ecco perchè la 750TI che doveva uscire l'estate scorsa è stata cancellata!!! :doh:
Comunque, se aspettano i 20nm per debuttare con le 800 significa una sola cosa: che il GK110 regnerà sovrano anche per (quasi?) tutto il 2014, chi sta aggiornando le sue 780 alla TI sta facendo IMHO una mossa azzeccata (a meno di non voler tirare ancora avanti un annetto magari liquidandola).
Leggendo però i rumors di rete, tutti sembrano puntare su fatto che il processo 20nm "SOC" che stà partendo in TMSC sia inadeguato a realizzare chipponi ad alto wattaggio; però se devono aspettare il 2015 per i 16nm "HP FINFET" la vedo lunghetta..... chissà che sorta rebrand si inventeranno per tirare avanti così a lungo con la stessa GPU.
Intanto, se Maxy esce come 7xx, le 790 DUAL e la TI 6Gb le direi quasi certe come uscita.
Oppure Nvidia fa una magia ed a giugno esce con un GM204 20nm SOC in grado di pareggiare un GK110 ma con più feature maxwelliane... :confused:
Ah, ecco perchè la 750TI che doveva uscire l'estate scorsa è stata cancellata!!! :doh:
Comunque, se aspettano i 20nm per debuttare con le 800 significa una sola cosa: che il GK110 regnerà sovrano anche per (quasi?) tutto il 2014, chi sta aggiornando le sue 780 alla TI sta facendo IMHO una mossa azzeccata (a meno di non voler tirare ancora avanti un annetto magari liquidandola).
Leggendo però i rumors di rete, tutti sembrano puntare su fatto che il processo 20nm "SOC" che stà partendo in TMSC sia inadeguato a realizzare chipponi ad alto wattaggio; però se devono aspettare il 2015 per i 16nm "HP FINFET" la vedo lunghetta..... chissà che sorta rebrand si inventeranno per tirare avanti così a lungo con la stessa GPU.
Intanto, se Maxy esce come 7xx, le 790 DUAL e la TI 6Gb le direi quasi certe come uscita.
Oppure Nvidia fa una magia ed a giugno esce con un GM204 20nm SOC in grado di pareggiare un GK110 ma con più feature maxwelliane... :confused:
Sarà interessante capire l'efficienza di Maxwell anche su questa medio bassa.
appleroof
17-01-2014, 10:19
Ah, ecco perchè la 750TI che doveva uscire l'estate scorsa è stata cancellata!!! :doh:
Comunque, se aspettano i 20nm per debuttare con le 800 significa una sola cosa: che il GK110 regnerà sovrano anche per (quasi?) tutto il 2014, chi sta aggiornando le sue 780 alla TI sta facendo IMHO una mossa azzeccata (a meno di non voler tirare ancora avanti un annetto magari liquidandola).
Leggendo però i rumors di rete, tutti sembrano puntare su fatto che il processo 20nm "SOC" che stà partendo in TMSC sia inadeguato a realizzare chipponi ad alto wattaggio; però se devono aspettare il 2015 per i 16nm "HP FINFET" la vedo lunghetta..... chissà che sorta rebrand si inventeranno per tirare avanti così a lungo con la stessa GPU.
Intanto, se Maxy esce come 7xx, le 790 DUAL e la TI 6Gb le direi quasi certe come uscita.
Oppure Nvidia fa una magia ed a giugno esce con un GM204 20nm SOC in grado di pareggiare un GK110 ma con più feature maxwelliane... :confused:
Tranne specifiche soggettive esigenze, che vanno dalla rottura della vga alla semplice scimmia, secondo me aggiornare dalla 780 alla Ti non ha comunque oggettivamente senso...
per il resto concordo che se si avrà una 750 come quella vociferata la 790 assume più concretezza...cmq non capisco la necessità ed il senso di uscire con Maxwell su una 750, mah...
Phenomenale
17-01-2014, 12:31
Tranne specifiche soggettive esigenze, che vanno dalla rottura della vga alla semplice scimmia, secondo me aggiornare dalla 780 alla Ti non ha comunque oggettivamente senso...
Ma la 780TI si compra proprio per "scimmia"; invece solo per "giocare" è sufficente una scheda da 300€ ed un singolo monitor FullHD. Anzi visto che spesso si va in off sui monitor permettimi di aggiugere: anche i monitor 1440p & 2160p non hanno oggettivamente senso per una partitella a COD, BF4, AC4, o altro sequel a cadenza anale, pardon, annuale. :D
Inoltre molti stanno aggiornando alla TI anche per prendere quei 100+MHz extra di overclock che offrono. :oink:
cmq non capisco la necessità ed il senso di uscire con Maxwell su una 750
Perchè commercialmente non c'era altra scelta "onorevole"... se facevano il gran fracasso pubblicitario delle nuove GTX800 Maxwell e se ne uscivano con quella schedina di fascia bassa... sai quanti insulti si prendevano dagli enthusiasti e quanti passavano ai crossfire di Radeon... :asd:
Per debuttare -commercialmente- con una nuova lineup di schede o hai il "cippone-che-asfalta" o meglio aspettare che fare delle figuracce. ;)
Un forumista americano di quelli tosti ha scritto che secondo lui il 2014 sarà un "pipe cleaner" per il mondo VGA, i pezzi grossi arriveranno nel 2015 quando i processi a 20/16nm saranno più profittabili: io spero tanto che si sbagli. :muro:
AndreaMan
17-01-2014, 13:15
Ma la 780TI si compra proprio per "scimmia"; invece solo per "giocare" è sufficente una scheda da 300€ ed un singolo monitor FullHD. Anzi visto che spesso si va in off sui monitor permettimi di aggiugere: anche i monitor 1440p & 2160p non hanno oggettivamente senso per una partitella a COD, BF4, AC4, o altro sequel a cadenza anale, pardon, annuale. :D
Inoltre molti stanno aggiornando alla TI anche per prendere quei 100+MHz extra di overclock che offrono. :oink:
Perchè commercialmente non c'era altra scelta "onorevole"... se facevano il gran fracasso pubblicitario delle nuove GTX800 Maxwell e se ne uscivano con quella schedina di fascia bassa... sai quanti insulti si prendevano dagli enthusiasti e quanti passavano ai crossfire di Radeon... :asd:
Per debuttare -commercialmente- con una nuova lineup di schede o hai il "cippone-che-asfalta" o meglio aspettare che fare delle figuraccie. ;)
Un forumista americano di quelli tosti ha scritto che secondo lui il 2014 sarà un "pipe cleaner" per il mondo VGA, i pezzi grossi arriveranno nel 2015 quando i processi a 20/16nm saranno più profittabili: io spero tanto che si sbagli. :muro:
io spero tanto che ci prenda:Prrr: :Prrr:
e sono abbastanza della sua idea....ora come ora non ce n'è veramente bisogno, si aspetterà una mezza mossa di amd per iniziare a mostrare cosa hanno in cantiere.
appleroof
17-01-2014, 14:10
Perchè commercialmente non c'era altra scelta "onorevole"... se facevano il gran fracasso pubblicitario delle nuove GTX800 Maxwell e se ne uscivano con quella schedina di fascia bassa... sai quanti insulti si prendevano dagli enthusiasti e quanti passavano ai crossfire di Radeon... :asd:
Per debuttare -commercialmente- con una nuova lineup di schede o hai il "cippone-che-asfalta" o meglio aspettare che fare delle figuraccie. ;)
Un forumista americano di quelli tosti ha scritto che secondo lui il 2014 sarà un "pipe cleaner" per il mondo VGA, i pezzi grossi arriveranno nel 2015 quando i processi a 20/16nm saranno più profittabili: io spero tanto che si sbagli. :muro:
Non ti seguo....che vuol dire commercialmente non c'era altra scelta etc? Bastava non uscire e basta, che significa uscire con una nuova architettura in una fascia medio bassa che non porta alcun ritorno di immagine? Mah...tra l'altro non hanno nemmeno la pressione di amd addosso che per esempio avevano ai tempi di kepler
Per il chippone che asfalta, pure kepler non ha debuttato con il chippone ma con quello di fascia media (pompato), non hanno mica aspettato gk110 per fare uscire la lineup nuova...
Infine, chi sarebbe il forumista tosto ammerikano? :D vogliamo le fonti :O
Phenomenale
17-01-2014, 14:48
Non ti seguo....che vuol dire commercialmente non c'era altra scelta etc? Bastava non uscire e basta
Sono d'accordo, potevano anche non uscire... magari volevano cominciare a testare driver & CUDA v6 con calma, chissà.
Poi sono solo rumors, magari ci esce l'inaspettato ;)
http://www.businessmagazine.it/news/tsmc-avvia-la-produzione-a-20-nanometri-con-un-mese-di-anticipo_50565.html
:ave:
Infine, chi sarebbe il forumista tosto ammerikano? :D vogliamo le fonti :O
Nel forum di VideoCardz un certo "Quinn FitzGerald" scrive in modo competente e sembra avere una certa visibilità del prossimo futuro, forse lavora nel settore commerciale della distribuzione. Di sicuro non è un faker come il "Pedantone" di XS! :Prrr:
Ok me ne resto tranquillo con le Titan sino a fine 2014, poi cambio tutto.
appleroof
19-01-2014, 12:00
NVIDIA's next-generation GPU architecture, codenamed "Maxwell," will debut this February, with the unexpectedly positioned GeForce GTX 750. The card will launch on February 18, to be specific. Maxwell will introduce a host of new features for NVIDIA, beginning with Unified Virtual Memory. The feature lets the GPU and CPU share the same memory. Such a feature is already implemented on the current CUDA, but Maxwell could be designed to reduce overhead involved in getting the thing to work. The next big feature is that Maxwell GPUs will embed a 64-bit ARM CPU core based on NVIDIA's "Project Denver." This CPU core will allow the GPU to reduce dependency on the system's main processor in certain GPGPU scenarios. Pole-vaulting the CPU's authority in certain scenarios could work to improve performance
Getting back to the GeForce GTX 750 Ti, NVIDIA's aim is simple, to see how "Maxwell" performs on the existing, proven 28 nanometer silicon fab process, before scaling it up on the future 20 nm nodes, with bigger chips. Given its name, we expect it to be positioned in between the GTX 760 and the GTX 660 in terms of gaming performance, but we won't be surprised if it falls into an entirely different league with GPGPU. There are no specifications at hand.
http://www.techpowerup.com/196956/nvidia-readies-geforce-gtx-750-ti-based-on-maxwell.html
appleroof
19-01-2014, 17:13
http://videocardz.com/49409/nvidia-geforce-gtx-750-ti-15-slower-gtx-660
MrBrillio
19-01-2014, 18:03
Boh io ormai inizio a non capirci più na cippa...schede che vanno come le vecchie..quindi dal mese prossimo si vedranno le nuove Nvidia? Mah..io prima di prendere una inchiappettata come con le 780 reference mi sa che aspetterò un bel po' prima di pensare di acquistarne una.
Phenomenale
19-01-2014, 18:18
io prima di prendere una inchiappettata come con le 780 reference
inchiappettata nel senso che poi sono uscite le TI che vanno più forte? :stordita:
pensa allora ai Titanisti che super inchiappettata... :O
PS. bravo appleroof, sei sempre in prima linea !!!
killeragosta90
19-01-2014, 18:25
News davvero interessanti! Vedremo un po sta 750 TI, sarà interessante vedere l'efficienza di 'sta schedozza...
suneatshours86
19-01-2014, 18:33
cavolo io sono ancora qui che spero in un ribasso dei prezzi ma credo non cambierà nulla per almeno 5 mesi.
killeragosta90
19-01-2014, 18:38
cavolo io sono ancora qui che spero in un ribasso dei prezzi ma credo non cambierà nulla per almeno 5 mesi.
No hai detto bene secondo me, nei prossimi mesi c'è ben poco da sperare su questo fronte... :stordita:
appleroof
19-01-2014, 18:56
il fatidico GM107, se davvero uscirà, sarà molto interessante solo per un aspetto per quanto mi riguarda..anzi due: primo e sopratutto per vedere com'è organizzata l'architettura, ossia se è come kepler -in termindi sostanziali- quanti cc ci sono all'interno di 1 smx rispetto appunto a kepler, e secondariamente se ha la cpu denver integrata gli scopi che essa potrebbe rivestire nei giochi -sopratutto in termini di compressione di memoria, secondo quanto mi pare di aver capito, ma è tutto da verificare...
edit: altrove cmq affermano che GM107 esca solo su mobile e che la 750ti sia ancora kepler, cosa che avrebbe parecchio più senso imho e cmq non cambierebbe le mie curiosità perchè sarebbe pur sempre maxwell con tutto quanto dicevo..vediamo
Tutte news molto interessanti, alla fine manca poco per verificare queste news.
mikael84
19-01-2014, 22:42
il fatidico GM107, se davvero uscirà, sarà molto interessante solo per un aspetto per quanto mi riguarda..anzi due: primo e sopratutto per vedere com'è organizzata l'architettura, ossia se è come kepler -in termindi sostanziali- quanti cc ci sono all'interno di 1 smx rispetto appunto a kepler, e secondariamente se ha la cpu denver integrata gli scopi che essa potrebbe rivestire nei giochi -sopratutto in termini di compressione di memoria, secondo quanto mi pare di aver capito, ma è tutto da verificare...
edit: altrove cmq affermano che GM107 esca solo su mobile e che la 750ti sia ancora kepler, cosa che avrebbe parecchio più senso imho e cmq non cambierebbe le mie curiosità perchè sarebbe pur sempre maxwell con tutto quanto dicevo..vediamo
24TMU per ogni SMX, quindi ogni 12 cuda una TMU che produrrebbero 288cuda totali a SMX coadiuvate da una cache l2 che passa da 1,5mb a ben 3mb e quella in scrittura e lettura a 128kb.
Di conseguenza con 15 SMX si arriverebbe a 4320cuda cores massimi per PP che lavorano insieme a 64 rops(come AMD).:D
sto fantasticando troppo, pero'mantenendo invariato il rapporto TMU(8-16-24) ne verrebbe fuori una roba simile:sofico:
appleroof
20-01-2014, 07:27
24TMU per ogni SMX, quindi ogni 12 cuda una TMU che produrrebbero 288cuda totali a SMX coadiuvate da una cache l2 che passa da 1,5mb a ben 3mb e quella in scrittura e lettura a 128kb.
Di conseguenza con 15 SMX si arriverebbe a 4320cuda cores massimi per PP che lavorano insieme a 64 rops(come AMD).:D
sto fantasticando troppo, pero'mantenendo invariato il rapporto TMU(8-16-24) ne verrebbe fuori una roba simile:sofico:
Secondo me è molto probabile tu ci abbia quasi beccato :cool: chissà :read:
24TMU per ogni SMX, quindi ogni 12 cuda una TMU che produrrebbero 288cuda totali a SMX coadiuvate da una cache l2 che passa da 1,5mb a ben 3mb e quella in scrittura e lettura a 128kb.
Di conseguenza con 15 SMX si arriverebbe a 4320cuda cores massimi per PP che lavorano insieme a 64 rops(come AMD).:D
sto fantasticando troppo, pero'mantenendo invariato il rapporto TMU(8-16-24) ne verrebbe fuori una roba simile:sofico:
Andrebbe un 70% meglio di 780 ti minimo, considerando le migliorie architetturali e un bus da 512 bit. Ideale per il 4k.
Phenomenale
20-01-2014, 09:33
24TMU per ogni SMX, quindi ogni 12 cuda una TMU che produrrebbero 288cuda totali a SMX coadiuvate da una cache l2 che passa da 1,5mb a ben 3mb e quella in scrittura e lettura a 128kb.
Di conseguenza con 15 SMX si arriverebbe a 4320cuda cores massimi per PP che lavorano insieme a 64 rops(come AMD).
Una scheda simile però non potrebbe uscire DX11 ed essere sfruttata appieno nei giochi, aspettiamocela minimo per le DX 12 (oppure Mantle versione per le verdi, o un ritorno di OpenGL per i giochi, o nuove fantaAPI)...
Le DX 11 hanno una allocazione statica delle risorse, per ogni thread DX non si può far lavorare oltre 128 TMU e 4096 CUDA. Solo con lo SLI è possibile superare questi limiti in DX 11, ogni scheda va su thread DX proprio. :O
mikael84
20-01-2014, 10:52
Una scheda simile però non potrebbe uscire DX11 ed essere sfruttata appieno nei giochi, aspettiamocela minimo per le DX 12 (oppure Mantle versione per le verdi, o un ritorno di OpenGL per i giochi, o nuove fantaAPI)...
Le DX 11 hanno una allocazione statica delle risorse, per ogni thread DX non si può far lavorare oltre 128 TMU e 4096 CUDA. Solo con lo SLI è possibile superare questi limiti in DX 11, ogni scheda va su thread DX proprio. :O
Che io sappia e'leggermente diversa.
Una TMU(texture management unit) si occupa del Texture blending ovvero riceve l'informazione dagli shader circa il colore ed il texel da applicare e li "mescola" assieme, in questo modo riesce ad applicare piu'texel per pixel all'immagine.
Con le DX11 ogni TMU puo'applicare sino a 128texel
Ogni TMU moltiplicata per ciclo di clock produce il Texture fillrate ovvero la velocità con cui la scheda riesce a ricoprire un poligono con una texture
192TMU x1ghz produce un fill rate di 192Gtexel/s
quindi al passo con uno ali di 780ti? :eek: :eek: :eek: :eek:
devo ricominciare a mettere i soldi da parte :asd:
Io sono in modalità Wait and See, alla fine 770 per 1920 è decisamente sovrabbondante.
Io sono in modalità Wait and See, alla fine 770 per 1920 è decisamente sovrabbondante.
addirittura sovrabbondante :eek: per me giusta senza regalare troppo, le prestazioni non sono mai abbastanza :sofico:
killeragosta90
20-01-2014, 18:03
Vi lascio con questa succosissima news....
NVIDIA to launch GeForce GTX TITAN Black Edition and GeForce GTX 790 (http://videocardz.com/48533/nvidia-launch-geforce-gtx-titan-black-edition-geforce-gtx-790)
Solitamente Videocardz ci azzecca parecchio :read: Comunque io commento con "piccolo" LOL :D
mikael84
20-01-2014, 18:46
Vi lascio con questa succosissima news....
NVIDIA to launch GeForce GTX TITAN Black Edition and GeForce GTX 790 (http://videocardz.com/48533/nvidia-launch-geforce-gtx-titan-black-edition-geforce-gtx-790)
Solitamente Videocardz ci azzecca parecchio :read: Comunque io commento con "piccolo" LOL :D
Si specifiche gia'viste qualche giorno fa.
Di certo se esce una simile dual gpu ora e questa "Titan TI", le fasce alte di Maxwell si faranno attendere:)
appleroof
20-01-2014, 18:51
Si specifiche gia'viste qualche giorno fa.
Di certo se esce una simile dual gpu ora e questa "Titan TI", le fasce alte di Maxwell si faranno attendere:)
imho fine anno, dopo l'estate al limite....
AceGranger
20-01-2014, 18:59
imho fine anno, dopo l'estate al limite....
se escono veramente ora si parlera tranquillamente di Q4 se non Q1 2015
addirittura sovrabbondante :eek: per me giusta senza regalare troppo, le prestazioni non sono mai abbastanza :sofico:
Imho ha un margine incredibile, per non parlare di 780. Ovviamente se hai un 120 hz potresti avere ragione. :)
Phenomenale
21-01-2014, 08:32
Vi lascio con questa succosissima news....
Succosissima?
Sono vecchi rumors di mesi fa (la dual e la black)... è da un po che VC non scriveva nulla di nuovo, qualcosa doveva riproporre, no? :p
Che io sappia e'leggermente diversa.
Una TMU(texture management unit) si occupa del Texture blending ovvero riceve l'informazione dagli shader circa il colore ed il texel da applicare e li "mescola" assieme, in questo modo riesce ad applicare piu'texel per pixel all'immagine.
Con le DX11 ogni TMU puo'applicare sino a 128texel Ogni TMU moltiplicata per ciclo di clock produce il Texture fillrate ovvero la velocità con cui la scheda riesce a ricoprire un poligono con una texture 192TMU x1ghz produce un fill rate di 192Gtexel/s
Davvero complimenti, sei un utente veramente preparatissimo nel campo delle schede video. Non ho capito una parola della tua risposta.
killeragosta90
21-01-2014, 09:24
Succosissima?
Sono vecchi rumors di mesi fa (la dual e la black)... è da un po che VC non scriveva nulla di nuovo, qualcosa doveva riproporre, no? :p
Guarda che e' da tempo che seguo le vicende (e ben o male le riporto pure qui sul thrad qualche volta, quando riesco ad anticipare apple, cosa non facile :p) MA qui più che rumors sembra una vera e propria notizia, ben più concreta, infatti sta facendo il giro nei vari siti importanti. Non dico che sia confermata ufficialmente la cosa ma poco ci manca, per quello ho scritto "succosissima" ;)
Voglio la 790!!
A qualcuno serve una 780 lightning?? :stordita:
mikael84
21-01-2014, 09:42
Davvero complimenti, sei un utente veramente preparatissimo nel campo delle schede video. Non ho capito una parola della tua risposta.
Spiegala bene tu ma non con kmetrici post in inglese, se la mia non ti garba;)
Anzichè uscirtene con battutine argomenta quello che hai scritto sulle 128 TMU e 4096Cuda massimi
http://videocardz.com/49445/asus-geforce-gtx-750-ti-listed-coming-mid-february
Nell'articolo ci sono ulteriori conferme che la GTX 750 Ti dovrebbe uscire verso metà febbraio (si parla del 18). Stando alle indiscrezioni di WhyCry la cattiva notizia sarebe che la serie 8xx di Nvidia dovrebbe essere ancora lontana. "Desktop GeForce 800 series are not coming any time soon".
Se davvero è una 660 con bus a 256bit questa 750ti credo di avere trovato il successore della mia 460, ready for Teso
http://www.tomshw.it/cont/news/nvidia-geforce-gtx-750-ti-tra-presunti-benchmark-e-prezzo/52688/1.html
Bho è ancora tutto in divenire, non sono nemmeno tanto sicuro sia la nuova architettura, bisogna avere più news per capire.
Ma poi se sostituisce 750 ti non dovrebbero fare bench vs quest'ultima?
<Masquerade>
24-01-2014, 19:41
Davvero complimenti, sei un utente veramente preparatissimo nel campo delle schede video. Non ho capito una parola della tua risposta.
ma dov'è questa nvidia a 28nm con nuova architettura che secondo te sarebbe andata un 30% + rispetto a quelle di ora???
come dicesti di la?basta il bus a 512bit e via....(sempre per la maxwell 28nm :rotfl: :asd: )
appleroof
24-01-2014, 20:49
http://itbbs.pconline.com.cn/diy/51108400.html
:fagiano:
<Masquerade>
24-01-2014, 21:32
http://itbbs.pconline.com.cn/diy/51108400.html
:fagiano:
a me sembra, dalle spec, ne + ne - una Kepler, sempre GK106
a meno che non si sbaglia gpu-z
appleroof
24-01-2014, 22:06
a me sembra, dalle spec, ne + ne - una Kepler, sempre GK106
a meno che non si sbaglia gpu-z
Si infatti...mah, vedremo.
a me sembra, dalle spec, ne + ne - una Kepler, sempre GK106
a meno che non si sbaglia gpu-z
Io ho sempre pensato lo fosse, che senso ha chiamarla 750ti?
http://itbbs.pconline.com.cn/diy/51108400.html
:fagiano:
che pezzenti stesso bus della 650 reference - ;/
Pat ti é arrivato il pvt?
Si' ho risposto nel 3d di Valley :)
Insomma fino al q4 niente top di gamma maxwell ?
Inviato dal mio LG-P880 utilizzando Tapatalk
Insomma fino al q4 niente top di gamma maxwell ?
Inviato dal mio LG-P880 utilizzando Tapatalk
Sinceramente spero nell'arrivo di una gtx 880 per luglio/settembre, mi sembrerebbe anche abbastanza plausibile come tempistica
Sinceramente spero nell'arrivo di una gtx 880 per luglio/settembre, mi sembrerebbe anche abbastanza plausibile come tempistica
Imho e' plausibile, vedendo gpuz di 750 ti e' ancora kepler quasi sicuramente, un 880gtx la aspettano in molti per il 4k.
AceGranger
25-01-2014, 11:37
Imho e' plausibile, vedendo gpuz di 750 ti e' ancora kepler quasi sicuramente, un 880gtx la aspettano in molti per il 4k.
i 16nm FinFET sono previsti in volumi nel Q1 2015; una GTX 880 nel Q3 sui 28 nm sarebbe poco superiore alle attuali e avrebbero AMD con le nuove VGA a 20 nm da li a 4-5 mesi e certamente nVidia non potrebbe lanciarle cosi vicino.
secondo me ci faremo tutto il 2014 con le TOP 780-780Ti-TitanB e 790, e le sostitute di queste nel Q1 2015 o tardo Q4 2014 a seconda di quando arriveranno i 16nm
i 16nm FinFET sono previsti in volumi nel Q1 2015; una GTX 880 nel Q3 sui 28 nm sarebbe poco superiore alle attuali e avrebbero AMD con le nuove VGA a 20 nm da li a 4-5 mesi e certamente nVidia non potrebbe lanciarle cosi vicino.
secondo me ci faremo tutto il 2014 con le TOP 780-780Ti-TitanB e 790, e le sostitute di queste nel Q1 2015 o tardo Q4 2014 a seconda di quando arriveranno i 16nm
I 20 nm sono gia' in produzione nelle fab 12 e 14 di Tsmc, tutto stara' a vedere quando usciranno i primi prodotti di fascia media su tale pp poi credo che in 2-3 mesi possa uscire una top.
Non credo che ci faremo un 2014 solo di Kepler.
AceGranger
25-01-2014, 15:36
I 20 nm sono gia' in produzione nelle fab 12 e 14 di Tsmc, tutto stara' a vedere quando usciranno i primi prodotti di fascia media su tale pp poi credo che in 2-3 mesi possa uscire una top.
Non credo che ci faremo un 2014 solo di Kepler.
A quanto pare l'unica versione dei 20 nm in produzione ora non è che sia il massimo per le GPU da computer.
nVidia Ha lanciato la 780 Ti a Novembre 2013, quindi credo che prima di un anno non si vedra nulla, visto che ora a quanto pare lancera pure la titan black e la 790.
Penso che nel 2014 vedremo Maxwell ma in fascia bassa/media sui 28 nm
i 16nm FinFET sono previsti in volumi nel Q1 2015; una GTX 880 nel Q3 sui 28 nm sarebbe poco superiore alle attuali e avrebbero AMD con le nuove VGA a 20 nm da li a 4-5 mesi e certamente nVidia non potrebbe lanciarle cosi vicino.
secondo me ci faremo tutto il 2014 con le TOP 780-780Ti-TitanB e 790, e le sostitute di queste nel Q1 2015 o tardo Q4 2014 a seconda di quando arriveranno i 16nm
Io ipotizzavo per settembre massimo (approssimativo) per una possibile gtx 880 a 20nm, non 28 visto che il processo a 20 è in anticipo di un mese nella produzione di massa rispetto a quanto avevano preventivato. Non capisco perché dovrebbero puntare per le soluzioni top, passando da 28 direttamente a 16 e non ai 20
A quanto pare l'unica versione dei 20 nm in produzione ora non è che sia il massimo per le GPU da computer.
nVidia Ha lanciato la 780 Ti a Novembre 2013, quindi credo che prima di un anno non si vedra nulla, visto che ora a quanto pare lancera pure la titan black e la 790.
Penso che nel 2014 vedremo Maxwell ma in fascia bassa/media sui 28 nm
Bella scheda la 780Ti ma non la vedo come un prodotto che potrebbe giustificare un anno intero senza novità vere con incrementi di prestazioni decisamente superiori. Non per sminuirla ma quella scheda la vedo più come una risposta alle r9 290x per mantenere lo scettro di vga più veloce in attesa di maxwell che la "scalzi" di qui a 7/8 mesi
AndreaMan
25-01-2014, 16:43
Per me Maxwell fascia top uscirà nell'arco temporale compreso tra novembre 2014 e febbraio 2015.....
Inviato dal mio Nexus 4 con Tapatalk 2
appleroof
25-01-2014, 17:08
http://translate.google.com/translate?sl=auto&tl=en&js=n&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F18221-geforce-gtx-750-ti-far-sallskap-av-gtx-750-kraver-ingen-extra-stromforsorjning&act=url
appleroof
25-01-2014, 19:14
Pare che alla fine Nvidia voglia aprirsi a soluzioni non proprietarie, si comincia dal "fur" che sarà usato in TW3 non tramite physx ma tramite directcompute (dovrebbe quindi girare pure su vga Amd)
http://physxinfo.com/news/12197/introducing-nvidia-hairworks-fur-and-hair-simulation-solution/
Pare che alla fine Nvidia voglia aprirsi a soluzioni non proprietarie, si comincia dal "fur" che sarà usato in TW3 non tramite physx ma tramite directcompute (dovrebbe quindi girare pure su vga Amd)
http://physxinfo.com/news/12197/introducing-nvidia-hairworks-fur-and-hair-simulation-solution/
Non durerà... :asd:
appleroof
25-01-2014, 19:23
Non durerà... :asd:
sarebbe una bella rivoluzione che alla fine gioverebbe a tutti i videogiocatori...credo che per come si sono messe le cose (console, mantle*, tressfx libero etc etc) nvidia sia stata in qualche modo costretta, è ovvio che non lo fà perchè è buona -spero solo per lei che abbia ripagato gli investimenti in ageia nel frattempo :asd: -
*come dicevo altrove, curioso che la per ora timida ma secondo me importante apertura di nvidia sia contemporanea all'uscita delle api proprietarie di amd, vediamo gli sviluppi pure qui (la mia speranza è che convergano entrambe su standard aperti e a loro volta fatti propri e migliorati nelle directx e ogl, e la competizione si sposti esclusivamente su fare chip migliori l'una dell'altra)
A quanto pare l'unica versione dei 20 nm in produzione ora non è che sia il massimo per le GPU da computer.
nVidia Ha lanciato la 780 Ti a Novembre 2013, quindi credo che prima di un anno non si vedra nulla, visto che ora a quanto pare lancera pure la titan black e la 790.
Penso che nel 2014 vedremo Maxwell ma in fascia bassa/media sui 28 nm
Vedremo, io sono fiducioso visto anche l'anticipo dei 20 nm, poi dipende anche dalla concorrenza.
Ale55andr0
25-01-2014, 21:54
è ovvio che non lo fà perchè è buona
tranquillo, non lo pensava nessuno :D
*come dicevo altrove, curioso che la per ora timida ma secondo me importante apertura di nvidia sia contemporanea all'uscita delle api proprietarie di amd, vediamo gli sviluppi pure qui (la mia speranza è che convergano entrambe su standard aperti e a loro volta fatti propri e migliorati nelle directx e ogl, e la competizione si sposti esclusivamente su fare chip migliori l'una dell'altra)
mah, più che altro imho è una risposta alla trollata di AMD chiamata freesync dove appunto si sottolinea in modo beffardo e chiaramente provocatorio "l'apertura" di una soluzione (come anche tress FX) più che a mantle, che pur non ancora visto all'opera è noto ormai da mesi, e al quale nvidia avrebbe potuto rispondere tempo addietro, se proprio voleva.
LurenZ87
26-01-2014, 09:20
http://i.imgur.com/Lxk7f4m.gif
http://videocardz.com/49465/asus-geforce-gtx-titan-black-6gb-memory-gets-listed-974-eur
:asd:
Inviato dal mio Nexus 4
appleroof
26-01-2014, 11:33
tranquillo, non lo pensava nessuno :D
mah, più che altro imho è una risposta alla trollata di AMD chiamata freesync dove appunto si sottolinea in modo beffardo e chiaramente provocatorio "l'apertura" di una soluzione (come anche tress FX) più che a mantle, che pur non ancora visto all'opera è noto ormai da mesi, e al quale nvidia avrebbe potuto rispondere tempo addietro, se proprio voleva.
il mio era un discorso generale, di principio, non 1:1 se mi spiego...
cut
http://videocardz.com/49465/asus-geforce-gtx-titan-black-6gb-memory-gets-listed-974-eur
:asd:
Inviato dal mio Nexus 4
sta gif fa male agli occhi :asd:
scheda buona sopratutto -se non quasi esclusivamente- a chi cerca una vga semipro senza volersi svenare per prendere una pro come la quadro
Obrigado
26-01-2014, 11:44
se esce la titan black edition, vuol dire che le prossime top arriveranno a settembre e che c'e' un'alta probabilita' che esca pure una dual.
ed in fine sono contento della longevita' della mia titan pagata 816€ a febbraio del 2013.
LurenZ87
26-01-2014, 11:59
se esce la titan black edition, vuol dire che le prossime top arriveranno a settembre e che c'e' un'alta probabilita' che esca pure una dual.
ed in fine sono contento della longevita' della mia titan pagata 816€ a febbraio del 2013.
La dual esce, è già in listino in un sito russo...
Avrà 6Gb di ram in totale e molto probabilmente i GK110 full (qualcosa imho di simile alla GTX 590, gpu complete con bassi clock).
Inviato dal mio Nexus 4
LurenZ87
26-01-2014, 12:02
Edit
appleroof
26-01-2014, 12:12
La dual esce, è già in listino in un sito russo...
Avrà 6Gb di ram in totale e molto probabilmente i GK110 full (qualcosa imho di simile alla GTX 590, gpu complete con bassi clock).
Inviato dal mio Nexus 4
questa se esco pazzo potrebbe e sottolineo potrebbe essere interessante per me che con il mio case non posso fare sli :Perfido:
edit: letto che dovrebbe costare più di 1000$...dovrei essere proprio pazzo :D
suneatshours86
26-01-2014, 16:55
gtx 790 e titan black...
robe che non potrò mai permettermi ma che mi lasciano ben fiducioso in un non tanto lontato ribassamento dei prezzi per le 780/780Ti
mikael84
26-01-2014, 16:57
La dual esce, è già in listino in un sito russo...
Avrà 6Gb di ram in totale e molto probabilmente i GK110 full (qualcosa imho di simile alla GTX 590, gpu complete con bassi clock).
Inviato dal mio Nexus 4
Quindi e'a tutti gli effetti 384bit(2) non 320 come da rumors
Obrigado
26-01-2014, 17:00
coooooosaaaaaa????
http://www.onlivespot.com/2014/01/nvidia-maxwell-steamos-machine-with-up.html?m=1
coooooosaaaaaa????
http://www.onlivespot.com/2014/01/nvidia-maxwell-steamos-machine-with-up.html?m=1
In estrema sintesi, introdurrebbero 16 core denver per aumentare drasticamente il numero delle draw-call che con mantle dovrebbero essere 150K ma è richiesto il supporto software, mentre con i suddetti core diventerebbero 1000K senza nessuna modifica al codice del gioco :eek:
LurenZ87
26-01-2014, 19:19
coooooosaaaaaa????
http://www.onlivespot.com/2014/01/nvidia-maxwell-steamos-machine-with-up.html?m=1
Sarebbe un ottima notizia, così non ci sarebbero più colli di bottiglia dovuti dalla cpu... Speriamo bene :)
Inviato dal mio Nexus 4
°Phenom°
26-01-2014, 19:22
Ottimo! Tra Mantle ed i core Denver giocheremo tutti con dei Pentium/Athlon da 30 euro abbinati a VGA da passa 1000 euro, magari in SLi/Cross :asd:
Ale55andr0
26-01-2014, 20:44
La dual esce, è già in listino in un sito russo...
Avrà 6Gb di ram in totale e molto probabilmente i GK110 full (qualcosa imho di simile alla GTX 590, gpu complete con bassi clock).
Inviato dal mio Nexus 4
è un controsenso, a quel punto meglio due singole 780ti 3gb per frequenze e prestazioni esprimibili, o due titan black da 6gb ciascuna, se si hanno 2000 euro da buttare :asd:
Ale55andr0
26-01-2014, 20:46
Ottimo! Tra Mantle ed i core Denver giocheremo tutti con dei Pentium/Athlon da 30 euro abbinati a VGA da passa 1000 euro, magari in SLi/Cross :asd:
:asd:
maxmix65
26-01-2014, 21:59
In estrema sintesi, introdurrebbero 16 core denver per aumentare drasticamente il numero delle draw-call che con mantle dovrebbero essere 150K ma è richiesto il supporto software, mentre con i suddetti core diventerebbero 1000K senza nessuna modifica al codice del gioco :eek:
Se fosse cosi la vedo molto male per Amd pero' solo il tempo ci dira' chi ha ragione
Ottimo! Tra Mantle ed i core Denver giocheremo tutti con dei Pentium/Athlon da 30 euro abbinati a VGA da passa 1000 euro, magari in SLi/Cross :asd:
Lol, bhe imho anche con questo si assistera' a un maggiore sfruttamento delle GPU eventualmente, il carico cpu potrebbe beneficiarne in ambito MT, quindi mi sa che Pentium e Athlon saranno sempre se stessi LOL
°Phenom°
26-01-2014, 22:02
Più che altro, la cosa brutta è che tutte queste tecnlogie, chissà da quanto tempo sono attuabili, ma finchè non ci spennano (per ovvi motivi) lasciano tutto com'è :D
°Phenom°
26-01-2014, 22:03
Lol, bhe imho anche con questo si assistera' a un maggiore sfruttamento delle GPU eventualmente, il carico cpu potrebbe beneficiarne in ambito MT, quindi mi sa che Pentium e Athlon saranno sempre se stessi LOL
Era una battuta sarcastica :D
Era una battuta sarcastica :D
Ma dai, l'avevo capito ho messo LOL a posta :). Oh se poi il Pentium che ho diventa un portento tanto meglio :)
LurenZ87
26-01-2014, 22:10
è un controsenso, a quel punto meglio due singole 780ti 3gb per frequenze e prestazioni esprimibili, o due titan black da 6gb ciascuna, se si hanno 2000 euro da buttare :asd:
è un controsenso che venderà comunque :asd:
°Phenom°
26-01-2014, 22:11
Ma dai, l'avevo capito ho messo LOL a posta :). Oh se poi il Pentium che ho diventa un portento tanto meglio :)
Beh, potrebbero iniziare a progettare cpu da pochi spiccioli ma con tanti core, tipo la apu che montano su console, poi faremmo il c*lo anche agli i7 4930K 5GHz in gaming :asd:
Beh, potrebbero iniziare a progettare cpu da pochi spiccioli ma con tanti core, tipo la apu che montano su console, poi faremmo il c*lo anche agli i7 4930K 5GHz in gaming :asd:
O sfruttare quelle che gia' ci sono :)
Ale55andr0
27-01-2014, 09:04
Se fosse cosi la vedo molto male per Amd pero' solo il tempo ci dira' chi ha ragione
non saprei... ma non credo, visto che mantle non si occupa solo di spremere di più la cpu ma anche l'architettura della propria gpu riutilizzando parte del lavoro svolto sulle console, cosa che nvidia teoricamente non può fare. Sono curioso in merito a questi "coprocessori" (chiamiamoli così), perchè se venissero integrati nel die andrebbero a sottrarre un po' di spazio per la gpu vera e propria anche col pp a 20nm, bisognerebbe vedere come bilanciare tutto al meglio e trovare la quadratura del cerchio per ottenere il massimo. Comunque si tratta di "rumors" del quale l'articolista non ha rivelato la fonte, in passato si era parlato di memoria integrata, non di cpu integrata per le prossime gpu, chi ci ha azzeccato? :confused:
appleroof
27-01-2014, 15:01
In estrema sintesi, introdurrebbero 16 core denver per aumentare drasticamente il numero delle draw-call che con mantle dovrebbero essere 150K ma è richiesto il supporto software, mentre con i suddetti core diventerebbero 1000K senza nessuna modifica al codice del gioco :eek:
ma come fanno a far girare codice x86 (mi si corregga se dico una stupidaggine) su cpu arm, visto che Denver quello dovrebbe essere? Cmq se fosse vero sarebbe una bomba e sarebbe una cosa fantastica, nessuna Api proprietaria e compatibilità immediata -credo- con tutti i giochi :ave:
Edit: altrove lo bollano sostanzialmente come fake :asd:
ma come fanno a far girare codice x86 (mi si corregga se dico una stupidaggine) su cpu arm, visto che Denver quello dovrebbe essere? Cmq se fosse vero sarebbe una bomba e sarebbe una cosa fantastica, nessuna Api proprietaria e compatibilità immediata -credo- con tutti i giochi :ave:
Esattamente come quando da codice x86 si esegue codice shader, i nostri amati driver si occuperanno della traduzione in un linguaggio comprensibile anche da denver.
Il punto cruciale però è: quanto di una draw-call è implementato nelle DirectX e quanto nei driver ?
Da quello che mi sembrava d'aver capito il numero esiguo di draw-call che oggi possono eseguire i nostri PC dipende esclusivamente da limitazioni intrinseche nelle DX e che AMD avrebbe superato con Mantle, ma se le cose stanno come indicato in quella news e tecnicamente è possibile spostare sui driver la logica che consente l'aumento delle draw-call, perchè AMD ha progettato Mantle quando avrebbe potuto lavorare esclusivamente sui driver ?
Ecco perché riflettendo meglio potrebbe essere un fake confezionato ad arte guarda caso ora che il runtime di Mantle è disponibile nei driver AMD, e che potrebbe indicare l'imminenza della patch per BF4 che dovrebbe supportarlo.
Ale55andr0
27-01-2014, 16:33
e che potrebbe indicare l'imminenza della patch per BF4 che dovrebbe supportarlo.
lassamo perdere guarda :asd:
appleroof
27-01-2014, 16:51
Esattamente come quando da codice x86 si esegue codice shader, i nostri amati driver si occuperanno della traduzione in un linguaggio comprensibile anche da denver.
Il punto cruciale però è: quanto di una draw-call è implementato nelle DirectX e quanto nei driver ?
Da quello che mi sembrava d'aver capito il numero esiguo di draw-call che oggi possono eseguire i nostri PC dipende esclusivamente da limitazioni intrinseche nelle DX e che AMD avrebbe superato con Mantle, ma se le cose stanno come indicato in quella news e tecnicamente è possibile spostare sui driver la logica che consente l'aumento delle draw-call, perchè AMD ha progettato Mantle quando avrebbe potuto lavorare esclusivamente sui driver ?
Ecco perché riflettendo meglio potrebbe essere un fake confezionato ad arte guarda caso ora che il runtime di Mantle è disponibile nei driver AMD, e che potrebbe indicare l'imminenza della patch per BF4 che dovrebbe supportarlo.
vedremo, in effetti pensandoci è un non senso quella notizia: secondo essa infatti potresti eliminare un collo di bottiglia sw aggiungendo ulteriore hw che dovrebbe fare un qualcosa che la cpu ben più potente e sottoutilizzata appunto per carenza sw non potrebbe fare? e per di più aggiungendo un lavoro aggiuntivo per tradurre le istruzioni x86 in ARM...Mah, non ho competenza sufficienti a capire e probabilmente mi sfuggono potenziali passaggi, ma mi vado convincendo sempre più che sia un gran bel fake.
AceGranger
27-01-2014, 16:54
Da quello che mi sembrava d'aver capito il numero esiguo di draw-call che oggi possono eseguire i nostri PC dipende esclusivamente da limitazioni intrinseche nelle DX e che AMD avrebbe superato con Mantle, ma se le cose stanno come indicato in quella news e tecnicamente è possibile spostare sui driver la logica che consente l'aumento delle draw-call, perchè AMD ha progettato Mantle quando avrebbe potuto lavorare esclusivamente sui driver ?
ora non so se sia fattibile o meno la storia delle chiamate, ma ammesso che sia vero, presumo che AMD abbia puntato sulla via di Mantle perchè nVidia su Denver ci sta lavorando da un bel po e perchè tutta la parte della CPU on die gli tornerebbe utile nelle Tesla e Quadro ( un mercato praticamente tutto in mano ad nVidia ) e in parte anche nei nuovi Tegra.
nel 2012 nVidia aveva presentato il Kit di sviluppo Carma, una prima incarnazioen del progetto Denver, una scheda con SOC Tegra 3 e una Quadro 1000M su PCI-EX 4X.
Mantle ha sicuramente richiesto meno soldi, meno tempo e meno energie di quello che dovrebbe richiedere l'integrazione di una CPU arm nel die di una GPU;
appleroof
27-01-2014, 16:54
intanto, il nuovo gpu-z aggiunge il supporto alle gpu maxwell?
Added support for NVIDIA GTX Titan Black, GTX 750 (GM107), GTX 750 Ti (GM107), GeForce 840M (GM108), GTX 760 (192-bit), GT 750M (Apple), GT 735M, GT 720M
http://www.techpowerup.com/197297/techpowerup-gpu-z-0-7-6-released.html
bronzodiriace
27-01-2014, 17:52
Sono fermo ai WHQL 331.93.
I nuovi come vanno?
appleroof
29-01-2014, 21:43
http://wccftech.com/nvidia-geforce-gtx-750-maxwell-gpu-pictured-features-768-cores-1020-mhz-core-clock/
Ricordo che il chip che sostituisce, gk107, ha 384 cc...
AceGranger
29-01-2014, 22:13
http://wccftech.com/nvidia-geforce-gtx-750-maxwell-gpu-pictured-features-768-cores-1020-mhz-core-clock/
Ricordo che il chip che sostituisce, gk107, ha 384 cc...
qualcosa non mi torna :stordita:
ha 768 cc 1020/1085 MHz, nel test va a 1215 MHz e va meno della 650 Ti con stessi cc a 1084 MHz ?
qualcosa non mi torna :stordita:
ha 768 cc 1020/1085 MHz, nel test va a 1215 MHz e va meno della 650 Ti con stessi cc a 1084 MHz ?
A me sembrano strane tante cose, 750 e non 850, sembra identico a Kepler come logica di funzionamento.. bho.
appleroof
30-01-2014, 14:33
qualcosa non mi torna :stordita:
ha 768 cc 1020/1085 MHz, nel test va a 1215 MHz e va meno della 650 Ti con stessi cc a 1084 MHz ?
A me sembrano strane tante cose, 750 e non 850, sembra identico a Kepler come logica di funzionamento.. bho.
non avete torto, anzi, altrove dicono che il numero di cc per smx è quello attuale ma allora in cosa cavolo cambia Maxwell? Solo nell'integrazione della cpu arm, che nei giochi non so a cosa possa servire (e che nei rumors su gm107 mi pare manco venga citata)? Mah..vediamo, l'unica grossa novità parrebbe un aumento del rapporto tmu/alu...troppo poco mi pare a meno che questo chip sia più un kepler 1.1 che Maxwell o a meno che la realtà sarà ben diversa...
AceGranger
30-01-2014, 15:04
non avete torto, anzi, altrove dicono che il numero di cc per smx è quello attuale ma allora in cosa cavolo cambia Maxwell? Solo nell'integrazione della cpu arm, che nei giochi non so a cosa possa servire (e che nei rumors su gm107 mi pare manco venga citata)? Mah..vediamo, l'unica grossa novità parrebbe un aumento del rapporto tmu/alu...troppo poco mi pare a meno che questo chip sia più un kepler 1.1 che Maxwell o a meno che la realtà sarà ben diversa...
teoricamente dovrebbe anche esserci la memoria condivisa via hardware, se questa VGA è veramente basata su Kepler sarebbe interessante vedere test con il la nuova versione di CUDA.
non avete torto, anzi, altrove dicono che il numero di cc per smx è quello attuale ma allora in cosa cavolo cambia Maxwell? Solo nell'integrazione della cpu arm, che nei giochi non so a cosa possa servire (e che nei rumors su gm107 mi pare manco venga citata)? Mah..vediamo, l'unica grossa novità parrebbe un aumento del rapporto tmu/alu...troppo poco mi pare a meno che questo chip sia più un kepler 1.1 che Maxwell o a meno che la realtà sarà ben diversa...
E' quello che mi chiedo io, da G80 a Fermi a Kepler ci sono state sostanziali differenze.
Predator_1982
31-01-2014, 07:19
bene, mi son liberato della Titan ad un prezzo decisamente buono prima che la svalutazione la mangiasse in pieno. Ora come ora ho deciso di andare avanti con l'integrata HD4000 :mbe: :D :D , è un periodo in cui il pc lo uso solo per vedere qualcosa sui forum di mio interesse e poi passo direttamente alla top di gamma Maxwell. A proposito di questo, dato che è da un po' che non seguo più ciò che succede, quando pensate sarà disponibile alla vendita la futura top gamma single gpu?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.