View Full Version : GeForce GTX Titan: la nuova scheda top di gamma di NVIDIA
Redazione di Hardware Upg
19-02-2013, 15:00
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/3536/geforce-gtx-titan-la-nuova-scheda-top-di-gamma-di-nvidia_index.html
Con GeForce GTX Titan NVIDIA utilizza per la prima volta il chip GK110 in una soluzione destinata al pubblico dei videogiocatori più esigenti. La risultante è un prodotto top di gamma, tanto per specifiche tecniche quanto per prezzo, per molti versi esclusivo.
Click sul link per visualizzare l'articolo.
aled1974
19-02-2013, 15:36
bene bene, allora esce per davvero in tempi rapidi, molto interessato
ciao ciao
Speriamo faccia scendere di un altro bel po' i prezzi della concorrenza :)
ZombieXXX
19-02-2013, 15:52
Con un prezzo al lancio di quasi 1000€ altro che scendere, potrebbero pure rialzarli i prezzi :D
...quindi se costa più di 500 euro è solo una bella prova di stile ma niente di che...
Cioè, ci vogliono 3000 € di sistema video (3xTitan in SLI) per far "girare" Crysis 3 a 5760x1080 a 46fps ? :eek:
Dopo che uno si compra 3000€ di roba, deve pure scendere a compromessi per arrivare a 60fps ? :eek:
Encounter
19-02-2013, 16:02
Mia al dai uno
Con un prezzo al lancio di quasi 1000€ altro che scendere, potrebbero pure rialzarli i prezzi :DNon dirmi così :( è da quando mi si è bruciata la HD6970 ed ho rimesso la HD5870 che non cambio vga...
lucabeavis69
19-02-2013, 16:05
Mammamia, 2688 shaders! E AMD non presenterà niente per tutto il 2013, giusto?
Sarei curioso di conoscerne le prestazioni con in render 3ds Max in confronto ad una Quadro
interessantissimo il display overclocking
AceGranger
19-02-2013, 16:24
Sarei curioso di conoscerne le prestazioni con in render 3ds Max in confronto ad una Quadro
il problema non sono tanto le prestazioni, quanto il fatto che i driver delle Quadro sono sicuramente piu stabili e riducono al minimo eventuali artefatti grafici.
comuque le Quadro Feermi sono arrivate quasi a fine vita, teoricamente dovrebbe uscire la nuova serie.
A meno di display dalle risoluzioni veramente generose, vedo questa scheda abbastanza inutile anche se con tutte le features "2.0". Poi leggere che per far girare Crysis 3 a 46fps servono 3000€ mi fa un po' ridere :D
Beltra.it
19-02-2013, 16:27
Mammamia, 2688 shaders! E AMD non presenterà niente per tutto il 2013, giusto?
perchè ha qualche senso continuare a produrre schede inutili?
una 580 è già troppo... figuriamoci il senso di ste schede...
Beltra.it
19-02-2013, 16:28
A meno di display dalle risoluzioni veramente generose, vedo questa scheda abbastanza inutile anche se con tutte le features "2.0". Poi leggere che per far girare Crysis 3 a 46fps servono 3000€ mi fa un po' ridere :D
fa ridere perchè fa capire quanto poco importi di ottimizzare i videogiochi, e quanto invece importi soltanto degli introiti che ne derivano, sia per le SH che per i produttori di schede
IMHO assurdamente inutile ma soprattutto prezzo FOLLE!!!
Ma esiste veramente qualcuno che spenderebbe 1.000€ (euro più, euro meno) per una scheda che alla fine non offre quasi che niente di più rispetto a schede che costano molto meno?!
Ma a parte chi la sfrutta per qualche tipo di lavoro grafico o che so di encode ma chi è così folle da comprarsi una scheda da 1.000€ (fosse targata AMD sarebbe uguale) per giocare a risoluzioni a dir poco folli!?! Che poi ovviamente vengono raggiunte solo in 3xSLI... che vuoi che sia solo 3.000€.
Allora a questo punto sai cosa... monto anche un armadio con 5 o 6 schede madri e altrettante CPU ovviamente modello CPU da 1.000€ l'una sia mai che crysis mi scatticchia.
IMHO ci dovremmo TUTTI a prescindere che sia Nvidia o AMD indignare e incazzar** quando vengono venduti prodotti truffa come questa scheda.
IMHO assurdamente inutile ma soprattutto prezzo FOLLE!!!
Ma esiste veramente qualcuno che spenderebbe 1.000€ (euro più, euro meno) per una scheda che alla fine non offre quasi che niente di più rispetto a schede che costano molto meno?!
Ma a parte chi la sfrutta per qualche tipo di lavoro grafico o che so di encode ma chi è così folle da comprarsi una scheda da 1.000€ (fosse targata AMD sarebbe uguale) per giocare a risoluzioni a dir poco folli!?! Che poi ovviamente vengono raggiunte solo in 3xSLI... che vuoi che sia solo 3.000€.
Allora a questo punto sai cosa... monto anche un armadio con 5 o 6 schede madri e altrettante CPU ovviamente modello CPU da 1.000€ l'una sia mai che crysis mi scatticchia.
IMHO ci dovremmo TUTTI a prescindere che sia Nvidia o AMD indignare e incazzar** quando vengono venduti prodotti truffa come questa scheda.
Se vai nel thread delle GTX 6xx è pieno di gente che non vede l'ora e a giudicare da alcuni commenti qui evidentemente c'è chi è disposto a spenderli.
Sono riusciti a battere il prezzo di debutto della 8800 Ultra :)
In altre preview, la scheda va' bene dal punto di vista della temperatura e del rumore, ed i consumi sono alti ma accettabili.
Ora tocca vedere le prestazioni, ma ho l'impressione che sarà davvero arduo giustificare il doppio del prezzo di una HD7970 GE 6GB o di una GTX680 4GB.
AceGranger
19-02-2013, 16:39
Ma esiste veramente qualcuno che spenderebbe 1.000€
bha, sono anni che vengono vendute Dual GPU a prezzi simili, ci sono in giro CPU da 1000 euro; c'è in giro parecchia gente che si fa un o SLI o CF di top gamma; alimentatori da 300 e schede madri da 350 - 400 euro; insomma, mi pare un mercato abbastanza florido.
gd350turbo
19-02-2013, 16:39
IMHO assurdamente inutile ma soprattutto prezzo FOLLE!!!
Ma esiste veramente qualcuno che spenderebbe 1.000€ (euro più, euro meno) per una scheda che alla fine non offre quasi che niente di più rispetto a schede che costano molto meno?!
Ma a parte chi la sfrutta per qualche tipo di lavoro grafico o che so di encode ma chi è così folle da comprarsi una scheda da 1.000€ (fosse targata AMD sarebbe uguale) per giocare a risoluzioni a dir poco folli!?! Che poi ovviamente vengono raggiunte solo in 3xSLI... che vuoi che sia solo 3.000€.
Allora a questo punto sai cosa... monto anche un armadio con 5 o 6 schede madri e altrettante CPU ovviamente modello CPU da 1.000€ l'una sia mai che crysis mi scatticchia.
IMHO ci dovremmo TUTTI a prescindere che sia Nvidia o AMD indignare e incazzar** quando vengono venduti prodotti truffa come questa scheda.
Eccerto che ce ne sono !!!
Solo su questo forum, in tanti stanno pensando di comprala ed alcuni di farsi pure lo sli / trisli, quindi solo qui ne verranno vendute un bel pò !
Poi cè il resto del mondo...
Lungi da me criticarli, se hanno 1000/2000/3000 euro che gli escono dalle tasche, e li vogliono spendere in schede video, che facciano.
hermanss
19-02-2013, 16:40
BELLA BESTIOLA!!! :O
Cioè, ci vogliono 3000 € di sistema video (3xTitan in SLI) per far "girare" Crysis 3 a 5760x1080 a 46fps ? :eek:
Dopo che uno si compra 3000€ di roba, deve pure scendere a compromessi per arrivare a 60fps ? :eek:
Ma per piacere :D
Io ho giocato crysis 1 a 5760x1080 tutto su very high con AA4x senza scendere quasi mai sotto i 30fps...il tutto con una sola GTX670.
E ora non venitemi a dire che crysis 3 sarà chissà quanto più pesante del primo crysis perchè non ci credo ;)
Hulk9103
19-02-2013, 16:58
bha, sono anni che vengono vendute Dual GPU a prezzi simili, ci sono in giro CPU da 1000 euro; c'è in giro parecchia gente che si fa un o SLI o CF di top gamma; alimentatori da 300 e schede madri da 350 - 400 euro; insomma, mi pare un mercato abbastanza florido.
Se sei ironico, bella lì... :D
Altrimenti quantifica il "parecchia gente".... Basta guardare le stat hardware di steam per capire come su 40 mln di persone, che presumibilmente comprende il 99.9% di gente che fanno certe config SOLO IL:
NVIDIA GeForce GTX 580 0.95% -0.07%
NVIDIA GeForce GTX 680 0.86% +0.08%
Se consideriamo tutti i miliardi di computer presenti in giro queste percentuali si dimezzeranno ancora, quindi non mi sembra poi così tanto florido il mercato...
Ma il display overclocking effettivamente come funziona? Che controindicazioni ci sono?
AceGranger
19-02-2013, 17:03
Se sei ironico, bella lì... :D
Altrimenti quantifica il "parecchia gente".... Basta guardare le stat hardware di steam per capire come su 40 mln di persone, che presumibilmente comprende il 99.9% di gente che fanno certe config SOLO IL:
NVIDIA GeForce GTX 580 0.95% -0.07%
NVIDIA GeForce GTX 680 0.86% +0.08%
Se consideriamo tutti i miliardi di computer presenti in giro queste percentuali si dimezzeranno ancora, quindi non mi sembra poi così tanto florido il mercato...
se i produttori continuano a investire su questi prodotti è perchè glieli comprano, c'è poco da fare è; se non fosse cosi avrebbero smesso di presentarli da tempo, e invece.... per quanto possano venderne pochi di questi prodotti sul monte totale, fanno generare utili migliori.
sinceramente non capisco come mai in questi 2-3 anni il prezzo delle gpu top di gamma si sia alzata così tanto. mi ricordo che quando era uscita la gtx295 (che possiedo) sborsai 480 dindini per la gpu top di gamma adesso per il top di gamma devo pagare il doppio sinceramente mi rode molto questa cosa......
Ma per piacere :D
Io ho giocato crysis 1 a 5760x1080 tutto su very high con AA4x senza scendere quasi mai sotto i 30fps...il tutto con una sola GTX670.
E ora non venitemi a dire che crysis 3 sarà chissà quanto più pesante del primo crysis perchè non ci credo ;)
Ma si è ovvio che in parte sia una markettata, quelli saranno i "minimum" FPS (seeeeeee speriamoci :D). Resta il fatto che il trend è profondamente sbagliato. Non si ottimizza più perchè tanto c'è potenza (anzi ben venga se si sfrutta e si lanciano nuovi prodotti). Ma tanto Crytek l'ha già detto che in 5 anni va sugli F2P quindi non ne faccio una tragedia se fanno un altro cesso di titolo. Poi se c'è gente che compra questa scheda, buon per loro :D Io con la 670 sono assolutamente soddisfatto.
calcolatorez3z2z1
19-02-2013, 17:14
Il prezzo è davvero titanico.Serve per giocare a livelli stratosferici???bah...
Ma si è ovvio che in parte sia una markettata, quelli saranno i "minimum" FPS (seeeeeee speriamoci :D). Resta il fatto che il trend è profondamente sbagliato. Non si ottimizza più perchè tanto c'è potenza (anzi ben venga se si sfrutta e si lanciano nuovi prodotti). Ma tanto Crytek l'ha già detto che in 5 anni va sugli F2P quindi non ne faccio una tragedia se fanno un altro cesso di titolo. Poi se c'è gente che compra questa scheda, buon per loro :D Io con la 670 sono assolutamente soddisfatto.
Se poi si guarda al fatto che i voti dati dalle testate non sono proprio esaltanti e che il gioco dovrebbe durare 5 ore il rapporto spesa utilità si riduce alquanto.
Ora come ora dovrei spendere 1000 euro per un solo gioco che dura uno sputo e a quanto pare non è nemmeno esaltante? Mmmmh...:what:
Per di più con l'incertezza che la pesantezza sia o meno giustificata anzichè essere solo un mezzo per far comprare schede su schede.
Sai, ci fossero tanti titoli validi a sfruttarla ci si potrebbe anche pensare nonostante ritenga lo stesso che siano prezzi folli.
Farete anche dei test per il GPGPU, ad esempio OpenCL?
Spider-Mans
19-02-2013, 17:30
se il prezzo si mantiene su 800 euro fra qualche mese ci faccio piu di un pensiero e ocn sta scheda si sta tranquilli una intera gen ...2700 shader cuda..panico :stordita:
Ma si è ovvio che in parte sia una markettata, quelli saranno i "minimum" FPS (seeeeeee speriamoci :D). Resta il fatto che il trend è profondamente sbagliato. Non si ottimizza più perchè tanto c'è potenza (anzi ben venga se si sfrutta e si lanciano nuovi prodotti). Ma tanto Crytek l'ha già detto che in 5 anni va sugli F2P quindi non ne faccio una tragedia se fanno un altro cesso di titolo. Poi se c'è gente che compra questa scheda, buon per loro :D Io con la 670 sono assolutamente soddisfatto.
Idem, ma se costasse molto meno sarebbe una scheda eccezionale in verità ;)
BrninTark
19-02-2013, 17:36
vediamo, questo mese pago affitto+bollette+spesa oppure compro una vga?
beato chi se la può permettere :rolleyes:
vediamo, questo mese pago affitto+bollette+spesa oppure compro una vga?
beato chi se la può permettere :rolleyes:
io anche potessi permettermene 10 di queste VGA in un mese, non me le prenderei. Il rapporto prezzo\prestazioni è quanto di più scandaloso ci sia. E' ovvio che molti la compreranno, se uno va a leggere i forum di informatica trovi sempre gente che non bada a compromessi...ma il mio sogno sarebbe vedere che nvidia non ne vendesse manco una. Un sogno appunto.
simplyrev
19-02-2013, 17:41
L'Hyper-Q e Dynamic Parallelism sono DISABILITATI. Il motivo ? Ovvio impedire sistemi multi GPU assemblati appositamente per il GPU COMPUTING ( spendere ad es. solo 3000 euro invece di 15000 necessari per la version TESLA !.
Sbaglio a vederla semplicemente come una GTX680 con un chip più grande dovuto al più alto livello di parallelismo?
Alla fin fine mi sembra una unione di 2 GK104 in un singolo chip anzichè fare uno SLI giusto per poter dire "abbiamo la vga single chip più veloce", ma se i prezzi sono quelli, penso che convenga uno SLI di GTX680, o direttamente una GTX690.
Se vai nel thread delle GTX 6xx è pieno di gente che non vede l'ora e a giudicare da alcuni commenti qui evidentemente c'è chi è disposto a spenderli.
Nvidia non ha comunque prezzi popolarissimi, dalle schede entry level (GT610 compresa) alle enthusiast, e infatti ogni tanto associo i fanboy nvidia ai fanboy Apple: il prezzo non conta.
Si vede che le tasse sono ancora troppo basse in Italia :asd:
Nvidia potrebbe contattare Tamara Ecclestone come testimonial della Titan :asd:
P.S.: Il perchè qui :asd:
http://d.repubblica.it/argomenti/2013/02/19/foto/tamara_ecclestone_processo_soldi-1517132/2/#media
Lupettina
19-02-2013, 17:52
Si vede che le tasse sono ancora troppo basse in Italia :asd:
:asd:
(La realtà è che in Italia le tasse le pagano solo quelli a basso reddito che oltretutto neanche le possono evadere perché a busta paga ;) )
moddingpark
19-02-2013, 17:59
Le memorie, per giunta non dissipate, sul retro della scheda sono un errore, pensavo avessero imparato dalle generazioni precedenti; e come scritto da HWUpgrade, visto quel che costa la scheda avrebbero potuto usare un backplate.
Inoltre non condivido questa nuova moda dei costruttori di ostruire parte dei fori sulla parte posteriore con connessioni video aggiuntive; avrebbero potuto benissimo mettere un solo DVI-I, un mini-HDMI e uno o due mini DisplayPort, con qualche adattatore video in bundle.
Al contrario di quando scritto nell'articolo, il connettore DP è quello standard.
Speriamo faccia scendere di un altro bel po' i prezzi della concorrenza :)
La concorrenza ce li ha già abbastanza bassi, anzi, come detto da qualcuno questo potrebbe essere un pretesto per alzarli.
Hulk9103
19-02-2013, 18:06
L'Hyper-Q e Dynamic Parallelism sono DISABILITATI. Il motivo ? Ovvio impedire sistemi multi GPU assemblati appositamente per il GPU COMPUTING ( spendere ad es. solo 3000 euro invece di 15000 necessari per la version TESLA !.
Finchè la gente le compra non vedo per quale motivo nvidia debba cambiare strada, anzi dovrebbe far ancora peggio tanto la gente PRIMO non lo sà, SECONDO la comprerebbe anche se lo sapesse.
Where's the problem??? :)
.338 lapua magnum
19-02-2013, 18:28
quello che non mi è chiaro ( senza bench è difficile capirlo, dannate anteprime) nonostante le miliardate di transistor in più nel gpgpu ha performance simili sia in singola che in doppia precisione di una 7970?
(fonte nvidia - amd).
se è confermato (attendiamo 'sti bench) o titan non eccelle (strano perché deriva da una tesla) o tahiti è pesantemente sbilanciato. :what:
sbudellaman
19-02-2013, 19:01
Davvero interessante questo display overclocking! Però mi puzza un pò di bufala, nel senso che già mi immagino miriadi di problemi e controindicazioni che lo renderanno sconveniente da applicare. Se però così non fosse sarebbe una piccola rivoluzione... in tal caso mi chiederei se in futuro questa tecnologia sarà implementata anche nelle altre schede nvidia (400-500-600) tramite aggiornamento driver, se è dunque un funzionamento software, o se invece richiede particolari specifiche hardware presenti solo su titan.
aled1974
19-02-2013, 19:27
Farete anche dei test per il GPGPU, ad esempio OpenCL?
quoto, interessato proprio a questi aspetti, openCl e cuda :D
ciao ciao
TigerTank
19-02-2013, 19:48
3 titan da 3000€ per far girare Crysis3 maxato con un surround di monitor fullHD.... davvero una pubblicità convincente :asd:
Sarei curioso di conoscerne le prestazioni con in render 3ds Max in confronto ad una Quadro
Guarda che i render vengono calcolati dalla CPU:fagiano:
Ci sono motori di render che sfruttano la GPU ma lo, tra una Quadro ed una GeForce cambia poco e niente.
La differenza è nella gestione delle scene.
Io ad esempio uso vray RT su un pc con una GTX480 e va molto meglio rispetto al portatile che ha su una Quadro 4000, di contro, modellando, la GTX480 sembra un'integrata rispetto alla Quadro:D
Questa sarebbe una bella bestia da usare per chi gioca e per chi la vuole usare come calcolatore Cuda (render in tempo reale, encoding, ecc...)
Dragon2002
19-02-2013, 20:00
Serve eccome,serve per far vendere le schede di fascia più bassa con la nuova architettura,il top di gamma da sempre trascina le vendite delle altre schede video e infine se questa è di gran lunga più potente del vecchio top di gamma avversario in questo caso di Ati,anche le schede inferiori e più convenienti economicamente anche se di poco lo saranno. Certo che forse stavolta il prezzo è davvero folle,500-600 euro sarebbero bastati e a livello software cioè i games non c'è nulla se non il solo crysis 3 che ne giustifichi l'acquisto tra l'altro dalle prime recensioni sembra un gioco peggiore del 2 con una longevità ridicola.
L'Hyper-Q e Dynamic Parallelism per fare render con la Gpu credo servano a poco. Sono specifiche usate dai centri di calcolo, ( che non potrebbero mai usare delle desktop)non dagli utenti privati che usano iRay e 3d Studio Max, tanto per fare un esempio con il sw 3d più usato, ma ormai ce ne sono una decina che usano quasi esclusivamente Cuda, e comunque maggiormente Nvidia. Questa Titan per questo scopo diventa una soluzione estremamente economica, da ricordare che la Tesla K20 costa quasi ottomila dollari, e due xeon seri con engine cpu da tremila in su. Con un paio di queste un render A3 a 300 dpi di un interno si realizza in un decimo rispetto ad una soluzione simile cpu, che costa il doppio come minimo.
Forse il discorso sulla poca utilità di una tale soluzione vale per il gamer.
Serve eccome,serve per far vendere le schede di fascia più bassa con la nuova architettura,il top di gamma da sempre trascina le vendite delle altre schede video e infine se questa è di gran lunga più potente del vecchio top di gamma avversario in questo caso di Ati,anche le schede inferiori e più convenienti economicamente anche se di poco lo saranno. Certo che forse stavolta il prezzo è davvero folle,500-600 euro sarebbero bastati e a livello software cioè i games non c'è nulla se non il solo crysis 3 che ne giustifichi l'acquisto tra l'altro dalle prime recensioni sembra un gioco peggiore del 2 con una longevità ridicola.
Ecco appunto, mi sa che non ne giustifica l'acquisto manco quello.
Quoto sul prezzo, se fosse costata meno forse tra qualche tempo potrebbe essere anche stata interessante/utile ma tra qualche tempo (parlo di next gen) ci saranno già altre schede.
Certo al di là dell'ambito gaming può servire per altri scopi.
@less@ndro
19-02-2013, 20:39
fighissimo il display overlock, quindi se uno ha gia il 120? :D
comunque gli hz in piu' non servono ad evitare il tearing ma ad aumentare la fluidita'. :sisi:
AceGranger
19-02-2013, 20:42
Ecco appunto, mi sa che non ne giustifica l'acquisto manco quello.
Quoto sul prezzo, se fosse costata meno forse tra qualche tempo potrebbe essere anche stata interessante/utile ma tra qualche tempo (parlo di next gen) ci saranno già altre schede.
Certo al di là dell'ambito gaming può servire per altri scopi.
in campo grafico dovrebbe avere un buon rapporto prezzo/prestazioni, anche perchè credo che sia l'unica VGA ad avere 6 Gb Ram ( tesla escluse ).
Luiprando
19-02-2013, 20:45
perdonate l'ignoranza ma non é prevista una versione "7"? tipo 670 - 570 - 470...
cioé intendo una versione depotenziata ma ugualmente al top, come poi è sempre successo con tutte le serie nvidia... o la serie GTX 780 - 770 ecc. verrà presentata dopo? non è chiaro...
TigerTank
19-02-2013, 20:52
in campo grafico dovrebbe avere un buon rapporto prezzo/prestazioni, anche perchè credo che sia l'unica VGA ad avere 6 Gb Ram ( tesla escluse ).
Credo che l'utilizzo più conveniente sia per chi la usa sia per gaming che per applicazioni che necessitino di molta vram. Per il solo gaming la trovo una scheda poco equilibrata(troppa vram con una gpu inferiore ad uno Sli di gtx670/680) e troppo costosa.
Lupettina
19-02-2013, 21:00
Davvero interessante questo display overclocking! Però mi puzza un pò di bufala, nel senso che già mi immagino miriadi di problemi e controindicazioni che lo renderanno sconveniente da applicare. Se però così non fosse sarebbe una piccola rivoluzione... in tal caso mi chiederei se in futuro questa tecnologia sarà implementata anche nelle altre schede nvidia (400-500-600) tramite aggiornamento driver, se è dunque un funzionamento software, o se invece richiede particolari specifiche hardware presenti solo su titan.
Secondo me è una geniale idea di una semplicità inaudita, che terranno ad appannaggio di questa scheda per sfruttarla come potenziale traino di vendita.
Tutti i monitor sono tarati, tramite i driver, per lavorare a determinate frequenze standard. Ciò non sognifica che il loro controller smetta di funzionare come le si supera. C'è un certo margine prima che il controller smetta di lavorare correttamente, come nelle cpu.
Probabilmente questo limite imposto (le frequenza standard) può essere ignorato dai driver, per mandare al monitor la richiesta di mostrare le immagini alla frequenza che scegli te.
Quindi credo che loro ti permattano di selezionare la frequenza che vuoi e di vedere se regge. Salendo piano piano scoprirai fin dove arriva il tuo monitor. Quando non regge, non vedi nulla e dopo qualche secondo torna alla vecchia impostazione in automatico perché non hai cliccato su Accetta in tempo :)
A intuito penso che sia una cosa molto facile da ottenere e che qualunque scheda grafica potrebbe fare se vi fosse l'opzione disponibile nel relativo pannello di controllo. Poi è ovvio, con una Radeon 5450 che usi solo per vedere Facebook, non avrebbe senso, perché i 60Mhz di refresh del montor ti bastano e ti avanzano :D
lo fai in tutti i monitor nelle risoluzioni custom.
ad esempio ora sono in garage dove uso un monitor 19" 1280*1024 con matrice rotta (la mia adorata piccina), a cui ho impostato una risoluzione 1280*768 a 75hz... e' diventato un 17" 16/10, ma per certi versi va' meglio di prima!
questa tecnologia fa' solo in modo di operare su definizioni custom preimpostate (magari con un set per certi modelli).
lo chiamo lo sfigaMONITO (ossia un monito a non lasciare la piccina davanti a cose delicate).
le statistiche dicono questo per un semplice motivo:
chi si fa queste configurazioni "esose" il 95% delle volte è un nerd con manie di protagonismo che sta tutto il giorno a benchare con giochi pirata e postare i risultati sul forum e non gioca mai.
non me ne voglia nessuno, ho lasciato un 5% apposta, ma la realtà dei fatti è questa.
LOL :asd:
ah... 1000 euro sono un triple SLI o CF con le schede piu' veloci in commercio oggi... ci fai molto di piu'.
Tolto che per quella cifra, è sempre meglio una Titan di una 7970 Ares II,... mi chiedo: ma dove diavolo stiamo andando con sti soldi,... ma che l'hanno presi per noccioline????:muro:
birmarco
19-02-2013, 21:54
Che scheda! :sbavvv:
In attesa dei benchmark! Secondo me macinerà a palla!
A chi critica il prezzo, non ha capito il prodotto! Questa è una scheda gamer ma non solo, offre prestazioni double precision che neanche con uno SLI o CF raggiungi, rimanendo nel costo ovviamente.
Poi qualcuno fa i conti senza l'oste, è vero che con un tri sli la superi (forse) ma l'alimentatore da 1200W e oltre? La MB ma 500€? Il consumo? Il calore? Uno SLI ciuccia come un cane le risorse energetiche... e costa da configurare. Ha sempre problemi con i driver e con i giochi e il supporto ad applicazioni GPGPU. Una soluzione del genere risolve tutti i problemi.
La propongono come scheda per Crysis 3 perchè la Crytek ha sganciato i bigliettoni, ma a parte soddisfare qualche gamer viziato, lo scopo di questa VGA è un altro.
PhoEniX-VooDoo
19-02-2013, 21:58
ma per pura curiosità statistica, nel settembre del 2000, quando usciva la Geforce2 Ultra da 1 Milione di Lire, voi dove eravate?
no chiedo perché io ero qua su hwup a commentare.. e parliamo di una scheda che rispetto alla GTS (cvhe costava la metà) semplicemente aveva frequenze superiori, ovvero si passava da 200MHz/333MHz a 250MHz/460MHz (GPU/RAM).
quindi non capisco di che vi scanalizzate dei 900 euro di Titan...
comunque gli hz in piu' non servono ad evitare il tearing ma ad aumentare la fluidita'. :sisi:
servono anche ad evitare il tearing...io a 120hz non lo uso quasi nemmeno più il vsync.
sbudellaman
19-02-2013, 22:25
i 60Mhz di refresh del montor ti bastano e ti avanzano :D
60 MEGAhertz ? Magari :D
Apparte gli scherzi spero che tu abbia ragione, invero mi sembra un pò strano che nessuno ci abbia mai pensato prima ma tant'è! Sinceramente non sapevo neanche fosse tecnicamente possibile una cosa del genere. Speriamo venga implementato anche nei driver delle altre schede nvidia. Dite che questa nuova procedura potrebbe comportare dei rischi? quanto sono sensibili i monitor all'aumento di frequenza?
birmarco
19-02-2013, 23:10
60 MEGAhertz ? Magari :D
Apparte gli scherzi spero che tu abbia ragione, invero mi sembra un pò strano che nessuno ci abbia mai pensato prima ma tant'è! Sinceramente non sapevo neanche fosse tecnicamente possibile una cosa del genere. Speriamo venga implementato anche nei driver delle altre schede nvidia. Dite che questa nuova procedura potrebbe comportare dei rischi? quanto sono sensibili i monitor all'aumento di frequenza?
In realtà l'overclock del monitor è già possibile con qualunque VGA, basta settare la frequenza di refresh desiderata e la VGA la setta :) il problema è che oltre certi valori (quelli dichiarat) quasi tutti i monitor rifiutano il valore. Ma è il software di controllo che lo rifiuta.
Il mio Yamakasi non ha OSD e nemmeno qualche sistema di controllo, a parte la luminosità, fai tutto da VGA. E' di default a 60Hz ma puoi overclockarlo fino a oltre 120Hz, ma va a fortuna, proprio come le CPU :D Il mio arriva a 67Hz :)
Penso che questa nVidia riesca in qualche modo a bypassare il controllo, perchè come feature per i monitor senza blocco esiste da sempre :)
@less@ndro
19-02-2013, 23:16
servono anche ad evitare il tearing...io a 120hz non lo uso quasi nemmeno più il vsync.
beh ma quello semplicemente perche' non superi i 120fps, che poi dipende dal motore grafico, tipo quello di quake\cod anche con 250 si vede liscio liscio. se metti 80hz senza vsync e fai piu' di 80 fps con un gioco che fa tearing a voglia come lo vedi. :D e' come dire che aumenti il limite massimo di velocita' in autostrada a 400 kmh cosi' la gente non superando il limite massimo fa meno incidenti! :asd:
sbudellaman
19-02-2013, 23:50
In realtà l'overclock del monitor è già possibile con qualunque VGA, basta settare la frequenza di refresh desiderata e la VGA la setta
ma dove? nel pannello di controllo nvidia non trovo questa funzione. Mi permette di selezionare solo i soliti 60hz che sono impostati di default...
ilratman
19-02-2013, 23:55
il problema non sono tanto le prestazioni, quanto il fatto che i driver delle Quadro sono sicuramente piu stabili e riducono al minimo eventuali artefatti grafici.
comuque le Quadro Feermi sono arrivate quasi a fine vita, teoricamente dovrebbe uscire la nuova serie.
speriamo a breve, la quadro 4000 comincia ad essermi stretta e la 5000k non la voglio perchè mi serve il double precision (infatti nvidia furbamente consiglia di affiancarla ad una tesla k20)
aspetto la nuova 6000k, speriamo a breve.
Lupettina
20-02-2013, 01:09
60 MEGAhertz ? Magari :D
OPS :p
Cmq mi ricordo benissimo che anni fa, smanettando con i driver per monitor (quelli vecchi per Win 98/2000, che erano dei semplici .txt) potevo dire io al driver quali erano i refresh disponibili per ogni risoluzione che volessi far supportare al monitor.
Ora ci sono i file .icm ma sono sicuro al di là del formato del driver stesso, il principio di funzionamento sia esattamente lo stesso :)
Ogni monitor ha un margine di overclock diverso, impossibile fare una previsione, ma salvo eccezioni, non penso che sia possibile andare oltre i 10/15Hz per quelli normali e qualcosa di più per i 120Hz.
Lian_Sps_in_ZuBeI
20-02-2013, 01:55
mi accontento della mia gtx 660ti,Ultra soddisfatto 42°C sul motore grafico di Lineage2,e 50°C su diablo3..
mai piaciute le top gamma,non a me,ma al mio portafoglio ;)
perdonate l'ignoranza ma non é prevista una versione "7"? tipo 670 - 570 - 470...
cioé intendo una versione depotenziata ma ugualmente al top, come poi è sempre successo con tutte le serie nvidia... o la serie GTX 780 - 770 ecc. verrà presentata dopo? non è chiaro...Per ora è un mistero che solo Nvidia conosce.
ma per pura curiosità statistica, nel settembre del 2000, quando usciva la Geforce2 Ultra da 1 Milione di Lire, voi dove eravate?
no chiedo perché io ero qua su hwup a commentare.. e parliamo di una scheda che rispetto alla GTS (cvhe costava la metà) semplicemente aveva frequenze superiori, ovvero si passava da 200MHz/333MHz a 250MHz/460MHz (GPU/RAM).
quindi non capisco di che vi scanalizzate dei 900 euro di Titan...
Beh!....se vogliamo fare paragoni fantasiosi come 1000 lire= 1,00 Euro potresti anche aver ragione. Peccato solo che fantasia, valuta e inflazione sono cose differenti: non so a casa tua ma nella mia 900 Euro sarebbero la bellezza di 1.742.643 Lire.
No lo dico solo perché proprio prima del 2000 il mio stipendio era di 1.600.000 onestissime e sudate Lire, per poi ritrovarmi per un lungo periodo con circa 800 risicati Euro di punto in bianco. Se tu vuoi sotto intendere che siano "la stessa cosa" due sono le cose: o non abiti in Italia o hai cominciato a lavorare e a prendere uno stipendio solo da ieri.
Non voglio fare polemiche ma bisogna smetterla di pensare che le cose non cambino o che qualcuno faccia regali o sconti: l'hardware PC diventa sempre più potente? ce lo faranno pagare sempre di più come hanno sempre fatto. C'è poco da fare.
Dragon2002
20-02-2013, 02:54
Per ora è un mistero che solo Nvidia conosce.
Beh!....se vogliamo fare paragoni fantasiosi come 1000 lire= 1,00 Euro potresti anche aver ragione. Peccato solo che fantasia, valuta e inflazione sono cose differenti: non so a casa tua ma nella mia 900 Euro sarebbero la bellezza di 1.742.643 Lire.
No lo dico solo perché proprio prima del 2000 il mio stipendio era di 1.600.000 onestissime e sudate Lire, per poi ritrovarmi per un lungo periodo con circa 800 risicati Euro di punto in bianco. Se tu vuoi sotto intendere che siano "la stessa cosa" due sono le cose: o non abiti in Italia o hai cominciato a lavorare e a prendere uno stipendio solo da ieri.
Non voglio fare polemiche ma bisogna smetterla di pensare che le cose non cambino o che qualcuno faccia regali o sconti: l'hardware PC diventa sempre più potente? ce lo faranno pagare sempre di più come hanno sempre fatto. C'è poco da fare.
Nel 2000 quando presi il primo pc e non era nemmeno al top spesi 3 milioni di lire,ora con 800 euro si ha un pc della stessa qualità e potenza di quello che acquistai allora. Mentre con 1000 euro è addirittura più potente,la domanda dell' hardware pc è diminuita sensibilmente causa l'arrivo in massa di smartphone e tablet che hanno sostituito il pc in ambito browser,facebook,mail e le console in ambito gaming. Ora assemblare un pc potente è molto più conveniente di 13 anni fa. Solo questa scheda sembra uscire fuori da queste regole e costare di più di quanto costava la top gamma vga di 10 anni fa e oltre.
Cioè, ci vogliono 3000 € di sistema video (3xTitan in SLI) per far "girare" Crysis 3 a 5760x1080 a 46fps ? :eek:
Dopo che uno si compra 3000€ di roba, deve pure scendere a compromessi per arrivare a 60fps ? :eek:
Ormai ti devi fare una console o niente, io di soldi per pc non ne spendo più finchè non decidono di ottimizzare i titoli...assurdo che con 580 - 680 titan un gioco pensato per hw obsoleto deve girare a 46 fps
no sense, magari tra 2-3 anni e si troverà a 100€ o poco più come la 8800 ultra..
sbudellaman
20-02-2013, 08:13
Nel 2000 quando presi il primo pc e non era nemmeno al top spesi 3 milioni di lire,ora con 800 euro si ha un pc della stessa qualità e potenza di quello che acquistai allora.
Il 2000 è stato 13 anni fa, un pc dell'epoca è roba da museo a prescindere da quanto ci hai speso e oggi ne varrà si e no 200 altro che 800. Anzi guarda è sufficiente uno smartphone per avere qualcosa di più potente :asd:
Poi si, è vero anche che oggi per avere un pc discreto serve meno denaro.
In ogni caso le vga discrete supercostose ci sono sempre state, solo che di recente è cosa rara perchè amd e nvidia sfornano top di gamma di pari livello. Ma quando qualche anno fa la 8800 ultra regnava nettamente su tutte, la pagavi la bellezza di 900 euro.. se sarà lo stesso con questa scheda il prezzo è giustificato. Senza contare i costi di produzione che di questa Titan non conosciamo ancora, giusto 6 mesi fa vi ricordo una certa gtx690 a ben 1000 euro di listino.
mattxx88
20-02-2013, 08:14
Per ora è un mistero che solo Nvidia conosce
Ma dove? è gia stato detto che la serie 7xx è un altra cosa rispetto a Titan e che uscirà dopo
Mi sembra che si sia perso il senso della misura. Una continua rincorsa verso CPU performanti, VGA strasuperpotenti, alimentatori da centrale nucleare per poi dimenticarsi che con un 486 siamo andati sulla Luna.
E in barba a tutti i principi di riduzione dei consumi, ottimizzazione delle risorse e valutazione dei costi troviamo l'ennesima prodotto fuori da ogni senso logico.
Che erano belli i tempi dell'Amiga, quando bastava comprarlo ed eri apposto perchè non occorreva altro.
Spero tanto che i produttori finalmente capiscano che non sono loro a fare il mercato ma i consumatori finali...e spero altrettanto che i consumatori capiscano che non devono cadere nella tentazione di alimentare questi produttori famelici e divoratori.
sbudellaman
20-02-2013, 08:18
Cioè, ci vogliono 3000 € di sistema video (3xTitan in SLI) per far "girare" Crysis 3
Ormai ti devi fare una console o niente
Altra cavolata... uno dovrebbe passare dal pc a console per "non scendere a compromessi" ? Vi ricordo che su console giocate a qualità e risoluzioni castratissime che eguagli anzi superi con una schedina da 70 euro. Semmai uno passa alla console per la semplicità d'uso, null'altro.
gd350turbo
20-02-2013, 08:31
ma per pura curiosità statistica, nel settembre del 2000, quando usciva la Geforce2 Ultra da 1 Milione di Lire, voi dove eravate?
no chiedo perché io ero qua su hwup a commentare.. e parliamo di una scheda che rispetto alla GTS (cvhe costava la metà) semplicemente aveva frequenze superiori, ovvero si passava da 200MHz/333MHz a 250MHz/460MHz (GPU/RAM).
quindi non capisco di che vi scanalizzate dei 900 euro di Titan...
Anch'io spesi 900.000 lire, per un processore pentium appena uscito !
Erano altri tempi e cosa più importante lo stipendio era in lire non in euro !
sbudellaman
20-02-2013, 08:40
Mi sembra che si sia perso il senso della misura. Una continua rincorsa verso CPU performanti, VGA strasuperpotenti, alimentatori da centrale nucleare per poi dimenticarsi che con un 486 siamo andati sulla Luna.
E in barba a tutti i principi di riduzione dei consumi, ottimizzazione delle risorse e valutazione dei costi troviamo l'ennesima prodotto fuori da ogni senso logico.
Che erano belli i tempi dell'Amiga, quando bastava comprarlo ed eri apposto perchè non occorreva altro.
Spero tanto che i produttori finalmente capiscano che non sono loro a fare il mercato ma i consumatori finali...e spero altrettanto che i consumatori capiscano che non devono cadere nella tentazione di alimentare questi produttori famelici e divoratori.
Guarda che tecnicamente l'uscita di nuove schede più potenti è cosa buona e giusta. Per il semplice fatto che il nuovo modello fa scendere il prezzo dei precedenti. Se poi uno vuol spendere per forza 1000 euro per la top gamma fatti suoi, se sei padrone del tuo cervello non hai problemi di sorta che tu voglia comprarla o meno... se sei ricco e hai passione perchè no, i benestanti si accontentano della vecchia top-gamma rivalutata, gli altri giocano benissimo con schede più modeste che hanno ugualmente potenza da vendere.
Mi sembra tutto positivo, solo gli stolti incapaci di intendere e volere ci vanno a perdere.
ilratman
20-02-2013, 08:46
Mi sembra che si sia perso il senso della misura. Una continua rincorsa verso CPU performanti, VGA strasuperpotenti, alimentatori da centrale nucleare per poi dimenticarsi che con un 486 siamo andati sulla Luna.
E in barba a tutti i principi di riduzione dei consumi, ottimizzazione delle risorse e valutazione dei costi troviamo l'ennesima prodotto fuori da ogni senso logico.
Che erano belli i tempi dell'Amiga, quando bastava comprarlo ed eri apposto perchè non occorreva altro.
Spero tanto che i produttori finalmente capiscano che non sono loro a fare il mercato ma i consumatori finali...e spero altrettanto che i consumatori capiscano che non devono cadere nella tentazione di alimentare questi produttori famelici e divoratori.
ma che discorsi sono, anche marcopolo è arrivato in cina senza gps e anche colombo in america senza aereo ma di certo non si sarebbe andati sulla luna senza 486 (che poi 486 non era)
senza cpu gpu potenti simulazioni scientifiche ci metterebbero annibinvece che ore e cosi
se il pc tu lo usi per i giochini non vuol dire che esisti solo tu
sbudellaman
20-02-2013, 09:02
ma che discorsi sono, anche marcopolo è arrivato in cina senza gps e anche colombo in america senza aereo ma di certo non si sarebbe andati sulla luna senza 486 (che poi 486 non era)
senza cpu gpu potenti simulazioni scientifiche ci metterebbero annibinvece che ore e cosi
se il pc tu lo usi per i giochini non vuol dire che esisti solo tu
giusto... eppoi il progresso è progresso, la "rincorsa" a cpu-gpu sempre più potenti è d'obbligo è normale che ci sia.
Secondo me L'UNICO scenario che merita di essere analizzato, è quello di una persona che oggi è senza PC (ovvero ha un PC dell'anteguerra), vuole comprare qualcosa ex novo e prende davvero il top (potendoselo permettere). Oggi dovrebbero presentare la PS4, ossia la prima delle console "next gen". Se sarà dimostrato che si deve aver Titan per poter competere (scusate sto ridendo fin da ora) con le nuove console, allora sarà un acquisto (forse) sensato.
In caso contrario, sarà una scheda che potrà essere rivenduta tra X anni (dove X è il ciclo vitale della console) al 20% in più di un modello inferiore (diciamo che tra 6 anni si vende con una forbice da 200€ a 240€), mentre oggi costa di fatto il 70% (1000€ su 600€) in più di quel modello inferiore che probabilmente è in grado già di maxare tutto quello che verrà portato dalle console next gen. In più nel corso di 6 anni faccio 2 cambi di GPU con complessivamente prestazioni superiori, consumi inferiori e un esborso dilazionato nel tempo. Ovviamente questa valutazione del cambio scheda migliora esponenzialmente più il ciclo vitale delle console si allunga.
Ovvio che se uno vuole il 3D i 120fps per non avere tearing (e li vuole OGGI) allora il mercato "medio" non ha ragione di esistere. Ma di fatto i prodotti top di gamma si svalutano di più della fascia "media" (e parlo in termini relativi, non assoluti, ossia prezzo acquisto - prezzo vendita della medesima scheda, non a paragone di 2 schede).
Poi ripeto, un conto è avere i soldi (con relativi meriti su come si sono ottenuti, se ce ne sono), un conto è saperli spendere.
senza cpu gpu potenti simulazioni scientifiche ci metterebbero annibinvece che ore e cosi
se il pc tu lo usi per i giochini non vuol dire che esisti solo tu
Non sono le potenze di CPU o GPU a determinare la velocità attraverso la quale le simulazioni scientifiche impiegano più o meno del tempo ad eseguire un applicativo, ma l'ottimizzazione delle risorse già disponibili.
Posso avere una F1 ma se la mappatura della centralina non è fatta a dovere, l'auto non farà molta strada.
E' giusto che ci sia il progresso ma solo dopo avere sfruttato tutto quello che in questo momento ho disponibile....altrimenti dov'e il progresso???
AceGranger
20-02-2013, 09:41
Non sono le potenze di CPU o GPU a determinare la velocità attraverso la quale le simulazioni scientifiche impiegano più o meno del tempo ad eseguire un applicativo, ma l'ottimizzazione delle risorse già disponibili.
:rolleyes: queste ovvieta valgono giusto per i porting dei giochini, in campo professionale queste VGA sono gia tranquillamente sfruttabili al pieno delle loro capacita.
se i produttori continuano a investire su questi prodotti è perchè glieli comprano, c'è poco da fare è; se non fosse cosi avrebbero smesso di presentarli da tempo, e invece.... per quanto possano venderne pochi di questi prodotti sul monte totale, fanno generare utili migliori.
diciamo che non investono su questi prodotti, l'unico investimento che fanno è selezionare i die migliori, testarli e venderli con una scatola più sbrilluccicosa. per produrre una gpu come questa o una che sale di meno il costo per loro è lo stesso, cioè qualche manciata di euro. in ogni generazione di gpu l'investimento tecnologico viene ammortizzato con le vendite delle gpu di fascia bassa e medio bassa. come puoi pensare che vendendo poche migliaia (centinaia?) di vga da 1000€ riescano a fare utili a sufficienza... è solo una trovata commerciale per orientare i clienti verso il marchio ed accontentare una fascia ridottissima di utenti che non scendono a compromessi oppure dalle tasche gonfie e le idee poco chiare..
PhoEniX-VooDoo
20-02-2013, 10:48
Beh!....se vogliamo fare paragoni fantasiosi come 1000 lire= 1,00 Euro potresti anche aver ragione. Peccato solo che fantasia, valuta e inflazione sono cose differenti: non so a casa tua ma nella mia 900 Euro sarebbero la bellezza di 1.742.643 Lire.
No lo dico solo perché proprio prima del 2000 il mio stipendio era di 1.600.000 onestissime e sudate Lire, per poi ritrovarmi per un lungo periodo con circa 800 risicati Euro di punto in bianco. Se tu vuoi sotto intendere che siano "la stessa cosa" due sono le cose: o non abiti in Italia o hai cominciato a lavorare e a prendere uno stipendio solo da ieri.
Non voglio fare polemiche ma bisogna smetterla di pensare che le cose non cambino o che qualcuno faccia regali o sconti: l'hardware PC diventa sempre più potente? ce lo faranno pagare sempre di più come hanno sempre fatto. C'è poco da fare.
Il discorso è molto più semplice e lineare:
Erano una cifra "fuori di testa" 1 milione di lire nel 2001 per una VGA?
- SI
Sono una cifra "fuori di testa" 900 euro oggi per lo stesso scopo?
- SI
A parità di tipologia, è piu conveniente comprare TITAN oggi, che include una serie di migliorie o una GF2 ULTRA ieri, che altri non era che una GF2 GTS leggermente overclockata?
- TITAN
Alla luce di queste tre semplici questioni, ha senso ancora indignarsi, come se fosse qualcosa di mai visto e fuori dal mondo?
Intel a ogni generazione ha un processore ad un prezzo completamente fuori mercato, la cosidetta "Extreme Edition"; dobbiamo ogni volta fare i sorpresi ed indignati??
Per questo cchiedevo chi c'era nel 2001, perché se uno aveva almeno 15 anni e seguiva il mondo dell'informatica, da allora ad oggi di schede a prezzi "fuori di testa" ne dovrebbe aver viste un bel po'...
In realtà l'overclock del monitor è già possibile con qualunque VGA, basta settare la frequenza di refresh desiderata e la VGA la setta :) il problema è che oltre certi valori (quelli dichiarat) quasi tutti i monitor rifiutano il valore. Ma è il software di controllo che lo rifiuta.
Il mio Yamakasi non ha OSD e nemmeno qualche sistema di controllo, a parte la luminosità, fai tutto da VGA. E' di default a 60Hz ma puoi overclockarlo fino a oltre 120Hz, ma va a fortuna, proprio come le CPU :D Il mio arriva a 67Hz :)
Penso che questa nVidia riesca in qualche modo a bypassare il controllo, perchè come feature per i monitor senza blocco esiste da sempre :)
Ma non è pericoloso per la salute del monitor? :fagiano:
illidan2000
20-02-2013, 11:02
il prezzo è perfettamente in linea. va più o meno come una 690, ha 6gb di vram, è una scheda singola. che si vuole di più?
costa pure poco...
PhoEniX-VooDoo
20-02-2013, 11:03
Mi sembra che si sia perso il senso della misura. Una continua rincorsa verso CPU performanti, VGA strasuperpotenti, alimentatori da centrale nucleare per poi dimenticarsi che con un 486 siamo andati sulla Luna.
E in barba a tutti i principi di riduzione dei consumi, ottimizzazione delle risorse e valutazione dei costi troviamo l'ennesima prodotto fuori da ogni senso logico.
Che erano belli i tempi dell'Amiga, quando bastava comprarlo ed eri apposto perchè non occorreva altro.
Spero tanto che i produttori finalmente capiscano che non sono loro a fare il mercato ma i consumatori finali...e spero altrettanto che i consumatori capiscano che non devono cadere nella tentazione di alimentare questi produttori famelici e divoratori.
Non sono d'accordo.
Oggi è possibile fare un computer di fascia alta che ha un consumo davvero ridicolo.
Prendi esempio il primo computer nella mia firma, quando ho visto quanto consumava in idle/navigando tranquillamente credevo che il rilevatore fosse guasto.
Il fatto poi che esistano configurazioni al limite, che sono piu esercizi di stile che altro, le quali a pieno carico possano aver bisogno anche di un alimentatore da 1000W è irrilevante a mio avviso, perche io mentre navigo sono a 30W e mentre gioco (a tutto) non arrivo manco a 80...
Phantom II
20-02-2013, 11:38
:rolleyes: queste ovvieta valgono giusto per i porting dei giochini, in campo professionale queste VGA sono gia tranquillamente sfruttabili al pieno delle loro capacita.
Purtroppo, anche nelle realtà professionali l'hardware è sotto sfruttato in misura notevole, in diversi ambiti "di eccellenza" che ho avuto la fortuna di visionare, anche in modo piuttosto imbarazzante.
In ogni caso al netto della polemica sul prezzo (per me è da rapina non va certo biasimata nVidia quanto il mercato bue che nel 90% dei casi assorbe prodotti che non gli servono a nulla) questa è una scheda che ha più senso nel settore professionale che in quello ludico, essenzialmente perché uno con 1000€ si porta a casa una scheda con cui può fare buona parte del lavoro che farebbe con una Tesla che costa 3-4 volte tanto.
Scusate ma ho letto discorsi un po' a ca@@o.
Vi lamentate che costa 1k€? Allora lamentatevi per auto, ville, MegaYatch, aerei, gioielli, e quant'altro...
Si chiama "lusso". Non ve lo potete permettere? Pace, mi spiace per voi (e per me :doh: ), ma non capisco il senso di dire che non ha senso...
Ragionate con il vostro portafogli, e questo è ok.
Ma se uno guadagna 10k € al mese e deve comprare una VGA (ed è un geek, ovvio), cosa gli cambia tra spendere 500 o 1000€?
O anche 3000€ per un tri-sli? Saranno un po' cavoli suoi?
Giuro, questi discorsi non li capisco...:muro:
By(t)e
Ma se uno guadagna 10k € al mese e deve comprare una VGA (ed è un geek, ovvio), cosa gli cambia tra spendere 500 o 1000€?
O anche 3000€ per un tri-sli? Saranno un po' cavoli suoi?
Giuro, questi discorsi non li capisco...:muro:
By(t)e
Si chiama percezione del denaro. Generalmente chi ha quelle cifre o li ha per merito (e ti garantisco che se li ha per merito guarda MOLTO attentamente a quanto spende) o li ha per CULO/LADRERIA (e in tal caso parte dall'assunto che "costa di più quindi è sicuramente meglio in assoluto" in quanto, spesso, ignorante).
In più ripeto: in questo momento vi sono sostanziali vantaggi tra spendere 1000€ invece di 600€ di GPU? IMHO no a meno di una specifica nicchia di gamers multimonitor dalle risoluzioni esorbitanti (che come già detto sono più che giustificati a spendere, se li hanno).
Poi il mondo è bello perchè le opinioni sono discordanti. Ma a prescindere che abbia 100€ o 10.000€ il mio obiettivo (quindi non necessariamente condivisibile), se li voglio spendere tutti (il che rientra in una mia personale scelta), è di comprare sempre il meglio (nel suo insieme) con il budget imposto. Non comprare il prodotto che costa di più perchè così posso dire di aver speso tutti i soldi che mi ero preposto perchè tanto "ne ho". (Potrei citarti amici che si sono fatti il pc nuovo per giocare con la 690 e alimentatori da 1400W per giocare a 1080p e hanno poi comprato un hdd meccanico come primario; hanno speso eh, ma sull'averlo fatto bene ho dei dubbi).
Ciao! ;)
Si chiama percezione del denaro. Generalmente chi ha quelle cifre o li ha per merito (e ti garantisco che se li ha per merito guarda MOLTO attentamente a quanto spende) o li ha per CULO/LADRERIA (e in tal caso parte dall'assunto che "costa di più quindi è sicuramente meglio in assoluto" in quanto, spesso, ignorante).
In più ripeto: in questo momento vi sono sostanziali vantaggi tra spendere 1000€ invece di 600€ di GPU? IMHO no a meno di una specifica nicchia di gamers multimonitor dalle risoluzioni esorbitanti (che come già detto sono più che giustificati a spendere, se li hanno).
Poi il mondo è bello perchè le opinioni sono discordanti. Ma a prescindere che abbia 100€ o 10.000€ il mio obiettivo (quindi non necessariamente condivisibile), se li voglio spendere tutti (il che rientra in una mia personale scelta), è di comprare sempre il meglio (nel suo insieme) con il budget imposto. Non comprare il prodotto che costa di più perchè così posso dire di aver speso tutti i soldi che mi ero preposto perchè tanto "ne ho". (Potrei citarti amici che si sono fatti il pc nuovo per giocare con la 690 e alimentatori da 1400W per giocare a 1080p e hanno poi comprato un hdd meccanico come primario; hanno speso eh, ma sull'averlo fatto bene ho dei dubbi).
Ciao! ;)
Ti quoto, io penso che questo sia un modo per soddisfare una nicchia in attesa di GTX 770-780. E anche se guadagni 10000 euro al mese, con merito o senza, non penso che nessuno ami sperperare facendosi anche un po' prendere in giro. Non lo ama il turista cinese a cui il tassista chiede 400 euro per 400 metri, e altrettanto sarà per l'appassionato.
Chi acquista Titan imho sa benissimo di non fare un buon investimento, così come chi prende Cpu da 1000 euro per giocare, e nella consapevolezza comunque vuole quel qualcosa in più, magari facendo anche sacrifici economici dopo.
E' la passione, la pazzia, la novità. Ed è del tutto legittimo.
Ti quoto, io penso che questo sia un modo per soddisfare una nicchia in attesa di GTX 770-780. E anche se guadagni 10000 euro al mese, con merito o senza, non penso che nessuno ami sperperare facendosi anche un po' prendere in giro. Non lo ama il turista cinese a cui il tassista chiede 400 euro per 400 metri, e altrettanto sarà per l'appassionato.
Chi acquista Titan imho sa benissimo di non fare un buon investimento, così come chi prende Cpu da 1000 euro per giocare, e nella consapevolezza comunque vuole quel qualcosa in più, magari facendo anche sacrifici economici dopo.
E' la passione, la pazzia, la novità. Ed è del tutto legittimo.
Io credo che non conosciate le persone alle quali sono destinate queste schede.
Io conosco gente che spente tutto il proprio stipendio per minchiate del genere, oltre a vestiti firmati e generi di lusso simili.
E parlo di stipendi a 4 zeri.
Non sarà la migliore scheda del mondo, o lo sarà per 6 mesi, a loro che gli frega? Tra sei mesi ne ricomprano una nuova.
Io credo che con la nostra percezione "normale" del denaro, ove 500€ di differenza non giustificano l'aumento di prestazioni, non riusciamo a comprendere come per altri 500€ siano un buon investimento.
C'è chi si comprerà questa VGA, chi li spenderà in bottiglie in discoteca, chi in escort.
By(t)e
Io credo che non conosciate le persone alle quali sono destinate queste schede.
Io conosco gente che spente tutto il proprio stipendio per minchiate del genere, oltre a vestiti firmati e generi di lusso simili.
E parlo di stipendi a 4 zeri.
Non sarà la migliore scheda del mondo, o lo sarà per 6 mesi, a loro che gli frega? Tra sei mesi ne ricomprano una nuova.
Io credo che con la nostra percezione "normale" del denaro, ove 500€ di differenza non giustificano l'aumento di prestazioni, non riusciamo a comprendere come per altri 500€ siano un buon investimento.
C'è chi si comprerà questa VGA, chi li spenderà in bottiglie in discoteca, chi in escort.
By(t)e
Avere molti denari quindi ti rende una sorta di ebete che spende e spande senza la minima conoscenza di quello che sta facendo, tanto se non va bene lo cambia in nomine della sua opulenza.
Che tristezza, per me un vero appassionato spende con senno, indipendentemente dal conto in banca.
Titan e' una pazzia che si puo' anche fare, ma uno deve essere anche consapevole che non e' certo un "affare".
illidan2000
20-02-2013, 14:34
è la stessa differenza che passa tra un'auto "firmata" e una non. vanno uguale, fanno il loro lavoro, solo che una costa il doppio dell'altra, solo perché si chiama Audi/bmw/mercedes... eppure ne vendono un botto!
Lupettina
20-02-2013, 14:40
Io credo che con la nostra percezione "normale" del denaro, ove 500€ di differenza non giustificano l'aumento di prestazioni, non riusciamo a comprendere come per altri 500€ siano un buon investimento.
Avere tanti soldi non è sinonimo di spegnimento del cervello per smettere di interessarsi al come li si sta spendendo.
Inoltre dalle tue parole semprerebbe che tutti coloro abbiano tanti soldi siano delle persone che si sentono così sfigate a livello esistenziale, da rincorrere costantemente il miraggio dell'elevazione personale attraverso la preziosità dei beni di consumo che accatastano.
Per carità, ci saranno queste persone, anche tante, ma avere i soldi non è sinonimo di ciò, anzi, è un miraggio umano universale, esasperato dal consumismo ;)
meno male che sono guarito..........:O
wolfnyght
20-02-2013, 16:04
LOL!
Aperto lo shop online giusto in tempo ahaha
Inizio a sentire i distributori :D
La voglio al D-day assolutamente :oink:
Un appassionato con un negozio di informatica sentire queste news sono da sbavo totale:oink:
birmarco
20-02-2013, 17:23
ma dove? nel pannello di controllo nvidia non trovo questa funzione. Mi permette di selezionare solo i soliti 60hz che sono impostati di default...
Display > Change resolution > Customise
Nel nVidia Ctrl Panel :)
Ma non è pericoloso per la salute del monitor? :fagiano:
Dipende, ad esempio il mio Yamakasi ha un pannello che regge tranquillamente i 120Hz ma che va a 60Hz per limite del "gestore dell'immagine" (non so come si chiami). In realtà il limite è come quello delle CPU, un valore medio, a volte poi modelli uguali dello stesso monitor, fatti in periodi diversi hanno elettronica interna diversa. Per questo motivo il mio Yamakasi arriva a 67Hz mentre altri arrivano a 120 e altri ancora a 80 :)
Pensa che lo stesso pannello dello Yamakasi (un pannello LG), usato nel nuovo monitor Crossover, viaggia a 120Hz di fabbrica ma arriva a 140Hz perchè l'elettronica interna lo permette :)
Se oltrepassi il valore massimo lo schermo rimane nero, come la CPU che non parte. Io penso che stare al massimo non sia il top, più che per il pannello per la circuiteria... Però se tieni un po' di margine... :)
mattxx88
20-02-2013, 17:26
LOL!
Aperto lo shop online giusto in tempo ahaha
Inizio a sentire i distributori :D
La voglio al D-day assolutamente :oink:
Un appassionato con un negozio di informatica sentire queste news sono da sbavo totale:oink:
maledetto :asd: ti saluta siscoregna ;)
tuttodigitale
20-02-2013, 18:33
Questa è una scheda gamer ma non solo, offre prestazioni double precision che neanche con uno SLI o CF raggiungi, rimanendo nel costo ovviamente.
Questo è tutto da dimostrare. Hai messo in ballo anche le HD7970 che sono potentissime sia in singola che in DP, al contrario di gk104 che anche in SP è persino battuta da GF110 (la stessa nvidia sconsiglia il passaggio alle Tesla k10 con il software non ottimizzato).
Mi permetto di dubitare fortemente che la Geforce Titan senza Hyper-Q, possa raggiungere le prestazioni di due HD7970.
Ho il sospetto che le Titan, proprio per via dei tappi messi, andrà poco più di una scheda basata su Tahiti (non è poca cosa eh, considera che gk104 è molto, ma molto più lento nel gpgpu)
EDit
detto tra noi, se il motivo fosse questo (elevate prestazioni in DP, ma anche in singola precisione) le gtx680 le dovrebbero regalare nelle patatine, prendono batoste anche da schede da 120 euro.
Senza supporto ECC, nel supercomputing non si entra (e a detta di più utenti è stato IL motivo per cui le schede di AMD non sono state prese in considerazione).
Tuvok-LuR-
20-02-2013, 19:23
Se c'e' una cosa che adoro sono le single GPU, spesso mi sono lamentato che non ci fossero piu' schede single senza compromessi come una volta, e questa Titan ha tutte le premesse per rendermi impaziente per i risultati dei benchmark.
Pur potendomela permettere non credo che upgradero' dalla mia 7970ghzoc.
I commenti all'articolo sono la solita disarmante nenia: gente che si lamenta senza sapere di cosa parla.
nVidia fa utili risibili, AMD sta per fallire ma siccome loro non possono permettersi una scheda da 900 euro devono additare amd ed nvidia come strozzini.
La realta' e' che ormai da 5-6 anni (8800gt) si comprano con 200 euro schede piu che ottime e con 800 si assemblano pc ottimi.
Il mercato hardware PC non e' piu' nell'era d'oro, ci sono sempre meno soldi in ballo, e le cose non andranno a migliorare col proliferare di tablet/console/smartphone.
Crysis 3 a quanto leggo da persone competenti e informate (e non da bambini da forum che parlano senza averci neanche giocato) e' visualmente superiore a qualsiasi cosa si sia mai visto finora e quindi la paventata pesantezza e' piu' che giustificata.
sbudellaman
20-02-2013, 19:39
Display > Change resolution > Customise
Nel nVidia Ctrl Panel :)
ok grazie non lo trovavo.
Però ho paura, nel senso che con le cpu-gpu so come destreggiarmi con l'overclock in quanto posso controllare temperatura e voltaggio. Sostanzialmente so che finchè non vado oltre il vcore default e non supero Tmax allora posso salire finchè si mantiene la stabilità.
In un monitor invece, cosa devo guardare? Vado a culo? Il rischio è di bruciare il pannello?
Ma scusate, quale ECC, ecc, se si parla di GpGpu queste non sono schede per calcoli scientifici, con sw scritti ad hoc, ma vi pare che una centro di calcolo di un università e simili si prende una scheda desktop per metterla in rack? Nvidia ha verificato che un certo numero di privati e studi grafici, che non sono pochi, hanno aggiunto nel loro workflow il gpu render, e solitamente, tranne qualche eccezione, scelgono le schede dektop, per una questione di rapporto prezzo/prestazioni, molto vantaggiosi, già dalle Fermi, prima e seconda serie. Vi assicuro, non sono mica pochi quelli che montano due tre, e quando il case e tutto il resto lo permettono quattro GTX per fare render. Basta dare un occhiata alle gallerie ed ai forum degli engine di render gpu. E la cosa andrà avanti ancora, le ottimizzazioni e le features aumentano. Questa 780 è semplicemente la gpu di fascia alta Kepler, la 680 non è assolutamente castrata per questo, è che corrisponde alla fascia media, e bisogna dire che va molto più veloce della 560, quindi i conti tornano, i nomi meno.
Display > Change resolution > Customise
Nel nVidia Ctrl Panel :)
Dipende, ad esempio il mio Yamakasi ha un pannello che regge tranquillamente i 120Hz ma che va a 60Hz per limite del "gestore dell'immagine" (non so come si chiami). In realtà il limite è come quello delle CPU, un valore medio, a volte poi modelli uguali dello stesso monitor, fatti in periodi diversi hanno elettronica interna diversa. Per questo motivo il mio Yamakasi arriva a 67Hz mentre altri arrivano a 120 e altri ancora a 80 :)
Pensa che lo stesso pannello dello Yamakasi (un pannello LG), usato nel nuovo monitor Crossover, viaggia a 120Hz di fabbrica ma arriva a 140Hz perchè l'elettronica interna lo permette :)
Se oltrepassi il valore massimo lo schermo rimane nero, come la CPU che non parte. Io penso che stare al massimo non sia il top, più che per il pannello per la circuiteria... Però se tieni un po' di margine... :)
Infatti ho provato sul mio monitor di fascia bassa ma, appena imposto i 61Hz, mi compare una schermata nera con in sovraimpressione un messaggio dell'OSD che recita impietosamente "Input not supported"; penso che si sia una protezione :stordita:
ok grazie non lo trovavo.
Però ho paura, nel senso che con le cpu-gpu so come destreggiarmi con l'overclock in quanto posso controllare temperatura e voltaggio. Sostanzialmente so che finchè non vado oltre il vcore default e non supero Tmax allora posso salire finchè si mantiene la stabilità.
In un monitor invece, cosa devo guardare? Vado a culo? Il rischio è di bruciare il pannello?
Pure io ho qualche preoccupazione sulla salute dei pixel :fagiano:
aled1974
20-02-2013, 22:55
il mio monitor ha due possibili step 60Hz e 75Hz ma è tutt'altro che un buon monitor: iiyama prolite e1700s2
infatti a 76Hz tiene, da 77hz in poi schermo nero e messaggio OSD di frequenze non supportate
ciao ciao
sbudellaman
21-02-2013, 06:02
Pure io ho qualche preoccupazione sulla salute dei pixel :fagiano:
infatti. Ma poi io sono il tipo che se si può overcloccare io overclocco, però mi piace farlo con la consapevolezza di non brancolare nel buio e di quali sono i margini che con un minimo di oggettività bisogna rispettare...
Per esempio, io ora ho provato e son passato da 60 a 66hz... se salgo anche solo a 67 vedo tutto sgranato con artefatti, sopra i 75 invece vedo tutto nero. Se rimango a 66 dite che il pannello regge o fra 3 mesi me lo ritrovo fritto?
sbudellaman
21-02-2013, 07:28
io ora ho provato e son passato da 60 a 66hz... se salgo anche solo a 67 vedo tutto sgranato con artefatti
Ce l'ho fatta! Sono a 75 hertz :eek:
Ho impostato i parametri indicati qui: http://hardforum.com/showpost.php?p=1038341569&postcount=1
Il problema è che non so neanche cosa ho modificato :D Cos'è front porch e synch width? In italiano "portico anteriore" e "larghezza sincronizzazione", ma continuo a non capire...
Balthasar85
21-02-2013, 11:09
[..]
Che tristezza, per me un vero appassionato spende con senno, [..]
Fortuna che ci siete voi che avete capito tutto.. rosiconi del mondo unitevi!! :O
CIAWA
Ce l'ho fatta! Sono a 75 hertz :eek:
Ho impostato i parametri indicati qui: http://hardforum.com/showpost.php?p=1038341569&postcount=1
Il problema è che non so neanche cosa ho modificato :D Cos'è front porch e synch width? In italiano "portico anteriore" e "larghezza sincronizzazione", ma continuo a non capire...
Il mio monitor in firma non ce la fa, sarà perché sono su connessione VGA? :stordita:
sbudellaman
21-02-2013, 11:18
Il mio monitor in firma non ce la fa, sarà perché sono su connessione VGA? :stordita:
Hai provato a seguire quella procedura?
Comunque se ho ben capito conta molto la banda che il cavo può supportare. Io con il mio dvi single link posso sopportare un pixel clock fino a 165mhz, ora sto sui 164 e se vado oltre ho schermo nero. Un cavo vga non so fin dove arriva ma immagino supporti meno banda.
Comunque ho appena testato con BF3, vsync adattivo attivato... a quanto pare ora mi visualizza realmente 75 fps e non noto alcun tearing, insomma pare funzioni davvero
Hai provato a seguire quella procedura?
Comunque se ho ben capito conta molto la banda che il cavo può supportare. Io con il mio dvi single link posso sopportare un pixel clock fino a 165mhz, ora sto sui 164 e se vado oltre ho schermo nero. Un cavo vga non so fin dove arriva ma immagino supporti meno banda.
Comunque ho appena testato con BF3, vsync adattivo attivato... a quanto pare ora mi visualizza realmente 75 fps e non noto alcun tearing, insomma pare funzioni davvero
Sì, ho provato entrambe le liste di parametri consigliati: nel primo caso avevo un form factor alterato e colori strani, nel secondo caso nessun segnale video :stordita:
illidan2000
21-02-2013, 12:05
Sì, ho provato entrambe le liste di parametri consigliati: nel primo caso avevo un form factor alterato e colori strani, nel secondo caso nessun segnale video :stordita:
non puoi provare anche tu in DVI?
non puoi provare anche tu in DVI?
No perché il monitor ha solo l'interfaccia VGA :boh:
Fortuna che ci siete voi che avete capito tutto.. rosiconi del mondo unitevi!! :O
CIAWA
:sofico: mi bastano 300 euro e la voglia per andare più di questa scheda, di cosa dovrei rosicare LOL?
TigerTank
21-02-2013, 12:59
Fortuna che ci siete voi che avete capito tutto.. rosiconi del mondo unitevi!! :O
Rosicare? Guarda che c'è tanta gente che nonostante la disponibilità economica per comprarsene anche 2 o 3, semplicemente non ama spendere più di quel che vale realmente un prodotto :)
sbudellaman
21-02-2013, 13:09
c'è anche gente che ama spendere per cose di cui paradossalmente non ne vale la pena.
Io la penso come voi, e cioè nel mio caso passione vuol dire anche saper spendere il giusto, sfruttare le proprie conoscenze informatiche per comprare un prodotto adatto alle nostre esigenze... e magari modificarlo per renderlo pari ad uno di fascia superiore, nel MIO caso. E sottolineo MIO perchè se qualcuno ha soldi da spendere e vuole farlo, alla fine non c'è niente di male.
Tanto meglio per me, se c'è chi compra nvidia verrà stimolata a continuare la ricerca su architetture sempre migliori.
c'è anche gente che ama spendere per cose di cui paradossalmente non ne vale la pena.
Io la penso come voi, e cioè nel mio caso passione vuol dire anche saper spendere il giusto, sfruttare le proprie conoscenze informatiche per comprare un prodotto adatto alle nostre esigenze... e magari modificarlo per renderlo pari ad uno di fascia superiore, nel MIO caso. E sottolineo MIO perchè se qualcuno ha soldi da spendere e vuole farlo, alla fine non c'è niente di male.
Tanto meglio per me, se c'è chi compra nvidia verrà stimolata a continuare la ricerca su architetture sempre migliori.
Ti quoto, non voglio generalizzare ma un appassionato per la stessa accezione del termine è uno che sa rapportare il giusto prodotto alla giusta esigenza.
Uno che ha i soldi e non ha passione probabilmente ragiona in maniera diversa, visto che costa molto è meglio :D
Ci deve essere tanta soddisfazione nel fare scelte del genere immagino LOL
TwinDeagle
21-02-2013, 13:36
non capisco una cosa..su internet non si trovano dei risultati di 3dmark in cui questa bestia totalizza parecchio di più di una 690 e di due 7970? considerando che ancora non ci sono dei driver sufficientemente sviluppati per questa scheda, come fanno a posizionarla tra la 690 e la 7970?
sundraw83
21-02-2013, 14:09
favolosa, spero di averla prestissimo !
illidan2000
21-02-2013, 14:13
non capisco una cosa..su internet non si trovano dei risultati di 3dmark in cui questa bestia totalizza parecchio di più di una 690 e di due 7970? considerando che ancora non ci sono dei driver sufficientemente sviluppati per questa scheda, come fanno a posizionarla tra la 690 e la 7970?
i risultati non possono essere ancora condivisi. Nvidia ha messo un embargo che finisce stasera (mi pare). non so quali penali avrebbero se li mettessero in rete. Di sicuro i siti principali se ne guardano bene
moddingpark
21-02-2013, 14:34
i risultati non possono essere ancora condivisi. Nvidia ha messo un embargo che finisce stasera (mi pare). non so quali penali avrebbero se li mettessero in rete. Di sicuro i siti principali se ne guardano bene
Primo fra tutti non riceverebbero più Engineering Samples da recensire, ma potrebbero anche essere banditi dalle varie press conferences.
Ovviamente sto generalizzando, alla fine solo loro sanno il contenuto dell'NDA.
illidan2000
21-02-2013, 14:58
Primo fra tutti non riceverebbero più Engineering Samples da recensire, ma potrebbero anche essere banditi dalle varie press conferences.
Ovviamente sto generalizzando, alla fine solo loro sanno il contenuto dell'NDA.
certo, cmq nulla vieterebbe ad un pincopallino qualunque di pubblicare i risultati in modo "anonimo" (qualcuno di queste riviste, sottobanco, oppure di nVidia stessa)... ma non è che c'è tutta sta fretta alla fine
BulletHe@d
21-02-2013, 15:07
tralasciando le critiche non sul prezzo ma sugli acquirenti (che imho sono inutili ognuno spende come vuole...) questa scheda dimostra come le voci che definivano la 680 come fascia media fossero vere, ora bisogna solo aspettare i benchmark per iniziare un discorso tecnico serio per ora apparte i numeroni sulla bandwidth e le feature nuove abbiamo ben poco per discutere, dopo l'uscita dei bench si potrà finalmente parlare di quanto sia efficace questa scheda in ambito gaming
Ti quoto, non voglio generalizzare ma un appassionato per la stessa accezione del termine è uno che sa rapportare il giusto prodotto alla giusta esigenza.
Uno che ha i soldi e non ha passione probabilmente ragiona in maniera diversa, visto che costa molto è meglio :D
Ci deve essere tanta soddisfazione nel fare scelte del genere immagino LOL
Rendiamo la cosa semplice: questa scheda ha uno scarso rapporto prezzo/prestazioni.
Se eliminiamo dall'equazione il fattore prezzo, questa scheda rimane la più veloce sul mercato (più o meno).
Ecco perché, chi può permetterselo ed è talmente scimmiato dai bench, se la comprerà a prescindere dal prezzo.
Poi io gioco con una miserrima 9400m integrata, quindi non faccio testo :)
By(t)e
PaulGuru
21-02-2013, 20:07
GK104 è di fascia media, anche se i fanboy AMD non vogliono ammetterlo.
La sigla che contraddistingue la fascia alta sono 00 e 01, il fatto non ad Nvidia sia stato più fattibile che conveniente puntare GK104 la dice lunga sulla scarsità del chip ATI e che ora è falsamente visto come un prodotto fenomenale.
http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-TITAN/GTX-TITAN-93.jpg
Direi che le aspettative prestazionali sono più che rispettate, non capisco i commenti che dicono di non essere stupiti o altro, il prezzo sarà fuori mercato ma è un gran chip.
BrninTark
21-02-2013, 20:47
e gustati pure la tua fascia alta da mille euro...
non capisco coma faccia certa gente a gioire delle difficoltà di amd, meriterebbero che nvidia (o intel) aumentassero i prezzi in maniera ancora più spropositata.
il fatto non ad Nvidia sia stato più fattibile che conveniente puntare GK104 la dice lunga sulla scarsità del chip ATI e che ora è falsamente visto come un prodotto fenomenale.Ma per carità...
sbudellaman
21-02-2013, 21:50
GK104 è di fascia media, anche se i fanboy AMD non vogliono ammetterlo.
questa scheda dimostra come le voci che definivano la 680 come fascia media fossero vere
Ragazzi, perdonatemi ma senza voler offendere (a differenza di chi mi da del fanboy) questa è ignoranza :D Come fate a confrontare questa scheda con un'altra (la 7970) uscita un anno e 3 mesi fa? Vi rendete conto che nel campo delle vga si tratta di un tempo immenso?
Vi ricordo che fin'oggi era AMD ad avere un vantaggio temporale su nvidia, rimanengo regina incontrastata delle top gamma per diversi mesi. E con la 7970ghz è da un pezzo che amd regna sulla gtx680, che avrebbe dovuto spodestare southern islands e invece...
... ora che nvidia riesce finalmente a ritornare sul podio, questo vi basta per cadere nel tranello del marketing e farvi abbindolare dalle dubbie affermazioni (o forse rumors?) di qualche ingegnere nvidia?
E se credete che son di parte... in firma ho una gtx480, e prima avevo la mia bellissima gtx280... nvidia sforna ottime schede, questo non significa che credo a tutto ciò che dicono.
e gustati pure la tua fascia alta da mille euro...
non capisco coma faccia certa gente a gioire delle difficoltà di amd, meriterebbero che nvidia (o intel) aumentassero i prezzi in maniera ancora più spropositata.
Infatti. Non capiscono che senza un concorrente valido, avrebbero prodotti più cari e perchè no peggiori e men oseguiti/sviluppati.
Magari un giorno accenderanno il cervello e ci arriveranno.
Poi vedo parlare di scheda più veloce etc etc. Ma il PREZZO ragazzi? Stiamo scherzando vero? Un CrossFire di 7970 lo si fa con 680EURO(!!!) e va di più!
Ed ora c'è in uscita la 7990 "Ufficiale" ad un prezz oche sarà certamente inferiore.
Non capisco come fate ad essere felici di una scheda video a circa 1000Euro, mi impegno ma proprio non ci riesco.
il problema non sono tanto le prestazioni, quanto il fatto che i driver delle Quadro sono sicuramente piu stabili e riducono al minimo eventuali artefatti grafici.
comuque le Quadro Feermi sono arrivate quasi a fine vita, teoricamente dovrebbe uscire la nuova serie.
Lo so benissimo, ma una quadro k5000 che ha le stesse caratteristiche tecniche di una 680 costa quasi 2 000 € ed è noto che nel render via GPU si comportavano meglio le 580 rispetto la serie Quadro, mentre per le 600 hanno castrato le prestazioni nel GPGPU, ma essendo questa scheda derivata da un chip per GPGPU, mi incuriosiscono le prestazioni in questo ambito
Guarda che i render vengono calcolati dalla CPU:fagiano:
Ci sono motori di render che sfruttano la GPU ma lo, tra una Quadro ed una GeForce cambia poco e niente.
La differenza è nella gestione delle scene.
Io ad esempio uso vray RT su un pc con una GTX480 e va molto meglio rispetto al portatile che ha su una Quadro 4000, di contro, modellando, la GTX480 sembra un'integrata rispetto alla Quadro:D
Questa sarebbe una bella bestia da usare per chi gioca e per chi la vuole usare come calcolatore Cuda (render in tempo reale, encoding, ecc...)
Lo so benissimo chi è che fa il render. Io mi trovo proprio questo anno a dover fare l'upgrade della mia workstation e devo decidere se passare al render GPU o restare sul CPU render...
ma sti test quando arrivano????
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.