View Full Version : NVIDIA GeForce GTX 780Ti: meglio di Titan ma più economica
Redazione di Hardware Upg
07-11-2013, 14:01
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/3825/nvidia-geforce-gtx-780ti-meglio-di-titan-ma-piu-economica_index.html
Con GeForce GTX 780Ti NVIDIA completa la propria gamma di schede video discrete per sistemi da videogioco, andando oltre le specifiche tecniche del modello GeForce GTX Titan in abbinamento ad un prezzo elevato in assoluto ma ben più contenuto dei 999 dollari di Titan. Basterà tutto questo per far meglio di Radeon R9 290X?
Click sul link per visualizzare l'articolo.
Chi si è preso una Titan a suo tempo ha avuto veramente una fregatura, per quanto riguarda questa scheda è davvero ottima, pero' la r9 290x si trova già a 400 euro e a breve usciranno le versioni custom a poco piu'che la faranno viaggiare meglio quindi credo che aspettare ancora un pochettino per scegliere nel caso in cui non si è disposti a cambiare dissipatore-cambiare pasta termica alla r9 290x sia la cosa migliore....adesso la 780ti costa troppo per qullo che offre in piu' rispetto la r9 290x a livello prestazionale anche la redazione lo ha constatato:
AMD è realmente molto vicina alla concorrente NVIDIA sul piano delle pure prestazioni velocistiche
secondo me la r9 290x con dissipatori custom soprassera la 780ti quasi sicuramente considerando il fatto che in quiet mode le frequenze oscillano
@Redazione: i consumi in idle con quanti monitor connessi sono stati rilevati?
Sembra che sulle ultime Radeon con due o più monitor aumentino sensibilmente. Per questo in un'altra prova chiedevo di verificare la differenza fra quelli in idle con un solo monitor ed in multimonitor.
Fra l'altro con le configurazioni multimonitor sempre più diffuse farebbe piacere se la propria scheda video non consumasse 40W in più (solo di uscita video) rispetto ad altri modelli solo perché si vorrebbe avere il secondo monitor sempre attivo e non stare a fare micromanaging dello stesso in base alle esigenze del momento.
LOL, è una titan spinta al limite :sofico: ma penso che una r9 290x custom le faccia il :ciapet: per molti meno soldi
LOL, è una titan spinta al limite :sofico: ma penso che una r9 290x custom le faccia il :ciapet: per molti meno soldi
quoto! come ho scritto per chi non ha fretta e non vuole sostituire pasta termica-dissipatore alla reference 290x attendere le versioni custom sia la scelta migliore :)
Mi rispondo da solo prendendo dati rilevati su un altro sito:
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_780_Ti/images/power_idle.gif http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_780_Ti/images/power_multimon.gif
Comparare con le AMD R9 290/290X in entrambi i casi.
appleroof
07-11-2013, 14:15
gran bella vga, condivisibili al 100% le conclusioni dell' (ottimo) articolo secondo me.
Credo che le schede video così come le abbiamo sempre viste, abbiano fatto la loro storia.
Apparte ambiti professionali, la maggior parte delle persone (tra cui anche me nei tempi che furono) le compra per giocarci.
Che senso ha spendere 400-500 euro per giocare a porting che gireranno comunque meglio nelle nuove console? Poi fra due o tre anni spendere altri 400-500 euro per star dietro al nuovo gioco che non gira più al massimo, quando è ancora un porting delle console su cui però gira fot*utamnte bene. E poi dopo altri 2-3 anni si ripete la trafila.
Sinceramente sono sempre stato un cultore del gioco da PC e non ho mai acquistato nessuna console (un appassionato di FPS non può comprare console), però se uno vuole giocare, meglio un computer da battaglia da uso internet e ufficio e una scatoletta per il gioco, si risparmia di brutto (togliendo dall'equazione la pirateria) e non si viene presi in giro.
LOL, è una titan spinta al limite :sofico: ma penso che una r9 290x custom le faccia il :ciapet: per molti meno soldi
Secondo me la scheda migliore del momento, globalmente parlando, è la 780. Ormai si trova a 400 euro, va poco meno della 290X e della 780ti ma scalda e consuma meno della prima e costa molto meno della seconda.
appleroof
07-11-2013, 14:24
Secondo me la scheda migliore del momento, globalmente parlando, è la 780. Ormai si trova a 400 euro, va poco meno della 290X e della 780ti ma scalda e consuma meno della prima e costa molto meno della seconda.
senza dubbio, anche secondo me :mano:
Paolo Corsini
07-11-2013, 14:25
@Redazione: i consumi in idle con quanti monitor connessi sono stati rilevati?
Singolo display; provato anche a scollegare del tutto lo schermo, c'è un calo del consumo a monte dell'alimentatore di alcuni Watt
marchigiano
07-11-2013, 14:31
quoto! come ho scritto per chi non ha fretta e non vuole sostituire pasta termica-dissipatore alla reference 290x attendere le versioni custom sia la scelta migliore :)
ma della 780ti non faranno versioni OC con dissi migliori e frequenze più alte?
ma della 780ti non faranno versioni OC con dissi migliori e frequenze più alte?
costando ancora di piu' peggiorando ulteriormente il rapporto price performance
ma della 780ti non faranno versioni OC con dissi migliori e frequenze più alte?
costeranno sicuramente di più, ma bisogna vedere se nvidia glielo lascia fare o meno
gd350turbo
07-11-2013, 14:47
10 db di differenza tra la 780ti e la 290x sono per me più che un buon motivo per scegliere nvidia
un incremento di un valore di 3 decibel corrisponde a un suo raddoppio quindi fate i vostri calcoli...
Ma il BIOS Uber della R9 290X va di brutto brutto brutto?
sundraw83
07-11-2013, 14:52
tanta roba è uno spettacolo!
10 db di differenza tra la 780ti e la 290x sono per me più che un buon motivo per scegliere nvidia
un incremento di un valore di 3 decibel corrisponde a un suo raddoppio quindi fate i vostri calcoli...
Un raddoppio dell'energia emessa, ma non del rumore percepito. I nostri sensi sono logaritmici (e grazie a dio aggiungerei, o avresti serissimi problemi a passare da ambienti silenziosi ad altri più rumorosi o ad adattarti dalla luce notturna a quella diurna).
Comunque.. solito trend di nVidia: belle schede, sicuramente daranno soddisfazioni a chi se le può permettere, ma il rapporto prezzo/prestazioni rispetto a quello AMD è fuori di testa... La Titan poi si è dimostrata per l'ennesima volta una presa per il **** a chi le ha comprate (senza offesa per chi l'ha fatto).
Concordo con chi dice che la 290x (ma anche la 290 liscia volendo) ha solo bisogno di una buona versione custom o di un dissi aftermarket per superare la concorrenza perché adesso come adesso è pesantemente castrata dal proprio dissipatore.
p.s. Sono l'unico che non ama particolarmente questo utilizzo di frequenze dinamiche? lo so, in realtà non ha niente che non vada, anzi.. ma sono all'antica e mi piace sapere che prestazioni ha la mia scheda indipendentemente dal tipo di carico e dalla temperatura ambientale del momento, che ci volete fare :p
Flying Tiger
07-11-2013, 14:56
Insomma in sostanza nulla di nuovo all' orizzonte , una 780GTX con frequenze maggiorate sia nella gpu che nelle ram con tutti i cuda cores abilitati , come dire chi ha la 780GTX puo' dormire sonni tranquilli visto che disfarsene per passare a questa non ha alcun senso logico .
In ogni caso ha sempre 3Gb di ram mentre la Titan ne ha il doppio , e per chi usa configurazioni multimonitor piuttosto che risoluzioni elevate sono un valore aggiunto molto importante .
:)
PaulGuru
07-11-2013, 15:01
Bè direi che non c'è paragone :
Comportamento dopo 30 minuti di gioco :
http://www.hwupgrade.it/articoli/skvideo/3825/nvidia_loop_gpu.png
http://www.hwupgrade.it/articoli/skvideo/3825/amd_loop_gpu.png
La 780Ti con prestazioni superiori consuma, scalda e si sente di meno e cali di frequenza quasi del tutto inesistenti.
http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-780-TI-123/GTX-780-TI-123-61.jpg
Adesso voglio proprio vedere chi cercherà di dire che i 100€ di differenza con ATI non sono giustificati.
devAngnew
07-11-2013, 15:08
Singolo display; provato anche a scollegare del tutto lo schermo, c'è un calo del consumo a monte dell'alimentatore di alcuni Watt
Scusi Paolo Corsini è possibile sapere se questa scheda è dx 11.2 a livello hardware o software ?!! thanks :D
Gran bella scheda, con un rapporto consumi prestazioni decisamente migliore delle R9. Di contro il prezzo salato ( i vecchi prezzi delle titan non sono neanche da prendere in considerazioni ). Peccato si siano alzati i consumi rispetto alla 780 ( gia' alti per i miei gusti ).
Appena ordinata una gtx770, attenderò con calma di vedere il prossimo anno come andranno R10 e Ggtx870, sperando in consumi non superiori alle 770.
Paolo Corsini
07-11-2013, 15:16
Scusi Paolo Corsini è possibile sapere se questa scheda è dx 11.2 a livello hardware o software ?!! thanks :D
Hawaii è DX11.2 compliant a livello hardware
Secondo me la scheda migliore del momento, globalmente parlando, è la 780. Ormai si trova a 400 euro, va poco meno della 290X e della 780ti ma scalda e consuma meno della prima e costa molto meno della seconda.
quotone stavo pensando di prendere la 290 normale pero mi sa che la 780 adesso e' il best buy molto meno rumorosa e d'estate non devo mettere il pc in cantina **** si brucia la scheda video :P
devAngnew
07-11-2013, 15:26
Hawaii è DX11.2 compliant a livello hardware
OK, quindi niente :sob: effettivamente erano strani i rumor che la davano
dx 11.2 dopotutto il chip è sempre il GK110 anche se full... :fagiano:
Sarebbe possibile vedere, una volta tanto, i benchmark della VGA nVidia con le librerie physX abilitate (per quei giochi che le utilizzano ovviamente)?
Magari facendo un articolo a parte che metta anche in mostra l'utiità o meno dell'uso di schede dedicate, piuttosto che lavorare con un'unica VGA.
Capisco che il test non avrebbe senso nell'ambito del confronto con AMD, ma sarebbe cmnq interessante per vedere come variano le prestazioni con physX con e senza VGA dedicata.
AceGranger
07-11-2013, 15:30
Chi si è preso una Titan a suo tempo ha avuto veramente una fregatura, per quanto riguarda questa scheda è davvero ottima, pero' la r9 290x si trova già a 400 euro e a breve usciranno le versioni custom a poco piu'che la faranno viaggiare meglio quindi credo che aspettare ancora un pochettino per scegliere nel caso in cui non si è disposti a cambiare dissipatore-cambiare pasta termica alla r9 290x sia la cosa migliore....adesso la 780ti costa troppo per qullo che offre in piu' rispetto la r9 290x a livello prestazionale anche la redazione lo ha constatato:
secondo me la r9 290x con dissipatori custom soprassera la 780ti quasi sicuramente considerando il fatto che in quiet mode le frequenze oscillano
la R9 290X sta su trovaprezzi al prezzo piu basso in un'unico shop a 450 euro, mediamente sta sui 500; a quello poi devi aggiungere un 50 euro di dissipatore come l'accelero, fare lo sbatti di cambiarlo e perdere la garanzia... una 290X Custom non credo proprio che sara occabile piu di una 780Ti, visto che il chip parte gia in svantaggio di 50 Watt, quindi anche ipotizzando un guadagno in frequenza uguale alle 780, cosa di cui dubito fortemente, il divario rimarrebbe invariato.
prendendo i prezzi piu favorevoli su trovaprezzi per tutte le VGA
R9 290X 450 Euro, praticamente niente OC visto che gia stai a 85° con un 747 nel case
R9 290X + dissi 500 Euro
GTX 780 385 euro, Direct CU 2 dell'Asus
GTX 780Ti 670 euro, che si assestera penso intorno ai 600, forse anche meno, visto che piu si sale con il prezzo ufficiale e piu è grande il divario con lo street price ( i 999 dollari della Titan si tramutano in 800 euro. )
con la GTX 780 Custom a 385 euro la 290X non ha senso.
sniperspa
07-11-2013, 15:30
Bè direi che non c'è paragone :
Comportamento dopo 30 minuti di gioco :
http://www.hwupgrade.it/articoli/skvideo/3825/nvidia_loop_gpu.png
http://www.hwupgrade.it/articoli/skvideo/3825/amd_loop_gpu.png
La 780Ti con prestazioni superiori consuma, scalda e si sente di meno e cali di frequenza quasi del tutto inesistenti.
http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-780-TI-123/GTX-780-TI-123-61.jpg
Adesso voglio proprio vedere chi cercherà di dire che i 100€ di differenza con ATI non sono giustificati.
Diciamo che quei 100€ di differenza si potrebbero investire per una scheda custom ed avere di fatto una scheda con temperature e rumore più che accettabili (e probabilmente guadagnare anche il gap sulla 780Ti visto che le frequenze sarebbero stabili)
La sostanza secondo me però è il fatto che il chip Nvidia ha obiettivamente un'efficienza migliore di quello AMD (almeno per quanto riguarda i games) quindi non si può dire che quella nvidia non sia un'ottima scheda!...per una volta mi sento di dire complimenti nvidia.
Ora ci sarà da vedere se questa migliore efficienza di Nvidia si manterrà anche sulle schede di fascia inferiore oppure è data solamente dall'essere più limitata sulla parte gpu computing rispetto alle schede della concorrenza
PaulGuru
07-11-2013, 15:40
Diciamo che quei 100€ di differenza si potrebbero investire per una scheda custom ed avere di fatto una scheda con temperature e rumore più che accettabili (e probabilmente guadagnare anche il gap sulla 780Ti visto che le frequenze sarebbero stabili)
La sostanza secondo me però è il fatto che il chip Nvidia ha obiettivamente un'efficienza migliore di quello AMD (almeno per quanto riguarda i games) quindi non si può dire che quella nvidia non sia un'ottima scheda!...per una volta mi sento di dire complimenti nvidia.
Ora ci sarà da vedere se questa migliore efficienza di Nvidia si manterrà anche sulle schede di fascia inferiore oppure è data solamente dall'essere più limitata sulla parte gpu computing rispetto alle schede della concorrenza
che cosa vuoi fare con la custom AMD ?
La 780Ti va il 10% di più, se togli il gap di prezzo non c'è più motivo di prendere AMD e se intendi cloccarla sfori i 300W di consumo, quindi sono molto scettico sul fatto che potremmo vedere versioni 290X molto cloccate di fabbrica.
Gran bella scheda,davvero una bestia feroce!!!
Anche se a voler essere pignoli, io avrei messo come titolo "....meglio di Titan ma meno costosa" piuttosto che "più economica", qua di economico non c'è assolutamente nulla ;)
Anzi si: l'articolo che è gratis :D
mi ha stupito il fatto che in overclock va quasi come una 690, che va quasi il triplo della mia 580 :eek:
Però, come al solito, costa troppo: con le 780 e le 290 al prezzo che hanno, ha poco senso.
La scheda è ottima ( tra l'altro sale magnificamente in oc) ma il prezzo al momento la mette fuori commercio; se venisse a 100 euro di differenza allora sarebbe ragionevole ma il vantaggio percentuale rispetto ad una scheda che solo con un dissipatore custom migliorerà sensibilmente, non lo rende giustificabile. Molto ma molto meglio la 780 liscia o la 290 liscia (sempre da prendere con dissi custom). Tuttavia ho notato una cosa: con battlefield 4 la 290 va come 780 ti praticamente e considerandoche i motori grafici che verranno messi in commercio nei prossimi mesi saranno principalmente fatti con amd (senza contare mantle di cui dobbiamo verificare gli effetti) se avessi tot euro da spendere aspetterei ancora un pochino sia per vedere a carte scoperte i giochi e sia per vedere tutte le schede non reference (da ambo i lati si prevedono bei mostri).
Una domanda per Corsini: a quanti rpm corrisponde il 47% della ventola delle Amd e il 60% delle schede Nvidia se possibile verificarlo ?
Inoltre mi pare di aver capito dalle tue parole che i dubbi relativi al funzionamento delle schede 290x consegnate in redazione e quelle retail siano stati dissipati con questi test, ho capito bene ?
Paolo Corsini
07-11-2013, 16:03
Una domanda per Corsini: a quanti rpm corrisponde il 47% della ventola delle Amd e il 60% delle schede Nvidia se possibile verificarlo ?
Inoltre mi pare di aver capito dalle tue parole che i dubbi relativi al funzionamento delle schede 290x consegnate in redazione e quelle retail siano stati dissipati con questi test, ho capito bene ?
Posso certamente verificartelo, ma non ora in quanto sto letteralmente scappando dalla redazione e dovrei accendere il sistema di test per controllare.
Io non ho particolari dubbi sulle schede Radeon R9 290X: stando ai miei dati non esistono versioni "per la stampa" e versioni "per il pubblico" ma sono in attesa di provare versioni retail per avere conferma. Chi ha fatto nascere questa polemica ha mancato di fornire da subito tutta una serie di dati facilmente ottenibili che avrebbero permesso di capire se c'è un problema, e di quale portata questo sia.
Ale55andr0
07-11-2013, 16:06
gran bella scheda ma sinceramente mi aspettavo di più visto che la 290x tiene botta sin "troppo bene" e in alcuni titoli la supera, ovviamente considerando default vs default. Resta ora da vedere se il prezzo resterà quello dell'articolo (e in quel caso imho il rapporto prezzo prestazioni è bassino, e personalmente l'avrei vista meglio con 6gb per rispondere ai 4 della 290x) anche in relazione a quando verrano fuori le 290x custom che mi sa che assieme alla 780 custom sono l'acquisto migliore. Comunque mi sa che con mantle la 290x se la mette dietro facile facile visto che già ora gli è vicina (....bordata di fischi e linciaggio di gruppo per l'espressione audace :asd:)
OK grazie per la disponibilità :) ; i grafici relativi al clock delle gpu con le tue considerazioni sul funzionamento ed il livello medio di frequenze a cui operavano sembrerebbe suggerire appunto che quella voce non fosse verificata.
AceGranger
07-11-2013, 16:09
stando ai miei dati non esistono versioni "per la stampa" e versioni "per il pubblico" ma sono in attesa di provare versioni retail per avere conferma.
stessa cosa vale per le nVidia ? perchè quelli di Techpowerupt hanno registrato un OC del 28% della GPU
"GPU overclocking potential is VERY impressive. It's been a while since I've seen a GPU do almost 30% OC on launch day. Memory overclocks well too, thanks to the fast memory chips, and reaches typical levels for 7 Gbps GDDR5."
avete provato anche voi un OC ?
credo che le custom della 290x non possano migliorare di molto la temperatura, credo che meno dei 70° non scendano. Preferirei liquidare una vga del genere che avere un dissipatore custom. Bella vga questa 780ti, però prezzo alto, considerando che le custom costeranno ovviamente anche un po di +. tra la 290x e la 780ti anche io preferirei la 780 per il prezzo e prestazioni
CAPT.HOOK
07-11-2013, 16:42
Gran bella scheda, ma avendo uno SLi di 780GTX non esiste 1 sola ragione al mondo che mi potrebbe in qualche modo influenzare verso l'acquisto di una Ti.
Unica piccola considerazione leggendo i commenti sopra...finche' vedro' fioccare (letteralmente) post di utenti che con AMD hanno costantemente problemi di stuttering non prendero' mai in considerazione il fatto di tornare alle rosse. Finora con Nvidia non ho mai avuto problemi se non qualcuno scaturito da un supporto SLi non adeguato nei VG appena usciti, fortunatamente corretto o con patch o tramite inspector.
stessa cosa vale per le nVidia ? perchè quelli di Techpowerupt hanno registrato un OC del 28% della GPU
"GPU overclocking potential is VERY impressive. It's been a while since I've seen a GPU do almost 30% OC on launch day. Memory overclocks well too, thanks to the fast memory chips, and reaches typical levels for 7 Gbps GDDR5."
avete provato anche voi un OC ?
Anche altre redazioni confermano l'oc elevato quindi è un ottimo dato; notare che seppur in oc sale il consumo in maniera notevole, la temperatura non varia che di 1 o2 ° da quello che ho letto quindi davvero un ottimo lavoro in dissipazione.
La 780 ti è molto veloce, non poteva essere altrimenti, viste le specifiche trapelate nei giorni scorsi, ma il prezzo resta troppo alto.
La valutazione la farei tra le GTX 780, nuovo step B1, e le R9 290: inutile guardarli ora i prezzi, penso che si assesteranno intorno ai 350-400 euro, sempre le versioni custom, a meno di ulteriori scossoni sul cambio euro/$.
siluro85
07-11-2013, 17:35
La 780 ti è molto veloce, non poteva essere altrimenti, viste le specifiche trapelate nei giorni scorsi, ma il prezzo resta troppo alto.
La valutazione la farei tra le GTX 780, nuovo step B1, e le R9 290: inutile guardarli ora i prezzi, penso che si assesteranno intorno ai 350-400 euro, sempre le versioni custom, a meno di ulteriori scossoni sul cambio euro/$.
Imho, sono i 2 best buy dell'attuale mercato: uno che non vuole metterci mano deve andare di 780, uno che ha un liquido o smanetta tra accelero o altri, di 290..
yossarian
07-11-2013, 17:36
come era prevedibile, aumentando il numero di unità e le frequenze salgono i consumi e, soprattutto il calore generato (i miracoli non è in grado di farli ancora nessuno :sofico: ).
http://www.hardware.fr/articles/912-4/bruit-temperatures.html
dall'animazione di hardware.fr si vede chiaramente che passando da titan alla 780 TI aumenta sia la temperatura della gpu (di 4,6°C sotto carico e di 2°C in modalità UBER, arrivando a 90,4°C) ma, soprattutto, la temperatura del circuito di alimentazione (8°C in più sotto carico e 6,4°C in più in modalità uber); in particolare, in modalità UBER il circuito di alimentazione della 780 TI raggiunge i 96,2°C. Di seguito le conclusione di hardware.fr.
Si le GPU de la R9 290X atteint rapidement les 94 °C, les divers composants du PCB n'en souffrent pas trop et l'étage d'alimentation principal, du GPU, est très bien refroidi malgré la charge énorme qu'il doit encaisser. L'étage d'alimentation chauffe plus du côté de la GTX 780 Ti, mais en restant à des températures raisonnables pour ce type de composants. De toute évidence Nvidia n'a par contre pas prévu cet étage d'alimentation pour des overclockings extrêmes, raison pour laquelle il n'est possible d'augmenter sa limite que de 6% contre 50% sur la Radeon.
Inoltre, si conferma la scarsa qualità del dissipatore della R9 290X che sotto carico e con la ventola in modalità QUIET fa toccare alla gpu la temperatura di 90,2°C e alle ram quella di 98,6°C. Le cose sembrano andare meglio in modalità UBER (che però è più rumorosa).
siluro85
07-11-2013, 17:53
Come avevo visto già su titan e qui ancora più evidente, il circuito di alimentazione diventa veramente caldo...
il chip è più efficiente, ma ne vuole di corrente!!
per il discorso r9, sembra che con la ventola a bassi giri, non riesca a smaltire il calore prodotto... Come diceva il buon lurenz, sembra che non riesca a spingere l'aria calda fuori..
PaulGuru
07-11-2013, 18:17
La scheda è ottima ( tra l'altro sale magnificamente in oc) ma il prezzo al momento la mette fuori commercio; se venisse a 100 euro di differenza allora sarebbe ragionevole ma il vantaggio percentuale rispetto ad una scheda che solo con un dissipatore custom migliorerà sensibilmente, non lo rende giustificabile. Molto ma molto meglio la 780 liscia o la 290 liscia (sempre da prendere con dissi custom). Tuttavia ho notato una cosa: con battlefield 4 la 290 va come 780 ti praticamente e considerandoche i motori grafici che verranno messi in commercio nei prossimi mesi saranno principalmente fatti con amd (senza contare mantle di cui dobbiamo verificare gli effetti) se avessi tot euro da spendere aspetterei ancora un pochino sia per vedere a carte scoperte i giochi e sia per vedere tutte le schede non reference (da ambo i lati si prevedono bei mostri).
Una domanda per Corsini: a quanti rpm corrisponde il 47% della ventola delle Amd e il 60% delle schede Nvidia se possibile verificarlo ?
Inoltre mi pare di aver capito dalle tue parole che i dubbi relativi al funzionamento delle schede 290x consegnate in redazione e quelle retail siano stati dissipati con questi test, ho capito bene ?A BF4 Nvidia è superiore non è uguale.
http://www.guru3d.com/articles_pages/geforce_gtx_780_ti_review,23.html
E chi lo ha detto che i prossimi giochi sono AMD ? Guarda le prestazioni di Batman, AC e COD.
siluro85
07-11-2013, 18:21
A BF4 Nvidia è superiore non è uguale.
http://www.guru3d.com/articles_pages/geforce_gtx_780_ti_review,23.html
E chi lo ha detto che i prossimi giochi sono AMD ? Guarda le prestazioni di Batman, AC e COD.
Mettici splinter cell ed hai il bundle nvidia.. si sa che batman ed ac sono molto di parte, un po come hitman o tomb raider (dall'altra parte)...;)
Ho detto praticamente per sottolineare che anche una 290 con i problemi noti di temperatura che sappiamo si avvicina tantissimo ad una 780ti tirata a lucido il che significa che le ottimizzazioni dei giochi fatta per amd con il motore frostybyte, con quello di Crytek se non ho letto male oggi, più altri vari nella lista possono divenire una discriminante: nei giochi con motore standard la differenza invece è più netta a testimonianza della cosa (nota che solo a quella risoluzione e filtri è davanti alla 290x ma negli altri 3 scenari è dietro quindi anche la 290 è lì vicino). E' evidente che se Mantle funziona si rischia da pagare da 200 a 300 euro di più una scheda che potrebbe non andare di più a breve, ma ovviamente è solo una ipotesi per questo consiglio che in caso di acquisto si dovrebbe attendere un filo di tempo per vedere l'evoluzione. Se proprio dovessi spendere per una top senza pensarci andrei con la 780 liscia, visto che al prezzo della ti ne compri ormai quasi 2 (ieri è stata in un negozio a 350-360 euro ed ovviamente straesaurita).
Ale55andr0
07-11-2013, 18:27
A BF4 Nvidia è superiore non è uguale.
http://www.guru3d.com/articles_pages/geforce_gtx_780_ti_review,23.html
mantle non è stato ancora implementato :) (e ti era già stato detto se non erro mentre sostenevi il contrario...e per la cronaca in quei grafici a meno di errori la 780ti va di più solo a 1440p, in full hd e in 4k e alle altre risoluzioni va più la 290x, quindi definire la 780ti superiore, anzi addirittura nvidia, in quel test mi pare azzardato...)
E chi lo ha detto che i prossimi giochi sono AMD ? Guarda le prestazioni di Batman, AC e COD.
nessuno, ma i titoli next gen ancora non si sono diffusi abbastanza per avere una media (quelli son più cross gen), si sa per certo che le nuove console sono gcn di AMD, ora non si può prevedere l'andamento delle ottimizzazioni sui multipiatta. Nel frattempo però oltre al frostbyte AMD dovrebbe essersi garantita il supporto alle future implementazioni del cryengine visto che si è accordata con crytek, e si tratta di due dei motori più avanzati che vedremo da qui in avanti in uso a terze parti (il primo già vede confermati nel programma mantle titoli del calibro del nuovo mass effect e dragon age 3, per l'altro engine si vedrà, forse si comincerà con star citizen, ma quest'ultima è solo mia supposizione dacchè alla presentazione delle nuove amd era presente anche Chris Roberts e l'engine dovrebbe essere della crytek. Si parla anche di thief 4, altro bel titolone...)
EDIT :D
https://robertsspaceindustries.com/comm-link/transmission/13362-Star-Citizen-To-Include-Mantle-Support
http://techreport.com/news/25605/star-citizen-thief-developers-sign-on-to-support-amd-mantle-api
PaulGuru
07-11-2013, 18:27
Ho detto praticamente per sottolineare che anche una 290 con i problemi noti di temperatura che sappiamo si avvicina tantissimo ad una 780ti tirata a lucido il che significa che le ottimizzazioni dei giochi fatta per amd con il motore frostybyte, con quello di Crytek se non ho letto male oggi, più altri vari nella lista possono divenire una discriminante: nei giochi con motore standard la differenza invece è più netta a testimonianza della cosa (nota che solo a quella risoluzione e filtri è davanti alla 290x ma negli altri 3 scenari è dietro quindi anche la 290 è lì vicino). E' evidente che se Mantle funziona si rischia da pagare da 200 a 300 euro di più una scheda che potrebbe non andare di più a breve, ma ovviamente è solo una ipotesi per questo consiglio che in caso di acquisto si dovrebbe attendere un filo di tempo per vedere l'evoluzione. Se proprio dovessi spendere per una top senza pensarci andrei con la 780 liscia, visto che al prezzo della ti ne compri ormai quasi 2 (ieri è stata in un negozio a 350-360 euro ed ovviamente straesaurita).
Fra 780 e R9 quelle più tirate sono le AMD, se Nvidia avesse voluto esasperare le Ti con 300W di TPD e temp esagerate come le ATI ci sarebbe ancora più gap.
siluro85
07-11-2013, 18:33
Beh, la Ti consuma come più della 290 liscia.. E, imho cosa peggiore, lato alimentazione la 780 Ti stressa in maniera pesante questa sezione... le r9 hanno la gpu calda, ma la 780 ti ha l'alimentazione bollente...
il senso di titan? costa 3 gazzilioni di euro e fa pena, GG
Fra 780 e R9 quelle più tirate sono le AMD, se Nvidia avesse voluto esasperare le Ti con 300W di TPD e temp esagerate come le ATI ci sarebbe ancora più gap.
E' possibile anche se non sicuro (in oc il consumo sale di tanto, mi pare di averlo visto proprio su guru o su anandtech e nota che è uno dei motivi per i quali ho chiesto a Corsini quale sia la velocità effettiva delle ventole), a maggior ragione dicevo di vedere sul piatto tutte le proposte definitive perchè al momento sia Amd che Nvidia non hanno detto tutto. Ad esempio Evga annuncia una 780ti con frequenze da urlo e sicuramente arriverà la stessa cosa dall'altro lato. Mai come adesso prudenza a meno che non cali di prezzo almeno da 550 euro in giù. Sopra è bella da vedere nei test ma non la prenderei mai.
tuttodigitale
07-11-2013, 19:19
un incremento di un valore di 3 decibel corrisponde a un suo raddoppio quindi fate i vostri calcoli...
lo sai perchè si usano i db per indicare la pressione sonora? Sembrerebbe di no.
Secondo me la scheda migliore del momento, globalmente parlando, è la 780. Ormai si trova a 400 euro, va poco meno della 290X e della 780ti ma scalda e consuma meno della prima e costa molto meno della seconda.
aspetta specifichiamo: la 780Ti e la R9 290x hanno praticamente lo stesso consumo quindi scaldano consumano allo stesso modo, o quasi
Non ci sono 50W di margine osannati da qualcuno, ma in media solo 10-20Wa favore della proposta di nvidia, che mantiene, grazie al gk110 al completo, un piccolo margine di vantaggio sull'efficienza.
quindi la 780 consuma e scalda meno della 290x e della 780ti, ma va più lenta di una 290 che tra un paio di settimane si troverà a poco più di 300 euro.
l'unico vero vantaggio della 780 è il dissipatore.
A BF4 Nvidia è superiore non è uguale.
http://www.guru3d.com/articles_pages/geforce_gtx_780_ti_review,23.html
E chi lo ha detto che i prossimi giochi sono AMD ? Guarda le prestazioni di Batman, AC e COD.Il fatto che in DX11 le schede di AMD non mostrano il fianco alle soluzioni nvidia, ma la media sulle 4 risoluzioni porta la soluzione di AMD addirittura un vantaggio del 0,5%, fa ben sperare nella patch Mantle.
Il calo di prestazioni nel test da 2560x1440 è anomalo.
passando dalla risoluzione di 1600x1200 a 1920x1200, la 290x aumenta il divario dal 4 al 6% rispetto alla 780Ti, subisce un crollo a 2560x1440 (-8%) quindi si potrebbe pensare di essere in condizioni pixel fill-rate limited (con la bellezza di 64ROPs?) fatto smentito dal test a 4K (+3%).
E' probabile che le prestazioni più basse a 2560x1440 siano dovuti ai driver.
AceGranger
07-11-2013, 19:25
E' possibile anche se non sicuro (in oc il consumo sale di tanto, mi pare di averlo visto proprio su guru o su anandtech e nota che è uno dei motivi per i quali ho chiesto a Corsini quale sia la velocità effettiva delle ventole)
ci sono su Anandtech e non mi sembra che salgano di tanto.
http://images.anandtech.com/graphs/graph7492/59741.png
http://images.anandtech.com/graphs/graph7492/59734.png
hanno aumentato il clock base del 17%, il boost del 14%, le ram del 9% e il consumo della VGA è salito del 14,2 %.
le prestazioni sono salite dell'11% e l'efficienza è passata da 5,96 Watt per fps a 6,15 Watt per fps.
mi sembrano ottimi risultati, visto che sono quasi lineari.
E' probabile che le prestazioni più basse a 2560x1440 siano dovuti ai driver.
credo che per confronti sul filo del rasoio con queste 2 VGA nuove, su un gioco nuovo pure lui, si debbano aspettare almeno un'altra release dei driver per ognuna, specialmente per AMD che essendo una nuova architettura teoricamente dovrebbe guadagnare di piu.
tuttodigitale
07-11-2013, 19:30
Fra 780 e R9 quelle più tirate sono le AMD, se Nvidia avesse voluto esasperare le Ti con 300W di TPD e temp esagerate come le ATI ci sarebbe ancora più gap.
le temperature esagerate le AMD lo hanno per colpa del dissipatore, punto e basta. Basta un dissi un poco più decente per vedere prestazioni un poco più elevate e temperature molto più basse.
Ma scusami ma una scheda che consuma 298W non può avere un TDP da 250W..
http://www.tomshw.it/files/2013/11/immagini_contenuti/50600/04-power-consumption-gaming_t.png
http://www.tomshw.it/files/2013/11/immagini_contenuti/50600/05-power-consumption-torture_t.png
PaulGuru
07-11-2013, 19:45
le temperature esagerate le AMD lo hanno per colpa del dissipatore, punto e basta. Basta un dissi un poco più decente per vedere prestazioni un poco più elevate e temperature molto più basse.
Ma scusami ma una scheda che consuma 298W non può avere un TDP da 250W..
http://www.tomshw.it/files/2013/11/immagini_contenuti/50600/04-power-consumption-gaming_t.png
http://www.tomshw.it/files/2013/11/immagini_contenuti/50600/05-power-consumption-torture_t.pngIl TDP non equivale al consumo ma è solo una specifica per il raffreddamento.
AMD consuma un po' di più e la risposta è : "vabbè poco importa"
Nvidia con la 480 che si comportava meglio : "scaldalo ! - epic fail"
Va forte sì la AMD ma solo finchè mantiene le frequenze dichiarate, poi cala, il dissipatore custom ti costa di più e non è uguale ad un reference di tipo classico.
tuttodigitale
07-11-2013, 19:46
ci sono su Anandtech e non mi sembra che salgano di tanto.
http://images.anandtech.com/graphs/graph7492/59741.png
http://images.anandtech.com/graphs/graph7492/59734.png
hanno aumentato il clock base del 17%, il boost del 14%, le ram del 9% e il consumo della VGA è salito del 14,2 %.
le prestazioni sono salite dell'11% e l'efficienza è passata da 5,96 Watt per fps a 6,15 Watt per fps.
mi sembrano ottimi risultati, visto che sono quasi lineari.
Ricordo che la HD7970 portata a 1125MHz consumava meno della HD7970 Ghz edition. Questo per dire che i nostri OC sono un pò più efficienti di quelli che fanno le case per un motivo semplicissimo: noi lo tariamo sul singolo chip, nvidia/AMD e company no!
hanno aumentato il clock base del 17%, il boost del 14%, le ram del 9% e il consumo della VGA è salito del 14,2 %.
le prestazioni sono salite dell'11% e l'efficienza è passata da 5,96 Watt per fps a 6,15 Watt per fps.
E' il consumo dell'intero PC che sale del 14.2%, non della VGA.
Quei +53W che vedi sulla 780ti in OC, solo in minima parte ricadono sulla cpu e mb maggiormente caricati rispetto alla situazione senza oc (visto che testano a 2560 con FXAA).
La maggior parte sono sulla VGA.
Ale55andr0
07-11-2013, 19:52
AMD consuma un po' di più e la risposta è : "vabbè poco importa"
Nvidia con la 480 che si comportava meglio : "scaldalo ! - epic fail"
guarda che vale esattamente il contrario :stordita:, tipo il gpgpu che nella 580 era fondamentale per i verdi, poi misteriosamente inutile nella 680 con guardacaso la 7970 che brillava in quel settore :D
...nel frattempo se non lo hai già fatto ti suggerisco di rivedere BENE i test su bf4 che hai postato prima di far certi proclami...
si debbano aspettare almeno un'altra release dei driver per ognuna, specialmente per AMD che essendo una nuova architettura teoricamente dovrebbe guadagnare di piu.
più che una nuova release di driver, visto che pur rimaneggiata è sempre una architettura GCN, è mantle a dover fare sensibilmente la differenza in bf4
Paolo Corsini
07-11-2013, 19:59
stessa cosa vale per le nVidia ? perchè quelli di Techpowerupt hanno registrato un OC del 28% della GPU
"GPU overclocking potential is VERY impressive. It's been a while since I've seen a GPU do almost 30% OC on launch day. Memory overclocks well too, thanks to the fast memory chips, and reaches typical levels for 7 Gbps GDDR5."
avete provato anche voi un OC ?
Non ho avuto tempo di provare l'overclock (ho chiuso l'articolo 20 minuti prima che scadesse l'embargo oggi), ma se e quando lo proverò una cosa da verificare con attenzione sarà non la frequenza di clock massima fissata, ma se questa viene mantenuta nel corso dell'esecuzione del test.
Se setto 1.300 MHz ma dopo 30 secondi scendo a 950 MHz che senso ha l'oveclock, se non quello di rafforzare un ego?
Parlando di consumi nessuno dice nulla sul fatto che la R9 290 consuma 40watt in più in idle della GTX 780Ti solo per il fatto di avere più di un monitor connesso? Nessuno sfrutta il multimonitor quando non gioca?
PaulGuru
07-11-2013, 20:10
guarda che vale esattamente il contrario :stordita:, tipo il gpgpu che nella 580 era fondamentale per i verdi, poi misteriosamente inutile nella 680 con guardacaso la 7970 che brillava in quel settore :D
...nel frattempo se non lo hai già fatto ti suggerisco di rivedere BENE i test su bf4 che hai postato prima di far certi proclami...
Nel GPGPU Nvidia in generale domina visto che in quel'ambiente c'è dominio delle librerie CUDA e che funzicano solo per Nvidia da quanto ne sò.
Per i modelli desktop hanno semplicemente tagliato le componenti per il calcolo a doppia precisione visto che nei giochi sono quasi del tutto inutilizzate e in più evita che certa gente faccia la furbata classica del comprare una GeForce per risparmiare su Quadro.
Quindi aldilà che sia AMD o NVidia a brillare o meno nel GPGPU non è di alcun interesse.
Nel test che ho postato di guru3d Nvidia batte AMD, che sia di poco o di molto non è importante, in ogni caso anche in caso non ci saranno differenze marcate tanto da valer la pena di scegliere l'una o l'altra.
più che una nuova release di driver, visto che pur rimaneggiata è sempre una architettura GCN, è mantle a dover fare sensibilmente la differenza in bf4E tu dove lo hai visto ? Hanno mostrato qualcosa e me la sono persa per caso ? :)
Parlando di consumi nessuno dice nulla sul fatto che la R9 290 consuma 40watt in più in idle della GTX 780Ti solo per il fatto di avere più di un monitor connesso? Nessuno sfrutta il multimonitor quando non gioca?
E' un problema che si portano dietro dalla HD 5870 e non solo nel multi monitor, ma anche con i Blu-ray.
Quello che puoi fare è creare un profilo che abbassa un po' il clock delle memorie, visto che vgpu e clock gpu sono sostanzialmente uguali a quelli del profilo 2D singolo monitor.
Ale55andr0
07-11-2013, 20:25
Nel test che ho postato di guru3d Nvidia batte AMD
non in bf 4 come sostieni tu...ma vedo che svirgoli bellamente sulla cosa, non ho mai citato il resto dei test, ma mi sono attenuto a quel che hai postato, o ho scritto io che nvidia non pareggia ma batte AMD in bf4? :read:
E tu dove lo hai visto ? Hanno mostrato qualcosa e me la sono persa per caso ? :)
tanto per cominciare sai bene che qualche tempo fa hai subito commentato la beta di bf4 e citato mantle come ininfluente a mo' di sfottò :read:, ignorando bellamente che il supporto verrà dato a dicembre, ergo il precedente "di malafede" lo hai avuto, cosa che si è puntualmente verificata con quel test in cui superficialmente hai commentato senza manco verificare bene i numeretti....Detto cio', mantle ovviamente non l'ho visto, ma è ufficiale che uscirà e il suo supporto in BF4, ergo si tratta di veder l'entità dell'ottimizzazione, non l'esistenza confermata da DICE, o mi sono perso io qualcosa al riguardo invece? ma alla fine della fiera mantle o meno in quel test nvidia NON batte AMD, ma perde "11 a 1", punto.
silvandrea
07-11-2013, 20:38
sarebbe carino vedere bench con programmi professionali che usino i Cuda Core... sarebbe bene considerare le gpu strumenti per il lavoro oltre che per il gioco (anche xkè nei giochi si deve stare al passo con le console...)
sarei curioso di scoprire come si comporta in test con OCTANE render
tuttodigitale
07-11-2013, 20:42
AMD consuma un po' di più e la risposta è : "vabbè poco importa"
Nvidia con la 480 che si comportava meglio : "scaldalo ! - epic fail"
Ancora con la storia della GTX480...Ti ricordo che la GTX480 si confrontava con una scheda dal consumo medio di soli 120W (non esistono più le top di gamma di una volta...) e non certo da 200-250W come oggi.
certo che le schede di AMD in openCL fanno paura.
http://www.anandtech.com/show/7492/the-geforce-gtx-780-ti-review/14
siluro85
07-11-2013, 21:13
....Nel test che ho postato di guru3d Nvidia batte AMD, che sia di poco o di molto non è importante...
Credo che questo mostri la tua poca obiettività. In fin dei conti siamo consumatori, il "quanto" è importante sia come prestazioni, come prezzo e tutto il resto.
E' un problema che si portano dietro dalla HD 5870 e non solo nel multi monitor, ma anche con i Blu-ray.
Quello che puoi fare è creare un profilo che abbassa un po' il clock delle memorie, visto che vgpu e clock gpu sono sostanzialmente uguali a quelli del profilo 2D singolo monitor.
Sulla mia HD7770 non cambia molto la situazione, ed abbassare troppo il clock porta a problemi di artefatti quando non a freeze del PC. Io ho risolto parzialmente connettendo il secondo monitor a un'uscita della scheda video integrata (in pratica uso due GPU allo stesso tempo), ma la cosa è comunque fastidiosa. Al prossimo giro, se dovrò cambiare scheda ma AMD non avrà ancora risolto la cosa, passo ad NVidia.
Buoni non sfociamo in flame sterili :mano:
In ordine: per i consumi in oc avevo letto (mi pare su guru3d ma non ci giurerei....) che da circa 226 watt era passata a 268 watt con temperatura da 81 a 83°, onestamente non ho verificato la cosa con le altre prove visto che in quel momento erano in giro quella + anandtech; se in oc non sale di così tanto (ma bisognerebbe vedere la freq di oc raggiunta) molto meglio ovviamente ne guadagniamo in durata.
Poi: il consumo in multimonitor delle Amd non mi pare una bella cosa, mi sembra piuttosto rilevante rispetto a Nvidia.
Su Bf4: alla risoluzione video in cui la 780ti va di più, a meno di problemi tecnici, credo che influisca un possibile eccesso di calore che fa scadere la prestazione delle r9; la 780ti perde in maniera quasi lineare mentre le Amd crollano, secondo me c'è un taglio del clock dovuto al calore.
In definitiva quel dissipatore è davvero osceno...
Negli altri scenari invece da ciò che riporta il test di Hu sembra che i tagli di clock seppur gestiti in maniera diversa non portano a cali di prestazione, almeno per la durata dei test. In particolar ela 780ti sembra essere molto più costante anche delle sue sorelline.
PaulGuru
07-11-2013, 22:36
tanto per cominciare sai bene che qualche tempo fa hai subito commentato la beta di bf4 e citato mantle come ininfluente a mo' di sfottò :read:, ignorando bellamente che il supporto verrà dato a dicembre, ergo il precedente "di malafede" lo hai avuto, cosa che si è puntualmente verificata con quel test in cui superficialmente hai commentato senza manco verificare bene i numeretti....Detto cio', mantle ovviamente non l'ho visto, ma è ufficiale che uscirà e il suo supporto in BF4, ergo si tratta di veder l'entità dell'ottimizzazione, non l'esistenza confermata da DICE, o mi sono perso io qualcosa al riguardo invece? ma alla fine della fiera mantle o meno in quel test nvidia NON batte AMD, ma perde "11 a 1", punto.
Mantle è ufficiale, uscirà ecc ma chi ti ha detto che darà il boost tanto promesso e soprattutto chi ti ha detto che per "grande boost" AMD intenda grandi numeroni ?
E chi ti ha detto che uscirà per tutti i giochi con Frostbyte ?
Ah già BF4 prima con la Alpha dicevo che a patto di schede come la Titan non girava a 60 fisso soprattutto con schede come la mia gtx770 o la 7970 ma guardacaso neppure ora con supporto driver e versione retail. Ci si può giocare ora non perchè il gioco sia stato stravolto ma perchè le prestazioni generali delle schede sono aumentate, la 770 e la 7970 oramai sono cimici in confronto a queste nuove.
Ale55andr0
08-11-2013, 00:30
Mantle è ufficiale, uscirà ecc ma chi ti ha detto che darà il boost tanto promesso e soprattutto chi ti ha detto che per "grande boost" AMD intenda grandi numeroni ?
e a te chi ti ha detto che per AMD un grande boost non è un numerone? il tuo quesito sembra più un tentativo di auto-convincimento che l'esporre un proprio scetticismo, legittimo per carità ma...per quanto mi riguarda, avendo vissuto l'epoca delle glide/3dfx so benissimo che un'api proprietaria il potenziale per fare segnare il numerone te lo da' eccome...
E chi ti ha detto che uscirà per tutti i giochi con Frostbyte ?
sarà per il fatto che i prossimi titoli di una certa rilevanza annunciati facenti uso del frostbyte, ovvero Mass Effect e Dragon Age 3, sono già stati confermati come facenti parte del programma mantle e che non sono giochi sviluppati da DICE?
...e se non fossero tutti i giochi con frostbyte? quindi? dunque? se esce una simulazione di toelettatura per cammelli abruzzesi basata sul frostbyte senza supporto a mantle pensi che mi strapperò le vesti visti i titoli tripla A già confermati che useranno il frostbyte e mantle? :asd:
Ad ogni modo, sui titoli frostbyte con supporto a mantle :fiufiu:
http://www.guru3d.com/news_story/dice_claims_that_15_titles_will_support_mantle.html
http://cdn.wccftech.com/wp-content/uploads/2013/09/Frostbite-3-Games.jpg
Littlesnitch
08-11-2013, 07:19
Prevedibile e puntuale risposta di nVidia, buona scheda con un buon dissi stock! Di fatto per pareggiare AMD consuma uguale, segno che il limite non è l'architettura ma il PP. Comunque vediamo la disponibilità visto che le Titan erano scarti e le 780 scarti degli scarti, queste invece sono chip rubati alle Tesla.
Ad oggi il best buy rimane la 290 liscia con un dissi custom. Anche se la 780 post repricing sicuramente è un ottimo acquisto!
Ancora una volta di più penso che con un dissipatore custom queste schede eliminano definitivamente il "problema" dei cali di frequenza in base alla temperatura della GPU.
Non vedo l'ora di vedere proposte custom della R9-290X e dopo fare in conti in termini di prestazioni.
Gran bella scheda in ogni caso questa 780Ti.
Littlesnitch
08-11-2013, 11:59
Ancora una volta di più penso che con un dissipatore custom queste schede eliminano definitivamente il "problema" dei cali di frequenza in base alla temperatura della GPU.
Non vedo l'ora di vedere proposte custom della R9-290X e dopo fare in conti in termini di prestazioni.
Gran bella scheda in ogni caso questa 780Ti.
Mettici pure l'azoto liquido ma a 1Ghz la 290X rimane dietro. Perciò a meno che AMD non abbassi i prezzi nVidia l'ha posizionata alla perfezione!
maurilio968
08-11-2013, 12:47
Mettici pure l'azoto liquido ma a 1Ghz la 290X rimane dietro. Perciò a meno che AMD non abbassi i prezzi nVidia l'ha posizionata alla perfezione!
punti divista, io aspetto le custom 290 prima di trarre conclusioni affrettate: SE una 290 (liscia , senza la x) custom dopo l'assetamento dei prezzi la troveremo mettiamo a 350-400 e una custom 780ti almeno a 550-600 la vedo dura gistificare 200 euro di differenza data la risicata (per me, poi ciascuno spende i suoi soldi come vuole) differenza di prestazioni che si è vista in tutte le review. Posto che secondo me la custom 290 si assesterà a 350-380 e difficilmente le 780ti custom le vedremo sotto i 600 la differenza sarà magari anche più di 200 euro. Vedremo.
marchigiano
08-11-2013, 12:51
costando ancora di piu' peggiorando ulteriormente il rapporto price performance
costeranno sicuramente di più, ma bisogna vedere se nvidia glielo lascia fare o meno
la scheda è appena uscita i prezzi si devono assestare, comunque si sa che la scheda top senza concorrenza costa sempre uno sproposito (come pure le cpu)
Littlesnitch
08-11-2013, 13:17
la scheda è appena uscita i prezzi si devono assestare, comunque si sa che la scheda top senza concorrenza costa sempre uno sproposito (come pure le cpu)
In questo caso parlare di "senza concorrenza" mi pare proprio una forzatura! La 780Ti è più veloce e 100€ di differenza rispetto ad una 290X reference ci stanno! Un Accelero lo paghi 50/60€ e ti devi rompere le balle a montarlo! Certo che le 290 e 780 liscie sono un affare adesso!
Sarebbe possibile vedere, una volta tanto, i benchmark della VGA nVidia con le librerie physX abilitate (per quei giochi che le utilizzano ovviamente)?
Magari facendo un articolo a parte che metta anche in mostra l'utiità o meno dell'uso di schede dedicate, piuttosto che lavorare con un'unica VGA.
Capisco che il test non avrebbe senso nell'ambito del confronto con AMD, ma sarebbe cmnq interessante per vedere come variano le prestazioni con physX con e senza VGA dedicata.
Rinnovo la domanda alla redazione: visto che è uno dei plus (utile o meno che sia) che nVidia sbandiera ai quattro venti, perché non fare un'articolo specifico in proposito?
E' triste vedere come più di un utente valuta la Titan come una scheda video fregatura.
Chiaramente non hanno letto tutto l'articolo e ignorano totalmente cosa sia il GPGPU computing che è stato castrato dalla serie 600 in poi.
C'è chi le schede video le usa per altri scopi oltre al giocherellare col computer. Invito perciò tutti questi utenti ad andare a scoprire il mirabolante mondo delle simulazioni, del rendering e del GPU computing in generale.
Utilizzo una Titan in ufficio tutti i giorni e per renderizzare immagini va meglio della coppia di 580 a liquido che ho a casa, senza contare che ha il doppio di VRAM.
Basta, vi prego, sparare a zero solo perché una cosa è fuori dalla vostra portata o comprensione.
con tutto il rispetto ma è evidente che si parla nell'articolo di queste schede video con un occhio rivolto al lato gaming e rispetto a questo si fanno le valutazioni (altrimenti che senso avrebbe infilarci schede video assolutamente non inerenti il gpgpu...); quindi il giudizio su titan nei rapporti con le altre schede viene fatto in questa logica, eventuali usi specifici non vengono neanche testati e non sono messi in discussione se non in thread specifici (poco tempo fa una discussione su tale argomaneto fu affrontato da Yossarian, Crapa di Legno, Ace Granger ed altri...) ma qui è fuori luogo.
Severnaya
08-11-2013, 20:10
la sezione commenti andrebbe rinominata in Bardware Upgrade...
considerare Titan qualcosa che ha senso di esistere come oggetto d'acquisto è triste e ignorante prescindere... è un esercizio di stile se vogliamo ma nulla che valga la pena comprare anche per chi ne avesse la disponibilità.
Ora abbiano delle schede che incominciano a farsi realmente concorrenza anche se i "tifosi" dei vari brand continueranno a prendere verde o rosso all'occorenza. Sarebbe carino fare due conti e vedere se un CF di 290 o di 770 come prezzo\prestazioni convengano rispetto a una mono ultracostosa.
(quoto chi scrisse che qui di economico non c'è nulla)
Littlesnitch
09-11-2013, 08:58
la sezione commenti andrebbe rinominata in Bardware Upgrade...
considerare Titan qualcosa che ha senso di esistere come oggetto d'acquisto è triste e ignorante prescindere... è un esercizio di stile se vogliamo ma nulla che valga la pena comprare anche per chi ne avesse la disponibilità.
Ora abbiano delle schede che incominciano a farsi realmente concorrenza anche se i "tifosi" dei vari brand continueranno a prendere verde o rosso all'occorenza. Sarebbe carino fare due conti e vedere se un CF di 290 o di 770 come prezzo\prestazioni convengano rispetto a una mono ultracostosa.
(quoto chi scrisse che qui di economico non c'è nulla)
Credo tu intendessi un CF di 280X? La 290 anche liscia è a livello della 780:)
Boscagoo
09-11-2013, 10:37
Visto ciò, mi sa che upgrado il mio reparto video con una 770...
E' triste vedere come più di un utente valuta la Titan come una scheda video fregatura.
Chiaramente non hanno letto tutto l'articolo e ignorano totalmente cosa sia il GPGPU computing che è stato castrato dalla serie 600 in poi.
C'è chi le schede video le usa per altri scopi oltre al giocherellare col computer. Invito perciò tutti questi utenti ad andare a scoprire il mirabolante mondo delle simulazioni, del rendering e del GPU computing in generale.
Utilizzo una Titan in ufficio tutti i giorni e per renderizzare immagini va meglio della coppia di 580 a liquido che ho a casa, senza contare che ha il doppio di VRAM.
Basta, vi prego, sparare a zero solo perché una cosa è fuori dalla vostra portata o comprensione.
L'unica cosa che è oltre la mia comprensione e portata qui è come faccia gente come te a non vergognarsi nello scrivere certe colossali stronzat*, mancate di senso del pudore od avete un modo di vedere le cose talmente distorto da non accorgervi di quanto le vostre uscite appaiano ridicole alle persone normali?
siluro85
09-11-2013, 18:48
E' triste vedere come più di un utente valuta la Titan come una scheda video fregatura.
Chiaramente non hanno letto tutto l'articolo e ignorano totalmente cosa sia il GPGPU computing che è stato castrato dalla serie 600 in poi.
C'è chi le schede video le usa per altri scopi oltre al giocherellare col computer. Invito perciò tutti questi utenti ad andare a scoprire il mirabolante mondo delle simulazioni, del rendering e del GPU computing in generale.
Utilizzo una Titan in ufficio tutti i giorni e per renderizzare immagini va meglio della coppia di 580 a liquido che ho a casa, senza contare che ha il doppio di VRAM.
Basta, vi prego, sparare a zero solo perché una cosa è fuori dalla vostra portata o comprensione.
:rotfl:
AceGranger
10-11-2013, 01:24
L'unica cosa che è oltre la mia comprensione e portata qui è come faccia gente come te a non vergognarsi nello scrivere certe colossali stronzat*, mancate di senso del pudore od avete un modo di vedere le cose talmente distorto da non accorgervi di quanto le vostre uscite appaiano ridicole alle persone normali?
le persone "normali" conoscono solo il mondo dei giochi e fin li arrivano a commentare; in altri ambiti, sicuramente di nicchia, le cose funzionano diversamente.
dipende da che punto di vista guardi la Titan; per giocare si, sono 800 euro spesi male, ma in alcuni ambiti grafici sono ottimi mezzi lavorativi ad un ottimo prezzo.
le persone "normali" conoscono solo il mondo dei giochi e fin li arrivano a commentare; in altri ambiti, sicuramente di nicchia, le cose funzionano diversamente.
Penso che tu abbia frainteso il significato che ho dato al termine "normale", forse perché poco chiaro o forse per un po' di coda di paglia.....
Con "persone normali" intendevo "persone che non sono fanboy nvidia e che non si credono speciali perché si sono comprati un ravatto da 1000 euro ed ora lo devono giustificare a se stessi ed al mondo", non normali nel senso di "nella media" perché ad una persona nella media se gli chiedi cos'è un vga e cos'è il gpgpu probabilmente penserà che tu stia avendo un ictus :asd:.
Spero che così sia più chiaro.
Se uno viene qui e fa una sparata come quella che ha fatto il tizio che ho quotato significa che si sente colto sul vivo per la denigrazione della Titan, se davvero la usasse per lavorarci, non pensasse di aver preso una fregatura e non fosse un fanboy nvidia per quale motivo si dovrebbe comportare così?
dipende da che punto di vista guardi la Titan; per giocare si, sono 800 euro spesi male, ma in alcuni ambiti grafici sono ottimi mezzi lavorativi ad un ottimo prezzo.
Allora, la Titan è puro marketing, piantatela con sta storia degli ambiti lavorativi.
E' stata fatta solo ed esclusivamente per far vedere che le nvidia ce l'avevano più lungo, anzi , che ce l'avevano titanico!
E' stata fatta e prezzata così per dar l'idea di potenza immensa ed era venduta come l'unica vga fatta con una gpu da supercomputer (di scarto, ma quello non lo dicevano nella pubblicità, forse perché rovinava un po' l'immagine :asd: ).
Il nome, il prezzo e il marketing dietro a questa scheda erano tutti studiati per attirare i videogiocatori in cerca di un modo per compensare la scarsa lunghezza del loro organo maschile, non certo per attirare professionisti, negare questa palese verità è da paraculi o da fanboy senza speranza.
Che poi una percentuale infinitesima di titan sia stata acquistata ed utilizzata per lavoro è un conto, ma il motivo della sua esistenza non era certo quello ne è quel settore che le ha fatte vendere.
Littlesnitch
10-11-2013, 10:05
le persone "normali" conoscono solo il mondo dei giochi e fin li arrivano a commentare; in altri ambiti, sicuramente di nicchia, le cose funzionano diversamente.
dipende da che punto di vista guardi la Titan; per giocare si, sono 800 euro spesi male, ma in alcuni ambiti grafici sono ottimi mezzi lavorativi ad un ottimo prezzo.
Forse ti continua a sfuggire che la Titan è una GeForce e quindi una scheda gaming! Questo è quello che dice nVidia in modo chiaro netto e inconfutabile. Il professionista serio compra Tesla e Quadro. Il resto sono chiacchiere da fanboy.
AceGranger
10-11-2013, 13:00
Il nome, il prezzo e il marketing dietro a questa scheda erano tutti studiati per attirare i videogiocatori in cerca di un modo per compensare la scarsa lunghezza del loro organo maschile, non certo per attirare professionisti, negare questa palese verità è da paraculi o da fanboy senza speranza.
è cristallino che sia stata un'ottima mossa di marketing, che sia stata superprezzata per il gaming e fatta per attirare i giocatori, non mi pare di aver mai detto il contrario;
Il come/perchè sia nata non cambia quello che puo fare... se io oggi prendo l'elenco completo delle VGA nVidia, guardo le loro prestazioni e in seguito il loro prezzo, ci sono alcuni ambiti dove i driver delle Quadro per le Viewport non vengono utilizzati e dove le Titan rappresentano il miglior compromesso fra potenza/ram/costi, che poi siano ambiti di nicchia anche questo nessuno lo mette in dubbio.
Forse ti continua a sfuggire che la Titan è una GeForce e quindi una scheda gaming! Questo è quello che dice nVidia in modo chiaro netto e inconfutabile.
Cosa dica nVidia poco mi frega, mi interessa di piu quello che dicono i programmatori e quello che fa realmente una VGA quando la uso. Se tutti ascoltassero quello che dicono i produttori, tutti avrebbero tutto di tutto :asd:
Il professionista serio compra Tesla e Quadro. Il resto sono chiacchiere da fanboy.
Meno male che ho una Quadro, cosi sono a posto con i bimbiminkia.
è cristallino che sia stata un'ottima mossa di marketing e che sia stata superprezzata per il gaming, non mi pare di aver mai detto il contrario;
Vero, non l'hai fatto, ma sei entrato in difesa di uno che invece l'ha fatto eccome, vatti a rileggere il messaggio del "soggetto" (per non essere volgare) che ha dato inizio a tutto... Se non condividevi il suo pensiero (se così lo si può chiamare) perché prenderne le parti?
Il come sia nata non cambia quello che puo fare... se io oggi prendo l'elenco completo delle VGA nVidia, guardo le loro prestazioni e in seguito il loro prezzo, ci sono alcuni ambiti dove i driver delle Quadro per le Viewport non vengono utilizzati e dove le Titan rappresentano il miglior compromesso fra potenza/ram/costi, e anche questo è negare una palese verita, che poi siano ambiti di nicchia anche questo nessuno lo mette in dubbio.
Ok, bene, ci sono ambiti di estrema nicchia in cui le Titan sono apprezzate per il gpgpu, però la scheda in se è nata come scheda da gioco, con una nomenclatura identificante schede da gioco ed è stata comprata quasi esclusivamente da fanboy sottodotati, in cerca di qualcosa con cui compensare, per utilizzarla per quello per cui è nata, far girare videogiochi.
Alla luce di questi fatti inoppugnabili venire qui e dire che chi la critica è o invidioso perché non se la può permettere o un ignorante che non capisce una mazza è da cogli*ni poco dotati, non trovi?
In fondo stiamo parlando di schede da gioco e se uno viene qui a dire che chi critica la titan è perché non fa altro che "giocherellare col computer" mentre lui ci fa cose "fuori dalla vostra portata o comprensione" il minimo che si merita è di pigliarsi qualche bel vaffancul* :ciapet:
AceGranger
10-11-2013, 13:53
Vero, non l'hai fatto, ma sei entrato in difesa di uno che invece l'ha fatto eccome, vatti a rileggere il messaggio del "soggetto" (per non essere volgare) che ha dato inizio a tutto... Se non condividevi il suo pensiero (se così lo si può chiamare) perché prenderne le parti?
:mbe: non ho difeso il "soggetto", ho scritto solamente che in se la Titan puo rappresentare comunque un buon prodotto in alcuni ambiti.
Ok, bene, ci sono ambiti di estrema nicchia in cui le Titan sono apprezzate per il gpgpu, però la scheda in se è nata come scheda da gioco, con una nomenclatura identificante schede da gioco ed è stata comprata quasi esclusivamente da fanboy sottodotati, in cerca di qualcosa con cui compensare, per utilizzarla per quello per cui è nata, far girare videogiochi.
ripeto, non metto in dubbio che sia nata per quello, e nemmeno che moltissime Titan siano state acquistate per quello.
Tuttavia converrai che, al dila della nomenclatura, quello che conta è quello che un prodotto riesce a fare; anche gli i5, gli i7 e i dischi SATA sono "consumer", ma non venirmi a dire che i professionisti comprano solo Xeon e dischi SAS perchè lo dicono i produttori, perchè qui è stare fuori dal mondo dall'altra parte.
come è sbagliatissimo dire che la Titan è stata fatta per i professionisti è anche sbagliato dire che non serve a nulla a prescindere.
Alla luce di questi fatti inoppugnabili venire qui e dire che chi la critica è o invidioso perché non se la può permettere o un ignorante che non capisce una mazza è da cogli*ni poco dotati, non trovi?
Infondo stiamo parlando di schede da gioco e se uno viene qui a dire che chi critica la titan è perché non fa altro che "giocherellare col computer" mentre lui ci fa cose "fuori dalla vostra portata o comprensione" il minimo che si merita è di pigliarsi qualche bel vaffancul* :ciapet:
si hai ragione, il modo è stato sicuramente sbagliato, era mia intenzione intervenire solo su parte del contenuto di quel messaggio.
:mbe: non ho difeso il "soggetto", ho scritto solamente che in se la Titan puo rappresentare comunque un buon prodotto in alcuni ambiti.
Beh, dal contesto a me ha dato quell'impressione, sopratutto per la puntualizzazione sulle persone "normali" che arrivano solo fino ad un certo punto.
ripeto, non metto in dubbio che sia nata per quello, e nemmeno che moltissime Titan siano state acquistate per quello.
E su questo siamo d'accordo allora
Tuttavia converrai che, al dila della nomenclatura, quello che conta è quello che un prodotto riesce a fare; anche gli i5, gli i7 e i dischi SATA sono "consumer", ma non venirmi a dire che i professionisti comprano solo Xeon e dischi SAS perchè lo dicono i produttori, perchè qui è stare fuori dal mondo dall'altra parte.
Certo che quello che conta è quello che riesce a fare, però non esistono processori da gioco, ne dischi da gioco, semplicemente per giocare servono certe prestazioni e quindi si usano certi componenti, che però vengono usati in molti altri ambiti, mentre nelle schede video c'è una netta distinzione tra schede da gioco, schede da lavoro e schede da calcolo scientifico, perché i tre ambienti, pur avendo tutti e tre necessità di gpu veloci, richiedono caratteristiche diverse oltre la sola potenza.
Quindi, per quanto riguarda le schede video, che hanno delle categorie di utilizzatori molto specifiche, ha senso notare la nomenclatura e la destinazione di utilizzo e tenerne conto durante le discussioni.
come è sbagliatissimo dire che la Titan è stata fatta per i professionisti è anche sbagliato dire che non serve a nulla a prescindere.
Ovviamente, quando si dice così, si intende all'interno del target per cui è stata pensata (e qui ci si riallaccia al discorso precedente).
Con una cpu si direbbe "sta cpu non serve a nulla per i giochi", perché non è ovvia l'associazione di una data cpu all'ambito "gioco", mentre con le schede video tale associazione viene fatta direttamente dal produttore ed è quindi ovvio che chi le giudica le giudichi in base alla categoria in cui sono piazzate.
si hai ragione, il modo è stato sicuramente sbagliato, era mia intenzione intervenire solo su parte del contenuto di quel messaggio.
Se l'avessi specificato subito ci saremmo risparmiati una discussione :asd:.
AceGranger
10-11-2013, 15:29
Certo che quello che conta è quello che riesce a fare, però non esistono processori da gioco, ne dischi da gioco, semplicemente per giocare servono certe prestazioni e quindi si usano certi componenti, che però vengono usati in molti altri ambiti, mentre nelle schede video c'è una netta distinzione tra schede da gioco, schede da lavoro e schede da calcolo scientifico, perché i tre ambienti, pur avendo tutti e tre necessità di gpu veloci, richiedono caratteristiche diverse oltre la sola potenza.
Quindi, per quanto riguarda le schede video, che hanno delle categorie di utilizzatori molto specifiche, ha senso notare la nomenclatura e la destinazione di utilizzo e tenerne conto durante le discussioni.
vero anceh questo, ma la distinzione la fa sostanzialmente il produttore che tira acqua al suo mulino e crea l'appeal sui consumatori; nell'ambito specifico di alcuni applicativi CUDA la situazione che si viene a creare è la stessa delle CPU; nel caso dei motori di rendering GPGPU, i driver delle Quadro che la fanno da padrone nelle viewport dei software non sono utilizzati, e il surplus delle Tesla non viene sfruttato, motivo per cui, il grosso dell'utenza professionale che lavora in questi ambiti acquista le Titan o le GTX, perchè altrimenti si andrebbe a pagare di piu per delle feature non utilizzate;
Ovviamente, quando si dice così, si intende all'interno del target per cui è stata pensata (e qui ci si riallaccia al discorso precedente).
Con una cpu si direbbe "sta cpu non serve a nulla per i giochi", perché non è ovvia l'associazione di una data cpu all'ambito "gioco", mentre con le schede video tale associazione viene fatta direttamente dal produttore ed è quindi ovvio che chi le giudica le giudichi in base alla categoria in cui sono piazzate.
vero, ma come sopra, il produttore tira acqua al suo mulino, perchè a lui interessa fare piu soldi...
es. iRay, Octane, Arion e Vray RT sono 4 software di rendering GPGPU, i programmatori stessi di Octane, Arion e Vray RT consigliano le GTX come VGA di calcolo, lo consigliano direttamente sui loro siti e nelle FAQ; iRay ( versione GPGPU di Mental Ray ) è sponsorizzato e sviluppato direttamente da nVidia, quindi non vedrai mai scritto da nessuna parte che le GTX vanno bene, perchè sarebbe una potenziale rischiosa contro-pubblicita perchè chi non lavora in quegli ambiti non sa bene la differenza cìè fra viewport, driver, Quadro e GPGPU.
credo che la verita stia nel mezzo, dove caso per caso vada valutato in modo differente.
comunque si, anche io ho sempre sostenuto sin dall'inizio che la Titan fosse una VGA per lo piu marketing dall'utilita pratica molto di nicchia, un po come lo sono le CPU Extreme Edition di intel; anche perchè sin dalla sua uscita gia si parlava della variante Titan "castrata" che poi è uscita come 780...
ora sono curioso di vedere se usciranno veramente le versioni Black edition della 780Ti con 6Gb e 12 Gb di ram.
vero anceh questo, ma la distinzione la fa sostanzialmente il produttore che tira acqua al suo mulino e crea l'appeal sui consumatori; nell'ambito specifico di alcuni applicativi CUDA la situazione che si viene a creare è la stessa delle CPU; nel caso dei motori di rendering GPGPU, i driver delle Quadro che la fanno da padrone nelle viewport dei software non sono utilizzati, e il surplus delle Tesla non viene sfruttato, motivo per cui, il grosso dell'utenza professionale che lavora in questi ambiti acquista le Titan o le GTX, perchè altrimenti si andrebbe a pagare di piu per delle feature non utilizzate;
Beh ovvio che molta della differenza tra vga da gioco e da lavoro è fatta a tavolino dal produttore per massimizzare i guadagni, però resta, quindi se si sta parlando di una vga da gioco e si dice che non serve a nulla, ovviamente si sta intendendo per lo scopo per cui è venduta, se qualcuno la trova utile in un altro ambito che differisce da quello principale per cui è presentata è suo dovere specificarlo, non attaccare chi la stava valutando in base ai criteri della categoria in cui la si trova nel listino del produttore.
vero, ma come sopra, il produttore tira acqua al suo mulino, perchè a lui interessa fare piu soldi...
Ovviamente
credo che la verita stia nel mezzo, dove caso per caso vada valutato in modo differente.
Io invece no, una vga presentata come scheda da gioco deve avere un senso in quel ambito, se non ce l'ha è una vaccata, indipendentemente se poi la si può adattare per essere utilizzata in maniera differente rispetto al suo utilizzo principale.
comunque si, anche io ho sempre sostenuto sin dall'inizio che la Titan fosse una VGA per lo piu marketing dall'utilita pratica molto di nicchia, un po come lo sono le CPU Extreme Edition di intel; anche perchè sin dalla sua uscita gia si parlava della variante Titan "castrata" che poi è uscita come 780...
Già, anzi, secondo me è ancora più stupida delle versioni Extreme di intel.
ora sono curioso di vedere se usciranno veramente le versioni Black edition della 780Ti con 6Gb e 12 Gb di ram.
Per sostituire la tua Titan? :D
AceGranger
10-11-2013, 16:00
Per sostituire la tua Titan? :D
:asd: no, per ora, per il lavoro a cui la destino va bene la Titan, ho altri acquisti in scaletta; poi vedendo il mercatino, avrei una vastissima scielta di Titan, praticamente nuove, svendute :sofico:
:asd: no, per ora, per il lavoro a cui la destino va bene la Titan, ho altri acquisti in scaletta; poi vedendo il mercatino, avrei una vastissima scielta di Titan, praticamente nuove, svendute :sofico:
:eekk:, che ci fa quella i in scelta?! Vergogna!
Comunque, a parte gli orrori grammaticali ( :asd: ), è da un po' che non do un'occhiata all'usato, ma la svendita delle Titan conferma quello che ho detto: i maggiori acquirenti della Titan sono i fanboy con il complesso da spogliatoio che ovviamente non possono tollerare di non avere la scheda più potente in circolazione ed il pensiero che hanno buttato quasi 1000 euro solo per potersi vantare di avere la scheda più potente per qualche mese mi diverte molto :sbonk:
AceGranger
10-11-2013, 17:07
:eekk:, che ci fa quella i in scelta?! Vergogna!
nooooooooooo nooooooooo, una svista imperdonabile! hai ragione, mi merito frustate :cry:
ma la svendita delle Titan conferma quello che ho detto: i maggiori acquirenti della Titan sono i fanboy con il complesso da spogliatoio che ovviamente non possono tollerare di non avere la scheda più potente in circolazione ed il pensiero che hanno buttato quasi 1000 euro solo per potersi vantare di avere la scheda più potente per qualche mese mi diverte molto :sbonk:
bè dai, meglio per chi fa l'affarone comprandole usate alla meta del prezzo :)
Alla fine non capisco tutto questo problema sulla titan: premesso che io non prenderei mai quel tipo di scheda per il gaming benchè al momento dell'uscita fosse la più performante, è indubbio che fosse ottima in quella fase (ed adesso of course) per il gioco consentendo di approcciare anche il gpgpu o dintorni senza dover ricorrere a schede molto più costose e specifiche. In definitiva per un utilizzo misto Titan è un ottimo compromesso. Dopodichè per il gaming ovviamente è uscito di meglio (o comunque di più conveniente) ma forse già c'era. E non sono d'accordo neanche sul lamentarsi che è stata pagata 1000 , alla fine si è sempre consapevoli che tanto a breve esce qualcosa che va di più costando meno ed ok che si sapeva che era castrata è che quindi sarebbe uscita la versione "full" a prezzo minore ma in fin della fiera le prestazioni non sono certo diminuite e se si è voluto spendere 1000 euro perchè si poteva farlo , beh godetevi la scheda è basta che rulla di brutto uguale ;)
Tanto lo stesso discorso si farà per le 290X non appena usciranno le custom che a regime costeranno anche meno delle reference andando un sacco di più viste le temperature.
Littlesnitch
10-11-2013, 19:32
Cosa dica nVidia poco mi frega, mi interessa di piu quello che dicono i programmatori e quello che fa realmente una VGA quando la uso. Se tutti ascoltassero quello che dicono i produttori, tutti avrebbero tutto di tutto :asd:
Meno male che ho una Quadro, cosi sono a posto con i bimbiminkia.
Come c'è chi fa render e grafica 3D con le CPU overclockate:doh: .... eh si che avevo specificato che i professionisti seri comprano altro. Quando sento che la Titan a livello professionistico è il miglior compromesso tra costi e prestazioni mi vengono i brividi:muro: Tutti scemi quelli che comprano gli Xeon e le Tesla :sofico:
Poi ovvio che in confronto alla Quadro che hai la Titan va di più nel GPGPU e negli applicativi dove i driver non fanno la differenza, ma ti bastava una 580 per superarla....
AceGranger
10-11-2013, 20:36
Come c'è chi fa render e grafica 3D con le CPU overclockate:doh: .... eh si che avevo specificato che i professionisti seri comprano altro. Quando sento che la Titan a livello professionistico è il miglior compromesso tra costi e prestazioni mi vengono i brividi:muro: Tutti scemi quelli che comprano gli Xeon e le Tesla :sofico:
Poi ovvio che in confronto alla Quadro che hai la Titan va di più nel GPGPU e negli applicativi dove i driver non fanno la differenza, ma ti bastava una 580 per superarla....
infatti saranno scemi i programmatori degli stessi software :asd:
mano male che ci sei tu :sofico:.
Littlesnitch
11-11-2013, 11:02
infatti saranno scemi i programmatori degli stessi software :asd:
mano male che ci sei tu :sofico:.
No, per fortuna che ci sei tu che fai quel lavoro con CPU in OC e VGA gaming :asd: :asd: :asd:
No per fortuna che c'è lui:
"Danny Princz maintains an excellent set of After Effects CUDA benchmark testing results, which show that the GeForce GTX category of cards does very well in terms of performance/price for After Effects GPU acceleration of the ray-traced 3D renderer."
Tratto dal supporto ufficiale di adobe!!!
:D
AceGranger
13-11-2013, 13:06
No per fortuna che c'è lui:
"Danny Princz maintains an excellent set of After Effects CUDA benchmark testing results, which show that the GeForce GTX category of cards does very well in terms of performance/price for After Effects GPU acceleration of the ray-traced 3D renderer."
Tratto dal supporto ufficiale di adobe!!!
:D
:read: che è la stessa cosa che scrivono i programmatori di Octane, Arion, Vray sui rispettivi siti ufficiali/supporto...
ma che ci vuoi fare, qui c'è gente che si sveglia la mattina e diventa esperta di software e hardware che vede giusto nelle review e che sente dal fidato cugggggino :asd:; poi basta andare in forum specialistici del settore e si vede chiaramente cosa acquistano i professionisti e cosa consigliano gli stessi programmatori ;)
:read: che è la stessa cosa che scrivono i programmatori di Octane, Arion, Vray sui rispettivi siti ufficiali/supporto...
Mi hai tolto le parole di bocca!!!
:D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.