View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
quindi secondo voi, a tra giugno ed agosto non esce la 880?
Secondo me non vedremo nulla di "top" nuova generazione fino a fine anno (novembre/dicembre) sia da parte rossa che da parte verde...
Goofy Goober
25-03-2014, 21:29
quindi secondo voi, a tra giugno ed agosto non esce la 880?
è più probabile che colonizziamo Venere entro agosto che una 880 venga messa in vendita :asd:
tra giugno e agosto vedremo la gtx 790, uguale alla Titan Z, venduta a 1999 dollari :O :read: Oppa Nvidia Style!
Secondo me non vedremo nulla di "top" nuova generazione fino a fine anno (novembre/dicembre) sia da parte rossa che da parte verde...
essi a questo punto anche per me la faranno uscire a novembre/dicembre, che solata ragazzi. mi toccherà prendere la 780ti.
Goofy Goober
25-03-2014, 21:33
che solata ragazzi
perchè?
ci sono problemi prestazionali con i giochi attuali e le schede attuali? :D
tieni da parte questo pensiero per quando usciranno le nuove gpu, e saranno di nuovo chippini di fascia media venduti a prezzo dei chipponi, e quest'ultimi saranno riciclati tempo dopo come nuova serie e rivenduti a prezzo top, con le revision della prima serie che diventaranno le gpu di fascia media di questa nuova serie.
questa è una SOLA.
appleroof
25-03-2014, 22:03
No ma infatti che senso ha parlare della tecnologia successiva a quella che deve essere ancora presentata? Cioè io mi aspettavo davvero di vedere sul palco una fottuta 880 e che finalmente si parlasse realmente di cosa proponeva maxwell...bah..delusione...forse siamo davvero lontani ai 20nm...speriamo domani che AMD presenti qualcosa di interessante :)
Credo che parlare di Pascal e non di Maxwell sia dovuto alla necessità di far vedere (sopratutto al mercato) che sei vitale e, per la seconda, non scoprire subito le carte al competitor (che cmq dopo gm107 imho un'idea abbastanza precisa del target delle GPU top Maxwell dovrebbe averla...), altre motivazioni ragionevoli non me ne vengono...
perchè?
ci sono problemi prestazionali con i giochi attuali e le schede attuali? :D
tieni da parte questo pensiero per quando usciranno le nuove gpu, e saranno di nuovo chippini di fascia media venduti a prezzo dei chipponi, e quest'ultimi saranno riciclati tempo dopo come nuova serie e rivenduti a prezzo top, con le revision della prima serie che diventaranno le gpu di fascia media di questa nuova serie.
questa è una SOLA.
l'ho detto perchè siccome mi dovrei rifare tutto il pc, fra 1 mese esce il chip serie 9, a giugno haswell refresh e in concomitanza avevo preventivato anche la 880 per completare il quadretto. e invece... XD
bronzodiriace
26-03-2014, 10:34
2.999$
http://abload.de/img/0064_qaev.gif
Espresso in termini di DBZ?
9000?
SS3?
http://i.imgur.com/pLHWPX6.jpg
cire92cry
26-03-2014, 12:37
^^ La vedo male sta Titan Z visto che avrà una frequenza bassa sui 700 mhz vedo molto probabile una dual AMD di 290 lisce che la batte a meno di 1/3 del prezzo :sofico: xD
Ale55andr0
26-03-2014, 13:08
:D B@stardo dentro hahahahha
e perchè mai? mi ero espresso male, correggo il tiro va': spero che la 780 e la 290 durino a luuuungo, e che i prezzi rimangano su :O
Secondo me non vedremo nulla di "top" nuova generazione fino a fine anno (novembre/dicembre) sia da parte rossa che da parte verde...
ed è cosa buona e giusta :O, come dicevo... anzi, speriamo pure che epicfailino i nuovi pp :O
ordinata una 290 trix oc :asd:
Ale55andr0
26-03-2014, 13:22
^^ La vedo male sta Titan Z visto che avrà una frequenza bassa sui 700 mhz vedo molto probabile una dual AMD di 290 lisce che la batte a meno di 1/3 del prezzo :sofico: xD
meno di 1/3 non credo anche se certo, una dual 290 "correttamente" prezzata dovrebbe stare sui 6-700 sommando banalmente il costo delle singole (ma chi lo fa? :asd: )...certo poi se AMD usa uno dei suoi schifo-dissi ref sta tranquillo che costi o non costi non si fa nemmeno in tempo ad avviare completamente il SO che si devono chiamare i pompieri :asd:
cire92cry
26-03-2014, 13:32
meno di 1/3 non credo anche se certo, una dual 290 "correttamente" prezzata dovrebbe stare sui 6-700 sommando banalmente il costo delle singole (ma chi lo fa? :asd: )...certo poi se AMD usa uno dei suoi schifo-dissi ref sta tranquillo che costi o non costi non si fa nemmeno in tempo ad avviare completamente il SO che si devono chiamare i pompieri :asd:
Si magari non meno ma giusti giusti 1000 dollari però si c'è sempre da capire se il dissi sarà decente o meno...
N3OM4TR|X
26-03-2014, 14:50
E pensare che mi basterebbe un'ipotetica 860 per il mio prossimo progetto... ahhh che pizza!
Secondo me non vedremo nulla di "top" nuova generazione fino a fine anno (novembre/dicembre) sia da parte rossa che da parte verde...
Anche dopo, i 16 nm finfet di tsmc sono previsti per il1trimestre 2015, con possibili ritardi.
Quindi se va bene marzo é un buon candidato per la vendita in volumi delle nuove vga.
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
appleroof
26-03-2014, 17:00
Anche dopo, i 16 nm finfet di tsmc sono previsti per il1trimestre 2015, con possibili ritardi.
Quindi se va bene marzo é un buon candidato per la vendita in volumi delle nuove vga.
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
Quindi dai per scontato escano a 16nm?
Quindi dai per scontato escano a 16nm?
Le top di gamma sono sicuro al 99%
Per i chippini nvidia tra facendo svariati tapeout sia con i 20 che con i 16, ma solo per sicurezza. Se tutto va come deve andare usa i 16 anche su di loro
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
appleroof
26-03-2014, 17:28
Le top di gamma sono sicuro al 99%
Per i chippini nvidia tra facendo svariati tapeout sia con i 20 che con i 16, ma solo per sicurezza. Se tutto va come deve andare usa i 16 anche su di loro
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
bè..direi che è una gran notizia, anche se si vociferava da tempo...io mi fido di quanto dici, ma avresti un qualche link per approfondire?
appleroof
26-03-2014, 17:51
non essendoci un thread apposito non saprei dove postare, ma visto che riguarda le future gpu dx12 lo posto qui, un interessante approfondimento appunto sulle dx12 http://www.anandtech.com/show/7889/microsoft-announces-directx-12-low-level-graphics-programming-comes-to-directx
bè..direi che è una gran notizia, anche se si vociferava da tempo...io mi fido di quanto dici, ma avresti un qualche link per approfondire?
Rigardo i chippini ho letto su bitsandchips.
Per i chip piu grandi invece é un insieme di notizie...ho sempre letto nei siti stranieri a proposito dei 16 nm per le vga, poi ci aggiungi ke la stessa tsmc ha detto ke i suoi 20 nm sono realizzati per i soc e ha citato varie aziende ke li hanno " prenotati" tra cui nvidia ma nn amd( ricord ke nvidia produce un proprio soc arm) e ultimo é stato intervistato un ing amd il quale afferma ke i 20 nm nn sono convenienti per ke vga dato ke allo stato attuale nn riescono neanke a garantire le frequenze degli attuali 28nm( senza contare le rese) a causa del loro target soc.
Diciamo ke lamiasicurezza deriva da questo miscuglio di notizie ke remano tutte verso la stessa direzione
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
appleroof
26-03-2014, 19:41
Rigardo i chippini ho letto su bitsandchips.
Per i chip piu grandi invece é un insieme di notizie...ho sempre letto nei siti stranieri a proposito dei 16 nm per le vga, poi ci aggiungi ke la stessa tsmc ha detto ke i suoi 20 nm sono realizzati per i soc e ha citato varie aziende ke li hanno " prenotati" tra cui nvidia ma nn amd( ricord ke nvidia produce un proprio soc arm) e ultimo é stato intervistato un ing amd il quale afferma ke i 20 nm nn sono convenienti per ke vga dato ke allo stato attuale nn riescono neanke a garantire le frequenze degli attuali 28nm( senza contare le rese) a causa del loro target soc.
Diciamo ke lamiasicurezza deriva da questo miscuglio di notizie ke remano tutte verso la stessa direzione
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
Capito grazie, vediamo allora cosa ci riserveranno i prossimi mesi al riguardo ;)
appleroof
26-03-2014, 20:25
Altro interessante articolo sulle future (non Maxwell :D ) architetture nVidia, nvlink sembra davvero promettente www.anandtech.com/show/7900/nvidia-updates-gpu-roadmap-unveils-pascal-architecture-for-2016
paolox86
26-03-2014, 23:07
Non pensavo che si potesse arrivare a 3000 $ per una Geforce o in generale per una qualsiasi vga dedicata ai gamers... :muro:
Antonioplay85
26-03-2014, 23:15
Non pensavo che si potesse arrivare a 3000 $ per una Geforce o in generale per una qualsiasi vga dedicata ai gamers... :muro:
nella vita mai dire mai :stordita:
:asd:
Predator_1982
27-03-2014, 06:53
Ma non ce lo prescrive mica il dottore di cambiare necessariamente scheda video :D
Nvidia è un'azienda e come tale crea anche prodotti di punta che servono a pubblicizzarla meglio, dimostrando al mondo di cosa è capace. Poi ognuno dovrebbe essere abbastanza furbo da capire cosa realmente serve, rapportandolo alle proprie esigenze.
Non pensavo che si potesse arrivare a 3000 $ per una Geforce o in generale per una qualsiasi vga dedicata ai gamers... :muro:
ma infatti nn é da gamer, quella scheda ha delle peculiarità di cui un gamer nn se ne fa niente
Sent from my RM-825_eu_italy_244 using Tapatalk
Legolas84
27-03-2014, 08:11
Probabilmente è il nome GeForce ad essere sbagliato
cire92cry
27-03-2014, 09:10
ma infatti nn é da gamer, quella scheda ha delle peculiarità di cui un gamer nn se ne fa niente
Sent from my RM-825_eu_italy_244 using Tapatalk
Ma neanche chi non la usa per giocare se ne fa poco a meno che voglia mettere 4 di queste per avere 8 gpu per il calcolo parallelo ma non so quanto convenga. Singolarmente ha ancora meno senso visto che ti prendi 2 titan black vai di più e paghi meno ^^
Ma neanche chi non la usa per giocare se ne fa poco a meno che voglia mettere 4 di queste per avere 8 gpu per il calcolo parallelo ma non so quanto convenga. Singolarmente ha ancora meno senso visto che ti prendi 2 titan black vai di più e paghi meno ^^
conta ke c é anche il limite di windows(massimo 4vga in sli) a meno ke nn passi al Premium.
Cmq bo, nn ho mai capito l utilità delle Dual gpu che costano piu di uno sli fatto con gli stessi chip.
Sent from my RM-825_eu_italy_244 using Tapatalk
Goofy Goober
27-03-2014, 09:53
conta ke c é anche il limite di windows(massimo 4vga in sli) a meno ke nn passi al Premium.
il limite di 4 schede in SLI non è di Windows, ma proprio dei driver Nvidia.
Non è mai stato implementato il supporto a SLI oltre 4 schede su nessuna piattaforma.
Cmq bo, nn ho mai capito l utilità delle Dual gpu che costano piu di uno sli fatto con gli stessi chip.
questa è il primo caso di una vga che costa un enormità in più rispetto a 2 schede separate
il trend passato erano dual gpu che costavano ben meno di due separate (come era normale). lo scopo di una dual gpu non era andare uguale o più di due schede separate, era quello di avere prestazioni simili o inferiori usando un solo slot PCI-E
Legolas84
27-03-2014, 09:58
Anche perché oltre le 4 schede non credo sarebbe molto utile...
cire92cry
27-03-2014, 10:01
Anche perché oltre le 4 schede non credo sarebbe molto utile...
L'incremento sarebbe sempre più basso di prestazioni con l'ipotetica 5 vga avresti un aumento teorico del 25% rispetto al 4 way sli ...
Se vogliamo esagerare, possiamo farci anche un bel octa-SLI con le GTX Titan Z
grazie a questo :asd:
https://www.asus.com/Motherboards/ROG_Xpander/
il limite di 4 schede in SLI non è di Windows, ma proprio dei driver Nvidia.
Non è mai stato implementato il supporto a SLI oltre 4 schede su nessuna piattaforma.
Esatto, i minatori usano 6 schede alla volta per dire.......
Legolas84
27-03-2014, 10:24
Io parlavo per il gaming... Già con la seconda scheda non si raddoppiano le prestazioni... La terza e la quarta calano ancora in proporzione sempre maggiore... La quinta sarebbe ancora più castrata.
Ma le schede costano sempre uguale...
Goofy Goober
27-03-2014, 10:28
Se vogliamo esagerare, possiamo farci anche un bel octa-SLI con le GTX Titan Z
grazie a questo :asd:
https://www.asus.com/Motherboards/ROG_Xpander/
nemmeno
puoi montare 4 Titan Z ma per usare 8 gpu separatamente, non in SLI.
senza contare che ti costa meno fare due computer separati con un totale di 8 Titan singole.
AceGranger
27-03-2014, 10:30
il limite di 4 schede in SLI non è di Windows, ma proprio dei driver Nvidia.
Non è mai stato implementato il supporto a SLI oltre 4 schede su nessuna piattaforma.
mi sfugge il problema dello SLI. Quando le VGA vengono usate per il calcolo GPGPU NON vengono collegate in SLI.
il limite in questo caso è di 8 GPU, 2 per ogni Titan Z, che è il numero massimo di gpu supportate su singolo sistema dai driver nVidia, tantè che il sistema top gamma di calcolo di nVidia sono appunto 8 Tesla.
Io parlavo per il gaming... Già con la seconda scheda non si raddoppiano le prestazioni... La terza e la quarta calano ancora in proporzione sempre maggiore... La quinta sarebbe ancora più castrata.
Ma le schede costano sempre uguale...
Dopo due schede il gioco non vale la candela IMHO....
Goofy Goober
27-03-2014, 10:49
mi sfugge il problema dello SLI. Quando le VGA vengono usate per il calcolo GPGPU NON vengono collegate in SLI.
il limite in questo caso è di 8 GPU, 2 per ogni Titan Z, che è il numero massimo di gpu supportate su singolo sistema dai driver nVidia, tantè che il sistema top gamma di calcolo di nVidia sono appunto 8 Tesla.
non è un "problema" dello SLI, semplicemente lo SLI non va oltre 4 gpu sincronizzate assieme.
il fatto che non sia usato nel GPGPU non ho capito cosa c'entra qua.
esistesse un supporto SLI fino a 6 schede, con 3 dual gpu e l'ipotetico "ESA-SLI" si può anche giocare.
dato che questa scheda viene venduta da nvidia sbandierata come roba da gamer estremo (basta andare sulla pagina del prodotto) è normale far notare come anche pensando scenari d'uso in multi gpu, quindi QuadSLI, si avrebbero prestazioni finali decisamente inferiori a 4 schede separate in 4Way SLI, spendendo MOLTO di più rispetto a 4 schede separate.
e, per assurdo, se ci fosse il supporto SLI oltre 4 gpu, un gamer folle potrebbe volersi dotare, su un sistema limitato dagli slot pci-e ad accogliere solo 4 schede, di 3-4 Titan Z e farle funzionare in SLI. dato che questo supporto non esiste ora, anche questo scenario folle è irrealizzabile. quindi titan z è folle due volte :asd:
nel gpgpu non so quanto contino le gpu in parallelo su unico sistema piuttosto che su sistemi separati, però mi viene naturale chiedere se, data la spesa assurda, sia prestazionalmente migliore avere due sistemi da 4 schede in parallelo ciascuno, spendendo su 8000 dollari di reparto video e il resto nei componenti mancanti, piuttosto che una singola macchina con reparto video da 12.000 dollari.
AceGranger
27-03-2014, 11:21
non è un "problema" dello SLI, semplicemente lo SLI non va oltre 4 gpu sincronizzate assieme.
il fatto che non sia usato nel GPGPU non ho capito cosa c'entra qua.
esistesse un supporto SLI fino a 6 schede, con 3 dual gpu e l'ipotetico "ESA-SLI" si può anche giocare.
ho capito male io,seguendo i vari quote credevo che si parlasse delle VGA usate per calcolo :fagiano:
nel gpgpu non so quanto contino le gpu in parallelo su unico sistema piuttosto che su sistemi separati, però mi viene naturale chiedere se, data la spesa assurda, sia prestazionalmente migliore avere due sistemi da 4 schede in parallelo ciascuno, spendendo su 8000 dollari di reparto video e il resto nei componenti mancanti, piuttosto che una singola macchina con reparto video da 12.000 dollari.
secondo me ci sono 4 fattori:
1- spazio, es. è molto piu semplice infilare tipo 1 Quadro + 2 TitanZ (7-8 slot) che 1 Quadro e 4 Titan ( 9-10 slot ), bisogna passare a sistemi del genere http://www.cubix.com/
sono sicuramente mercati e usi di nicchia, pero c'è chi acquista pure questi sistemi per poter usare 8 VGA su un sistema quando non ci stanno, e molti acquistano GTX perchè conviene parecchio.
2- non tutti i software hanno la modalita di calcolo distribuito in rete
3- a seconda del software, l'eventuale costo della seconda licenza per l'altro sistema potrebbe rendere meno favorevole il creare 2 sistemi invece che uno.
4- consumi: se tanto mi da tanto http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_690/29.html
la 690 risulta essere molto piu efficiente di 2 GTX680 in SLI, quindi questa dovrebbe essere molto piu efficiente di 2 Titan in SLI; salendo con il numero di schede potrebbe diventare un fattore molto determinante.
poi va bè, c'è sempre da aspettare lo street price, è molto probabile che in questo caso il divario sia superiore rispetto al solito.
la cosa che mi lascia un po cosi è che avrei preferito vederla occupare 2 slot, 3 sono un sfigati da sistemare
Antonioplay85
27-03-2014, 11:46
chissà come si giustifica nel redditometro una spesa di 3000-6000€ per la Titan Z, la finanza sicuro verrà a bussare alla porta :asd:
ormai le vga sono diventate un bene di lusso..
Goofy Goober
27-03-2014, 12:10
la cosa che mi lascia un po cosi è che avrei preferito vederla occupare 2 slot, 3 sono un sfigati da sistemare
infatti
anche per questo le vedo più fastidiose da integrare piuttosto che la via a gpu separate, che rende la vita più facile anche lato manutenzione.
Sì effettivamente 3 slot, mah...non so a chi possa fare piacere
paolox86
27-03-2014, 13:15
chissà come si giustifica nel redditometro una spesa di 3000-6000€ per la Titan Z, la finanza sicuro verrà a bussare alla porta :asd:
ormai le vga sono diventate un bene di lusso..
Sicuro! Eheheh, comunque Maxwell (in versione chippone) is the way!!! Spero di vederlo in tempo prima di dover badare ai nipotini.... :)
http://www.bitsandchips.it/9-hardware/4172-nvidia-e-ancora-indecisa-tra-i-20nm-e-i-16nm-di-tsmc
Sent from my RM-825_eu_italy_244 using Tapatalk
appleroof
28-03-2014, 16:12
Lo posto pure qui perchè accenna alla gtx 790 videocardz.com/50082/amd-radeon-r9-295-x2-arrives-april-8th
Snickers
28-03-2014, 16:26
http://www.bitsandchips.it/9-hardware/4172-nvidia-e-ancora-indecisa-tra-i-20nm-e-i-16nm-di-tsmc
Sent from my RM-825_eu_italy_244 using Tapatalk
Incrocio le dita per i 20nm.... Una Maxwell a 20nm con un connettore 6-pin ausiliario (vero, non "farlocco" come quello che hanno alcune 750ti che praticamente non serve) potrebbe essere un must per giocare in Full-hd a massimi dettagli (a patto di togliere l'AA) :read:
Ovvio, a 16nm sarebbe ancora meglio, ma l'attesa sarebbe troppo snervante :ciapet: :ciapet: :ciapet:
appleroof
31-03-2014, 17:38
sempre sulle dx12....http://techreport.com/review/26239/a-closer-look-at-directx-12
http://www.tomshw.it/cont/news/tsmc-trabocca-di-ordini-butta-male-per-amd-e-nvidia/55022/1.html
di male in peggio...
http://www.tomshw.it/cont/news/tsmc-trabocca-di-ordini-butta-male-per-amd-e-nvidia/55022/1.html
di male in peggio...
non sembra una novità, dato che era chiarito già da mesi che i 20nm erano per chip dal basso consumo (LP o SLP) del quale le schede video di fascia medio/alta o alta non potevano fare sicuramente parte.
Ad oggi e probabile al 90%, tramite altre notizie della settimana scorsa:
http://www.bitsandchips.it/9-hardware/4207-il-mondo-finalmente-scopre-i-problemi-nel-produrre-gpu-a-20nm
http://www.bitsandchips.it/9-hardware/4215-tsmc-scoppia-d-ordinativi-per-i-20nm-ci-sara-battaglia
che sia amd che nvidia se devono uscire con qualcosa di nuovo lo faranno con i 16nm, quello che ci si può aspettare è che provino (nel limite del possibile) ad accelerare l'uscita di qualcosa con questo pp non appena TSMC sarà pronta a sfornare chip col nuovo processo produttivo, anche se ha rese mediamente basse, per colmare l'attesa prolungata, data la mancanza di qualche novità di intermezzo per la fine di questo anno a 20nm
Legionarius
10-04-2014, 08:01
http://www.techpowerup.com/199750/nvidia-geforce-gtx-880-detailed.html
Cito le possibili specifiche:
"This is what the GTX 880 is shaping up to be.
20 nm GM204 silicon
7.9 billion transistors
3,200 CUDA cores
200 TMUs
32 ROPs
5.7 TFLOP/s single-precision floating-point throughput
256-bit wide GDDR5 memory interface
4 GB standard memory amount
238 GB/s memory bandwidth
Clock speeds of 900 MHz core, 950 MHz GPU Boost, 7.40 GHz memory
230W board power"
cire92cry
10-04-2014, 09:25
http://www.techpowerup.com/199750/nvidia-geforce-gtx-880-detailed.html
Cito le possibili specifiche:
"This is what the GTX 880 is shaping up to be.
20 nm GM204 silicon
7.9 billion transistors
3,200 CUDA cores
200 TMUs
32 ROPs
5.7 TFLOP/s single-precision floating-point throughput
256-bit wide GDDR5 memory interface
4 GB standard memory amount
238 GB/s memory bandwidth
Clock speeds of 900 MHz core, 950 MHz GPU Boost, 7.40 GHz memory
230W board power"
Con quel bus in 4k farebbe meno delle top kepler per me.
PaulGuru
10-04-2014, 09:36
http://www.techpowerup.com/199750/nvidia-geforce-gtx-880-detailed.html
Cito le possibili specifiche:
"This is what the GTX 880 is shaping up to be.
20 nm GM204 silicon
7.9 billion transistors
3,200 CUDA cores
200 TMUs
32 ROPs
5.7 TFLOP/s single-precision floating-point throughput
256-bit wide GDDR5 memory interface
4 GB standard memory amount
238 GB/s memory bandwidth
Clock speeds of 900 MHz core, 950 MHz GPU Boost, 7.40 GHz memory
230W board power"
A me sembra un fake, 230W di TDP per un chip di fascia media piccolo a 20nm con poche più unità ( molto più piccole per altro ), frequenza bassa e un bus da 256bit ???
Andrebbe meno di una 780Ti attuale che fra l'altro registra un TDP solo poco superiore.
Se Nvidia decidesse di usare la politica del chip di fascia media spacciato come fascia alta ( tipo con la GTX680 ), la trovo inappropriata con l'attuale generazione di Kepler spinta anche oltre le previsioni !!!
appleroof
10-04-2014, 10:27
Onestamente il bus da solo non mi dice nulla, nel complesso quel chip se così fosse andrebbe mediamente meglio del gk110 (non in maniera spaventosa presumibilmente) consumando qualcosa in meno. Che poi sia fake ovviamente non si può escludere allo stato attuale...
La cosa che invece un pò mi romperebbe, se fosse così, è che si ripeterebbe la storia 680/780 per cui per chi come me ha già una 780 deve aspettare il nuovo chippone delle meraviglie per un salto consistente.. Mah, si vedrà
giubox360
10-04-2014, 10:29
A me sembra un fake, 230W di TDP per un chip di fascia media piccolo a 20nm con poche più unità ( molto più piccole per altro ), frequenza bassa e un bus da 256bit ???
Andrebbe meno di una 780Ti attuale che fra l'altro registra un TDP solo poco superiore.
Se Nvidia decidesse di usare la politica del chip di fascia media spacciato come fascia alta ( tipo con la GTX680 ), la trovo inappropriata con l'attuale generazione di Kepler spinta anche oltre le previsioni !!!
Quoto, 256 bit..manco fosse una scheda mainstream;) essendo una serie nuova, secondo me, nella gtx 880 ci sarà un miglioramento non tanto nel numero di stream processor, ma di efficienza e di potenza rispetto a quellli della serie 6xx e7xx, poi magari mi sbaglio, ma questa è la mia opinione;)
http://www.techpowerup.com/199750/nvidia-geforce-gtx-880-detailed.html
Cito le possibili specifiche:
"This is what the GTX 880 is shaping up to be.
20 nm GM204 silicon
7.9 billion transistors
3,200 CUDA cores
200 TMUs
32 ROPs
5.7 TFLOP/s single-precision floating-point throughput
256-bit wide GDDR5 memory interface
4 GB standard memory amount
238 GB/s memory bandwidth
Clock speeds of 900 MHz core, 950 MHz GPU Boost, 7.40 GHz memory
230W board power"
un chip da 230w con un 20nm soc??forti dubbi
Al massimo mi aspetto di vederli usati nei chip di fascia bassa(tipo capeverde per amd)
Sent from my RM-825_eu_italy_244 using Tapatalk
Goofy Goober
10-04-2014, 12:14
no ma non l'avevo mica detto che avremo avuto di nuovo il chippino sfigatello successore della 680 e non della 780-Titan... no mica, non l'avevo detto :asd: :asd:
grazie Nvidia per essere così prevedibile ormai. :read:
Ale55andr0
10-04-2014, 12:19
http://www.tomshw.it/cont/news/tsmc-trabocca-di-ordini-butta-male-per-amd-e-nvidia/55022/1.html
di male in peggio...
tranne che per chi ha preso da poco una nuova vga a 28 nani :asd:
Comunque ha 400 cuda in più, maggior memoria, a potenza bruta la 780ti sembra leggermente superiore, ma poi bisogna sempre vedere i bench, i consumi e soprattutto il prezzo.
Poi personalmente io nella prossima generazione aspetto una scheda di fascia media che succeda alla 670/760 ma a consumi decisamente minori.
La cosa che invece un pò mi romperebbe, se fosse così, è che si ripeterebbe la storia 680/780 per cui per chi come me ha già una 780 deve aspettare il nuovo chippone delle meraviglie per un salto consistente.. Mah, si vedrà
Non sei mica obbligato per forza a cambiare con la nuova "media", eh! :D Basta saper aspettare e non farsi prendere dalla scimmia... ;)
ps: le pagine del forum (di questo thread) sono stutte sballate... :fagiano:
PaulGuru
10-04-2014, 19:06
Non sei mica obbligato per forza a cambiare con la nuova "media", eh! :D Basta saper aspettare e non farsi prendere dalla scimmia... ;)
ps: le pagine del forum (di questo thread) sono stutte sballate... :fagiano:aspettare ............. quanto ? il problema non è mica la scimmia, è la scomodità nel dover necessariamente usare il 4K col multigpu o garantire alti frame rate in 1440p per gli over 60hz.
Ma se le 750 hanno già rivoluzionato il rapporto performance/watt? Che una scheda della prossima generazione sia meno efficiente della titan è impossibile. Probabilmente quei 230 w erano 80 w o giù di lì. E tra l'altro devono uscire a 16 nm da quanto avevo capito non a 20
Inviato dal mio PadFone utilizzando Tapatalk
PaulGuru
10-04-2014, 19:45
Ma se le 750 hanno già rivoluzionato il rapporto performance/watt? Che una scheda della prossima generazione sia meno efficiente della titan è impossibile. Probabilmente quei 230 w erano 80 w o giù di lì. E tra l'altro devono uscire a 16 nm da quanto avevo capito non a 20
La 750 come consumi a me è parsa simile alla 650, quasi uguale, non ha rivoluzionato nulla da quel punto di vista.
AceGranger
10-04-2014, 20:14
La 750 come consumi a me è parsa simile alla 650, quasi uguale, non ha rivoluzionato nulla da quel punto di vista.
peccato che vada considerevolmente di piu... il che lo rende il chip piu performante attualmente sul mercato.
peccato che vada considerevolmente di piu... il che lo rende il chip piu performante attualmente sul mercato.
E di gran lunga.
Nessuna scheda si avvicina al suo rapporto prestazioni/watt.
La 750 come consumi a me è parsa simile alla 650, quasi uguale, non ha rivoluzionato nulla da quel punto di vista.
Stai delirando, come al solito :asd:
http://media.bestofmicro.com/4/R/422667/original/FPS-Per-Watt.png
appleroof
10-04-2014, 20:39
Non sei mica obbligato per forza a cambiare con la nuova "media", eh! :D Basta saper aspettare e non farsi prendere dalla scimmia... ;)
cut
Raven frequentiamo questo mondo da anni, sappiamo bene le dinamiche quali sono, era per dire che preferisco le cose alla "vecchia" maniera: nuovo chip, nuova gamma completa...posso capire un nuovo gk104/gk110 solo se persistono problemi di produzione del chippone con il nuovo pp "ala chippone kepler" ma cmq mi piacerebbe avere la scelta completa subito (tra l'altro se la scimmia economicamente tradisce spesso, a livello di trastullo non tradisce quasi mai per cui dove c'è gusto non c'è perdenza come si dice :asd: basta esserne consapevole e poi non maledire questo e quello -tranne se stessi- per aver ceduto)
Ma se le 750 hanno già rivoluzionato il rapporto performance/watt? Che una scheda della prossima generazione sia meno efficiente della titan è impossibile. Probabilmente quei 230 w erano 80 w o giù di lì. E tra l'altro devono uscire a 16 nm da quanto avevo capito non a 20
Inviato dal mio PadFone utilizzando Tapatalk
ma questo è ancora un rumor tutto da verificare...
cire92cry
10-04-2014, 21:07
Raven frequentiamo questo mondo da anni, sappiamo bene le dinamiche quali sono, era per dire che preferisco le cose alla "vecchia" maniera: nuovo chip, nuova gamma completa...posso capire un nuovo gk104/gk110 solo se persistono problemi di produzione del chippone con il nuovo pp "ala chippone kepler" ma cmq mi piacerebbe avere la scelta completa subito (tra l'altro se la scimmia economicamente tradisce spesso, a livello di trastullo non tradisce quasi mai per cui dove c'è gusto non c'è perdenza come si dice :asd: basta esserne consapevole e poi non maledire questo e quello -tranne se stessi- per aver ceduto)
Si a me la serie 600 non mi è mai piaciuta mi ha sempre dato la sensazione di schede non top gamma e infatti non erano top gamma ^^.
Però penso che faranno la stessa cosa con maxwell sopratutto perchè hanno problemi con i nm .
appleroof
10-04-2014, 21:21
Si a me la serie 600 non mi è mai piaciuta mi ha sempre dato la sensazione di schede non top gamma e infatti non erano top gamma ^^.
Però penso che faranno la stessa cosa con maxwell sopratutto perchè hanno problemi con i nm .
Purtroppo lo svantaggio dell'architettura nVidia da anni risiede nel fatto che da vita a chip molto complessi e fisicamente grossi con tutte le problematiche che conseguono man mano che il pp si miniaturizza...vedremo, se uno dà retta ai rumors ci sta pure che esce una serie 800 a 20nm ed una 900 a 16nm :D
Si a me la serie 600 non mi è mai piaciuta mi ha sempre dato la sensazione di schede non top gamma e infatti non erano top gamma ^^.
Però penso che faranno la stessa cosa con maxwell sopratutto perchè hanno problemi con i nm .
Cosa significa non erano top gamma? :dunno:
Erano nettamente superiori alla serie 5 in ogni aspetto e competevano tranquillamente con 7970 e 7950.
E tutt'oggi una 680 fa girare tranquillamente tutto in full hd con tutto al massimo senza mai notare cali assurdi.
Inoltre la serie 6 aveva anche un rapporto prestazioni prezzo molto buono in tutte le fasce. Migliore sicuramente della serie 7 (in termini di aumenti prestazioni alla stessa fascia di prezzo).
Tanto per dire, la gtx 680 fu lanciata a 499 dollari, la 780 fu lanciata a 649.
PaulGuru
10-04-2014, 22:02
Sai cosa devi fare adesso ? Rileggi il mio messaggio
Soprattutto ciò che è in grassetto così evitiamo problemi di focalizzazione e analisi logica.......
La 750 come consumi a me è parsa simile alla 650, quasi uguale, non ha rivoluzionato nulla da quel punto di vista.
....... ADESSO LEGGI IL TITOLO DELLA TUA SLIDE
Stai delirando, come al solito :asd:
http://media.bestofmicro.com/4/R/422667/original/FPS-Per-Watt.png
Da quando per consumi si intende performance / watt ?
PaulGuru
10-04-2014, 22:05
Adesso guarda quà :
E guarda la fonte che è Techpowerup che non è proprio come THG.
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_750_Ti/images/power_peak.gifhttp://tpucdn.com/reviews/NVIDIA/GeForce_GTX_750_Ti/images/power_maximum.gif
AceGranger
10-04-2014, 22:09
Sai cosa devi fare adesso ? Rileggi il mio messaggio
Soprattutto ciò che è in grassetto così evitiamo problemi di focalizzazione e analisi logica.......
....... ADESSO LEGGI IL TITOLO DELLA TUA SLIDE
Da quando per consumi si intende performance / watt ?
il tuo messaggio è senza senso, visto che è senza senso guardare i consumi senza le relative prestazioni.
la realta è solo 1, che la 750, viste le performance che ha, è la scheda che consuma di meno in assoluto.
AceGranger
10-04-2014, 22:12
Adesso guarda quà :
E guarda la fonte che è Techpowerup che non è proprio come THG.
:doh:
Techpowerup che conclude la review con questo:
Epic power consumption improvements; most power efficient GPU ever built!
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_750_Ti/images/perfwatt.gif
Dimonios
10-04-2014, 22:18
Scusa Ace, ma se Paul scrive che una 750 consuma come una 650 (dato oggettivo), perché tu devi menargliela con il rapporto P/W? :mbe:
Anche a HD7750 consumava simile mi pare :D
Io comunque avevo parlato chiaramente di performance/watt, che è il parametro che mi interessa di più e secondo me è il più solido per valutare quanto avanzata è un'architettura/ un chip. E qui maxwell non ci sono storie, ha cambiato tutto e non ha rivali almeno per ora, con la miniaturizzazione ulteriore se altri non faranno altrettanto renderà ridicola qualunque scheda video precedente.
L'altro utente ha scritto "consumi" intendendo chiaramente performance per watt, poi chiaramente estrapolato dal discorso consumi è un termine assoluto che non fa riferimento alle prestazioni. Però non cambia nulla, la sostanza rimane la stessa..quando techpowerup dice "Epic" c'è un motivo preciso, semplicemente è una scheda di una generazione completamente diversa da questa e con tecnologia ben più avanzata come dimostrano i dati.
Sì per i 16 nm è un rumor, così come per i 20 nm. Sinceramente spero di vederle presto tutte a 16 nm le gpu :O
PaulGuru
10-04-2014, 22:52
Scusa Ace, ma se Paul scrive che una 750 consuma come una 650 (dato oggettivo), perché tu devi menargliela con il rapporto P/W? :mbe:
quoto, rispondevo ad un affermazione di un altro utente che riguardava il consumo.
cire92cry
10-04-2014, 22:57
Cosa significa non erano top gamma? :dunno:
Erano nettamente superiori alla serie 5 in ogni aspetto e competevano tranquillamente con 7970 e 7950.
E tutt'oggi una 680 fa girare tranquillamente tutto in full hd con tutto al massimo senza mai notare cali assurdi.
Inoltre la serie 6 aveva anche un rapporto prestazioni prezzo molto buono in tutte le fasce. Migliore sicuramente della serie 7 (in termini di aumenti prestazioni alla stessa fascia di prezzo).
Tanto per dire, la gtx 680 fu lanciata a 499 dollari, la 780 fu lanciata a 649.
Che ne so non mi è mai piaciuta come top gamma :D anche perchè inizialmente non andava tantissimo di più di una 580 era sul 30-40 % ora con driver maturi è sul 50% o più . E anche il bus a 256bit con 2 gb di ram non mi piaceva sopratutto poi la 690 scheda limitata dalla vram purtroppo.
PaulGuru
10-04-2014, 23:09
Cosa significa non erano top gamma? :dunno:
Erano nettamente superiori alla serie 5 in ogni aspetto e competevano tranquillamente con 7970 e 7950.
E tutt'oggi una 680 fa girare tranquillamente tutto in full hd con tutto al massimo senza mai notare cali assurdi.
Inoltre la serie 6 aveva anche un rapporto prestazioni prezzo molto buono in tutte le fasce. Migliore sicuramente della serie 7 (in termini di aumenti prestazioni alla stessa fascia di prezzo).
Tanto per dire, la gtx 680 fu lanciata a 499 dollari, la 780 fu lanciata a 649.Strano.
Tu con la 680 tieni BF4 su Ultra a 60 fissi ? Io con la 770 ce la faccio a stento in MP, specie su alcune mappe, e non è manco maxato, ma ho abbassato l'MSAA a 2x, in single invece me lo posso anche sognare la notte.
Con la 680 tu fai girare Assassins creed sia il 3 che il 4 tutto al massimo a 60fps ? In molte zone fai circa la metà e per gran lassi di tempo.
Con la 680 fai girare l'ultimo Hitman al massimo ? Io ci riesco con la 770 a mala pena se non esageraro con i filtri ma nelle zone affollate scende senza troppi fronzoli e non sono cali di attimi, con la 680 presumo sia anche peggio.
Crysis e Metro meglio non parlarne.
COD Ghost ? Mi pare che più di un utente con la 680 non riesca a tenere i 60fps fissi senza compromessi.
Su Skyrim io con la 770 se applico la mod nexus invece a meno che non tolto proprio l'AA non ci va a 60fps manco a spinta, e a default maxato dopo un po' che gioco mi satura la memoria.
Far Cry 3 con la 770 su Ultra con MSAA 4x a 60fps non ci stavo manco di media se non al chiuso, e con la 680 è peggio devo presumere.
Su F1 2013 con l'MSAA4x l'aliasing, se però metto l'8x su piste particolari con il pieno di vetture a schermo ho avuto cali sotto i 60 senza troppe difficoltà, e in una corsa anche ogni attimo di calo si vede.
E non sono manco next gen ;)
kerunera
10-04-2014, 23:36
Interessante quel grafico, l'ultimo...
Comunque BF4 qui con 770 phantom tranquillamente tutto ultra e max AA mai problemi di FPS, sempre sopra i 40-50.
Scusa Ace, ma se Paul scrive che una 750 consuma come una 650 (dato oggettivo), perché tu devi menargliela con il rapporto P/W? :mbe:
Perchè non ha senso.
Anche una HD 5450 consuma 60 watt, ma che discorsi sono?
Si considerano le schede per fascia di prezzo, la 750ti succede alla 650ti non alla 650.
PaulGuru afferma che non ci sia nulla di speciale, a me sembrano differenze mai viste da una generazione all'altra.
Parliamo di una scheda che ha prestazioni del 30 % superiori al suo predecessore, e consuma il 60 % della stessa.
Ma come si fa a non parlare di risultati in consumi sbalorditivi?
30 % è la differenza che si passavano 680 e 780 e provatemi a dire se la 780 consumava il 60 % della 680 se il risultato non era a dir poco rivoluzionario.
Non è che se succede in fascia bassa allora va sminuito.
Strano.
Tu con la 680 tieni BF4 su Ultra a 60 fissi ? Io con la 770 ce la faccio a stento in MP, specie su alcune mappe, e non è manco maxato, ma ho abbassato l'MSAA a 2x, in single invece me lo posso anche sognare la notte.
Con la 680 tu fai girare Assassins creed sia il 3 che il 4 tutto al massimo a 60fps ? In molte zone fai circa la metà e per gran lassi di tempo.
Con la 680 fai girare l'ultimo Hitman al massimo ? Io ci riesco con la 770 a mala pena se non esageraro con i filtri ma nelle zone affollate scende senza troppi fronzoli e non sono cali di attimi, con la 680 presumo sia anche peggio.
Crysis e Metro meglio non parlarne.
COD Ghost ? Mi pare che più di un utente con la 680 non riesca a tenere i 60fps fissi senza compromessi.
Su Skyrim io con la 770 se applico la mod nexus invece a meno che non tolto proprio l'AA non ci va a 60fps manco a spinta, e a default maxato dopo un po' che gioco mi satura la memoria.
Far Cry 3 con la 770 su Ultra con MSAA 4x a 60fps non ci stavo manco di media se non al chiuso, e con la 680 è peggio devo presumere.
Su F1 2013 con l'MSAA4x l'aliasing, se però metto l'8x su piste particolari con il pieno di vetture a schermo ho avuto cali sotto i 60 senza troppe difficoltà, e in una corsa anche ogni attimo di calo si vede.
E non sono manco next gen ;)
Ma che è sta fissa per i 60 fps?
Non fare 60 fps fissi non significa che il gioco sia ingiocabile.
A parte che di default io odio il vsync, quindi non ho stuttering se scendo sotto i 60 se ogni tanto gli fps mi crollano a 50-40-30 (ma non mi capita praticamente mai) non succede niente eh, se trovo la cosa fastidiosa abbasso l'anti aliasling, se inizio a vedere differenze tangibili (e non roba da fare screen e ingradire nel cercare di capire le differenze) penso ad un cambio scheda.
Ancora non mi è capitato con la 680, ma neanche per sogno di pensare," oddio mi serve un cambio scheda".
Prima di cambiare scheda come minimo passo ai 1440p quando faranno monitor decenti a quella risoluzione con dimensioni e prezzi umani.
Che poi tutti i giochi che hai elencato li trovo cagate pazzesche, tranne Far Cry 3 che l'ho finito una volta e mi è piaciuto.
Cambio scheda video quando trovo un gioco che per godermelo appieno vale la pena cambiare scheda video (come quando presi una 570 per arkham city venendo da una 460, altra cosa).
PaulGuru
11-04-2014, 08:13
Ma che è sta fissa per i 60 fps?
Non fare 60 fps fissi non significa che il gioco sia ingiocabile.
A parte che di default io odio il vsync, quindi non ho stuttering se scendo sotto i 60 se ogni tanto gli fps mi crollano a 50-40-30 (ma non mi capita praticamente mai) non succede niente eh, se trovo la cosa fastidiosa abbasso l'anti aliasling, se inizio a vedere differenze tangibili (e non roba da fare screen e ingradire nel cercare di capire le differenze) penso ad un cambio scheda.
Ancora non mi è capitato con la 680, ma neanche per sogno di pensare," oddio mi serve un cambio scheda".
Prima di cambiare scheda come minimo passo ai 1440p quando faranno monitor decenti a quella risoluzione con dimensioni e prezzi umani.
Che poi tutti i giochi che hai elencato li trovo cagate pazzesche, tranne Far Cry 3 che l'ho finito una volta e mi è piaciuto.
Cambio scheda video quando trovo un gioco che per godermelo appieno vale la pena cambiare scheda video (come quando presi una 570 per arkham city venendo da una 460, altra cosa).
Nemmeno io ho i tagli prefissati, visto che buona parte dei titoli ha il TB integrato.
Togliere il Vsync o scendere sotto i 60 significa perdere la sincronizzazione col monitor, se abbini questo pure ad un frame basso non è di certo un bel vedere.
Giocabile ? Io prendo VGA high end per avere un livello "giocabile" ? Se volessi ridurmi al "giocabile" prendere una fascia media.
Che poi tutti i giochi che hai elencato li trovo cagate pazzesche, tranne Far Cry 3 che l'ho finito una volta e mi è piaciuto.Ah bè allora .......
BF è una cagata
COD è una cagata
Assassins Creed è una cagata
Hitman è una cagata
Skyrim è una cagata
F1 2013 è una cagata
Crysis è una cagata
Metro è una cagata
Bha può essere !;) Hai giustificato tutti gli hanticap della scheda con una sola frase.
Prima di continuare ti anticipo anche che ho intenzione di comprare quest'anno anche Wolfenstein, Evil Within, Project Cars e Dragon Age, così la prossima volta nei tuoi discorsi puoi già dire in anticipo che anche questi sono cagate. ;):read:
Allora tutti a comprare la 680 !
Se qualche titolo non gira bene fa niente, sarà na cagata :cool:
Cambio scheda video quando trovo un gioco che per godermelo appieno vale la pena cambiare scheda video (come quando presi una 570 per arkham city venendo da una 460, altra cosa).Tu cambi scheda per giocare ad un gioco e pure single player ( e che personalmente ho finito in 2gg ), io invece usualmente la uso per giocarne tanti fra cui MP competitivi da 500 e passa ore l'anno di media dove i cali di frames non passano proprio inosservati come su un single.
cire92cry
11-04-2014, 10:59
La mia era solo un'osservazione , una sensazione che ho sempre avuto ma la 680 è più che ottima ancora come scheda video senza alcun dubbio :D
Poi dipende dalle esigenze di ognuno , ad esempio il mio sli in full hd per molti può essere inutile oltre ogni limite , eppure giochi come assasin creed 4 anche solo per tenere i 60 fissi ,che per me conta molto avere una fluidità costante i cali di frame li odio ^^ , servono entrambe le schede video. Sarà strano ma in ogni combattimento navale e ogni volta che piove le schede salgono sull'80% dell'utilizzo garantendomi i 60 fps.
Poi be non è l'unica ragione ovviamente perchè avendo il 3D l'SLI ha un senso, perchè di potenza li ce ne vuole, non più come un tempo perchè non dimezza più i frame, ma un buon 30 % in più di potenza ci vuole.
Pure la vram delle titan ha un senso, con il 3D dagli ultimi driver il 3D richiede più vram , su bf4 con scala risoluzione 200% e 3D attivo ho raggiunto i 5 gb di vram occupata, con framerate anche ottimo.
Poi ora con gli ultimi driver su bf che tengo al minimo è migliorato l'utilizzo delle vga e sto fisso a 200 fps anche con shadowplay attivo ^^
PaulGuru
11-04-2014, 11:16
Poi dipende dalle esigenze di ognuno , ad esempio il mio sli in full hd per molti può essere inutile oltre ogni limite , eppure giochi come assasin creed 4 anche solo per tenere i 60 fissi ,che per me conta molto avere una fluidità costante i cali di frame li odio
Quoto;)
BF è una cagata
COD è una cagata
Assassins Creed è una cagata
Hitman è una cagata
Skyrim è una cagata
F1 2013 è una cagata
Crysis è una cagata
Metro è una cagata
Bha può essere !;) Hai giustificato tutti gli hanticap della scheda con una sola frase.
BF 4 è un passo indietro rispetto al 3, senza contare quanto sia buggato e abbia ricevuto una bella dose di casualizzazione.
CoD è assolutamente una cagata.
Hitman, da fan della serie è stato un passo indietro, non mi è dispiaciuto in toto, ma non cambio scheda video per lui per giocarlo con AA.
Skyrim non mi è piaciuto affatto, il combattimento è assolutamente terrificante e in ogni caso mi gira una meraviglia.
F1 2013, non gioco a giochi di guida.
Crysis è una cagata, Metro mi ha fatto sbadigliare.
Non cambio scheda video per questi giochi e una 680 occata va più che bene comunque per giocarli con pochi compromessi o nulla.
Personalmente gioco principalemtne a CS:GO, Dota 2, Starcraft 2, Hearthstone, Civilization (guarda caso tutti i giochi più diffusi su pc) a volte a Rust.
Di single player negli ultimi anni ho finito solo Far Cry 3, FC: Blood Dragon, Dark Souls e pochissimo altro e nulla mi ha tirato
Su questi giochi la mia scheda video è anche troppo e me li potrei giocare al massimo con una 7870.
Se ci sono giochi divertenti e con bella grafica uno upgrada, ma finchè sto a 1080p e la maggior parte dei giochi esigenti sembrano più benchmark che giochi lascio perdere.
BF 4 è una ciofeca e un passo indietro a BF 3, non capisco perchè lo dovrei gicoare, perchè lo dicono i benchmark che c'ha la grafica figa ^^
Comunque tornando IT, non vedo l'ora che qualcosa cambi in fascia media, quella a cui sono più interessato, anche perchè vorrei farmi un pc da salotto con qualche vga piccola e che consumi meno ma mi dia soddisfazioni in full hd.
PaulGuru
11-04-2014, 19:08
BF 4 è una ciofeca e un passo indietro a BF 3, non capisco perchè lo dovrei gicoare, perchè lo dicono i benchmark che c'ha la grafica figa
CoD è assolutamente una cagata.
Hitman, da fan della serie è stato un passo indietro, non mi è dispiaciuto in toto, ma non cambio scheda video per lui per giocarlo con AA.
Skyrim non mi è piaciuto affatto
F1 2013, io non gioco a giochi di guida.
Crysis è una cagata
Metro mi ha fatto sbadigliare.
Non cambio scheda video per questi giochi e una 680 occata va più che bene comunque per giocarli con pochi compromessi o nulla.
Personalmente gioco principalemtne a CS:GO, Dota 2, Starcraft 2, Hearthstone, Civilization (guarda caso tutti i giochi più diffusi su pc) a volte a Rust.
Di single player negli ultimi anni ho finito solo Far Cry 3, FC: Blood Dragon, Dark Souls e pochissimo altro e nulla mi ha tirato
Su questi giochi la mia scheda video è anche troppo e me li potrei giocare al massimo con una 7870.
Se ci sono giochi divertenti e con bella grafica uno upgrada, ma finchè sto a 1080p e la maggior parte dei giochi esigenti sembrano più benchmark che giochi lascio perdere.
E quindi ? :read:
Se non corrispondono ai tuoi gusti quindi non contano ? Della serie "occhio non vede, cuore non duole" :sofico:
http://www.bloginazienda.com/wp-content/2009/04/commenti_negativi.jpg
Prenderò subito provvedimenti maestro.
BF 4 è un passo indietro rispetto al 3, senza contare quanto sia buggato e abbia ricevuto una bella dose di casualizzazione.
CoD è assolutamente una cagata.
Hitman, da fan della serie è stato un passo indietro, non mi è dispiaciuto in toto, ma non cambio scheda video per lui per giocarlo con AA.
Skyrim non mi è piaciuto affatto, il combattimento è assolutamente terrificante e in ogni caso mi gira una meraviglia.
F1 2013, non gioco a giochi di guida.
Crysis è una cagata, Metro mi ha fatto sbadigliare.
Non cambio scheda video per questi giochi e una 680 occata va più che bene comunque per giocarli con pochi compromessi o nulla.
Personalmente gioco principalemtne a CS:GO, Dota 2, Starcraft 2, Hearthstone, Civilization (guarda caso tutti i giochi più diffusi su pc) a volte a Rust.
Di single player negli ultimi anni ho finito solo Far Cry 3, FC: Blood Dragon, Dark Souls e pochissimo altro e nulla mi ha tirato
Su questi giochi la mia scheda video è anche troppo e me li potrei giocare al massimo con una 7870.
Se ci sono giochi divertenti e con bella grafica uno upgrada, ma finchè sto a 1080p e la maggior parte dei giochi esigenti sembrano più benchmark che giochi lascio perdere.
BF 4 è una ciofeca e un passo indietro a BF 3, non capisco perchè lo dovrei gicoare, perchè lo dicono i benchmark che c'ha la grafica figa ^^
Comunque tornando IT, non vedo l'ora che qualcosa cambi in fascia media, quella a cui sono più interessato, anche perchè vorrei farmi un pc da salotto con qualche vga piccola e che consumi meno ma mi dia soddisfazioni in full hd.
:D :D :D :D :D a me fanno cagare tutti i giochi tipo dota e tutti i fantasy in generale e tutti i giochi in terza persona (che pena in confronto alla prima persona) ma non sono certamente brutti come giochi.
Per quanto riguarda le vendite è come la musica ciò che vende non è proporzionale alla bellezza.
I 60 frame al sec e il vsynch (appunto) servono per non avere mal di testa eventuali o affaticamento (anche se non tutti lo sanno)
comunque 30 fps minimi sono un buon compromesso
poi del resto per arrivarci ci sono essenzialmente 3 vie la prima sono i dettagli
la seconda la risoluzione e la terza cambiare scheda.
PaulGuru
19-04-2014, 11:12
http://www.overclock.net/t/1483475/vc-nvidia-preparing-maxwell-gm204-and-kepler-gk210-gpus/50#post_22137232
GM204 atteso per Giugno, ma sarà a 28nm secondo questa news.
Ecco forse spiegato il motivo dell'alto TDP in relazione alle specifiche.
A me pare abbastanza strano che arriveranno così presto schede in grado di battere le attuali TITAN Black/780 Ti.. Senza considerare che nVidia ha annunciato ormai da tempo la TITAN-Z che ancora non è stata commercializzata
appleroof
21-04-2014, 07:15
Altrove infatti ho letto che gm204 ha fatto il tape-out e in genere nella migliore delle ipotesi ci vogliono circa sei mesi da questa fase alla commercializzazione...arriviamo circa a fine anno così
PaulGuru
21-04-2014, 09:48
A me pare abbastanza strano che arriveranno così presto schede in grado di battere le attuali TITAN Black/780 Ti.. Senza considerare che nVidia ha annunciato ormai da tempo la TITAN-Z che ancora non è stata commercializzata
La Titan-Z sarà infatti più potente.
slide1965
21-04-2014, 11:33
Io invece sfilerò le mie titan dal case solo quando nvidia lancerà sul mercato una serie in grado di pilotare 3 monitor 4k(ovviamente parlo di multigpu 2/3way sli).
Fino ad allora per me tutto quello che ci sta in mezzo è aria fritta
La Titan-Z sarà infatti più potente.
Si questo indubbiamente però sarebbe davvero una scheda video senza senso di esistere! (Anche se già adesso non è che ne abbia poi tanto dato che le 2 singole costano 1000€ di meno..)
Supponendo che un ipotetica GTX 880 vada un 20/30% in più di una TITAN Black con poco più di 1000€ ci starebbe una coppia che affonda brutalmente una dual-GPU che costa 3 volte tanto!
Sparo percentuali tanto alte per il fatto che la 680 (mid-Kepler) andava appunto almeno un 20% in più della 580 (max-Fermi) e, ad ogni modo, una 880 che va meno di una 780 Ti non se la compra nessuno!
Staremo a vedere comunque ;)
cmq dovremo attendere sempre fine anno per vedere cosa sforneranno,l'attesa è ancora molto lunga
PaulGuru
21-04-2014, 12:19
Si questo indubbiamente però sarebbe davvero una scheda video senza senso di esistere! (Anche se già adesso non è che ne abbia poi tanto dato che le 2 singole costano 1000€ di meno..)
Supponendo che un ipotetica GTX 880 vada un 20/30% in più di una TITAN Black con poco più di 1000€ ci starebbe una coppia che affonda brutalmente una dual-GPU che costa 3 volte tanto!
Sparo percentuali tanto alte per il fatto che la 680 (mid-Kepler) andava appunto almeno un 20% in più della 580 (max-Fermi) e, ad ogni modo, una 880 che va meno di una 780 Ti non se la compra nessuno!
Staremo a vedere comunque ;)
La 880 sarebbe un chippetto di fascia media spacciato per alta come nel caso della 680, e non credo che abbia le unità doppia precisione sbloccate, da questo punto di vista una Titan Black dovrebbe essergli ancora molto superiore, anche a livello di banda, figurati la Z.
La 880 se le caratteristiche sono quelle dovrebbe andare tranquillamente più forte della 780Ti tranquillamente, se una 750 con meno stream va uguale alla 650Ti, figurati un Maxwell con addiritttura +10% di unità e maggior frequenza, ci sarebbe la stessa differenza che ha trovato appunto fra la 580 e la 680. Certamente sarebbe una delusione in ottica 4K, continueresti a vederlo col binocolo, ma oramai è certo che nè Nvidia nè AMD si sanno imporre su TSMC che oramai fa quello che vuole.
Per il discorso prezzo la Titan Z non ha motivo di esistere già ora, va come 2 780 ma costa come 3 e non offre vantaggi di TDP, tanto vale comprarsi 2 schede e si risparmia pure.
Antonioplay85
21-04-2014, 12:19
io invece fino a quando non escono i veri giochi nextgen con le palle sia graficamente che per tutto il resto il mio PC resterà sigillato...:O
anzi mi sono pentito anche di aver preso la 780, oltre al fatto di aver rigiocato a quei pochi giochi usciti nel 2013 per cui vale la pena come Metro Last Light, non sto giocando più a nulla e di nuova generazione per il momento non si vede niente all'orizzonte :rolleyes:
maledette scatolette sono la rovina di questo mondo :muro: a sto giro sia Sony che Microsoft stanno facendo veramente vomitare...
cmq ci prendono per il culo e la Titan Z è l'ennesima prova 1000$ + 1000$ = 3000$ :asd:
slide1965
21-04-2014, 12:58
Se uno deve giocare su singolo schermo full hd va bene tutto, dalla singola 780 in poi qualsiasi scheda che verrà in mezzo sarà utile quanto asciugare gli scogli , sopratutto considerando la qualità dei giochi degli ultimi tempi , che se non giravano al meglio non era certo per mancanza di potenza hardware ma perché ottimizzati a pene di segugio.
Per chi ha schede come la 780 conviene ritornare in questo thread quando si vorrà passare al 4k e quando ci saranno gpu in grado di pilotarlo con la stessa agilità con cui oggi si pilotano i fullhd .
La serie 8, in questa fase di transizione da 2 a 4 k non avrà alcun senso se non quello di spennare qualche pollo e mantenere oliati i cc di Nvidia
PaulGuru
21-04-2014, 13:01
Se uno deve giocare su singolo schermo full hd va bene tutto, dalla singola 780 in poi qualsiasi scheda che verrà in mezzo sarà utile quanto asciugare gli scogli , sopratutto considerando la qualità dei giochi degli ultimi tempi , che se non giravano al meglio non era certo per mancanza di potenza hardware ma perché ottimizzati a pene di segugio.
Per chi ha schede come la 780 conviene ritornare in questo thread quando si vorrà passare al 4k e quando ci saranno gpu in grado di pilotarlo con la stessa agilità con cui oggi si pilotano i fullhd .
La serie 8, in questa fase di transizione da 2 a 4 k non avrà alcun senso se non quello di spennare qualche pollo e mantenere oliati i cc di Nvidia
Il 1440p è tutt'altro che facile da gestire con le attuali schede, soprattutto con i titoli next gen quali appunto il prossimo TW3.
AceGranger
21-04-2014, 13:11
Si questo indubbiamente però sarebbe davvero una scheda video senza senso di esistere! (Anche se già adesso non è che ne abbia poi tanto dato che le 2 singole costano 1000€ di meno..)
Supponendo che un ipotetica GTX 880 vada un 20/30% in più di una TITAN Black con poco più di 1000€ ci starebbe una coppia che affonda brutalmente una dual-GPU che costa 3 volte tanto!
Sparo percentuali tanto alte per il fatto che la 680 (mid-Kepler) andava appunto almeno un 20% in più della 580 (max-Fermi) e, ad ogni modo, una 880 che va meno di una 780 Ti non se la compra nessuno!
Staremo a vedere comunque ;)
che non avra 6GB di ram a GPU e i calcoli DP sbloccati; la Titan Z e Black costano cosi per un motivo ben preciso, per chi non sfrutta quelle 2 feature che fanno alzare il prezzo, nVidia ha fatto altre VGA;
è inutile stare sempre li a comparare il prezzo di VGA che hanno determinate caratteristiche che NON sono presenti nelle VGA dal prezzo inferiore.
slide1965
21-04-2014, 14:29
Il 1440p è tutt'altro che facile da gestire con le attuali schede, soprattutto con i titoli next gen quali appunto il prossimo TW3.
Dipende da quali schede, il mio discorso era riferito a chi oggi ha titan o 780 nel case, non schede inferiori.
Oggi con uno sli di 780 piloti qualsiasi cosa al massimo sia in fullhd che in 1440p avendo sempre framerate più che elevati in qualsiasi situazione ( a meno che il gioco non sia buggato di suo), ma da qui a pilotare bene dei 4k c'è il mare e siccome la transizione è e sarà verso il 4k direi che la serie 8, (e temo anche la 9) non avrà alcun senso.
Dimmi tu a cosa servono le top di gamma che arriveranno se andranno "solo" un 20/30% in più delle attuali 780 o titan?
Il 4k lo piloti a fatica, ma a fatica proprio e per il 2k o 1440p al contrario non ne hai bisogno è stra-bastano le 780, che ovviamente con l'uscita della serie 8 verrano pure svendute
Mah.....
che non avra 6GB di ram a GPU e i calcoli DP sbloccati; la Titan Z e Black costano cosi per un motivo ben preciso, per chi non sfrutta quelle 2 feature che fanno alzare il prezzo, nVidia ha fatto altre VGA;
è inutile stare sempre li a comparare il prezzo di VGA che hanno determinate caratteristiche che NON sono presenti nelle VGA dal prezzo inferiore.
Si ma sono caratteristiche che a un gamer non interessano per niente (6GB di memoria a parte che diventano utili per config 4K o multi-monitor). Per chi cerca potenza di calcolo floating point e altro le schede da lavoro sono le Tesla e compagnia.. Non mi vengano a dire che le TITAN rientrano in questa categoria in quando sono state pensate appunto per il gaming ad alta risoluzione dove la serie 7 si trova la memoria saturata
PaulGuru
21-04-2014, 16:45
Dipende da quali schede, il mio discorso era riferito a chi oggi ha titan o 780 nel case, non schede inferiori.
Oggi con uno sli di 780 piloti qualsiasi cosa al massimo sia in fullhd che in 1440p avendo sempre framerate più che elevati in qualsiasi situazione ( a meno che il gioco non sia buggato di suo), ma da qui a pilotare bene dei 4k c'è il mare e siccome la transizione è e sarà verso il 4k direi che la serie 8, (e temo anche la 9) non avrà alcun senso.
Dimmi tu a cosa servono le top di gamma che arriveranno se andranno "solo" un 20/30% in più delle attuali 780 o titan?
Il 4k lo piloti a fatica, ma a fatica proprio e per il 2k o 1440p al contrario non ne hai bisogno è stra-bastano le 780, che ovviamente con l'uscita della serie 8 verrano pure svendute
Mah.....
Quindi tu a 1440p fai i 60 fissi con Assassins Creed, Battlefield 4( single player ) e Far Cry 3, tralasciando Metro e Crysis ?
E per i prossimi Next Gen quali TW3 e Division o Project Cars.
20%-30% non sono roba da poco, di certo non ci siamo ancora per il 4K, ma assoderebbe la situazione su 1440p, questo è oramai assodato visto che a sto punto Nvidia e AMD non sono capaci di imporsi di fronte ad un azienda che teoricamente dovrebbe fornire un servizio ma fa quello che vuole.
Goofy Goober
21-04-2014, 16:48
Dipende da quali schede, il mio discorso era riferito a chi oggi ha titan o 780 nel case, non schede inferiori.
Oggi con uno sli di 780 piloti qualsiasi cosa al massimo sia in fullhd che in 1440p avendo sempre framerate più che elevati in qualsiasi situazione ( a meno che il gioco non sia buggato di suo), ma da qui a pilotare bene dei 4k c'è il mare e siccome la transizione è e sarà verso il 4k direi che la serie 8, (e temo anche la 9) non avrà alcun senso.
Dimmi tu a cosa servono le top di gamma che arriveranno se andranno "solo" un 20/30% in più delle attuali 780 o titan?
Il 4k lo piloti a fatica, ma a fatica proprio e per il 2k o 1440p al contrario non ne hai bisogno è stra-bastano le 780, che ovviamente con l'uscita della serie 8 verrano pure svendute
Mah.....
il GM204 (se così si chiamerà) sarà un fail, per l'utente, così come lo era il GK104 e la 680gtx (che per me non è mai esistita, dato che al massimo poteva chiamarsi 670, anche se la sua collocazione prestazionale rispetto al chip "padre" di Kepler la vedeva nomenclata meglio come 660ti con la 660 ad essere la 670).
e ovviamente sono schede che non hanno utilità per gli utilizzatori abituali dei chipponi di ogni serie.
a meno che non voler spendere un po' di soldi per ammazzare il tempo in attesa di questi, ovviamente ognuno libero di spenderli come preferisce... ma a me per farmi cambiare le 580gtx ci è voluta una scheda singola che andasse ben più del doppio della mia configurazione SLI, e al momento attendo la stessa cosa.
gli investimenti li faccio per avere un ritorno ben concreto, non un "palliativo" psicologico :asd:
prima delle schede cambierò il monitor/i monitor (che ultimamente mi stanno facendo impazzire, ne ho provati parecchi e tutti semi-delusion), così poi avrò davvero un motivo per pensare in futuro a cambiare anche le gpu
slide1965
21-04-2014, 17:55
Concordo in pieno e il tuo ragionamento vale mai come ora che c'è in ballo il 4k.
Per pilotare agevolmente un 4k senza uso di AA (lasciamo perdere pure il sogno di pilotarlo con una singola per qualche annetto a meno che non si voglia viaggiare a 20 frames costanti ) ci vuole uno sli di schede che vadano un buon 50 % in più di due 780 tirate, in pratica rischia veramente di essere a collo anche la serie 9 che verrà .....:doh:
Per chi come me poi ambisce ai 3 monitor 4k non ne parliamo nemmeno, siamo lontani anni luce, galassie, anche pensando ad un 3way di top di gamma del 2016:stordita:
PaulGuru
21-04-2014, 17:57
La 680 è stato un fail ? E da quando ?
PaulGuru
21-04-2014, 18:00
Per pilotare agevolmente un 4k senza uso di AA (lasciamo perdere pure il sogno di pilotarlo con una singola per qualche annetto a meno che non si voglia viaggiare a 20 frames costanti ) ci vuole uno sli di schede che vadano un buon 50 % in più di due 780 tirateLa R9 295 è già sufficiente per questo, e non è altro che un CF di 290x :rolleyes:
LurenZ87
21-04-2014, 18:00
Ragazzi ragazzi... 4k e mega SLi ma per giocare a cosa???
Non so se avete notato, ma se con la vecchia generazione dei botoli si vedeva qualche porting (mal riuscito) con queste nuove non ci sono nemmeno quelli...
Goofy Goober
21-04-2014, 18:05
La 680 è stato un fail ? E da quando ?
Da quando esiste.
la 680gtx non è mai esistita.
la 680gtx doveva avere il chip che abbiamo visto su Titan/780
la 780gtx non doveva esistere, se non con un chip diverso o sucessivo al padre dell'attuale generazione.
ognuno libero di pensarla come vuole, per carità, ma personalmente una scheda non è top di gamma solo perchè va uguale alla top di gamma (vera) del chip generazionale migliore del concorrente
giusto per dire che se AMD oggi non esistesse, Nvidia sarebbe capace di chiamare 880GTX anche l'attuale 750 con Maxwell e venderla a 499$ :stordita:
ovviamente accurandosi di rebrandare tutto il resto della sua serie per non farla sfigurare troppo (e quindi la 780gtx sarebbe oggi la 799Ti+Ti+Ti GTXXX SuperTitan Edition venduta a 19.999$$ :asd: )
slide1965
21-04-2014, 18:08
Ragazzi ragazzi... 4k e mega SLi ma per giocare a cosa???
Non so se avete notato, ma se con la vecchia generazione dei botoli si vedeva qualche porting (mal riuscito) con queste nuove non ci sono nemmeno quelli...
sacrosanto , qui si parla ovviamente di maniaci dell' iper dettaglio, consapevoli che se ci si basa sulla "profondita" dei i giochi che escono va bene anche una ps2:eek:
Goofy Goober
21-04-2014, 18:16
La R9 295 è già sufficiente per questo, e non è altro che un CF di 290x :rolleyes:
affermazione azzardata, in quanto vorresti dire quel pachidermico pezzo di silicio che costa quel che costa ed 4K OGGI restituisce queste prestazioni con un gioco come Infinite è "testimone" delle possibilità delle gpu di far giocare in 4K nei prossimi anni?
https://dl.dropboxusercontent.com/u/3896005/Screenshot_1.png
presumendo che i futuri giochi siano un 50% più demandosi in termini di capacità elaborativa, dovremo avere delle gpu adeguate in tali termini per avere sempre prestazioni simili (e per me per niente sufficienti dato il costo) ad una 295 oggi a 4k?
per me il "è sufficiente" dovrebbe esser usato quando si potrà ignorantemente buttare tutti gli slider degli effetti grafici al max e il gioco andrà sempre e cmq a 60fps.
quindi sto già escludendo tutto quello che può esser aggiunto con filtraggio esterno stile sweetfx e forzature varie.
a mio modestissimo e ignorantissimo parere, un po' di acqua sotto i ponti dovrà ancora passarne prima di avere una situazione così con i 4k.
slide1965
21-04-2014, 18:19
La R9 295 è già sufficiente per questo, e non è altro che un CF di 290x :rolleyes:
Questa la mettiamo insieme all'utilità dei TN da 0,0000001 ms per giocare online a bf4 e all'assenza totale di aliasing sui 4k?.....o facciamo una nuova categoria?
A parte che la R 295 è una scheda (imho) da evitare come la peste bubbonica, come tutte le dual(sempre imho), poi le cose bisognerebbe provarle (mi sembra un de ja vu) prima di avere certezze prese da qualche grafico in internet.
Io ho un 3way di titan in oc a liquido con un i7 3930k anche a lui a liquido in oc a 5ghz, ho provato più volte a giocare in 4k sul proiettore (lo sforzo da sostenere è ovviamente identico a qualsivoglia monitor 4k).
Su crysis 3 post patch e stabile, tutto maxato (senza aa) giravo (con schede al 98% di carico e la cpu spremuta per bene) tra i 50 e i 60 frames, ovvero sotto il limite accettabile( perlomeno il mio), ragion per cui :
o la R 295 va MOLTO più forte di 3 titan in sli che lavorano a pieno regime (cosa impossibile ) o mi sa che la rewiew che hai letto era alquanto generosa.
Forse mi sono spiegato male io, mea culpa:
per i miei gusti, quando parlo di prendere delle top di gamma e un monitor 4k e pilotarlo adeguatamente non intendo riuscire a far girare il gioco, intendo farlo girare bene e con del margine, con tutto maxato o quasi(quindi non essere li impiccati a 60fps ), in modo da non spendere 1000€ di GPU + altrettanto per il monitor per farsi una uber-configurazione da maniaco della grafica , per poi essere già impiccati dal primo giorno o dover da subito lesinare con i parametri grafici perché alla prima esplosione scendiamo a 20 fps.;)
ironman72
21-04-2014, 18:42
Una domanda ...che senso ha maxare tutto a risoluzione 4k? L'AA è pressoché inutile o sbaglio?
Inviato dal mio GT-I9100 utilizzando Tapatalk
AceGranger
21-04-2014, 18:44
Si ma sono caratteristiche che a un gamer non interessano per niente (6GB di memoria a parte che diventano utili per config 4K o multi-monitor). Per chi cerca potenza di calcolo floating point e altro le schede da lavoro sono le Tesla e compagnia.. Non mi vengano a dire che le TITAN rientrano in questa categoria in quando sono state pensate appunto per il gaming ad alta risoluzione dove la serie 7 si trova la memoria saturata
se nVIdia si è presa la briga di abilitare il calcolo DP e di mettere 6Gb che vengono comodi in ben altri ambiti che il gaming a 4K, EVIDENTEMENTE non sono fatte pensando solo al gaming, seno non lo avrebbe fatte proprio, visto che gia fa le GTX780 che sono identiche ma con appunto i calcoli DP bloccati e la meta della ram. Forse sa meglio di te chi acquista le sue schede, e sa che per quelle 2 caratteristiche, o solo una di quelle, c'è gente disposta a spendere 800 euro per una Titan ma non 2500 per una Tesla, motivo per cui continua a vendere e mandare fuori nuovi modelli come la Titan Black e la Z pur facendo uscire comunque i nuovi modelli di GTX come la 780Ti...
il mondo non è bianco o nero, e tutte le volte che salta sempre fuori il discorso Tesla-Quadro-Titan, sento sempre le stesse cose da gente che non ci lavora e non sa di cosa sta parlando.
slide1965
21-04-2014, 20:01
Una domanda ...che senso ha maxare tutto a risoluzione 4k? L'AA è pressoché inutile o sbaglio?
Inviato dal mio GT-I9100 utilizzando Tapatalk
Infatti ho scritto maxare tutto, ma senza aa(purtroppo l'aa non è inutile anche se si ha un 4k, diciamo che è meno utile).
Per maxare intendo ombre, particellari e chi più ne ha più ne metta, uno che oggi valuta un 4k per giocare e relative vga al seguito, di certo è uno che alla grafica e al dettaglio ci tiene mica da ridere, spendere certe cifre ed essere a "collo" dal primo giorno e dover limare da subito sui settaggi(per avere a malapena 60fps) , non mi sembra la genialata del secolo ed oggi ,con qualsiasi configurazione si viaggi, si è a collo.
Ma si sarà a collo anche con le 880.
cire92cry
21-04-2014, 20:20
Questa la mettiamo insieme all'utilità dei TN da 0,0000001 ms per giocare online a bf4 e all'assenza totale di aliasing sui 4k?.....o facciamo una nuova categoria?
A parte che la R 295 è una scheda (imho) da evitare come la peste bubbonica, come tutte le dual(sempre imho), poi le cose bisognerebbe provarle (mi sembra un de ja vu) prima di avere certezze prese da qualche grafico in internet.
Io ho un 3way di titan in oc a liquido con un i7 3930k anche a lui a liquido in oc a 5ghz, ho provato più volte a giocare in 4k sul proiettore (lo sforzo da sostenere è ovviamente identico a qualsivoglia monitor 4k).
Su crysis 3 post patch e stabile, tutto maxato (senza aa) giravo (con schede al 98% di carico e la cpu spremuta per bene) tra i 50 e i 60 frames, ovvero sotto il limite accettabile( perlomeno il mio), ragion per cui :
o la R 295 va MOLTO più forte di 3 titan in sli che lavorano a pieno regime (cosa impossibile ) o mi sa che la rewiew che hai letto era alquanto generosa.
Forse mi sono spiegato male io, mea culpa:
per i miei gusti, quando parlo di prendere delle top di gamma e un monitor 4k e pilotarlo adeguatamente non intendo riuscire a far girare il gioco, intendo farlo girare bene e con del margine, con tutto maxato o quasi(quindi non essere li impiccati a 60fps ), in modo da non spendere 1000€ di GPU + altrettanto per il monitor per farsi una uber-configurazione da maniaco della grafica , per poi essere già impiccati dal primo giorno o dover da subito lesinare con i parametri grafici perché alla prima esplosione scendiamo a 20 fps.;)
La 295X2 va esattamente come 2 Titan senza tagli quindi a 993 mhz di boost costante, poi ovviamente dipende da gioco a gioco ma in media 5% in più o meno sono alla pari quindi tu con le tue 3 Titan sei ben al di sopra di una 295x2.
Il 4K in questo momento è gestibile con qualche compromesso se si ha SLI o Crossfire di ultime top gamma. Ad esempio ho provato crysis 3 in 4k tutto max con FXAA e Ombreggiatura ad "Alto" e stavo sui 50 60 fps ora non ricordo benissimo.
E lo stesso vale per tutti i giochi se sei sotto di fps basta togliere l'opzione che ti fa crollare gli fps e sali senza notare vere differenze visive.
Poi concordo se uno vuole tutto al max ora forse un 4way sli di titan o titan black riesce a gestire quasi tutti i game, perchè se spingi l'AA la vram sale alle stelle. Su crysis 3 in 4k sali sopra ai 4 gb di vram senza problemi.
Come già avevo scritto pure per me la 680 non è mai stata la vera 680 però ora è cosi c'è poco da fare la serie 800 sarà poco più potente delle top kepler anche perchè saranno a 28 nm quindi non possiamo aspettarci miracoli :)
Spero però che non si fissino ancora con i 256 bit di banda perchè se no in 4k saranno un fail probabilmente.
se nVIdia si è presa la briga di abilitare il calcolo DP e di mettere 6Gb che vengono comodi in ben altri ambiti che il gaming a 4K, EVIDENTEMENTE non sono fatte pensando solo al gaming, seno non lo avrebbe fatte proprio, visto che gia fa le GTX780 che sono identiche ma con appunto i calcoli DP bloccati e la meta della ram. Forse sa meglio di te chi acquista le sue schede, e sa che per quelle 2 caratteristiche, o solo una di quelle, c'è gente disposta a spendere 800 euro per una Titan ma non 2500 per una Tesla, motivo per cui continua a vendere e mandare fuori nuovi modelli come la Titan Black e la Z pur facendo uscire comunque i nuovi modelli di GTX come la 780Ti...
il mondo non è bianco o nero, e tutte le volte che salta sempre fuori il discorso Tesla-Quadro-Titan, sento sempre le stesse cose da gente che non ci lavora e non sa di cosa sta parlando.
Chiedo venia se ho dato l'impressione di colui che voleva fare il sapientone in ambito workstation, da come vedo dalla tua firma sicuramente di schede non gioco ne sai indubbiamente più di me e quanto da te scritto non fa assolutamente un grinza (anche se mi ha fatto sentire un idiota).
L'unica cosa che però mi 'permetto' di trovare discutibile è la collocazione delle TITAN nel segmento "GeForce GTX" che è sempre stato dedicato al gaming.. Trovo contorto sto fatto di mescolare i 2 mondi, mia semplice opinione.
AceGranger
22-04-2014, 08:39
Chiedo venia se ho dato l'impressione di colui che voleva fare il sapientone in ambito workstation, da come vedo dalla tua firma sicuramente di schede non gioco ne sai indubbiamente più di me e quanto da te scritto non fa assolutamente un grinza (anche se mi ha fatto sentire un idiota).
L'unica cosa che però mi 'permetto' di trovare discutibile è la collocazione delle TITAN nel segmento "GeForce GTX" che è sempre stato dedicato al gaming.. Trovo contorto sto fatto di mescolare i 2 mondi, mia semplice opinione.
Quadro e Tesla hanno altre feature in piu e driver appositi, tuttavia non in tutti gli ambiti lavorativi questo plus è reallmente utilizzato; le Titan coprono appieno questa fascia a meta strada, ed nVidia ne ha approfittato vendendo VGA a meta strada sia come feature sia come prezzi.
non ti sto portando la verita assoluta, pero non vedrei il mondo solo bianco o nero.
slide1965
22-04-2014, 08:46
Il 4K in questo momento è gestibile con qualche compromesso se si ha SLI o Crossfire di ultime top gamma. Ad esempio ho provato crysis 3 in 4k tutto max con FXAA e Ombreggiatura ad "Alto" e stavo sui 50 60 fps ora non ricordo benissimo.
E lo stesso vale per tutti i giochi se sei sotto di fps basta togliere l'opzione che ti fa crollare gli fps e sali senza notare vere differenze visive.
Poi concordo se uno vuole tutto al max ora forse un 4way sli di titan o titan black riesce a gestire quasi tutti i game, perchè se spingi l'AA la vram sale alle stelle. Su crysis 3 in 4k sali sopra ai 4 gb di vram senza problemi.
Siamo sempre li, è abbastanza evidente che in ambito GPU gaming, siamo ancora lontani dall avere hardware adeguato al 4k, se bisogna parlare di 4way di titan direi che è meglio lasciar perdere visto l'inutile bagno di sangue, piuttosto che di sli/crossfire di top di gamma per girare al pelo sui 60fps limando qua e la coi giochi attuali, roba che se esce un next gen fra qualche mese un po più pesante ci si ritrova a 40 fps ..... capirai che siamo ancora acerbi.
Inoltre bisogna sempre tenere conto che i giochi e/o i driver non sono spesso ottimizzati al 100%, sopratutto in multigpu, e il framerate , anche in quelli ottimizzati, può subire durante delle variazioni (verso il basso) durante il gioco.
Per avere una situazione ottimale e ben giocabile , bisogna come al solito avere una configurazione che abbia un senso nell'acquisto (quindi direi non un 4way) e del margine sulle prestazioni....mi pare evidente che siamo ancora lontani.;)
PaulGuru
22-04-2014, 08:54
affermazione azzardata, in quanto vorresti dire quel pachidermico pezzo di silicio che costa quel che costa ed 4K OGGI restituisce queste prestazioni con un gioco come Infinite è "testimone" delle possibilità delle gpu di far giocare in 4K nei prossimi anni?
https://dl.dropboxusercontent.com/u/3896005/Screenshot_1.png
http://tpucdn.com/reviews/AMD/R9_295_X2/images/bioshock_3840_2160.gif
Come abbiamo detto prima, NO AA.
E il frame diventa ok per tenere i 60 fissi.
http://tpucdn.com/reviews/AMD/R9_295_X2/images/tombraider_3840_2160.gif
http://tpucdn.com/reviews/AMD/R9_295_X2/images/thief_3840_2160.gif
http://tpucdn.com/reviews/AMD/R9_295_X2/images/batman_ao_3840_2160.gif
http://tpucdn.com/reviews/AMD/R9_295_X2/images/farcry3_3840_2160.gif
PaulGuru
22-04-2014, 08:56
Questa la mettiamo insieme all'utilità dei TN da 0,0000001 ms per giocare online a bf4 e all'assenza totale di aliasing sui 4k?.....o facciamo una nuova categoria?
A parte che la R 295 è una scheda (imho) da evitare come la peste bubbonica, come tutte le dual(sempre imho), poi le cose bisognerebbe provarle (mi sembra un de ja vu) prima di avere certezze prese da qualche grafico in internet.
La 295X è solo un esempio di scheda che è già in grado di fare ciò, non sto dicendo che vale la pena ora prendere questa scheda, ma che basterebbe una next gen equivalente ad un CF di 2*290x quale essa è, e non ci vuole uno SLI di 2 VGA che vanno ognuna +50% rispetto alle Titan come hai detto tu.
E se consideri che uno SLI o un CF non scalano del doppio e del triplo ti sbagli ma attorno al 50-60%, sarebbe sufficiente una singola Maxwell che vada il 50% della attuale 780TI per gestire il 4K.
PS : La review che ho letto si chiama Techpowerup e trova tranquillamente conferma anche in altre.
Crysis 3 è un titolo pesante anche in FHD, non puoi prenderlo come metro di paragone.
slide1965
22-04-2014, 09:01
La 295X è un esempio di scheda che è già in grado di fare ciò, non sto dicendo che vale la pena ora prendere questa scheda, ma che una scheda equivalente a un CF di 2*290x può farlo e non ci vuole uno SLI di 2 VGA che vanno ognuna +50% rispetto alle Titan come hai detto tu.
E se consideri che uno SLI o un CF non scalano del +100% ma attorno al 50-60%, sarebbe sufficiente una singola Maxwell che vada il 50% della attuale 780TI.
Vedo che come al solito ti fai le tue convinzioni (errate) e non ti schiodi;)
la 295 non è in grado di restituirti un framerate sufficientemente adeguato per pilotare adeguatamente un monitor 4k, ti ritrovi a collo dal primo giorno.
PaulGuru
22-04-2014, 09:04
Vedo che come al solito ti fai le tue convinzioni (errate) e non ti schiodi;)
la 295 non è in grado di restituirti un framerate sufficientemente adeguato per pilotare adeguatamente un monitor 4k, ti ritrovi a collo dal primo giorno.
Quindi le reviews sono false ?
Di che gioco stiamo parlando ?
slide1965
22-04-2014, 09:07
Quindi le reviews sono false ?
Di che gioco stiamo parlando ?
Per caso li hai letti i post precedenti?
PaulGuru
22-04-2014, 09:11
Per caso li hai letti i post precedenti?
Si, come questo :
Il 4K in questo momento è gestibile con qualche compromesso se si ha SLI o Crossfire di ultime top gamma. Ad esempio ho provato crysis 3 in 4k tutto max con FXAA e Ombreggiatura ad "Alto" e stavo sui 50 60 fps ora non ricordo benissimo.
E lo stesso vale per tutti i giochi se sei sotto di fps basta togliere l'opzione che ti fa crollare gli fps e sali senza notare vere differenze visive.
E presumo che per "Titan" lui intenda le vecchie Titan e non le "Titan Black", quindi vanno anche meno di una 780 Ghz Edition, figurati delle Ti.
E io quel frame a Crysis 3 non li faccio manco ora e sono in FHD !
slide1965
22-04-2014, 09:16
Vedo che facciamo fatica a comunicare per cui facciamo una bella cosa..... prenditi un monitor 4k e poi assemblati un PC oggi per giocarci adeguatamente , dopodiché mi dirai se la spesa, proporzionata alla resa, sopratutto con i giochi che arriveranno , sarà stata una spesa sensata.
;)
Goofy Goober
22-04-2014, 10:03
Quindi le reviews sono false ?
Di che gioco stiamo parlando ?
Le review sono varie, così come il fatto che l'AA sia on o off.
chi ha già su un monitor 27" o 28" 4k come il Samsung più recente, si è diviso a metà sui forum dove se ne parla, sul fatto che l'AA serva comunque anche in 4k su quel polliciaggio.
per cui tendo a fidarmi più di quelli che dicono che serve rispetto a quelli che dicono che non serve.
sai perchè? perchè solitamente quelli che dicono che tanto tale effetto è completamente inutile etc etc più del 50% delle volte lo dicono perchè non hanno un comparto hardware adatto a gestirlo degnamente, o, rispettivamente, fanno parte della schiera di utenza che preferisce avere fps molto alti e stra stabili e se ne frega di parecchi effetti (come coloro che privilegiano su un monitor 120hz l'avere i 120frame sacrificando molti effetti/filtri anche avendo un comparto video di prim'ordine).
quindi come la mettiamo?
la verità assoluta quale è?
forse che non c'è nessuna verità assoluta e stiamo parlando di aria pastellata e fritta?
Si, come questo :
E presumo che per "Titan" lui intenda le vecchie Titan e non le "Titan Black", quindi vanno anche meno di una 780 Ghz Edition, figurati delle Ti.
E io quel frame a Crysis 3 non li faccio manco ora e sono in FHD !
Il margine che c'è tra quelle schede è risibile (sempre GK110 è), e aggiungici anche che le Titan "prima edizione" le puoi sempre overvoltare via software per il chip volterra "sbloccato".
se con una Titan o 780 non riesci a far bene una cosa, una Ti o un Black i miracoli non li fanno.
cire92cry
22-04-2014, 10:50
Si, come questo :
E presumo che per "Titan" lui intenda le vecchie Titan e non le "Titan Black", quindi vanno anche meno di una 780 Ghz Edition, figurati delle Ti.
E io quel frame a Crysis 3 non li faccio manco ora e sono in FHD !
Le Titan senza tagli vanno 4% in meno di una TI sempre senza tagli di frequenza , quindi su 100 fps ne perdi 4 quindi non c'è molta differenza fra una TI e Titan.
Cmq non capisco ho provato in downsampling 4k e ho riportato i frame che ho visto togliendo quel settaggio. Non voglio prendere in giro nessuno ho solo detto quello che ho visto. Proverò il livello più pesante di crysis 3 quello della diga all'inizio e vi faro un video/screen.
In full HD con le 2 Titan faccio questi frame:
https://fbcdn-sphotos-f-a.akamaihd.net/hphotos-ak-frc1/t1.0-9/q71/s720x720/10177342_10201739226018594_633064094_n.jpg
Con FXAA
https://scontent-b-mxp.xx.fbcdn.net/hphotos-frc1/t31.0-8/1911999_10201739225978593_829623032_o.jpg
E' la prima cutscene del livello al buio dove parlano della "stella rossa" dopo che il ceph alfa è scappato ,ora non ricordo il nome.
Le recensioni lasciano un po a desiderare ultimamente sopratutto quelle dove le schede raggiungono il limite termico predisposto da nvidia, infatti ci faccio poco caso tranne in qualche recensione dove c'è anche il test senza tagli e le cose cambiano le titan sono le più colpite per questo vanno pochissimo di più delle 780 perchè nelle recensioni stanno a 850 mhz o anche meno.
Un qualsiasi utente anche non esperto non fa tagliare le frequenze alla propria vga anche solo aggiungendo un 10% alle ventole.
slide1965
22-04-2014, 10:53
Su 4k intorno ai 30, se non si vogliono vedere scalettature, seppur minime , bisogna introdurre un po' di AA, questo è oggettivo perché ho provato personalmente, poi ovviamente va a gusti , ci sarà chi deve/vuole alzare gli fps e non userà ne AA e andrà a limare sui vari settaggi grafici e chi li sacrificherà a favore dell immagine spacca mascella .
Fatto sta che oggi, con le vga attuali, dovrà limare anche chi non vuole.
Per quel che mi riguarda , l'aspetto video non è fondamentale , di più , ma altrettanto fondamentale è avere sempre un framerate alto e con della tolleranza abbondante.
Altrettanto fondamentale , per me, e non dover lesinare minimamente con i vari settaggi, che sostanzialmente pretendo di tendere sempre verso la zona ultra più che low (tolti i settaggi ammazza frame che puntualmente disabilito).
Per tutti questi motivi , non esiste oggi hardware in grado di soddisfare queste necessità e se e quando vorrò affrontare la spesa di un rinnovo hardware a favore di un monitor 4k, valuterò che tutti questi parametri vengano soddisfatti al 110%, diversamente non spendo un centesimo .
Se ho speso 2000€ tra monitor 4k e sli di GPU top di gamma, devo poter pompare a mio piacimento dove mi pare , diversamente prendo una mazza da muratore e faccio diventare il pc una sottiletta.
cire92cry
22-04-2014, 10:58
Su 4k intorno ai 30, se non si vogliono vedere scalettature, seppur minime , bisogna introdurre un po' di AA, questo è oggettivo perché ho provato personalmente, poi ovviamente va a gusti , ci sarà chi deve/vuole alzare gli fps e non userà ne AA e andrà a limare sui vari settaggi grafici e chi li sacrificherà a favore dell immagine spacca mascella .
Fatto sta che oggi, con le vga attuali, dovrà limare anche chi non vuole.
Per quel che mi riguarda , l'aspetto video non è fondamentale , di più , ma altrettanto fondamentale è avere sempre un framerate alto e con della tolleranza abbondante.
Altrettanto fondamentale , per me, e non dover lesinare minimamente con i vari settaggi, che sostanzialmente pretendo di tendere sempre verso la zona ultra più che low (tolti i settaggi ammazza frame che puntualmente disabilito).
Per tutti questi motivi , non esiste oggi hardware in grado di soddisfare queste necessità e se e quando vorrò affrontare la spesa di un rinnovo hardware a favore di un monitor 4k, valuterò che tutti questi parametri vengano soddisfatti al 110%, diversamente non spendo un centesimo .
Se ho speso 2000€ tra monitor 4k e sli di GPU top di gamma, devo poter pompare a mio piacimento dove mi pare , diversamente prendo una mazza da muratore e faccio diventare il pc una sottiletta.
Questo è normale mettere tutto max in 4k ora non è possibile non c'è molto da dire ^^ Io parlavo del fatto che cmq senza troppe rinunce anche ora si potrebbe con un sli di ultime top gamma :D Poi ovvio se mi regalano un monitor 4k ok, ma andare a spendere 2000 euro per un monitor 4k no anche perchè non torno ai 60 HZ
slide1965
22-04-2014, 11:01
Questo è normale mettere tutto max in 4k non è possibile ora non c'è molto da dire ^^ Io parlavo del fatto che cmq senza troppe rinunce anche ora si potrebbe con un sli di ultime top gamma :D
Si potrebbe senza dubbio , il più e vedere come .
Se devi stare li in ansia (togliamo pure il se)a girovagare tra i 50 e i 60 fps , AA non se ne parla, i vari settaggi limati abbestia e incrociare le dita che ogni gioco new entry non sia più pesante del precedente ........sinceramente si si , si può , ma io lo lascio fare agli altri.:D
Se prendo un 4k dedicato al gaming voglio un setup no-compromise , se no non prenderei un 4k per giocare , e se devo da subito fare "compromise" , per me c'è qualcosa che "tocca".
cire92cry
22-04-2014, 11:03
Si potrebbe senza dubbio , il più e vedere come .
Se devi stare li in ansia a girovagare tra i 50 e i 60 fps , AA non se ne parla, i vari settaggi limati abbestia e incrociare le dita che ogni gioco new entry non sia più pesante del precedente ........sinceramente si si , si può , ma io lo lascio fare agli altri.:D
Si è questione di priorità anche io voglio avere i 60 fissi ma c'è chi si accontenta .
Poi sarebbe ottimo il G-Sync per questo fatto dovrebbe togliere tutti i problemi.
PaulGuru
22-04-2014, 11:11
Se anche su un 28" 4K ( non 32 ) si vede ancora aliasing da una parte è una delusione, dall'altra saltano tutte le parole di coloro che han affermato che 4K su 24" non dà vantaggi.
E comunque sia bisognerebbe anche vedere se quando si parla di aliasing su 4K per AA basta appieno un leggero FXAA o va a richiedere anche l'MSAA.
slide1965
22-04-2014, 11:14
Si è questione di priorità anche io voglio avere i 60 fissi ma c'è chi si accontenta .
Ed è lì che per me casca l'asino....uno che prende un 4k solo per giocare e si fa uno sli di top di gamma appositamente per giocarci e parte col concetto di accontentarsi sin dal primo giorno mi da da pensare .....
Per avere i 60 fps stabilì , devi viaggiare comodo attorno ai 100 per non avere sorpresine, altro che limare che bisogna.
Goofy Goober
22-04-2014, 11:15
Se anche su un 28" 4K ( non 32 ) si vede ancora aliasing da una parte è una delusione, dall'altra saltano tutte le parole di coloro che han affermato che 4K su 24" non dà vantaggi.
un 4K 24" è ben diverso da 4K 28"
sul primo, anche in base alla distanza di gioco, può esser realmente superfluo per i più.
sul secondo invece...
non dimentichiamoci che con le ultime consoles uscite se si gioca su un tv a sufficiente distanza si possono anche non notare le scalettature (mi son fatto tutto black flag su ps4 giocando a 2,5 metri dal tv 46" senza far caso all'aliasing), se poi ci si avvicina..... :stordita:
Ed è lì che per me casca l'asino....uno che prende un 4k solo per giocare e si fa uno sli di top di gamma appositamente per giocarci e parte col concetto di accontentarsi sin dal primo giorno mi da da pensare .....
Per avere i 60 fps stabilì , devi viaggiare comodo attorno ai 100 per non avere sorpresine, altro che limare che bisogna.
il mercato 4k su pc quando inizierà a diffondersi su un numero numericamente utile di monitor pc a prezzi sostanzialmente umani (ergo ben meno di 1000 euri al pezzo, quindi una cosa tipo il Samsung 28") sarà un mercato fatto di compromessi di coloro che preferiscono aver uno schermo ad elevata risoluzione per poi configurare i giochi di modo che ci girino bene (senza parlare ovviamente di fps fissi etc).
per chi vorrà valori granitici di immagine e frame ci sarà da aspettare ancora, ma ovviamente nessuno dice che sarà inutile dotarsi di un 4K per giocare anche senza tot. fps fissi e tot. dettagli.
la qualità d'immagine anche grazie all'alta risoluzione sarà comunque migliore, e l'area di lavoro utile di conseguenza aumentata.
slide1965
22-04-2014, 11:20
Se anche su un 28" 4K ( non 32 ) si vede ancora aliasing da una parte è una delusione, dall'altra saltano tutte le parole di coloro che han affermato che 4K su 24" non dà vantaggi.
In tutte le cose si cerca sempre di mantenere una logica se no si rischia di fossilizzarsi solo su un aspetto e trascurare il resto....questo di può fare ma di solito la nostra cognizione ci fa capire che un minimo di equilibrio dovrebbe rimanere.
Se parti dal presupposto che NON devi assolutamente vedere aliasing, devi aspettare gli iPad da 15 pollici a 8k, il concetto é questo ecco perché arrivati ad un certo punto bisogna cominciare a pesare le cose
PaulGuru
22-04-2014, 11:23
Per avere i 60 fps stabilì , devi viaggiare comodo attorno ai 100 per non avere sorpresine, altro che limare che bisogna.
Scusa ma stai esagerando, stare sui 60 fissi non vuol dire non avere mai mai nessun calo, anche perchè poi arrivano comunque anche per altre cause, generalmente basta stare sui 70-75fps di media.
PaulGuru
22-04-2014, 11:29
un 4K 24" è ben diverso da 4K 28"
sul primo, anche in base alla distanza di gioco, può esser realmente superfluo per i più.
sul secondo invece...
non dimentichiamoci che con le ultime consoles uscite se si gioca su un tv a sufficiente distanza si possono anche non notare le scalettature (mi son fatto tutto black flag su ps4 giocando a 2,5 metri dal tv 46" senza far caso all'aliasing), se poi ci si avvicina..... :stordita:
Io quando avevo la 360, notavo aliasing in tutti i giochi su un TV FHD da 37" a 2m di distanza, l'unico gioco in cui non lo notato è stato Far Cry 2 ( a mio parere il migliore che abbia provato da punto di vista tecnico, pure sul frame rate era na roccia ), su tutti gli altri invece lo notavo a qualsiasi distanza, quindi giocare sulla distanza per me è una cavolata, la distanza del monitor PC è sempre o dovrebbe essere quella classica di una scrivania, lì i casi sono 2, o l'aliasing o si nota ........ o non si nota.
slide1965
22-04-2014, 11:37
il mercato 4k su pc quando inizierà a diffondersi su un numero numericamente utile di monitor pc a prezzi sostanzialmente umani (ergo ben meno di 1000 euri al pezzo, quindi una cosa tipo il Samsung 28") sarà un mercato fatto di compromessi di coloro che preferiscono aver uno schermo ad elevata risoluzione per poi configurare i giochi di modo che ci girino bene (senza parlare ovviamente di fps fissi etc).
per chi vorrà valori granitici di immagine e frame ci sarà da aspettare ancora, ma ovviamente nessuno dice che sarà inutile dotarsi di un 4K per giocare anche senza tot. fps fissi e tot. dettagli.
la qualità d'immagine anche grazie all'alta risoluzione sarà comunque migliore, e l'area di lavoro utile di conseguenza aumentata.
io non so se hai avuto modo di vedere un 28/30 4k in azione sui giochi , io ti posso dire che la differenza di qualità percepita rispetto al fratellino 27 a 1440p e' ben meno evidente di quello che molti si immaginano, superata una certa soglia di pixel a schermo , giocare solo al rialzo di risoluzione rimanendo su diagonali relativamente piccole (27/30) non da all'occhio un miglioramento così bestiale nei giochi come molti credono, ecco perché dico che se si fa il passo, imho , va fatto bene.
In parole povere fa molta più scena un 4k da 50 pollici di fianco ad un 50 fullhd, che un 4k da 27 di fianco ad un 27 fullhd, per via che comprimere x-Mila pixel in uno spazio ridotto ha senso fino ad un certo punto.
se vieni da un 1440p dove giochi con tutto ultra e ssaa a gogo' e prendi un 4k, 2 top di gamma oggi e ci lasci 2000€ se va bene, per poi limare i settaggi , non usare AA e avere un framerate al limite del giocabile , fidati che dopo 2 sere corri in farmacia a prendere un barattolo di vaselina.
Io quando avevo la 360, notavo aliasing in tutti i giochi su un TV FHD da 37" a 2m di distanza, l'unico gioco in cui non lo notato è stato Far Cry 2 ( a mio parere il migliore che abbia provato da punto di vista tecnico, pure sul frame rate era na roccia ), su tutti gli altri invece lo notavo a qualsiasi distanza, quindi giocare sulla distanza per me è una cavolata, la distanza del monitor PC è sempre o dovrebbe essere quella classica di una scrivania, lì i casi sono 2, o l'aliasing o si nota ........ o non si nota.
La distanza di visione e' un parametro intrinseco al quale per forza di cose bisogna sottostare (salvo particolari problemi di miopia).
Se giochi su un 60 pollici dovrai starci ad una distanza per la quale il difetto lo noterai meno(se c'è ) rispetto allo stare ad una spanna da un 8 pollici, sempre per via della capacità di messa a fuoco dell occhio umano .
cire92cry
22-04-2014, 11:41
Se anche su un 28" 4K ( non 32 ) si vede ancora aliasing da una parte è una delusione, dall'altra saltano tutte le parole di coloro che han affermato che 4K su 24" non dà vantaggi.
E comunque sia bisognerebbe anche vedere se quando si parla di aliasing su 4K per AA basta appieno un leggero FXAA o va a richiedere anche l'MSAA.
Be per quanto mi riguarda quando i monitor raggiungeranno i 300 ppi non serviranno più i filtri , fino a quel traguardo qualche scalettatura ci sarà .
Ho il nexus 10 10 pollici 2560x1600 e effettivamente sembra un foglio stampato le foto della reflex si vedono benissimo preferisco vederle li che sulla tv da 46 pollici in salotto :/ .
Meglio tornare in topic sperando che ste GTX 800 siano un passo in avanti in tutti i sensi anche piccolo ma almeno in tutte le cose , memoria video , bus ecc...
PaulGuru
22-04-2014, 11:49
Se dobbiamo tornare IT, anche lì c'è da dire che il 1080P a breve è da cestinare, perchè non basta più.
Quindi le prossime vga anche con quel +30% sarebbe ottimo se consideriamo risoluzioni da 1440p, se ce la fanno già le 780 amen, queste permetteranno di mantenere il livello anche con i prossimi titoli next gen.
Goofy Goober
22-04-2014, 12:42
allora si andrà tutti i asus gsync 1440p 120hz :sofico:
cire92cry
22-04-2014, 15:37
allora si andrà tutti i asus gsync 1440p 120hz :sofico:
Probabilmente io si aspettando i 4k 120hz :)
Goofy Goober
23-04-2014, 07:06
più che il monitor 4k 120hz, che vedremo nel 2015 :asd: bisogna aspettare le schede video che serviranno a pilotare i 4k fino a 120fps utili :asd:
per allora mi sarò già dato all'ippica visto che denari da spendere non ce ne saranno più :D
illidan2000
23-04-2014, 07:34
allora si andrà tutti i asus gsync 1440p 120hz :sofico:
se esce un ips così, lo potrei pure valutare...
Antonioplay85
23-04-2014, 09:57
ormai tutto tace su g-sync...:stordita:
Su mi pare hardware canucks hanno fatto un resoconto su una settimana passata con un g-sync preview......su oc.net c'è la news nel solito forum delle news hardware.....
slide1965
23-04-2014, 13:17
120hz 4k IPS gsync
=
LA MANNA
=
aspettando le nuove vga Nvidia
=
3/4 anni per pilotarlo adeguatamente con uno SLI DI TOP DI GAMMA:D
appleroof
23-04-2014, 13:44
A proposito del prossimo chippone...nei soliti lidi frequentati da ben informati leggevo che non c'è nessuna garanzia che GM200 verrà rilasciato a inizio 2015 in versione GeForce piuttosto che Tesla...insomma una riedizione di 680/780 per le GeForce...
cire92cry
23-04-2014, 15:55
A proposito del prossimo chippone...nei soliti lidi frequentati da ben informati leggevo che non c'è nessuna garanzia che GM200 verrà rilasciato a inizio 2015 in versione GeForce piuttosto che Tesla...insomma una riedizione di 680/780 per le GeForce...
E' molto probabile che ripetano ciò che hanno fatto con kepler , hanno guadagnato un sacco facendo cosi ...
Alex-Murei
23-04-2014, 16:35
Quale sheda conviene comprare adesso senza spendere un esagerazione 780gtx ?
cire92cry
23-04-2014, 17:42
Quale sheda conviene comprare adesso senza spendere un esagerazione 780gtx ?
Si 780/290 :D
PaulGuru
23-04-2014, 17:58
ormai tutto tace su g-sync...:stordita:se ne parlerà a giugno oramai.
Q2 come al solito vuol dire l'ultimo giorno.
Quale sheda conviene comprare adesso senza spendere un esagerazione 780gtx ?
Di solito le AMD sono più convenienti.... Poi dipende dal targhetta di utilizzo.
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
Mah, io speravo in un giro di boa a breve per cambiare la mia configurazione attuale.. Mi sa che mi tocca aspettare ancora un pò.
Endy.
<Masquerade>
27-04-2014, 21:43
A proposito del prossimo chippone...nei soliti lidi frequentati da ben informati leggevo che non c'è nessuna garanzia che GM200 verrà rilasciato a inizio 2015 in versione GeForce piuttosto che Tesla...insomma una riedizione di 680/780 per le GeForce...
e che ti aspettavi
d'ora in avanti nvidia farà sempre così.
il chip più complesso non lo tira fuori subito, rischiando di fare una GF100 / Hawaii
sicchè per il chippone ci sarà da aspettare.
x quanto riguarda la GTX880 , non ci metterei la mano sul fuoco che questa volta vada il classico 30% + rispetto alla top del top (GTX780Ti)
ma ci vuole poco a capire come nvidia riuscirà a vendere tale scheda.
punterà tutto sul fatto, che sarà la prima scheda compatibile totalmente con le DX12, e che è pure la più veloce di tutte.
per quanto riguarda le ultime novità = Titan Z è ridicola con quel prezzo. proprio una cosa VERGOGNOSA (come tutta la serie Titan).
Non si salva nemmeno la 295x2 cmq, il fatto che costa molto meno rispetto alla nv non è una scusa valida per salvarla. il prezzo fa stracacare anche su questa. e chi non è un niubbo sa che quel dissipatore con quella caxxata di rad da 120 è buono solo per esprimere il max potenziale di quella scheda in benchmark di 2min.
ultimo commento
i driver 337.50 sono eccezionali.
ho ottenuto fino ad un aumento del 38% + di prestazioni, rispetto ai precedenti 335
ci si risente appleeeeeeeeeeeeeeee ;)
bonaaaaaaaaaaaa
e che ti aspettavi
d'ora in avanti nvidia farà sempre così.
il chip più complesso non lo tira fuori subito, rischiando di fare una GF100 / Hawaii
sicchè per il chippone ci sarà da aspettare.
x quanto riguarda la GTX880 , non ci metterei la mano sul fuoco che questa volta vada il classico 30% + rispetto alla top del top (GTX780Ti)
ma ci vuole poco a capire come nvidia riuscirà a vendere tale scheda.
punterà tutto sul fatto, che sarà la prima scheda compatibile totalmente con le DX12, e che è pure la più veloce di tutte.
per quanto riguarda le ultime novità = Titan Z è ridicola con quel prezzo. proprio una cosa VERGOGNOSA (come tutta la serie Titan).
Non si salva nemmeno la 295x2 cmq, il fatto che costa molto meno rispetto alla nv non è una scusa valida per salvarla. il prezzo fa stracacare anche su questa. e chi non è un niubbo sa che quel dissipatore con quella caxxata di rad da 120 è buono solo per esprimere il max potenziale di quella scheda in benchmark di 2min.
ultimo commento
i driver 337.50 sono eccezionali.
ho ottenuto fino ad un aumento del 38% + di prestazioni, rispetto ai precedenti 335
ci si risente appleeeeeeeeeeeeeeee ;)
bonaaaaaaaaaaaa
come non quotare tutto, hai ragione masque, specie sulla 295x2 con quel dissipatore in giochi pesanti no si fà niente altro che liquido
e che ti aspettavi
d'ora in avanti nvidia farà sempre così.
il chip più complesso non lo tira fuori subito, rischiando di fare una GF100 / Hawaii
sicchè per il chippone ci sarà da aspettare.
x quanto riguarda la GTX880 , non ci metterei la mano sul fuoco che questa volta vada il classico 30% + rispetto alla top del top (GTX780Ti)
ma ci vuole poco a capire come nvidia riuscirà a vendere tale scheda.
punterà tutto sul fatto, che sarà la prima scheda compatibile totalmente con le DX12, e che è pure la più veloce di tutte.
per quanto riguarda le ultime novità = Titan Z è ridicola con quel prezzo. proprio una cosa VERGOGNOSA (come tutta la serie Titan).
Non si salva nemmeno la 295x2 cmq, il fatto che costa molto meno rispetto alla nv non è una scusa valida per salvarla. il prezzo fa stracacare anche su questa. e chi non è un niubbo sa che quel dissipatore con quella caxxata di rad da 120 è buono solo per esprimere il max potenziale di quella scheda in benchmark di 2min.
ultimo commento
i driver 337.50 sono eccezionali.
ho ottenuto fino ad un aumento del 38% + di prestazioni, rispetto ai precedenti 335
ci si risente appleeeeeeeeeeeeeeee ;)
bonaaaaaaaaaaaa
Ma alla fine il chippone non é uscito a causa delle rese ridicole del primo 28 bulk...altrimenti credo sarebbe uscita prima la titanio....
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
allora si andrà tutti i asus gsync 1440p 120hz :sofico:
Su monitor giganteschi da 27 e più pollici però
il chip più complesso non lo tira fuori subito, rischiando di fare una GF100 / Hawaii
E che avrebbe Hawaii di male? :V
E' un chip eccezionale a cui alla release avevano dato un pessimo dissi reference.
Cavolo ha portato prestazioni Titan a 300 euro. E' un chip della madonna.
<Masquerade>
27-04-2014, 22:57
Su monitor giganteschi da 27 e più pollici però
E che avrebbe Hawaii di male? :V
E' un chip eccezionale a cui alla release avevano dato un pessimo dissi reference.
Cavolo ha portato prestazioni Titan a 300 euro. E' un chip della madonna.
scalda e consuma + di un GK110, e si overclocka di meno.
e come prestazioni nei giochi non è nemmeno il top
mentre almeno quel forno della 480 era molto più performante della 5870. ma qua dentro è stata criticata di brutto.
quindi è meno efficente come scheda da gaming.
come non quotare tutto, hai ragione masque, specie sulla 295x2 con quel dissipatore in giochi pesanti no si fà niente altro che liquido
non solo. c'è anche il fatto che il crossfire continua a far cagare di brutto:
Conclusions
Let's sum up our performance results—and factor in price—using our world-famous scatter plots. These overall performance results are a geometric mean of the outcomes on the preceding pages. We left Thief out of the first couple of plots since we tested it differently, but we've added it to a third plot to see how it affects things.
As usual, the best values will tend toward the top left of the plot, where performance is high and price is low, while the worst values will gravitate toward the bottom right.
As you can see, the 295 X2 doesn't fare well in our latency-sensitive 99th percentile FPS metric (which is just frame times converted to higher-is-better FPS). You've seen the reasons why in the test results: frame time spikes in AC4 and Arkham Origins, struggles in a portion of our Call of Duty: Ghosts test session, and negative performance scaling for multi-GPU in Guild Wars 2. These problems push the R9 295 X2 below even a single GeForce GTX 780 Ti in the overall score.
AMD's multi-GPU struggles aren't confined to the 295 X2, either. The Radeon HD 7990 is, on paper, substantially more powerful than the R9 290X, but its 99th percentile FPS score is lower than a single 290X card's.
The 295 X2 does somewhat better if you're looking at the FPS average, and the addition of Thief makes the Radeons a little more competitive overall. Still, two GTX 780 Ti cards in SLI are substantially faster even in raw FPS terms. And we know that the 295 X2 struggles to produce consistently the sort of gaming experience that its hardware ought to provide.
Source: AMD
I've gotta say, I find this outcome incredibly frustrating and disappointing. I believe AMD's hardware engineers have produced probably the most powerful graphics card we've ever seen. The move to water cooling has granted it a massive 500W power envelope, and it has a 1GB-per-GPU advantage in memory capacity over the GeForce GTX 780 Ti SLI setup. Given that we tested exclusively in 4K, where memory size is most likely to be an issue, I fully expected the 295 X2 to assert its dominance. We saw flashes of its potential in Crysis 3 and BF4. Clearly the hardware is capable.
At the end of the day, though, a PC graphics card requires a combination of hardware and software in order to perform well—that's especially true for a multi-GPU product. Looks to me like the R9 295 X2 has been let down by its software, and by AMD's apparent (and, if true, bizarre) decision not to optimize for games that don't wear the Gaming Evolved logo in their opening titles. You know, little franchises like Call of Duty and Assassin's Creed. It's possible AMD could fix these problems in time, but one has to ask how long, exactly, owners of the R9 295 X2 should expect to wait for software to unlock the performance of their hardware. Recently, Nvidia has accelerated its practice of having driver updates ready for major games before they launch, after all. That seems like the right way to do it. AMD is evidently a long way from that goal.
I dunno. Here's hoping that our selection of games and test scenarios somehow just happened to be particularly difficult for the R9 295 X2, for whatever reason. Perhaps we can vary some of the test scenarios next time around and get a markedly better result. There's certainly more work to be done to verify consistent frame delivery to the display, anyhow. Right now, though, the 295 X2 is difficult to recommend, even to those folks who would happily pony up $1500 for a graphics card.
http://techreport.com/review/26279/amd-radeon-r9-295-x2-graphics-card-reviewed/13
già lo sli non è perfetto, con queste ci finisci al manicomio.
consiglio mio al posto di sto troiaio prendetevi un paio di 780/780ti, se proprio volete fare multi gpu.
se proprio volete amd prendetevi 2x 290 liscie, le 290x non valgono la pena. per niente.
cire92cry
27-04-2014, 23:21
scalda e consuma + di un GK110, e si overclocka di meno.
e come prestazioni nei giochi non è nemmeno il top
mentre almeno quel forno della 480 era molto più performante della 5870. ma qua dentro è stata criticata di brutto.
quindi è meno efficente come scheda da gaming.
non solo. c'è anche il fatto che il crossfire continua a far cagare di brutto:
Conclusions
Let's sum up our performance results—and factor in price—using our world-famous scatter plots. These overall performance results are a geometric mean of the outcomes on the preceding pages. We left Thief out of the first couple of plots since we tested it differently, but we've added it to a third plot to see how it affects things.
As usual, the best values will tend toward the top left of the plot, where performance is high and price is low, while the worst values will gravitate toward the bottom right.
As you can see, the 295 X2 doesn't fare well in our latency-sensitive 99th percentile FPS metric (which is just frame times converted to higher-is-better FPS). You've seen the reasons why in the test results: frame time spikes in AC4 and Arkham Origins, struggles in a portion of our Call of Duty: Ghosts test session, and negative performance scaling for multi-GPU in Guild Wars 2. These problems push the R9 295 X2 below even a single GeForce GTX 780 Ti in the overall score.
AMD's multi-GPU struggles aren't confined to the 295 X2, either. The Radeon HD 7990 is, on paper, substantially more powerful than the R9 290X, but its 99th percentile FPS score is lower than a single 290X card's.
The 295 X2 does somewhat better if you're looking at the FPS average, and the addition of Thief makes the Radeons a little more competitive overall. Still, two GTX 780 Ti cards in SLI are substantially faster even in raw FPS terms. And we know that the 295 X2 struggles to produce consistently the sort of gaming experience that its hardware ought to provide.
Source: AMD
I've gotta say, I find this outcome incredibly frustrating and disappointing. I believe AMD's hardware engineers have produced probably the most powerful graphics card we've ever seen. The move to water cooling has granted it a massive 500W power envelope, and it has a 1GB-per-GPU advantage in memory capacity over the GeForce GTX 780 Ti SLI setup. Given that we tested exclusively in 4K, where memory size is most likely to be an issue, I fully expected the 295 X2 to assert its dominance. We saw flashes of its potential in Crysis 3 and BF4. Clearly the hardware is capable.
At the end of the day, though, a PC graphics card requires a combination of hardware and software in order to perform well—that's especially true for a multi-GPU product. Looks to me like the R9 295 X2 has been let down by its software, and by AMD's apparent (and, if true, bizarre) decision not to optimize for games that don't wear the Gaming Evolved logo in their opening titles. You know, little franchises like Call of Duty and Assassin's Creed. It's possible AMD could fix these problems in time, but one has to ask how long, exactly, owners of the R9 295 X2 should expect to wait for software to unlock the performance of their hardware. Recently, Nvidia has accelerated its practice of having driver updates ready for major games before they launch, after all. That seems like the right way to do it. AMD is evidently a long way from that goal.
I dunno. Here's hoping that our selection of games and test scenarios somehow just happened to be particularly difficult for the R9 295 X2, for whatever reason. Perhaps we can vary some of the test scenarios next time around and get a markedly better result. There's certainly more work to be done to verify consistent frame delivery to the display, anyhow. Right now, though, the 295 X2 is difficult to recommend, even to those folks who would happily pony up $1500 for a graphics card.
http://techreport.com/review/26279/amd-radeon-r9-295-x2-graphics-card-reviewed/13
già lo sli non è perfetto, con queste ci finisci al manicomio.
consiglio mio al posto di sto troiaio prendetevi un paio di 780/780ti, se proprio volete fare multi gpu.
se proprio volete amd prendetevi 2x 290 liscie, le 290x non valgono la pena. per niente.
Non so a che punto sia il crossfire se non sbaglio è migliorato però effettivamente vendendo molte recensioni è ancora indietro in molti titoli ecc.
A parer mio spendere molto per un crossfire e avere problemi in molti titoli non ha senso , aspettare che lo migliorino vuol dire che hai speso tot euro e forse sfrutterai le GPU dopo qualche mese ( come la 7990 è uscita da molto però ancora oggi ha problemi quindi chi l'ha presa molto tempo non so se è cosi contento) . L'SLI è più solido su questo non c'è dubbio .
Spero di non aver detto cavolate ^^ , mi baso solo su recensioni viste , qualche feedback di amici e altre cosette, correggetemi pure.
Assassin creed e batman :asd: .... fortuna non c'è più skyrim...
Se le 780 sono ottime schede le 290 lisce lo sono altrettanto se non di più....se le X non sono convenienti pure le 780ti non lo sono alla stessa maniera.....nel multigpu si, lo sli è più maturo. Ma la situazione da molti siti è posta in maniera più negativa di quello che è, lo sappiamo tutti perchè.....non piu di due mesi fa hardware canucks, sito notoriamente poco tenero con le AMD, aveva sbandierato ai quattro venti che passando da uno sli di titan ad uno di hawaii, non se ne erano affatto pentiti, per dire...ora, cosa sia successo di così incredibile che in due mesi siamo tornati indietro invece che avanti....mah, direi che siamo ai soliti discorsi....che un titolo non fa primavera così come un test ...a proposito, link?
appleroof
28-04-2014, 18:56
Ma alla fine il chippone non é uscito a causa delle rese ridicole del primo 28 bulk...altrimenti credo sarebbe uscita prima la titanio....
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
Quoto...però in un certo senso masque voleva dire che all'avanzare del pp le architetture nVidia sono più difficili da fare e quindi si avrà sempre più quella situazione (a meno di un cambio totale di architettura?), almeno così ho inteso il suo post
scalda e consuma + di un GK110, e si overclocka di meno.
e come prestazioni nei giochi non è nemmeno il top
mentre almeno quel forno della 480 era molto più performante della 5870. ma qua dentro è stata criticata di brutto.
quindi è meno efficente come scheda da gaming.
non solo. c'è anche il fatto che il crossfire continua a far cagare di brutto:
Conclusions
Let's sum up our performance results—and factor in price—using our world-famous scatter plots. These overall performance results are a geometric mean of the outcomes on the preceding pages. We left Thief out of the first couple of plots since we tested it differently, but we've added it to a third plot to see how it affects things.
As usual, the best values will tend toward the top left of the plot, where performance is high and price is low, while the worst values will gravitate toward the bottom right.
As you can see, the 295 X2 doesn't fare well in our latency-sensitive 99th percentile FPS metric (which is just frame times converted to higher-is-better FPS). You've seen the reasons why in the test results: frame time spikes in AC4 and Arkham Origins, struggles in a portion of our Call of Duty: Ghosts test session, and negative performance scaling for multi-GPU in Guild Wars 2. These problems push the R9 295 X2 below even a single GeForce GTX 780 Ti in the overall score.
AMD's multi-GPU struggles aren't confined to the 295 X2, either. The Radeon HD 7990 is, on paper, substantially more powerful than the R9 290X, but its 99th percentile FPS score is lower than a single 290X card's.
The 295 X2 does somewhat better if you're looking at the FPS average, and the addition of Thief makes the Radeons a little more competitive overall. Still, two GTX 780 Ti cards in SLI are substantially faster even in raw FPS terms. And we know that the 295 X2 struggles to produce consistently the sort of gaming experience that its hardware ought to provide.
Source: AMD
I've gotta say, I find this outcome incredibly frustrating and disappointing. I believe AMD's hardware engineers have produced probably the most powerful graphics card we've ever seen. The move to water cooling has granted it a massive 500W power envelope, and it has a 1GB-per-GPU advantage in memory capacity over the GeForce GTX 780 Ti SLI setup. Given that we tested exclusively in 4K, where memory size is most likely to be an issue, I fully expected the 295 X2 to assert its dominance. We saw flashes of its potential in Crysis 3 and BF4. Clearly the hardware is capable.
At the end of the day, though, a PC graphics card requires a combination of hardware and software in order to perform well—that's especially true for a multi-GPU product. Looks to me like the R9 295 X2 has been let down by its software, and by AMD's apparent (and, if true, bizarre) decision not to optimize for games that don't wear the Gaming Evolved logo in their opening titles. You know, little franchises like Call of Duty and Assassin's Creed. It's possible AMD could fix these problems in time, but one has to ask how long, exactly, owners of the R9 295 X2 should expect to wait for software to unlock the performance of their hardware. Recently, Nvidia has accelerated its practice of having driver updates ready for major games before they launch, after all. That seems like the right way to do it. AMD is evidently a long way from that goal.
I dunno. Here's hoping that our selection of games and test scenarios somehow just happened to be particularly difficult for the R9 295 X2, for whatever reason. Perhaps we can vary some of the test scenarios next time around and get a markedly better result. There's certainly more work to be done to verify consistent frame delivery to the display, anyhow. Right now, though, the 295 X2 is difficult to recommend, even to those folks who would happily pony up $1500 for a graphics card.
http://techreport.com/review/26279/amd-radeon-r9-295-x2-graphics-card-reviewed/13
già lo sli non è perfetto, con queste ci finisci al manicomio.
consiglio mio al posto di sto troiaio prendetevi un paio di 780/780ti, se proprio volete fare multi gpu.
se proprio volete amd prendetevi 2x 290 liscie, le 290x non valgono la pena. per niente.
E quoto anche se bisogna ammettere che al solito AMD ha dalla sua il rapporto prezzo/prestazioni
P.s. ciao masque ;) ;) ;)
<Masquerade>
28-04-2014, 19:20
Quoto...però in un certo senso masque voleva dire che all'avanzare del pp le architetture nVidia sono più difficili da fare e quindi si avrà sempre più quella situazione (a meno di un cambio totale di architettura?), almeno così ho inteso il suo post
E quoto anche se bisogna ammettere che al solito AMD ha dalla sua il rapporto prezzo/prestazioni
P.s. ciao masque ;) ;) ;)
premesso che la perfezione non esiste nel mondo pc, i problemi ci sono sempre e cmq, anche con i migliori.
nvidia ha
1 un supporto driver migliore
2 un multi gpu migliore.
3 una IQ migliore: di default sono uguali,ma grazie ad inspector, con quelle schede hai la possibilità di mettere AA di qualità altissima su moltissimi giochi. anche amd cmq ha radeon pro, ma a quanto pare , commento di un proprietario di amd 7970, di un altro forum:
"Still, microstutter with multi-card setups is a huge issue that FPS benchmarks don't show. And now that RadeonPro is dead (because, ironically, AMD hired the dev to work on Raptr rolleyes.gif), there's no easy fix for it"
hanno interrotto lo sviluppo.
4 le schede da gaming progettate meglio.
preferisco pagare un po di più (fortunatamente nvidia ha fatto anche la 780, che non ha un prezzo ridicolo come le varie Titan/titan Z) ed avere meno giramenti di caxxo possibili.
cmq tornando in Tema ribadisco che la Titan Z è ridicola. nvidia l'ha pure rinviata.
ciao apple.
<Masquerade>
28-04-2014, 19:23
Assassin creed e batman :asd: .... fortuna non c'è più skyrim...
anche pcgh parla di grossi problemi con quella scheda, tra cui i black screen di cui sono affette le R9 290.
quel commento proviene da techreport, il sito che mise in evidenza i problemi di frames times di amd, in multi gpu. ed era vero perchè poi amd è corsa ai ripari.
quindi quel sito per me viene prima di tutti gli altri.
premesso che la perfezione non esiste nel mondo pc, i problemi ci sono sempre e cmq, anche con i migliori.
nvidia ha
1 un supporto driver migliore
2 un multi gpu migliore.
3 una IQ migliore: di default sono uguali,ma grazie ad inspector, con quelle schede hai la possibilità di mettere AA di qualità altissima su moltissimi giochi. anche amd cmq ha radeon pro, ma a quanto pare , commento di un proprietario di amd 7970, di un altro forum:
"Still, microstutter with multi-card setups is a huge issue that FPS benchmarks don't show. And now that RadeonPro is dead (because, ironically, AMD hired the dev to work on Raptr rolleyes.gif), there's no easy fix for it"
hanno interrotto lo sviluppo.
4 le schede da gaming progettate meglio.
preferisco pagare un po di più (fortunatamente nvidia ha fatto anche la 780, che non ha un prezzo ridicolo come le varie Titan/titan Z) ed avere meno giramenti di caxxo possibili.
cmq tornando in Tema ribadisco che la Titan Z è ridicola. nvidia l'ha pure rinviata.
ciao apple.
1)si e no, i problemi ci sono sia in una casa le nella altra.
2)con il nuovo cross fire senza il bridge credo siano alla pari o no? Qualcuno ha qualche link?
3) non so cosa sia quindi mi fido
4) non sono progettate meglio, semplicemente tagliano i calcoli in doppia precisione per risparmiare tdp( come facevano con la 460gtx) può essere una buona idea come no.
Se poi mettiamo nel calderone la poca vram le ha in genere l ago della bilancia si può spostare.
Certo, in genere non serve, ma in qualche gioco può limitare molto.
Cmq alla fine ritengo nVidia e AMD praticamente alla pari, unico vero vantaggio è il g sinck nel caso la variante di AMD non prendesse piede.
Concordo invece il pensiero sulla titan z
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
<Masquerade>
28-04-2014, 20:09
ma ci sono di più dalla parte di amd.
a legger quel commento di quel sito sembra che amd abbia + problemi di nvidia, nel multi gpu.
io non mi fido. voi fate come vi pare :boh:
anche le amd R9. solo in versione fire pro non hanno tagli sulla DP.
3GB sono sufficenti anche in ultra hd, che è una risoluzione di nicchia, figurati...
se poi nei vuoi di più ci sono anche le schede NV da 6GB
AceGranger
28-04-2014, 21:11
4) non sono progettate meglio, semplicemente tagliano i calcoli in doppia precisione per risparmiare tdp( come facevano con la 460gtx) può essere una buona idea come no.
questa è una tua invenzione
- tutto cio che sta sotto il GK110 non ha la parte DP per risparimare silicio, non serviva un chip medio con i calcoli DP e non lo hanno fatto, e cosi si sono ritrovati con un chip piu piccolo e piu efficiente della concorrenza.
- con il GK110, le 780/780Ti hanno la parte DP bloccata perchè cosi posso vendere le Titan/Tian Black a 800 euro a chi serve quella feature ma non è disposto a spenderne 2500/3000 per una Tesla o Quadro 6000; il TDP non centra nulla, visto che la Titan Black ha lo stesso identico TDP della 780 Ti ma ha frequenza superiore, boost superiore e 3Gb di ram in piu.
http://s2.postimg.org/cja5djkuh/Immagine.jpg
scorpion73
28-04-2014, 21:14
comunque anche solo quanto scalda rende hawaii assolutamente un chip da evitare.
Con le 480 penai come un cane, e adesso mi ritrovo le "480 di AMD" addirittura osannate, ma scherziamo? a prestazioni ci possiamo pure stare, ma se non fanno un chip che scalda a una temperatura normale per me se lo possono pure tenere, a maggior ragione che nvidia ha le 780 che oggi come oggi non ti danno ragione di invidiare nessun altro quanto a prestazioni e giocabilità (e lo stesso discorso dicasi per le mie Titan, che presi per fare 3d Studio :) ).
questa è una tua invenzione
- tutto cio che sta sotto il GK110 non ha la parte DP per risparimare silicio, non serviva un chip medio con i calcoli DP e non lo hanno fatto, e cosi si sono ritrovati con un chip piu piccolo e piu efficiente della concorrenza.
- con il GK110, le 780/780Ti hanno la parte DP bloccata perchè cosi posso vendere le Titan/Tian Black a 800 euro a chi serve quella feature ma non è disposto a spenderne 2500/3000 per una Tesla o Quadro 6000; il TDP non centra nulla, visto che la Titan Black ha lo stesso identico TDP della 780 Ti ma ha frequenza superiore, boost superiore e 3Gb di ram in piu.
http://s2.postimg.org/cja5djkuh/Immagine.jpg
Evidentemente mi sono espresso male, con tagliato intendevo quello le hai scritto...cmq riguardo il tdp pensavo semplicemente ke non essendoci i transistor per la DP, non viene sprecata energia su di loro diventando così più efficiente, infatti mi pare le la 780ti sia più efficiente della titan black, ora controllo
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
AceGranger
28-04-2014, 23:16
Evidentemente mi sono espresso male, con tagliato intendevo quello le hai scritto...cmq riguardo il tdp pensavo semplicemente ke non essendoci i transistor per la DP, non viene sprecata energia su di loro diventando così più efficiente, infatti mi pare le la 780ti sia più efficiente della titan black, ora controllo
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
I transistor della parte DP nella 780/780Ti ci sono tutti, solo che non è possibile attivarli via driver.
La Titan/Titan Black, hanno come impostazione di default i calcoli DP disabilitati, ma attraverso il pannello di controllo è possibile abilitarli.
Forse ti stai confondendo con una cosa che avrai letto, ovvero che quando la scheda viene utilizzata per effettuare calcoli DP il turbo viene disabilitato.
Il fatto di averli on-board e disabilitati non porta a nessun aumento del TDP o deficit nei consumi.
cire92cry
28-04-2014, 23:43
1)si e no, i problemi ci sono sia in una casa le nella altra.
2)con il nuovo cross fire senza il bridge credo siano alla pari o no? Qualcuno ha qualche link?
3) non so cosa sia quindi mi fido
4) non sono progettate meglio, semplicemente tagliano i calcoli in doppia precisione per risparmiare tdp( come facevano con la 460gtx) può essere una buona idea come no.
Se poi mettiamo nel calderone la poca vram le ha in genere l ago della bilancia si può spostare.
Certo, in genere non serve, ma in qualche gioco può limitare molto.
Cmq alla fine ritengo nVidia e AMD praticamente alla pari, unico vero vantaggio è il g sinck nel caso la variante di AMD non prendesse piede.
Concordo invece il pensiero sulla titan z
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
Come driver penso che nvidia abbia ancora un piccolo vantaggio , penso sopratutto per quanto riguarda il supporto nei giochi appena usciti forse nvidia è un po più rapida nel supportarli.
Cmq in questo round AMD e Nvidia sono veramente vicine alla pari tolte le amd reference ( da evitare ) con le custom le prestazioni in game sono veramente simili. Questo va a nostro favore ovviamente ^^
Per il G-Sync si devo dire che se AMD non riesce a rispondere a nvidia con il freesync il G-Sync potrebbe essere un grosso vantaggio , pensate a tutti i cali di fps ( per via di drivere / ottimizzazione gioco / sli ) con G-Sync non sono più un problema. E questo ti potrebbe dare un vantaggio una scheda che fa magari 45-70 fps (min-max) , potrebbe dare una fluidità migliore di una scheda che ne fa 50-80 o anche 55-80 . Proprio per la sincronia del monitor con la scheda.
Un'altro vantaggio che per me conta è shadowplay che ti permette di registrare senza dare problemi di lag o altro , sopratutto la funzione che ti permette di registrare tot minuti prima di quando clicchi , che è utile per salvare scene spettacolari e impreviste.
Poi io uso molto il 3D vision quindi io sono legato a Nvidia anche se vorrei provare una AMD e probabilmente lo farò. :D
Diciamo che per me i vantaggi che ha nvidia sono questi ultimi 3 non il resto .
°Phenom°
29-04-2014, 13:10
Concordo con te Cire (provengo da nvidia). Comunque, un altro punto a favore per le verdi è il supporto ufficiale via driver al downsampling, mentre con AMD prima bisognava usare un tool esterno ed attualmente credo sia impossibile farlo con gli ultimi driver visto che questo tool non è più stato aggiornato.
Per tutto il resto non ho trovato differenze, andavano decisamente bene sia le nvidia che ho avuto che la mia attuale 7970.
La furbata di nvidia è stata creare un'architettura "porgrammabile" via software, lasciando i driver certificati con il fulldp, mentre castrare tutta quella parte sui driver "gaming" (titan a parte, ma grazie al caxxo 999$ msrp, ovvero scaffale per il 99% dei gamer) per avere schede veloci e clocckabili, basta vedere cosa succede ad abilitare il DP su una titan.........le rosse sono invece le stesse gpu che vendono come firepro non disabilitabili da driver...come le vecchie 580, monolitiche.....imho amd dovrà anch'essa per forza prendere questa strada dato che lato gaming avrebbe troppi vincoli sul tdp rispetto alla controparte....non possono sempre fare i miracoli per metterci una pezza....
Ma tutti quelli che dicono che hawaii scalda come l'inferno, sono ancora fermi alle recensioni di novembre con le reference a 800 rpm? :rolleyes:
°Phenom°
29-04-2014, 14:18
Le Hawaii, non so se via hardware o software, sono castrate in gpgpu rispetto alle hawaii in versione firepro, cosa diversa per le 7xxx che sono come le controparti firepro.
AceGranger
29-04-2014, 14:28
La furbata di nvidia è stata creare un'architettura "porgrammabile" via software, lasciando i driver certificati con il fulldp, mentre castrare tutta quella parte sui driver "gaming" (titan a parte, ma grazie al caxxo 999$ msrp, ovvero scaffale per il 99% dei gamer) per avere schede veloci e clocckabili, basta vedere cosa succede ad abilitare il DP su una titan......:
non capisco il senso dell'osservazione; nVidia ha creato 2 linee quasi identiche, le 780 e le Titan, una per i Gamer l'altra per utenti Pro a cui servono piu Gb di ram e i calcoli DP e ha linee di prezzo commisurate al target a cui sono rivolte.
le rosse sono invece le stesse gpu che vendono come firepro non disabilitabili da driver...come le vecchie 580, monolitiche.....imho amd dovrà anch'essa per forza prendere questa strada dato che lato gaming avrebbe troppi vincoli sul tdp rispetto alla controparte....non possono sempre fare i miracoli per metterci una pezza....
guarda che le "rosse" hanno la parte DP tarpata.
la 290X ha i calcoli DP a 1/8
la FirePro 9100 ( stesso chip della 290X ) ha i calcoli DP a 1/2
cire92cry
29-04-2014, 16:52
La furbata di nvidia è stata creare un'architettura "porgrammabile" via software, lasciando i driver certificati con il fulldp, mentre castrare tutta quella parte sui driver "gaming" (titan a parte, ma grazie al caxxo 999$ msrp, ovvero scaffale per il 99% dei gamer) per avere schede veloci e clocckabili, basta vedere cosa succede ad abilitare il DP su una titan.........le rosse sono invece le stesse gpu che vendono come firepro non disabilitabili da driver...come le vecchie 580, monolitiche.....imho amd dovrà anch'essa per forza prendere questa strada dato che lato gaming avrebbe troppi vincoli sul tdp rispetto alla controparte....non possono sempre fare i miracoli per metterci una pezza....
Ma tutti quelli che dicono che hawaii scalda come l'inferno, sono ancora fermi alle recensioni di novembre con le reference a 800 rpm? :rolleyes:
Be se non erro le 290x reference al 50 % di ventole o al 40 vanno già a rpm molto alti.
Concordo con te Cire (provengo da nvidia). Comunque, un altro punto a favore per le verdi è il supporto ufficiale via driver al downsampling, mentre con AMD prima bisognava usare un tool esterno ed attualmente credo sia impossibile farlo con gli ultimi driver visto che questo tool non è più stato aggiornato.
Per tutto il resto non ho trovato differenze, andavano decisamente bene sia le nvidia che ho avuto che la mia attuale 7970.
Si stavo per prendere la 7970 visto che la 680 non mi aveva mai convinto , se non fosse uscita la Titan avrei preso quella sicuramente, la Titan l'ho presa a un prezzo accettabile in linea con il 45 50% in più della 680 :) E la seconda usata a 500 ^^ in tutto ho pagato esattamente come 2 780 al lancio o 2 780ti al lancio.
<Masquerade>
29-04-2014, 17:42
la 680 non mi aveva mai convinto
e pensa che
la 680 ha dato un aumento di prestazioni decente rispetto la vecchia top, per un prezzo di 500€ (come la 580)
la Titan ha dato un ulteriore stacco di prestazioni (più o meno come quello tra 580 vs 680) ma costava 800 - 1150€
adesso rifletti sul quale delle due schede , valutandola solo per il gaming, è stata una gran puxx.....emmhhh meno convincente.
secondo me la seconda.
sickofitall
29-04-2014, 18:02
Da oggi con l'acquisto di queste schede si riceverà in omaggio watch dogs
http://www.geforce.com/whats-new/articles/watch-dogs-nvidia-geforce-gtx-bundle
http://international.download.nvidia.com/geforce-com/international/images/watch-dogs/watchdogs-nvidia-geforce-gtx-bundle-graphic-640px.png
appleroof
29-04-2014, 18:24
Azz lo avrei preferito all'ultimo Splinter's cell :D
Le Hawaii, non so se via hardware o software, sono castrate in gpgpu rispetto alle hawaii in versione firepro, cosa diversa per le 7xxx che sono come le controparti firepro.
Mmmm faccio un paio di googlate allora...
Be se non erro le 290x reference al 50 % di ventole o al 40 vanno già a rpm molto alti.
Intendevo il famoso bios quiet da 95c fissi e trottle a tonnellate :D
<Masquerade>
29-04-2014, 20:17
Azz lo avrei preferito all'ultimo Splinter's cell :D
ma che tipo di gioco sarebbe apple?
tipo GTA4??? però più serio????
ho visto solo qualche screen ha una bella grafica...
cire92cry
29-04-2014, 22:41
e pensa che
la 680 ha dato un aumento di prestazioni decente rispetto la vecchia top, per un prezzo di 500€ (come la 580)
la Titan ha dato un ulteriore stacco di prestazioni (più o meno come quello tra 580 vs 680) ma costava 800 - 1150€
adesso rifletti sul quale delle due schede , valutandola solo per il gaming, è stata una gran puxx.....emmhhh meno convincente.
secondo me la seconda.
Si ma non parlavo di quello il bus a 256 bit i 2 gb di vram non mi hanno mai convinto , tralascia la titan che come già scritto io l'ho presa a prezzo accettabile e sommando le 2 ho speso esattamente come 2 780 ti al lancio.
Il problema è che in quasi ogni gioco che sto giocando pure starcraft 2 supera i 2 gb di vram , sarà che ho 2 monitor , che uso il 3D vision, ma i 2 gb non erano accettabili sopratutto perchè avrei fatto sli, magari dopo 6 o 7 mesi come con le titan ma lo avrei fatto e avere 2 gb mi avrebbe limitato nonostante la potenza.
Se la vedi cosi penso che capisci perchè non mi hanno mai convinto, anche la 690 una scheda ottima fresca potentissima ma con solo 2 gb di vram.
Poi visto che solitamente le schede le tengo per i 2 anni i 2 gb erano proprio troppo limitanti.
P.S: bastava una scheda con 3 gb di vram o 4 come le 290x che per me sono le più bilanciate su questo fattore. Le versioni 4GB della 680 non erano convenienti costavano 100 euro in più a sto punto ho preso la Titan a poco più.
appleroof
29-04-2014, 23:39
ma che tipo di gioco sarebbe apple?
tipo GTA4??? però più serio????
ho visto solo qualche screen ha una bella grafica...
Si diciamo che è così...è un freeroaming che pare aggiungere qualche elemento di novità lato gameplay, qui trovi molte info www.hwupgrade.it/forum/showthread.php?t=2477718&page=33
killeragosta90
30-04-2014, 09:48
Ragazzi a quando si può stimare l'uscita dei nuovi driver? Seguendo l'andamento delle varie relase direi un 2-3 giorni al massimo, che dite?
<Masquerade>
30-04-2014, 21:12
Si ma non parlavo di quello
capito. il mio discorso era sul prezzo / prestazioni.
mi ha dato di più la 680 per 500€
che la titan a + di 800€
ed a quel prezzo l'ho trovata a culo (solo uno shop la vendeva a quel prezzo), altrimenti costava + di 900€ -fino a 1150€
tralascia la titan che come già scritto io l'ho presa a prezzo accettabile e sommando le 2 ho speso esattamente come 2 780 ti al lancio.
Il problema è che in quasi ogni gioco che sto giocando pure starcraft 2 supera i 2 gb di vram , sarà che ho 2 monitor , che uso il 3D vision, ma i 2 gb non erano accettabili sopratutto perchè avrei fatto sli, magari dopo 6 o 7 mesi come con le titan ma lo avrei fatto e avere 2 gb mi avrebbe limitato nonostante la potenza.
http://www.youtube.com/watch?v=CN8PLXnJxLA
guardati sto video, così la smetti di basarti sulla memoria allocata da osd per vedere se basta o no la VRAM di una scheda video.
titan black alloca 4500mb di vram e fa pena come la 780 ti che ne alloca meno di 3000mb.
per i 256bit non son mai stati un problema. infatti la scheda camminava parecchio anche con quel bus. una 680 occata andava come una 590, e molto di + di una 580.
Thaiti a 384bit e GK104 @ 256bit son schede che hanno gli stessi limiti.
è un errore valutare una scheda solo dal bus.
Se la vedi cosi penso che capisci perchè non mi hanno mai convinto, anche la 690 una scheda ottima fresca potentissima ma con solo 2 gb di vram
Poi visto che solitamente le schede le tengo per i 2 anni i 2 gb erano proprio troppo limitanti.
P.S: bastava una scheda con 3 gb di vram o 4 come le 290x che per me sono le più bilanciate su questo fattore. Le versioni 4GB della 680 non erano convenienti costavano 100 euro in più a sto punto ho preso la Titan a poco più.
ok, ci stavano anche le 670 4GB , più economiche
che erano schede che andavano uno sputo meno.
ti lamenti che non erano convenienti le 680 da 4GB ,e ti sei preso due Titan.
quando come dici tu ti bastavano i 3GB. allora ti potevi prendere 2x 780 con 3GB che bastano alla grande, e risparmiavi un bel po di soldi.
cire92cry
01-05-2014, 10:51
capito. il mio discorso era sul prezzo / prestazioni.
mi ha dato di più la 680 per 500€
che la titan a + di 800€
ed a quel prezzo l'ho trovata a culo (solo uno shop la vendeva a quel prezzo), altrimenti costava + di 900€ -fino a 1150€
http://www.youtube.com/watch?v=CN8PLXnJxLA
guardati sto video, così la smetti di basarti sulla memoria allocata da osd per vedere se basta o no la VRAM di una scheda video.
titan black alloca 4500mb di vram e fa pena come la 780 ti che ne alloca meno di 3000mb.
per i 256bit non son mai stati un problema. infatti la scheda camminava parecchio anche con quel bus. una 680 occata andava come una 590, e molto di + di una 580.
Thaiti a 384bit e GK104 @ 256bit son schede che hanno gli stessi limiti.
è un errore valutare una scheda solo dal bus.
ok, ci stavano anche le 670 4GB , più economiche
che erano schede che andavano uno sputo meno.
ti lamenti che non erano convenienti le 680 da 4GB ,e ti sei preso due Titan.
quando come dici tu ti bastavano i 3GB. allora ti potevi prendere 2x 780 con 3GB che bastano alla grande, e risparmiavi un bel po di soldi.
Per il prezzo di listino siamo d'accordo.
Per la vram so di cosa parlo skirim alloca tanta ram ma il beneficio non è diretto infatti le 780 ti vanno come le titan , il problema erano i 2 gb delle 680 non i 3 gb delle 780 , avevo le 570 e con crysis 3 si saturava la ram era un lag continuo , lo stesso sarebbe successo con le 680 visto che sto sui 2600 mb di vram quando gioco ora a crysis 3, il problema più grande con la vram è quando fai SLI perchè la potenza che hai a disposizione è alta però se la vram non è sufficiente pum va tutto a rotoli, ad esempio su bf4 tutto max con risoluzione 200% con Titan occate come frame reggi senza molti problemi e stai sui 3500 mb se attivi il 3d arrivi a 5 gb, il 3D ora fa occupare più vram e non dimezza i frame.
Inizialmente cmq non andava molto di più di una 580 un 30 40% poi è migliorata grazie ai driver.
Facendo conto che avrei preso le 780 al lancio non ci avrei risparmiato Nulla o poco visto che come detto ho pagato esattamente come 2 780 al lancio, solo avendo 3 gb di vram in più che magari in futuro possono anche servirmi oppure no .
Cmq è inutile non mi ha mai convinto la 680 , la scheda era ottima senza dubbio ma non l'avrei mai presa per sostituire le mie 2 570.
Per le 670 4GB una non l'avrei mai presa quindi 2 mi costavano più di una Titan con prestazioni non troppo superiori e ho deciso di evitare l'SLI per poter aver in futuro ancora un upgrade.
Meglio tornare in topic :)
mikael84
01-05-2014, 13:59
La verità sta nel mezzo, un conto e'la memoria che realmente serve un conto e'la memoria che alloca lei come cache texture.
La scheda video necessita di una porzione di memoria extra dove archivia le texture che ancora devono essere caricate, generalmente e'in grado di allocare sino ad 1,5gb di memoria per questo.
Se non c'e'sufficente Vram, la scheda accede alla ram di sistema ed utilizza un buffer rallentando leggermente le operazioni, quindi possono verificarsi alcuni ritardi nella elaborazione della scena, tra i quali i dettagli in lontanza. :)
Parliamo di dettagli minimi che non cambiano l'esperienza di gioco
non male la nuova titan dual.. solo 375W per 8Tflops! nvidia sta facendo progressi notevoli anche semplicemente "rodando" la vecchia generazione :O
mikael84
02-05-2014, 12:26
non male la nuova titan dual.. solo 375W per 8Tflops! nvidia sta facendo progressi notevoli anche semplicemente "rodando" la vecchia generazione :O
Non sono 8TF ma 11,5TF;)
700 e'la frequenza nominale, boost nominale 876 ed il boost effettivo 2,0 e'circa 1ghz.
Ad esempio la gtx 780ti reference lavora a 1020 non ad altri valori (salvo tagli o downclock);)
Immagino in single precision.....che avendo un rapporto di 1/3 fanno 2,66 tflop in doppia......come una 9100 fire pro (singola ma con tdp più elevato rapportato al singola gpu verde).
beh 11,5TF è davvero impressionante.. :)
paolox86
02-05-2014, 14:46
Forse l'avrei presa.... Ad un terzo del prezzo annunciato.... :)
appleroof
02-05-2014, 14:57
Forse l'avrei presa.... Ad un terzo del prezzo annunciato.... :)
A quelle condizioni forse e sottolineo forse pure io
killeragosta90
02-05-2014, 15:08
A quelle condizioni forse e sottolineo forse pure io
Quando nel mercatino nel 2024 ne vedrò in vendita una a meno di un centinaio di euro, la acquisterò anch'io! Tanto per il gusto di dire d'averla posseduta :O
:sofico:
appleroof
02-05-2014, 22:31
Quando nel mercatino nel 2024 ne vedrò in vendita una a meno di un centinaio di euro, la acquisterò anch'io! Tanto per il gusto di dire d'averla posseduta :O
:sofico:
:D :D
appleroof
03-05-2014, 15:14
Un'idea del grosso passo avanti fatto in termini di efficienza con Maxwell su Kepler
www.geeks3d.com/20140502/geforce-gtx-titan-vs-a-render-farm-with-six-gtx-750/
AceGranger
04-05-2014, 02:04
Un'idea del grosso passo avanti fatto in termini di efficienza con Maxwell su Kepler
www.geeks3d.com/20140502/geforce-gtx-titan-vs-a-render-farm-with-six-gtx-750/
efficienza top, ma ci vorrebbero 6 Gb di ram sulle GTX 750 :stordita:
appleroof
05-05-2014, 08:22
efficienza top, ma ci vorrebbero 6 Gb di ram sulle GTX 750 :stordita:
si credo fosse solo un'esperimento focalizzato proprio sull'efficienza, diciamo fine a se stesso per dimostrare i passi avanti nel performance/watt...
appleroof
05-05-2014, 20:55
Da chiphell su gm204 https://translate.google.com/translate?sl=auto&tl=en&js=y&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fwww.chiphell.com%2Fthread-1028165-1-1.html&edit-text=
http://www.techpowerup.com/200505/geforce-gtx-880-es-intercepted-en-route-testing-lab-features-8-gb-memory.html
So che non interessa a nessuno :asd: ma:
http://wccftech.com/nvidia-geforce-gtx-titan-z-boost-1058-mhz-card-postponed-due-unfinished-driver/
Pare che ste titan z con ventola a 100% e target temp a 95°C boosti a 1058. Sta più o meno alla pari con una 295x2 almeno in 3dmark13.....:O
Antonioplay85
08-05-2014, 18:31
nessuno la compra la Titan Z? :asd:
nessuno la compra la Titan Z? :asd:
Fidati che se la fanno, qualcuno se la compra vedrai :rolleyes:
killeragosta90
08-05-2014, 19:09
nessuno la compra la Titan Z? :asd:
Io ne ho già ordinate 2 :fagiano: Una ho deciso di usarla come rialzo al mio alienware perchè scalda troppo, mentre l'altra la uso come fermacarte perchè al momento non ho nulla a portata di mano da poter mettere su alcuni documenti "svolazzanti" che stanno sulla scrivania e non ho voglia di alzarmi.
La terza stavo pensando di usarla per pulirmi il.....no vabbè, non credo sia comoda, bastano due per il momento.
appleroof
08-05-2014, 19:11
È fud, cmq : www.fudzilla.com/home/item/34697-second-generation-maxwell-to-support-h265
appleroof
12-05-2014, 11:07
Può essere che a qualcuno interessi :asd:
videocardz.com/50491/first-nvidia-geforce-gtx-titan-z-review-leaks
cire92cry
12-05-2014, 12:51
Può essere che a qualcuno interessi :asd:
videocardz.com/50491/first-nvidia-geforce-gtx-titan-z-review-leaks
^^ Interessante Nvidia non sa ancora come settare questa titan Z , probabilmente non si aspettava la 295x2 con quel raffreddamento XD
Può essere che a qualcuno interessi :asd:
videocardz.com/50491/first-nvidia-geforce-gtx-titan-z-review-leaks
Dovrebbero venderla direttamente con waterblock e bona... :asd:
Antonioplay85
12-05-2014, 16:08
ma LOL :D
Therinai
12-05-2014, 16:14
Ma ancora nessuno ha commercializzato una 750ti fanless, passiva?
Ci saranno novità da qui a settembre in fascia media (GTX 770)?
appleroof
12-05-2014, 17:30
Ci saranno novità da qui a settembre in fascia media (GTX 770)?
difficile dirlo, per ora dai pochi rumors si direbbe di no
La fascia compresa fra la 750ti e la 760 di che livello è considerata?
Dovrei acquistare una scheda video e per il momento l'unica scelta per me compatibile per prezzo e caratteristiche è la (oramai un po' datata) 660 che sembra infilarsi proprio lì.
appleroof
20-05-2014, 10:46
Dal forum di b3d, non so quanto affidabile sia il tizio:
And finally...some news on GM200. Seems like there's been a lot of smoke and mirrors stuff going on. What I have again heard is that it is still on 28nm as planned..and should be taping out late this month/early next month.
forum.beyond3d.com/showpost.php?p=1848488&postcount=1677
Cane da riporto non porta pena (mi pare... :asd: )
http://www.pc-specs.com/gpu/Nvidia/800_Series
Snickers
22-05-2014, 15:09
Cane da riporto non porta pena (mi pare... :asd: )
http://www.pc-specs.com/gpu/Nvidia/800_Series
Mah, che dire, mi auguro sia una cosa vera, che una 870 a dicembre, magari custom con 4GB di vRam sarebbe il top per giocare in full-hd (già ora 2GB sono strettini per quella risoluzione) :read:
RedPrimula
25-05-2014, 10:49
https://www.youtube.com/watch?v=yuEUKPZg9xg
Mhm faccio fatica o notare differenze.
Sent from DingDingDong (by Gunther) using my Tralala!
Mhm faccio fatica o notare differenze.
Sent from DingDingDong (by Gunther) using my Tralala!
illuminazione, textures e ambient occlusion. ovviamente anche antialiasing di qualche sorta
illuminazione, textures e ambient occlusion. ovviamente anche antialiasing di qualche sorta
Sì, illuminazione a parte, bah le textures sarà che non mi sembrano un granchè ad ultra.
Sent from DingDingDong (by Gunther) using my Tralala!
Sì, illuminazione a parte, bah le textures sarà che non mi sembrano un granchè ad ultra.
Sent from DingDingDong (by Gunther) using my Tralala!
quello è un'altro discorso :)
a occhio non cambiano nemmeno i LOD dei modelli poligonali, non credo ci sia nemmeno la tessellazione, ma per questo bisognerebbe vederlo in'azione.
Inanto io ho cancellato il preorder su amazon della dedsec edition e mi vado a prendere una versione scatolata normale.
RedPrimula
27-05-2014, 11:40
http://www.guru3d.com/news_story/photos_surface_nvidia_geforce_gt_740_to_be_released.html
Ci saranno novità da qui a settembre in fascia media (GTX 770)?
difficile dirlo, per ora dai pochi rumors si direbbe di no
ed entro dicembre ?
devo cambiare la mia hd5850 ed attualmente sono orientato su una gtx 760 (mi serve di lunghezza inferiore ai 23cm, la 770 più corta misura 26cm :rolleyes: )
attendo volentieri per una sk.video fascia media (corta) che si posizioni come prestazioni sulla 770 o sup. :)
Devo fare un upgrade verso febbraio-marzo dell'anno prossimo.Spero escano per quel periodo,ma quello che mi preoccupa sono le prestazioni su slot PCIe 2.0 non voglio cambiare tutto :muro:
Devo fare un upgrade verso febbraio-marzo dell'anno prossimo.Spero escano per quel periodo,ma quello che mi preoccupa sono le prestazioni su slot PCIe 2.0 non voglio cambiare tutto :muro:
con il pci-e 2.0 secondo me non perdi niente o al massimo 1-2% che sono decisamente ininfluenti
leggi qua: http://www.techpowerup.com/reviews/Intel/Ivy_Bridge_PCI-Express_Scaling/23.html
se usi il pci-e 1.1 cioè vecchio di 8-9 anni limiti una gtx680 tipo del 3%
con il pci-e 2.0 secondo me non perdi niente o al massimo 1-2% che sono decisamente influenti.
leggi qua: http://www.techpowerup.com/reviews/Intel/Ivy_Bridge_PCI-Express_Scaling/23.html
se usi il pci-e 1.1 cioè vecchio di 8-9 anni limiti una gtx680 tipo del 3%
Cavoli hai ragione.Praticamente nulle! :eek: Grazie della info!!:cincin:
mircocatta
11-06-2014, 10:09
quindi neanche per le top di gamma si sa niente .. :muro:
:asd: anche io andrà sicuro di gtx 880 o come si chiamerà appena esce, con pcars e gtz 5 a novembre, più the witcher 3 a febbraio, l'acquisto è un must! :O
Spero solo che i tempi coincidano con l'uscita dei giochi...
mircocatta
11-06-2014, 10:52
:asd: anche io andrà sicuro di gtx 880 o come si chiamerà appena esce, con pcars e gtz 5 a novembre, più the witcher 3 a febbraio, l'acquisto è un must! :O
Spero solo che i tempi coincidano con l'uscita dei giochi...
è questa la mia paura.. solo che sono anche stufo di continuare con il mio 20 pollici 1680x1050.. passerei volentieri al tv full hd ma con pcars e la 7950 è una mezza agonia..
putroppo ho il presentimento che prima della prossima primavera vedremo molto poco
Nhirlathothep
11-06-2014, 11:10
Possibile?
Ancora mesi per la serie 8 ?
Ma la 750 che è basata su tecnologia nuova è uscita da un pezzo!
Percheeeeeeeeeeeee
mircocatta
11-06-2014, 11:17
Possibile?
Ancora mesi per la serie 8 ?
Ma la 750 che è basata su tecnologia nuova è uscita da un pezzo!
Percheeeeeeeeeeeee
metti in conto che di rumor non se ne sentono da un pezzo..
maxmix65
11-06-2014, 11:44
metti in conto che di rumor non se ne sentono da un pezzo..
Infatti date certe non mi sembra che ce ne siano
Mandest22
11-06-2014, 13:27
Secondo voi se mi prendo una 780 verso settembre faccio male visto che non si sa quando usciranno le 8xx?
Inviato dal mio Nexus7 2013 (4.4.2)
Nhirlathothep
11-06-2014, 13:35
Secondo voi se mi prendo una 780 verso settembre faccio male visto che non si sa quando usciranno le 8xx?
Inviato dal mio Nexus7 2013 (4.4.2)
Appena scenderà di prezzo, la 780 è l' unico acquisto sensato: le 770 2gb che erano il best-buy, ora vanno evitate e le 4gb costano come la 780, quindi appnea scende prendila, fai bene
mircocatta
11-06-2014, 13:36
Infatti date certe non mi sembra che ce ne siano
è la prima volta che ho la scimmia per la top di gamma nvidia e....e questa non esce mai e non si sa neanche quando lo farà :cry:
Mandest22
11-06-2014, 13:46
Appena scenderà di prezzo, la 780 è l' unico acquisto sensato: le 770 2gb che erano il best-buy, ora vanno evitate e le 4gb costano come la 780, quindi appnea scende prendila, fai bene
Su A@@@@n la MSI 780 costa 405...e continua a scendere...
Inviato dal mio Nexus7 2013 (4.4.3)
Nhirlathothep
11-06-2014, 13:52
Su A@@@@n la MSI 780 costa 405...e continua a scendere...
Inviato dal mio Nexus7 2013 (4.4.3)
È un' opinione personale, ma sec me costa ancora troppo, c' è gente che la prese a 350e (non io)
sickofitall
11-06-2014, 13:55
Su A@@@@n la MSI 780 costa 405...e continua a scendere...
Inviato dal mio Nexus7 2013 (4.4.3)
sul mercatino le trovi a 320€ spedite, se aspetti 1 mese prima dell'uscita della 880 il prezzo sarà ancora più basso
mircocatta
11-06-2014, 13:59
ma ricordo male o le 880 maxwell saranno come le 680 kepler? cioè non il chip finale ma una sua versione "castrata" ?
quindi poco più potenti delle 780 con consumi ovviamente inferiori.. a quel punto potrei anche non aspettarle e prendere direttamente una 780 liscia o Ti.
Mandest22
11-06-2014, 14:09
È un' opinione personale, ma sec me costa ancora troppo, c' è gente che la prese a 350e (non io)
Si, ho visto su a@@@@n perché ho l app sul tablet e faccio in fretta....
Inviato dal mio Nexus7 2013 (4.4.3)
Mandest22
11-06-2014, 14:10
sul mercatino le trovi a 320 spedite, se aspetti 1 mese prima dell'uscita della 880 il prezzo sarà ancora più basso
Sarò io ma preferisco roba nuova..non che non mi fido....
Inviato dal mio Nexus7 2013 (4.4.3)
PaulGuru
11-06-2014, 14:15
ma ricordo male o le 880 maxwell saranno come le 680 kepler? cioè non il chip finale ma una sua versione "castrata" ?
Si visto che saranno di nuovo a 28nm e non a 20, la versione chippone probabilmente arriverà col refresh successivo ( tipo come l'attuale Kepler da 680 a 780 ).
E per giunta nemmeno così tanto spinte visto che i TDP sembrano aggirarsi appena sui 230W .....
mircocatta
11-06-2014, 14:21
Si visto che saranno di nuovo a 28nm e non a 20, la versione chippone probabilmente arriverà col refresh successivo ( tipo come l'attuale Kepler da 680 a 780 ).
E per giunta nemmeno così tanto spinte visto che i TDP sembrano aggirarsi appena sui 230W .....
detta così...mi chiedo che senso ha per me aspettare :mbe:
tanto vale farsi una bella gtx 780..
adesso mi guardo qualche raffronto tra una gtx 780 liscia e una ti custom che ho puntato (inno3d herculez)
mikael84
11-06-2014, 14:27
detta così...mi chiedo che senso ha per me aspettare :mbe:
tanto vale farsi una bella gtx 780..
adesso mi guardo qualche raffronto tra una gtx 780 liscia e una ti custom che ho puntato (inno3d herculez)
Non farti troppe paranoie:p , la differenza è di 180/200mhz a pari clock tra le 2, la differenza c'e' ma in base al prezzo niente di eclatante.:)
Il chippone non uscirà per molto ancora, al massimo un derivato di fascia media:)
ma ricordo male o le 880 maxwell saranno come le 680 kepler? cioè non il chip finale ma una sua versione "castrata" ?
quindi poco più potenti delle 780 con consumi ovviamente inferiori.. a quel punto potrei anche non aspettarle e prendere direttamente una 780 liscia o Ti.
dipende, il problema del chippone è solo nelle rese, e quindi si ripresenta solo con i nuovi processi produttivi.
quindi se la880 sarà sui 28 nm uscirà il chippone(ke immagino andrà poco piu dell attuale) mentre se useranno i 20/16nm uscirà la versione più piccola
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
PaulGuru
11-06-2014, 18:12
detta così...mi chiedo che senso ha per me aspettare :mbe:
tanto vale farsi una bella gtx 780..
adesso mi guardo qualche raffronto tra una gtx 780 liscia e una ti custom che ho puntato (inno3d herculez)
Il senso di aspettare sta nel fatto che i prossimi titoli richiederanno più VRAM e i 3GB della 780 bastano solo per ora.
La 880 se ha veramente 3200 stream Maxwell si può ipotizzare un +30% di prestazioni in più che su un 1440p in ottica next gen non sarebbe mica male.
Il senso di aspettare sta nel fatto che i prossimi titoli richiederanno più VRAM e i 3GB della 780 bastano solo per ora.
La 880 se ha veramente 3200 stream Maxwell si può ipotizzare un +30% di prestazioni in più che su un 1440p in ottica next gen non sarebbe mica male.
per un 30% in più ci metterei la firma!
I consumi, in questa ipotesi, come potrebbero essere rispetto alla 780 liscia?
per un 30% in più ci metterei la firma!
I consumi, in questa ipotesi, come potrebbero essere rispetto alla 780 liscia?
Credo aumenteranno di un 10-20%
Inviato dal mio ASUS Transformer Pad TF300T utilizzando Tapatalk
Io spero soltanto che si riesca a sbloccarle col voltaggio come per le 780 lisce e titan .... parlo di reference...
Seno' mi tocchera' andare di classified :doh:
Io spero soltanto che si riesca a sbloccarle col voltaggio come per le 780 lisce e titan .... parlo di reference...
Seno' mi tocchera' andare di classified :doh:
no non farlo, non prendere le classified :)
se non vuoi raddoppiare il consumo solo per eguagliare quello che fa qualsiasi buona reference in oc standard
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.