View Full Version : Radeon R9 290X: AMD ridefinisce la scheda top di gamma
Redazione di Hardware Upg
24-10-2013, 06:23
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/3805/radeon-r9-290x-amd-ridefinisce-la-scheda-top-di-gamma_index.html
Al debutto la nuova proposta di fascia alta di AMD per il mercato delle schede video desktop, basata sulla nuova GPU nota con il nome in codice di Hawaii. L'architettura alla base rimane quella delle GPU Tahiti, migliorata e affinata oltre che notevolmente velocizzata grazie all'aumento degli stream processors e al bus memoria da 512bit. Il tutto condito da un prezzo di listino molto aggressivo, e da prestazioni allineate a quelle di GeForce GTX Titan
Click sul link per visualizzare l'articolo.
Goofy Goober
24-10-2013, 06:48
indubbiamente una buona scheda dato soprattutto il prezzo suggerito, ma a questo punto voglio vedere qualche versione custom con dissipazione adeguata che dovrebbe rimuovere del tutto il "problema" dei 95°, permettendo alla scheda di viaggiare sempre al massimo delle capacità
Free Gordon
24-10-2013, 06:52
Hanno tirato sul prezzo e usato un dissi di media qualità...
Sicuramente Nvidia sarà costretta ad abbassare i prezzi, così com'è la 290X è un best buy notevole. :)
Certo, AMD fa' un prezzo più aggressivo anche perchè il die è più piccolo di GK110 e il layout della scheda probabilmente molto più economico (dissipatore compreso).
Sono curioso di vedere quanto costerà la Toxic. :D
Anyway, buona scheda da AMD. :)
Nhirlathothep
24-10-2013, 07:20
va bene, nessuna delusione, è come ci si aspettava.
di sicuro la titan deve scendere molto di prezzo e anche la 780.
vediamo cosa tira fuori nvidia
Nhirlathothep
24-10-2013, 07:23
piccolo errore:
sulle tabelle di pagina 14 compare in Ordinata la scritta -Gradi centigradi- , ma si tratta della -frequenza-.
Morghel77
24-10-2013, 08:12
In casa nVidia, a qualcuno, sarà venuto un colpo.
Comunque ora capisco perchè un mese fa un tecnico AMD disse che con Mantle, la 290x, avrebbe ridicolizzato la Titan, lo fa anche senza!
Più potente di Titan alla metà del prezzo.
Basta con questo magna magna da parte di nVidia, è finita la loro età dell'oro finalmente.
Quello delle temperature è un non problema, nessuno dei partner metterà in commercio la 290x con quello schifo di dissipatore, basta vedere le 270/280, che rispetto alle stock fanno 15-20 gradi in meno con anche più prestazioni.
La situazione è la medesima dell'anno scorso. La 7970 era sicuramente piu' veloce ed economica rispetto la 680.
Ottima scheda. Da valutare i margini di OC (probabilmente nulli col dissy stock)e la dissipazione con eventuali dissi custom. IMHO la versione liscia non conviene se la si vuole spremere per bene: da quel che ho capito ha problemi di dissipazione a frequenze stock. Il prezzo è buono è vero ... ma rispetto la 780 ha anche un dissipatore assolutamente inferiore.
Paolo Corsini
24-10-2013, 08:32
piccolo errore:
sulle tabelle di pagina 14 compare in Ordinata la scritta -Gradi centigradi- , ma si tratta della -frequenza-.
Non proprio: si tratta di entrambe le grandezze avendo riportato tempertaura della GPU e frequenza di clock nello stesso grafico. Ho modificato leggermente, ora dovrebbe essere più chiaro. Grazie della segnalazione
PhoEniX-VooDoo
24-10-2013, 08:46
capisco la storia dei fps istantanei, drop ecc. ma capire come va la scheda dai grafici di questa recensione è un'impresa..
capisco la storia dei fps istantanei, drop ecc. ma capire come va la scheda dai grafici di questa recensione è un'impresa..
quoto
Goofy Goober
24-10-2013, 08:58
capisco la storia dei fps istantanei, drop ecc. ma capire come va la scheda dai grafici di questa recensione è un'impresa..
già
almeno un grafico a barre classico col framerate sarebbe meglio lasciarlo per ogni test
p.s.
anche i test a 1080p non guasterebbero
... non mi aspettavo un prezzo di lancio così aggressivo!... decisamente il best-buy attuale...
Certo che ormai costano quanto una console intera (le AMD, le Nvidia top non ne parliamo), tra l'altro proprio su queste schede video basate.
che ne pensate ??
TheMac
Questi 28nm li hanno davvero tirati al limite.
E' una scheda molto interessante, ma ritengo che ora più che mai i partner tra dissy custom e bios, possano fare la differenza.
Il prezzo mi sembra migliore delle aspettative iniziali: intorno ai 500 euro per la R9 290x non è male, con la R9 290 intorno ai 400 euro.
mister_slave
24-10-2013, 09:18
@TheMac
si vede che sei un nubbio.
le schede di fascia estrema sono sempre costate uno sproposito.
ricordo la 6800 ultra sui 800€, la 8800gtx-ultra sopra i 500€ ecc
quindi in fronte al prezzo non c'è niente di nuovo.
se vuoi il top ti costa un rene.
alla vigilia delle nuove gpu a 22nm la r9 280 liscia e non x sarà il nuovo bestbuy
@mister_slave.
Grazie per il nubbio (che si scrive niubbo, se proprio credi).
Sono stato tra i primi a comprare scheda video accelerate (2d e 3d), appena uscite, circa un milione di anni fa...
Tu, forse, avevi ancora il pannolino :)
Solo che prima le 6800 non le trovavi, in altra veste, nelle console, e, da allora il mercato e' molto cambiato.
A quello mi riferivo....
TheMac
Littlesnitch
24-10-2013, 09:22
Certo che ormai costano quanto una console intera (le AMD, le Nvidia top non ne parliamo), tra l'altro proprio su queste schede video basate.
che ne pensate ??
TheMac
Che le GPU delle console sono nettamente inferiori a queste!!!
Come previsto Amd fa il botto, con investimenti quasi zero supera Titan. L'architettura Amd scala meglio all'aumentare degli shader. Purtroppo sono frenati dal PP ma credo che per nVidia sia finita la pacchia di vendere gli scarti da 600€ in su. La 780 deve costare al massimo 400€ e la Titan 500€!
OT: capisco che questi sono più accurati, ma preferivo i vecchi grafici con le barre e gli fps medi. In particolare uno con un po' di daltonismo (tipo me) non ci capisce molto. Non potreste trovare una soluzione?
edit: noto che qualcun altro ha posto lo stesso problema, in tal caso mi aggrego :)
PhoEniX-VooDoo
24-10-2013, 09:32
@mister_slave.
Grazie per il nubbio (che si scrive niubbo, se proprio credi).
Sono stato tra i primi a comprare scheda video accelerate (2d e 3d), appena uscite, circa un milione di anni fa...
Tu, forse, avevi ancora il pannolino :)
Solo che prima le 6800 non le trovavi, in altra veste, nelle console, e, da allora il mercato e' molto cambiato.
A quello mi riferivo....
TheMac
si e con un'Audi A4 mi prendo 5 Dacia, ma cosa c'entra? E poi perche ne vuoi parlare qua? lo sai bene che oltre ad essere off-topic l'unica possibilità e la solita polemica console vs pc.
.338 lapua magnum
24-10-2013, 09:34
... non mi aspettavo un prezzo di lancio così aggressivo!... decisamente il best-buy attuale...
vero e se pensiamo alla 290 che andrà uno "sputo" meno.
quello che mi lascia perplesso sono le temp, chissà i vrm, attendiamo le custom.
x la redazione
".......anche Radeon R9 290X utilizza un connettore a 8 pin affiancato da uno a 6 pin. Abbinando questi due a quanto fornito attraverso connessione PCI Express 16x con la scheda madre otteniamo un valore di 375 Watt che possono venir forniti alla scheda quale massimo."
c'è un errore, 6+8 pin sono 300w, 8+8 sono 375w.
Goofy Goober
24-10-2013, 09:38
http://img534.imageshack.us/img534/4964/xt31.png
non male davvero
Che le GPU delle console sono nettamente inferiori a queste!!!
Come previsto Amd fa il botto, con investimenti quasi zero supera Titan. L'architettura Amd scala meglio all'aumentare degli shader. Purtroppo sono frenati dal PP ma credo che per nVidia sia finita la pacchia di vendere gli scarti da 600€ in su. La 780 deve costare al massimo 400€ e la Titan 500€!
Si la supera. Ma con consumi ben piu' altri e senza margine di OC. In pratica hanno tirato il collo al chip per raggiungere (e a volte superare) le prestazioni della concorrenza ... peccato che sia la 780 che la titan abbiano margini di OC molto buoni anche con il dissi reference. :)
La pacchia per Nvidia non finirà di certo. Sono 3 generazioni che la situazione è piu' o meno questa (le schede amd sono sempre un pelo piu' veloci) ma il market share è sempre a favore di Nvidia. I dati e bench li guardiamo solo noi geek ... alla massa dei numerini frega niente. :)
Resta cmq una grande prova di forza di AMD e una chance per il mercato di smuoversi un pochettino ... e speriamo che stavolta AMD fornisca driver a corredo all'altezza della scheda video ...
CrapaDiLegno
24-10-2013, 09:39
Ottime prestazioni, non c'è alcun dubbio, ma che consumi e che temperature!
Se portiamo un GK110 a consumare uguale secondo me non c'è alcun confronto.
Forse nvidia ci sta pensando per la nuova 780Ti.. super overclock e mega sistema di raffreddamento.
dobermann77
24-10-2013, 09:39
Indubbiamente il prodotto AMD piu' interessante
da mooolto tempo.
Niente da dire... viaggia!
Come dice Tom, Nvidia gestisce meglio acustica, temperature, estetica, ma ti fa pagare queste cose a caro prezzo.
Rimane effettivamente il punto interrogativo sulla storia dei 95 gradi,
che puzza un po'...
staremo a vedere i test prolungati (ore di gioco) dei gamers :D
Goofy Goober
24-10-2013, 09:41
Rimane effettivamente il punto interrogativo sulla storia dei 95 gradi,
che puzza un po'...
staremo a vedere i test prolungati (ore di gioco) dei gamers :D
le prime versioni custom "rimuoveranno" questa caratteristica...
Ottima performance, ma quel prezzo è assurdo. Siamo sicuri che non vadano in perdita?
Si vede che il Mantle è solo metà della loro strategia: l'altra metà è assicurarsi che i giocatori di fascia alta scelgano la R290X. A sto punto, mi sa che la Nvidia dovrà abbassare parecchio i prezzi per restare competitiva. La 780 Ti da sola non sarà sufficiente di certo.
PS. la 690 non me la ricordavo così mostruosa, anche rispetto alla 7990... e pensare che in giro si trova a prezzo più basso della Titan.
daddyxx1
24-10-2013, 09:43
imho best buy :) ma sarei curioso di vederla in versione partner Brand con dissipatori più efficienti
dobermann77
24-10-2013, 09:44
le prime versioni custom "rimuoveranno" questa caratteristica...
Se la rimuovono e crasha tutto non andrebbe bene :D
Metteranno dissipatori seri ok...
non rimane che aspettare un po'.
Ale55andr0
24-10-2013, 09:52
Sicuramente un bel mostriciattolo di potenza, mi ha impressionato in quel mattonazzo di metro LL :eek:
Consumi e calore però stanno li a dirci che sotto altri aspetti AMD poteva lavorare meglio, se per i primi i miracoli non li si poteva fare visti i valori già visti sulle 7970ghz lo stesso non si può dire sui dissipatori reference: quelli di nvidia sono nettamente migliori per efficienza e rumorosità. Il prezzo è davvero ottimo e suppongo sia anche per quello che ci tocchi vedere la solita bara...sta scheda mi sa che la si troverà facilmente ben sotto i 500 euro a breve, un belva di potenza a costi contenuti la pongono sicuramente come best buy imho, anche se certo le note dolenti ci sono e bisogna obbiettivamente riconoscerle.
PS: Mi aspettavo una rcensione un po' più completa sui titoli....troppo pochi per aver delinato un'andamento medio davvero esauriente, imho
PS. la 690 non me la ricordavo così mostruosa, anche rispetto alla 7990... e pensare che in giro si trova a prezzo più basso della Titan.
Il problema della 690 sono i soli 2gb di ram sfruttabili
La termografia della scheda confrontata ai concorrenti, rende l'idea:
http://www.hardware.fr/articles/910-10/bruit-temperatures.html
CrapaDiLegno
24-10-2013, 10:00
le prime versioni custom "rimuoveranno" questa caratteristica...
A parte che le prime versioni custom le si vedrà tra un mese o anche più, ma al massimo si riuscirà a ridurre al emperatura con sistemi open air che vuol dire che il calore rimane nel case, e quindi servirà un bel case aerato onde evitare problemi al resto. Oltre 300W non sono uno scherzo.
E a parte la questione calore, rimangono quelle dei W. Con questi consumi l'overclock è inesistente (a meno di non voler accorciare la vita della GPU a qualche settimana. Prevedo comunque un numero non indifferente di RMA con quei 95° in uso normale).
Il GK110 come è stato venduto adesso è ben sotto i consumi di questa GPU (che ripeto, sembra il vecchio Fermi v1 di nvidia per quanto riguarda i consumi) e un overclock ben studiato non porrà difficoltà a superare Hawaii fino a certe risoluzioni. Poi, ovviamente, i 512bit di memory bus di Hawaii sono un vantaggio non indifferente e ad alte risoluzioni si fanno sentire.
Quello che spero è che comunuqe i prezzi finalmente scendano ai livelli di 2 anni e mezzo fa, quando c'era competizione vera.:muro:
Goofy Goober
24-10-2013, 10:02
Se la rimuovono e crasha tutto non andrebbe bene :D
Metteranno dissipatori seri ok...
non rimane che aspettare un po'.
con i modelli custom decenti le temperature non superanno i 70-80° nel peggiore dei casi, quindi il problema non ci sarà più
ciccio357p
24-10-2013, 10:11
A parte che le prime versioni custom le si vedrà tra un mese o anche più, ma al massimo si riuscirà a ridurre al emperatura con sistemi open air che vuol dire che il calore rimane nel case, e quindi servirà un bel case aerato onde evitare problemi al resto. Oltre 300W non sono uno scherzo.
E a parte la questione calore, rimangono quelle dei W. Con questi consumi l'overclock è inesistente (a meno di non voler accorciare la vita della GPU a qualche settimana. Prevedo comunque un numero non indifferente di RMA con quei 95° in uso normale).
Il GK110 come è stato venduto adesso è ben sotto i consumi di questa GPU (che ripeto, sembra il vecchio Fermi v1 di nvidia per quanto riguarda i consumi) e un overclock ben studiato non porrà difficoltà a superare Hawaii fino a certe risoluzioni. Poi, ovviamente, i 512bit di memory bus di Hawaii sono un vantaggio non indifferente e ad alte risoluzioni si fanno sentire.
Quello che spero è che comunuqe i prezzi finalmente scendano ai livelli di 2 anni e mezzo fa, quando c'era competizione vera.:muro:
Gran bella vga niente da dire , ma il consumo e le temperature sono esageratamente elevate a mio parere .
Rimane comunque molto veloce
ottima scheda e ottima recensione
Supersubway
24-10-2013, 10:16
Prestazioni da Titan, prezzo competitivo, gioco in omaggio.
Pero' non mi sento di osannare AMD completamente: Titan è uscita a Febbraio, Questo prodotto praticamente un anno dopo.
Offrendo le stesse prestazioni, ma consimando 50W in più e surriscaldandosi come un tostapane? Senza parlare del RUMORE?
Questa è una copia economica di Titan, non un prodotto migliore. Una cinesata. Poi c'è chi le compra (e vista la differenza di prezzo, ci mancherebbe solo!), ma probabilmente NVIDIA abbasserà il prezzo, ora che ha un competitor.
roccia1234
24-10-2013, 10:16
Insomma, va come la sovraprezzatissima titan... ma costa 350€ in meno.
Ottima scheda!
fastleo63
24-10-2013, 10:25
[CUT]...probabilmente NVIDIA abbasserà il prezzo, ora che ha un competitor.Lo spero vivamente! Una sana ma agguerrita concorrenza non può far altro che bene, per noi utenti finali...
CrapaDiLegno
24-10-2013, 10:27
Insomma, va come la sovraprezzatissima titan... ma costa 350€ in meno.
Possibile che nessuno capisce che la Titan non è una scheda da gioco?
Perché non la comparate a una Quadro o a una Tesla? Pure quese ultime costano uno sproposito anche se montano a stessa identica GPU e sono pure "cieche".
Che ladri, eh?
Assolutamente best-buy!
Contentissimo per AMD che si è rimessa in carreggiata!
Possibile che nessuno capisce che la Titan non è una scheda da gioco?
Perché non la comparate a una Quadro o a una Tesla? Pure quese ultime costano uno sproposito anche se montano a stessa identica GPU e sono pure "cieche".
Che ladri, eh?
Mi sa che nvidia non è d'accordo ;)
http://media.gamesblog.it/8/84e/nvidia-geforce-gtx-holiday-bundle-with-shield-tiers-v2-620x350.jpg
Ansem_93
24-10-2013, 10:33
raga rispetto alla HD5870 quanto è più potente questa?
Littlesnitch
24-10-2013, 10:35
Si la supera. Ma con consumi ben piu' altri e senza margine di OC. In pratica hanno tirato il collo al chip per raggiungere (e a volte superare) le prestazioni della concorrenza ... peccato che sia la 780 che la titan abbiano margini di OC molto buoni anche con il dissi reference. :)
La pacchia per Nvidia non finirà di certo. Sono 3 generazioni che la situazione è piu' o meno questa (le schede amd sono sempre un pelo piu' veloci) ma il market share è sempre a favore di Nvidia. I dati e bench li guardiamo solo noi geek ... alla massa dei numerini frega niente. :)
Resta cmq una grande prova di forza di AMD e una chance per il mercato di smuoversi un pochettino ... e speriamo che stavolta AMD fornisca driver a corredo all'altezza della scheda video ...
Sul margine di OC direi che è molto prematuro parlarne, mettici un dissi custom e vediamo, poi i margini di OC di 780 e Titan sono tutto fuorchè buoni rispetto a quello che fa Tahiti che vorrei ricordare con dissi stock scalda uguale e consuma poco meno. Ti ricordo che le 780 e Titan sono underclockate di fabbrica essendo scarti delle Tesla.
Oggi ordino le 2 290X che vanno a pensionare le 2 7970 dopo 2 anni di onorato servizio, mi tengo ancora per un po invece le 2 780.
La nota più positiva è che nVidia abbasserà sicuramente i prezzi visto che così sono fuori mercato totalmente.
A parte che le prime versioni custom le si vedrà tra un mese o anche più, ma al massimo si riuscirà a ridurre al emperatura con sistemi open air che vuol dire che il calore rimane nel case, e quindi servirà un bel case aerato onde evitare problemi al resto. Oltre 300W non sono uno scherzo.
E a parte la questione calore, rimangono quelle dei W. Con questi consumi l'overclock è inesistente (a meno di non voler accorciare la vita della GPU a qualche settimana. Prevedo comunque un numero non indifferente di RMA con quei 95° in uso normale).
Il GK110 come è stato venduto adesso è ben sotto i consumi di questa GPU (che ripeto, sembra il vecchio Fermi v1 di nvidia per quanto riguarda i consumi) e un overclock ben studiato non porrà difficoltà a superare Hawaii fino a certe risoluzioni. Poi, ovviamente, i 512bit di memory bus di Hawaii sono un vantaggio non indifferente e ad alte risoluzioni si fanno sentire.
Quello che spero è che comunuqe i prezzi finalmente scendano ai livelli di 2 anni e mezzo fa, quando c'era competizione vera.:muro:
Evitiamo le fanboyate. Scommetto che tu eri uno di quelli che osannava GF100..... Come ho già scritto queste schede scaldano più o meno come Tahiti con dissi stock e consumano poco più. Poi è anche ora che la pianti con le stupidaggini sulle poche settimane di vita di un chip a 95 gradi visto che e schede sono in garanzia. Quello è il range di lavoro, fattene una ragione.
Littlesnitch
24-10-2013, 10:37
Possibile che nessuno capisce che la Titan non è una scheda da gioco?
Perché non la comparate a una Quadro o a una Tesla? Pure quese ultime costano uno sproposito anche se montano a stessa identica GPU e sono pure "cieche".
Che ladri, eh?
:doh:
Va beh, dopo questo commento passo e chiudo.... inutile sprecare tempo.
sniperspa
24-10-2013, 10:43
Ottima scheda a prezzo tutto sommato contenuto...peccato per i consumi, attualmente la vedrei dura fare una dual gpu con questo chip ma forse non avrebbe nemmeno senso.
Per una dual ci sono sempre i chip di fascia inferiore che sono certamente più adatti.
Inoltre tempo di progettare una dual e probabilmente saranno pronti i 20nm quindi tutto sommato non mi sembra una mossa sbagliata quella di AMD, anzi sicuramente non lo è dopo aver visto il prezzo :D
raga rispetto alla HD5870 quanto è più potente questa?
http://www.techpowerup.com/reviews/AMD/R9_290X/27.html
In fullHD una 6870 va circa il 41% ripsetto alla r290x... quindi una 5870, ancora meno... quasi 3 volte tanto, insomma...
Littlesnitch
24-10-2013, 10:44
Ottima scheda a prezzo tutto sommato contenuto...peccato per i consumi, attualmente la vedrei dura fare una dual gpu con questo chip ma forse non avrebbe nemmeno senso.
Per una dual ci sono sempre i chip di fascia inferiore che sono certamente più adatti.
Inoltre tempo di progettare una dual e probabilmente saranno pronti i 20nm quindi tutto sommato non mi sembra una mossa sbagliata quella di AMD, anzi sicuramente non lo è dopo aver visto il prezzo :D
Hanno già la dual più veloce, quindi non avrebbe senso farne una con 2 di queste. Si va di CF e via.
El Korki
24-10-2013, 10:45
raga rispetto alla HD5870 quanto è più potente questa?
a 1080p, a parità di settaggi, la 290x dovrebbe fare circa 3/4 volte gli fps della 5870 (soprattutto con filtri moderni attivi)
Littlesnitch
24-10-2013, 10:46
http://www.techpowerup.com/reviews/AMD/R9_290X/27.html
In fullHD una 6870 va circa il 41% ripsetto alla r290x... quindi una 5870, ancora meno... quasi 3 volte tanto, insomma...
Vorrei far notare che una 5870 vi di più rispetto ad una 6870 ;)
http://www.anandtech.com/bench/product/511?vs=540
Ansem_93
24-10-2013, 10:53
perfetto grazie mille :) allora direi che la mia hd5870 attualmente va poco meno della metà rispetto a questa nuova :)
El Korki
24-10-2013, 10:54
la 5870 va circa come una 470, o come una 560ti, o come una 650ti boost
possiamo andare avanti tutto il giorno a ricordare quanto la 5870 sia ancora una buona scheda, ma questo non cambia il fatto che la 290x la doppia due volte
Littlesnitch
24-10-2013, 10:55
perfetto grazie mille :) allora direi che la mia hd5870 attualmente va poco meno della metà rispetto a questa nuova :)
Diciamo che quella è una media, negli ultimi titoli spingendo un po i dettagli triplichi gli FPS con una 290X
sniperspa
24-10-2013, 10:57
Hanno già la dual più veloce, quindi non avrebbe senso farne una con 2 di queste. Si va di CF e via.
Si in effetti :D
Certo che a questo punto non ci starebbe male una via di mezzo tra le 280 e 290
El Korki
24-10-2013, 10:58
Si in effetti :D
Certo che a questo punto non ci starebbe male una via di mezzo tra le 280 e 290
il 31 presentano la r9 290 liscia, che dovrebbe essere un hawaii castrato, un po' come la 7950 è un tahiti castrato
Littlesnitch
24-10-2013, 11:01
il 31 presentano la r9 290 liscia, che dovrebbe essere un hawaii castrato, un po' come la 7950 è un tahiti castrato
Esatto, che se prezzata a 400Eur metterà definitivamente fuori mercato la concorrenza a meno di pesanti adeguamenti sui prezzi.
Credo che questa atgione natalizia sarà tra le migliori di sempre per il rapporto prezzo prestazioni delle VGA. Amd ha dichiarato guerra aperta aspettiamo la risposta di nVidia.
Credo che la slide piu' interessante che ho visto sia questa di TPU
http://tpucdn.com/reviews/AMD/R9_290X/images/voltagetuning.jpg
Secondo me, con raffreddamento adeguato che ora manca, si vedranno degli ottimi overclock da questa scheda (e forse, molto piu' interessante, dalla R9 290)
Littlesnitch
24-10-2013, 11:14
Credo che la slide piu' interessante che ho visto sia questa di TPU
http://tpucdn.com/reviews/AMD/R9_290X/images/voltagetuning.jpg
Secondo me, con raffreddamento adeguato che ora manca, si vedranno degli ottimi overclock da questa scheda (e forse, molto piu' interessante, dalla R9 290)
Certo che 2W a Mhz non sono molto incoraggianti ;)
sniperspa
24-10-2013, 11:21
Saranno pane per overclockers queste schede :read:
non vedranno mai i miei soldi per questa scheda, può essere più potente di qualunque altra cosa sul mercato ma se scalda non la voglio dopo la mia esperienza con la HD5770 che per come riscaldava non mi consentiva di giocare neppure a pacman perchè mi mandava in blocco l'intero sistema.
Poi fecero la versione vapor-x, ma in un primo momento i negozi neppure la sostituivano in RMA.
E peggio ancora, quando qualche tempo fa sono andato a cercare sui forum di ATI notizie circa il problema riscontrato con quella scheda (e ai tempi ne erano PIENI, un sacco di gente se ne lamentava sui thread ufficiali relativi a quel prodotto), erano stati ripuliti, tutti i post negativi rimossi come per magia.
Un prodotto non è buono solo perchè è il più veloce, non è da acquistare solo perchè è il migliore (che poi in questo ambiente "migliore" lo sei giusto per un paio di mesi), bisogna valutare anche la serietà del produttore....ed ATI mi ha deluso profondamente già una volta.
Probabilmente sono andato OT, ma era uno sfogo che non sono riuscito a reprimere.
Francamente sono un pò deluso... le prestazioni innegabilmente ci sono, ma scalda come un forno, consuma un botto ed ha pochissimi margini di oc.
Visto che costa come la 780 probabilmente è preferibile la Nvidia.
Invece credo che la 290 liscia sarà molto più interessante, visto che dovrebbe offrire prestazioni molto simili con prezzi più abbordabili.
Certo che 2W a Mhz non sono molto incoraggianti ;)
dai su, non si puo' aver la botte piena e la moglie ubriaca :D
Francamente sono un pò deluso... le prestazioni innegabilmente ci sono, ma scalda come un forno, consuma un botto ed ha pochissimi margini di oc.
Visto che costa come la 780 probabilmente è preferibile la Nvidia.
Invece credo che la 290 liscia sarà molto più interessante, visto che dovrebbe offrire prestazioni molto simili con prezzi più abbordabili.
Costa circa 100 euro in meno della 780 e se vedi sopra i margini di oc ci sono eccome.
Comunque chi qui sopra si e' mai comprato una scheda con dissi reference AMD alzi la mano... credo ben pochi! E' quasi una tradizione che sia appena sufficiente a tenerla sotto controllo
roccia1234
24-10-2013, 11:31
non vedranno mai i miei soldi per questa scheda, può essere più potente di qualunque altra cosa sul mercato ma se scalda non la voglio dopo la mia esperienza con la HD5770 che per come riscaldava non mi consentiva di giocare neppure a pacman perchè mi mandava in blocco l'intero sistema.
Poi fecero la versione vapor-x, ma in un primo momento i negozi neppure la sostituivano in RMA.
E peggio ancora, quando qualche tempo fa sono andato a cercare sui forum di ATI notizie circa il problema riscontrato con quella scheda (e ai tempi ne erano PIENI, un sacco di gente se ne lamentava sui thread ufficiali relativi a quel prodotto), erano stati ripuliti, tutti i post negativi rimossi come per magia.
Un prodotto non è buono solo perchè è il più veloce, non è da acquistare solo perchè è il migliore (che poi in questo ambiente "migliore" lo sei giusto per un paio di mesi), bisogna valutare anche la serietà del produttore....ed ATI mi ha deluso profondamente già una volta.
Probabilmente sono andato OT, ma era uno sfogo che non sono riuscito a reprimere.
Molto probabilmente avevi seri problemi di ventilazione.
Se una 5770 ti mandava in blocco tutto il sistema causa temperature, con una scheda di alta gamma ti si sarebbe sciolto il case :mbe:
tuttodigitale
24-10-2013, 11:44
x la redazione ci sono 2 piccoli errori nell'articolo
1) 1 connettore da 6PIN + 1 da 8 PIN + PCI Express = 300W non 375.
2) il die size di gk110 non è di 521 mmq, ma di 561mmq
sicuro di non aver avuto problemi con la modalità quiet? In altri lidi la differenza di rumore è molto tangibile.
La gpu dà il meglio di sè in modalità uber, dove mostra il picco di efficienza. Peccato per il sistema di raffreddamento non all'altezza.
Il prezzo è giusto: la differenza di prestazioni tra la Titan e una HD7970 non giustificava un costo di acquisto triplo.
La titan è una GeForce e non una Quadro, non ci sono driver certificati... Di professionale ha solo il costo di acquisto. Quindi fate attenzione.
sniperspa
24-10-2013, 11:49
Costa circa 100 euro in meno della 780 e se vedi sopra i margini di oc ci sono eccome.
Comunque chi qui sopra si e' mai comprato una scheda con dissi reference AMD alzi la mano... credo ben pochi! E' quasi una tradizione che sia appena sufficiente a tenerla sotto controllo
Quoto, nell'ultimo anno ho avuto per mano diverse 7850/70 e di queste solo una era con dissi stock (sicuramente non per me)...ovviamente era un cesso rispetto a tutte le altre custom sia come rumore sia come raffreddamento.
Oltretutto non ho capito su quali dati si dica che non ci sono margini di oc per questo chip...AMD ha sempre avuto schede con parecchi margini di OC negli ultimi anni, secondo me basterà qualche versione custom ben raffreddata con un buon alimentatore e si vedranno incrementi interessanti anche su queste schede
Tuvok-LuR-
24-10-2013, 11:51
ci sentiamo fra qualche giorno, vado a reinstallare Crysis 3 :sofico:
Alessandro Bordin
24-10-2013, 12:14
Sistemato il refuso "375W" al posto del corretto 300W. Grazie della segnalazione
AceGranger
24-10-2013, 12:18
La titan è una GeForce e non una Quadro, non ci sono driver certificati... Di professionale ha solo il costo di acquisto. Quindi fate attenzione.
è border-line fra il prosumer e il professionale; la stessa nVidia ha lasciato completamente sbloccati i calcoli DP via driver, cosa che non aveva mai fatto con nessuna VGA escluse Tesla e Quadro; idem per la ram dove ne ha lasciato un quantitativo esagerato per il mercato consumer.
tuttodigitale
24-10-2013, 12:18
Francamente sono un pò deluso... le prestazioni innegabilmente ci sono, ma scalda come un forno, consuma un botto ed ha pochissimi margini di oc.
Visto che costa come la 780 probabilmente è preferibile la Nvidia.
Invece credo che la 290 liscia sarà molto più interessante, visto che dovrebbe offrire prestazioni molto simili con prezzi più abbordabili.
1) va più di una Titan, ci mancherebbe che le prestazioni non ci fossero
2) qui hai ragione, ma basta prendere una Sapphire Vapor-X e si risolve
3) Si e no. E' innegabile che consuma di più, ma da qui a definire 50W un botto su un sistema High-End, ce ne passa.
4) OC. Considera solo che la gtx780 deve essere occata il 10% in più per tenere testa alla R9 290x, è probabile che:
a) la GTX780 occata del 10% consumi più di una R8 290x
b) la r9 290x arrivi ad un livello di prestazioni non raggiungibile dalla GTX780.
PS non è da escludere modelli di r9 290X con una bandwidth di oltre 400GB/s...
dobermann77
24-10-2013, 12:22
non vedranno mai i miei soldi per questa scheda, può essere più potente di qualunque altra cosa sul mercato ma se scalda non la voglio dopo la mia esperienza con la HD5770 che per come riscaldava non mi consentiva di giocare neppure a pacman perchè mi mandava in blocco l'intero sistema.
Il punto è tutto qui.
Se questa scheda fornisce le prestazioni a tempo indeterminato, perfetto. :D
Altrimenti, sono guai.
Non avrebbe senso lasciare il PC acceso per fare tre giorni di GPU computing, se dopo 8 ore la scheda va la metà...
Sicuramente il prodotto è interessante,
ma serve qualche test di piu'.
AceGranger
24-10-2013, 12:25
1) va più di una Titan, ci mancherebbe che le prestazioni non ci fossero
3) Si e no. E' innegabile che consuma di più, ma da qui a definire 50W un botto su un sistema High-End, ce ne passa.
ottima scheda ad un ottimo prezzo, ma mi aspettavo qualcosa di piu anche io;
Titan è uscita 8 mesi fa con un TDP di 250 Watt; questa VGA alla fine dovra reggere con le Maxwell che usciranno fra pochi mesi e, se tanto mi da tanto, nvidia tirera il collo ai 28 nm come ha fatto ora AMD, e con la nuova architettura mi sa che ritorneremo al punto di prima.
Supersubway
24-10-2013, 12:27
1) va più di una Titan, ci mancherebbe che le prestazioni non ci fossero
2) qui hai ragione, ma basta prendere una Sapphire Vapor-X e si risolve
3) Si e no. E' innegabile che consuma di più, ma da qui a definire 50W un botto su un sistema High-End, ce ne passa.
4) OC. Considera solo che la gtx780 deve essere occata il 10% in più per tenere testa alla R9 290x, è probabile che:
a) la GTX780 occata del 10% consumi più di una R8 290x
b) la r9 290x arrivi ad un livello di prestazioni non raggiungibile dalla GTX780.
PS non è da escludere modelli di r9 290X con una bandwidth di oltre 400GB/s...
2- Ma quanto costa in più la vaporx? E ti sembra una soluzione elegante?
3- 50W è un botto. Si tratta del 20% in più!
4- Ma no. Titan alla fine consuma meno di 290x! Perchè una 780 OC dovrebbe essere peggio di una 290x?? Tra l'altro, la 780 ha sicuramente margini di crescita migliori.
Le prestazioni sono ottime. Il comportamento no. Scalda, fa rumore, consuma di più! Il prezzo può essere cambiato, abbassato, rivisto, ma questa situazione deriva dalla tecnica e no, non cambia :(.
Secondo me non è positivo che AMD arrivi quasi un anno dopo Titan con un prodotto peggiore rispetto a quello che dovrebbe superare. Ripeto, è una cinesata, se mi passata il termine.
"Molto probabilmente avevi seri problemi di ventilazione.
Se una 5770 ti mandava in blocco tutto il sistema causa temperature, con una scheda di alta gamma ti si sarebbe sciolto il case"
Scusate ma non trovo il tasto "quote"
Ventole e ventoline, case aperto, le ho proovate tutte. ho installato la vga su altri 2 pc di due miei amici, e dava lo stesso problema (schermata blu dopo 30" di 3d, secondi non minuti!)
poi ho preso una gtx 285 e da lì in poi zero problemi (ulteriore dimostrazione che il problema era la vga, non il case o qualunque altra cosa)
I forum, anche qua su HWUpgrade, erano pieni di post di gente che si lamentava
Utente Statolibero Post #1016 del [thread ufficiale] Ati radeon 5770
Utente M@st3r Post #986 del [thread ufficiale] Ati radeon 5770
Utente Irrchat Post #2488 del [thread ufficiale] Ati radeon 5770
Possibile che nessuno capisce che la Titan non è una scheda da gioco?
Perché non la comparate a una Quadro o a una Tesla? Pure quese ultime costano uno sproposito anche se montano a stessa identica GPU e sono pure "cieche".
Che ladri, eh?
Cieche?:confused:
CrapaDiLegno
24-10-2013, 12:35
1) va più di una Titan, ci mancherebbe che le prestazioni non ci fossero
2) qui hai ragione, ma basta prendere una Sapphire Vapor-X e si risolve
3) Si e no. E' innegabile che consuma di più, ma da qui a definire 50W un botto su un sistema High-End, ce ne passa.
4) OC. Considera solo che la gtx780 deve essere occata il 10% in più per tenere testa alla R9 290x, è probabile che:
a) la GTX780 occata del 10% consumi più di una R8 290x
b) la r9 290x arrivi ad un livello di prestazioni non raggiungibile dalla GTX780.
PS non è da escludere modelli di r9 290X con una bandwidth di oltre 400GB/s...
50W sono quello che distingue una GTX580 da una GTX480. Come vedi anche 50W fanno la differenza sui sitemi high end, sopratutto quando 50W in più sono già al limite del limite.
Una 780 + 10% non consumerà mai 50W in più.
E per i margini di overclock, puoi tentare di alzare il clock come vuoi o mettefci di default un botolo di azoto liquido sopra... ma sta già a 300W ORA, figuriamoci quando si tenterà di far andare la scheda di più (magari anche con un overvolt!).
Ah, i 95° non sono il valore di funzionamento normale del silicio. Spiacente che voi caschiate nelle affermazioni di marketing, ma 95° è una temperatura altissima. Che non rovina solo il silicio della GPU, ma anche tutto il resto della componentistica, dai condensatori agli VRM, ma anche la scheda madre (i cui condensatori sono normalmente elettrolitici) dato che il calore si propaga facilemente tramite le piste e, da non dimenticare, anche l'aria che esce sul retro (o se open air, quella che rimane dentro il case).
Poi lamentatevi che si romperanno come le uova dopo averle usate qualche mese.
La temperatura di esercizio del silicio è tra i 60 e i 70° (che già significa bollente se lo tocchiamo). Oltre il fenomeno della elettromigrazione si fa sentire sempre di più.
A 95° ci faccio bollire l'acqua della pasta, altro che farci cuocere un uovo come simpaticamente avevano tentato di fare con Fermi v1 (che paradossalmente consumava meno di questa GPU).
Supersubway
24-10-2013, 12:39
50W sono quello che distingua una GTX580 da una GTX480. Come vedi anche 50W fanno la differenza sui sitemi high end, sopratutto quando 50W in più sono già al limite del limite.
Una 780 + 10% non consumerà mai 50W in più.
E per i margini di overclock, puoi tentare di alzare il clock come vuoi o mettefci di fefault un botolo di azoto liquido sopra... ma sta già a 300W ORA, figuriamoci quando si tenterà di far andare la scheda di più (magari anche con un overvolt!).
Ah, i 95° non sono il valore di funzionamento normale del silicio. Spiacente che voi caschiate nelle affermazioni di marketing, ma 95° è una temperatura altissima. Che non rovina solo il silicio della CPU, ma anche tutto il resto della componentistica, dai condensatori agli VRM, ma anche la scheda madre dato che il calore si propaga facilemente tramite le piste e, da non dimenticare, anche l'aria che esce sul retro.
Poi lamentatevi che si romperanno come le uova dopo averle usate qualche mese.
La temepratura di esercizio del silicio è tra i 60 e i 70° (che già significa bollente se lo tocchiamo). Oltre il fenomeno della elettromigrazione si fa sentire sempre di più.
A 95° ci faccio bollire l'acqua della pasta, altro che farci cuocere un uovo come simpaticamente avevano tentato di fare con Fermi v1 (che paradossalmente consumava meno di questa GPU).
+1.
95 gradi erano tantissimi per la 280... e adesso sono diventati la norma. Non va bene. Specie se AMD arriva con ritardo di 1 anno.
Lasciate perdere Mantle e dateci una scheda video che funzioni in maniera egregia!
dobermann77
24-10-2013, 12:41
Mah.
Il trend, anche nell'ambito dei processori Intel per esempio,
è quello delle temperature sempre piu' elevate.
Forse con i processi recenti si riescono a reggere alte temperature senza problemi.
CrapaDiLegno
24-10-2013, 12:42
Cieche?:confused:
Le GPU nelle Tesla hanno tutto abilitato, dalle ROP alle TMU, ma non hanno i circuiti per generare i signali video, quindi cieche.
Eppure sono vendute a prezzi fuori da ogni criterio usato qui.
Le Titan, che guardacaso nvidia non ha inserito nella linea GeForce, sono schede semi professionali tanto che nvidia ha lasciato sbloccato il calcolo DP e montato 6GB di RAM, che per il mercato gamer non servono a una mazza entrambi. E' pure cloccata molto in basso rispetto allo standard delle VGA per mercato consumer.
Poi se volete continuare a paragonarla ad una scheda che per andare qualcosa in più consuma 50W in più e raggiunge temperature (e rumorosità) pari ad un altoforno, allora fate pure (come paragonare una Audi a una Punto GT, o una Porche a una Mustang).
Anche se vanno uguali sono 2 schede con scopi evidentemente differenti e differenze sostanziali nell'ergonomia d'uso.
Tuvok-LuR-
24-10-2013, 12:47
Le GPU nelle Tesla hanno tutto abilitato, dalle ROP alle TMU, ma non hanno i circuiti per generare i signali video, quindi cieche.
Eppure sono vendute a prezzi fuori da ogni criterio usato qui.
Le Titan, che guardacaso nvidia non ha inserito nella linea GeForce, sono schede semi professionali tanto che nvidia ha lasciato sbloccato il calcolo DP e montato 6GB di RAM, che per il mercato gamer non servono a una mazza entrambi. E' pure cloccata molto in basso rispetto allo standard delle VGA per mercato consumer.
Poi se volete continuare a paragonarla ad una scheda che per andare qualcosa in più consuma 50W in più e raggiunge temperature (e rumorosità) pari ad un altoforno, allora fate pure (come paragonare una Audi a una Punto GT, o una Porche a una Mustang).
Anche se vanno uguali sono 2 schede con scopi evidentemente differenti e differenze sostanziali nell'ergonomia d'uso.
Titan è una scheda gaming, punto e basta. che provenga o no da una linea professionale è del tutto irrilevante
Dragon2002
24-10-2013, 12:48
Sarà irrispettoso per chi ha fatto questa super recensione come mi hanno fatto giustamente presente i moderatori del sito,quando criticai per la prima volta l'inserimento di questi nuovi grafici,ma capire qualcosa da queste nuove recensioni è un impresa.I nuovi grafici vanno bene,ma lasciare anche quelli vecchi non sarebbe un'idea cosi cattiva.
non vedranno mai i miei soldi per questa scheda, può essere più potente di qualunque altra cosa sul mercato ma se scalda non la voglio dopo la mia esperienza con la HD5770 che per come riscaldava non mi consentiva di giocare neppure a pacman perchè mi mandava in blocco l'intero sistema.
Poi fecero la versione vapor-x, ma in un primo momento i negozi neppure la sostituivano in RMA.
E peggio ancora, quando qualche tempo fa sono andato a cercare sui forum di ATI notizie circa il problema riscontrato con quella scheda (e ai tempi ne erano PIENI, un sacco di gente se ne lamentava sui thread ufficiali relativi a quel prodotto), erano stati ripuliti, tutti i post negativi rimossi come per magia.
Un prodotto non è buono solo perchè è il più veloce, non è da acquistare solo perchè è il migliore (che poi in questo ambiente "migliore" lo sei giusto per un paio di mesi), bisogna valutare anche la serietà del produttore....ed ATI mi ha deluso profondamente già una volta.
Probabilmente sono andato OT, ma era uno sfogo che non sono riuscito a reprimere.
Ati NON E' AMD.
Francamente sono un pò deluso... le prestazioni innegabilmente ci sono, ma scalda come un forno, consuma un botto ed ha pochissimi margini di oc.
Visto che costa come la 780 probabilmente è preferibile la Nvidia.
Invece credo che la 290 liscia sarà molto più interessante, visto che dovrebbe offrire prestazioni molto simili con prezzi più abbordabili.
Scalda come un forno? a stock ti funziona e basta che vuoi di più, consuma un botto? vorrei solo ricordarti che 90% delle persone che hanno una configurazione di questo genere ha minimo un 850W di alimentazione, quindi di problemi non ce ne sono, se invece ti preoccupi della bolletta che la compri a fare ? anzi prendi una console, pochissimi margini di overclock da cosa lo deduci? essendo un'evoluzione di tahiti, saprai benissimo che hanno un margine di almeno 200mhz. poi a quel prezzo che vuoi ancora? una fetta di :ciapet: ? bah ok che sei fanboy e magari devi giustificare i tuoi appena spesi 500 cucuzze per una 780 che va molto meno però non esagerare imho
2- Ma quanto costa in più la vaporx? E ti sembra una soluzione elegante?
3- 50W è un botto. Si tratta del 20% in più!
4- Ma no. Titan alla fine consuma meno di 290x! Perchè una 780 OC dovrebbe essere peggio di una 290x?? Tra l'altro, la 780 ha sicuramente margini di crescita migliori.
Le prestazioni sono ottime. Il comportamento no. Scalda, fa rumore, consuma di più! Il prezzo può essere cambiato, abbassato, rivisto, ma questa situazione deriva dalla tecnica e no, non cambia :(.
Secondo me non è positivo che AMD arrivi quasi un anno dopo Titan con un prodotto peggiore rispetto a quello che dovrebbe superare. Ripeto, è una cinesata, se mi passata il termine.
50W sono un botto? spegni una lampadina in casa allora e rientri subito nella bilancia della cose. poi su un alimentatore del pc 50 watt di sicuro non fanno la differenza dato che gli alimentatori sono sempre presi sovradimensionati.
una 780 OC è peggio di una 290x perchè costo molto di più e forse hai le stesse prestazioni ma neanche, e a parte questo consumo ancora di più della 290x. ma se ragionassi correttamente perchè non aspetti di vedere una 290x OC con una 780 OC? prendi quelle della MSI per esempio. e li ti dovresti nascondere
CrapaDiLegno
24-10-2013, 12:56
Titan è una scheda gaming, punto e basta. che provenga o no da una linea professionale è del tutto irrilevante
L'hai deciso tu?
No perché ci sono mille fatti che indicano che Titan non è una schda "da gioco".
Se vuoi te li rielenco, ma forse ci puoi arrivare da solo.
Ti aiuto aggiungendo che poco dopo il lancio della Titan è arrivata la 780 (denominazione del top della serie corrente) che va uno sputo in meno e costa 400 euro in meno (con metà della RAM e senza DP.. chissà come mai).
E "non deriva da una serie professionale". E' a metà strada tra mercato consumer e mercato professionale: HW completamente sbloccato ma senza driver certificati. Infatti costa il doppio do una GeForce e un quarto di una Quadro.
E per finire, io scommetto che neanche conl'arrivo della 290X il prezzo della Titan verrà ritoccato. Saranno solo le Geforce a subirne le conseguenze.
ciccio357p
24-10-2013, 13:00
50W sono quello che distingue una GTX580 da una GTX480. Come vedi anche 50W fanno la differenza sui sitemi high end, sopratutto quando 50W in più sono già al limite del limite.
Una 780 + 10% non consumerà mai 50W in più.
E per i margini di overclock, puoi tentare di alzare il clock come vuoi o mettefci di default un botolo di azoto liquido sopra... ma sta già a 300W ORA, figuriamoci quando si tenterà di far andare la scheda di più (magari anche con un overvolt!).
Ah, i 95° non sono il valore di funzionamento normale del silicio. Spiacente che voi caschiate nelle affermazioni di marketing, ma 95° è una temperatura altissima. Che non rovina solo il silicio della GPU, ma anche tutto il resto della componentistica, dai condensatori agli VRM, ma anche la scheda madre (i cui condensatori sono normalmente elettrolitici) dato che il calore si propaga facilemente tramite le piste e, da non dimenticare, anche l'aria che esce sul retro (o se open air, quella che rimane dentro il case).
Poi lamentatevi che si romperanno come le uova dopo averle usate qualche mese.
La temperatura di esercizio del silicio è tra i 60 e i 70° (che già significa bollente se lo tocchiamo). Oltre il fenomeno della elettromigrazione si fa sentire sempre di più.
A 95° ci faccio bollire l'acqua della pasta, altro che farci cuocere un uovo come simpaticamente avevano tentato di fare con Fermi v1 (che paradossalmente consumava meno di questa GPU).
Quoto tutto 95 gradi per altro raggiunti in un lampo sono davvero troppi
El Korki
24-10-2013, 13:14
che la reference abbia un dissipatore penoso non ci sono dubbi, possiamo anche smetterla di discuterne
chi di voi ha una amd reference nel pc mi scagli la prima pietra, ma io personalmente non conosco nessuno ^^
perciò dire che la 290x è una scheda schifosa perchè scalda e fa rumore è sbagliato, dobbiamo prima vedere tutte le soluzioni custom
tra l'altro, se avete notato le memorie sono clockate in maniera direi moolto conservativa, quindi anche dal punto di vista delle prestazioni ci sono ottimi margini di miglioramento con pochissimo sforzo da parte dei partner commerciali di amd
se teniamo a freno le fanboyate vedremo cose interessanti
Scalda come un forno? a stock ti funziona e basta che vuoi di più, consuma un botto? vorrei solo ricordarti che 90% delle persone che hanno una configurazione di questo genere ha minimo un 850W di alimentazione, quindi di problemi non ce ne sono, se invece ti preoccupi della bolletta che la compri a fare ? anzi prendi una console, pochissimi margini di overclock da cosa lo deduci? essendo un'evoluzione di tahiti, saprai benissimo che hanno un margine di almeno 200mhz. poi a quel prezzo che vuoi ancora? una fetta di :ciapet: ? bah ok che sei fanboy e magari devi giustificare i tuoi appena spesi 500 cucuzze per una 780 che va molto meno però non esagerare imho
1) Non voglio che mi funziona e basta a stock... visto che costa 5 bombe sarebbe anche bene che ci mettessero un sistema di dissipazione decente. Una scheda che funziona a 95 gradi fa un casino immane e scalda tutto il case.
2) Non è il consumo tout court a non piacermi, ma il fatto che consumando di più scalda anche di più.
3) Da cosa deduco che non ha margini di oc ? Dalle review... su Guru3d sono riusciti a farla salire di soli 75 Mhz, su Computerbase di 70, quindi presumibilmente si overclocca molto poco.
4) Il Fanboy qui sei te. Ah, tra l'altro, non ho una 780, nè ho intenzione di prenderne una.
Questa scheda mi sembra la GTX 480 in salsa AMD: uscita in ritardo, con prestazioni solo marginalmente superiori alla concorrenza (5% più della 780) e consumi e calore folli. Francamente preferivo il vecchio approccio di AMD: schede un pelo meno potenti delle Nvidia ma dotate di un chip molto più piccolo ed efficiente (tant'è che le ho avute tutte)
AceGranger
24-10-2013, 13:25
Ah, i 95° non sono il valore di funzionamento normale del silicio.
La temperatura di esercizio del silicio è tra i 60 e i 70° (che già significa bollente se lo tocchiamo). Oltre il fenomeno della elettromigrazione si fa sentire sempre di più.
la temperatura di esercizio massima è quella che ti dichiara il produttore del chip... e varia da chip a chip
il GF100 aveva un thermal threshold di 105°C
il GF110 di 97°C.
il GK104 di 98°C
il GK110 di 95°C
un 3930K ha il thermal threshold sull'heatspreader di 70°C ( i die ha un limite leggermente superiore )
la temperatura della VGA non è un problema per il chip in se, al massimo è un problema per quello che ci sta intorno, come MB e il resto del PC; la mia Quadro 4000 arriva a 85° come niente e non ho problemi di ventilazione, funziona semplicemente cosi, ed è una VGA fatta per durare sicuramente di piu delle VGA Consumer.
roccia1234
24-10-2013, 13:26
"Molto probabilmente avevi seri problemi di ventilazione.
Se una 5770 ti mandava in blocco tutto il sistema causa temperature, con una scheda di alta gamma ti si sarebbe sciolto il case"
Scusate ma non trovo il tasto "quote"
Ventole e ventoline, case aperto, le ho proovate tutte. ho installato la vga su altri 2 pc di due miei amici, e dava lo stesso problema (schermata blu dopo 30" di 3d, secondi non minuti!)
poi ho preso una gtx 285 e da lì in poi zero problemi (ulteriore dimostrazione che il problema era la vga, non il case o qualunque altra cosa)
I forum, anche qua su HWUpgrade, erano pieni di post di gente che si lamentava
Utente Statolibero Post #1016 del [thread ufficiale] Ati radeon 5770
Utente M@st3r Post #986 del [thread ufficiale] Ati radeon 5770
Utente Irrchat Post #2488 del [thread ufficiale] Ati radeon 5770
Per i tasto "quote" devi rispondere tramite il forum ;) .
Comunque, in quel caso, molto rpobabilmente si trattava di una scheda fallata. Hai provato la sostituzione in garanzia?
Le GPU nelle Tesla hanno tutto abilitato, dalle ROP alle TMU, ma non hanno i circuiti per generare i signali video, quindi cieche.
Eppure sono vendute a prezzi fuori da ogni criterio usato qui.
Le Titan, che guardacaso nvidia non ha inserito nella linea GeForce, sono schede semi professionali tanto che nvidia ha lasciato sbloccato il calcolo DP e montato 6GB di RAM, che per il mercato gamer non servono a una mazza entrambi. E' pure cloccata molto in basso rispetto allo standard delle VGA per mercato consumer.
Ti stai arrampicando sugli specchi e sparando un mucchio di vac... inesattezze per giustificare il prezzo spropositato (e imho ingiustificato) della titan.
La titan è una Geforce a tutti gli effetti, ergo scheda da gioco. Punto e stop.
E non lo dico io o un tizio qualunque basandosi su sue opinioni, lo dice il sito NVIDIA:
http://www.nvidia.it/object/geforce-family-it.html
E questa è la presentazione della scheda by Nvidia:
Grazie all'unione del DNA del supercomputer più veloce del mondo e dell'anima dell'architettura NVIDIA® Kepler™, la GPU GeForce® GTX TITAN offre prestazioni di gioco su PC davvero rivoluzionarie. La scheda grafica GeForce GTX TITAN combina una potenza straordinaria, caratteristiche di controllo avanzate e capacità acustiche e termiche rivoluzionarie. Questa soluzione consente di realizzare una classe del tutto inedita di schede grafiche con prestazioni super.
Ti basta?
Se trovi fonti più autorevoli del produttore stesso che affermano il contrario, fammi sapere.
L'hai dciso tu?
No perché ci sono mille fatti che indicano che Titan non è una schda "da gioco".
Se vuoi te li rielenco, ma forse ci puoi arrivare da solo.
Ti aiuto aggiungendo che poco dopo il lancio della Titan è arrivata la 780 (denominazione del top della serie corrente) che va uno sputo in meno e costa 400 euro in meno (con metà della RAM e senza DP.. chissà come mai).
E "non deriva da una serie professionale". E' a metà strada tra mercato consumer e mercato professionale: HW completamente sbloccato ma senza driver certificati. Infatti costa il doppio do una GeForce e un quarto di una Quadro.
E per finire, io scommetto che neanche conl'arrivo della 290X il prezzo della Titan verrà ritoccato. Saranno solo le Geforce a subirne le conseguenze.
Senza driver certificati? E dici poco, i driver certificati fanno da soli la quasi totalità della differenza di prezzo tra serie gaming e serie professionale.
Titan è una geforce. Fattene una ragione. Lo dice il nome, lo dice Nvidia stessa, solo tu sostieni il contrario per giustificare il 2x che nvidia ha deciso di mettere al prezzo.
CrapaDiLegno
24-10-2013, 13:27
che la reference abbia un dissipatore penoso non ci sono dubbi, possiamo anche smetterla di discuterne
chi di voi ha una amd reference nel pc mi scagli la prima pietra, ma io personalmente non conosco nessuno ^^
perciò dire che la 290x è una scheda schifosa perchè scalda e fa rumore è sbagliato, dobbiamo prima vedere tutte le soluzioni custom
tra l'altro, se avete notato le memorie sono clockate in maniera direi moolto conservativa, quindi anche dal punto di vista delle prestazioni ci sono ottimi margini di miglioramento con pochissimo sforzo da parte dei partner commerciali di amd
se teniamo a freno le fanboyate vedremo cose interessanti
Sempre 300W (e oltre) dovrà dissipare. Che le temperature saranno inferiori non ci saranno dubbi, che però le custom saranno meno rumorose (o meglio rumorose come le 780/Titan) ho qualche dubbio.
Le memorie sono tenute basse perché con 512bit di bus la banda già abbonda a 5GHz e portarle più su avrebbe significato altri W al già ingente valore che neanche AMD vuole riportare.
E' ovvio che, come qualunque cosa, si può ottenere di più dandogli più energia. Ma come detto tante volte siamo già a 300W, dove credi si possa andare? 10% in più (consumando il 20% in più)? O ci mettiamo 3 connettori a 8pin e via, andiamo a 500W così non ci pensiamo più per i 5 secondi che la scheda regge, e poi via, tutti di RMA.
La cosa buffa è che all'uscita della GTX480 con valori inferiori a questi si era scatenata la bufera... oggi invece è chiaro che è solo la speranza che AMD sforni qualcosa di buono che non fa avere le stesse impressioni di Fermi v1.
E speriamo che sia qualcosa di buono, altrimenti per altri 2 anni i prezzi rimaranno gonfiati.
El Korki
24-10-2013, 13:29
3) Da cosa deduco che non ha margini di oc ? Dalle review... su Guru3d sono riusciti a farla salire di soli 75 Mhz, su Computerbase di 70, quindi presumibilmente si overclocca molto poco.
beh, certo, con quel dissi che cosa ti aspettavi?
aspetta di vederne una sott'acqua :)
newtechnology
24-10-2013, 13:29
Sono io che ho letto male i test ma :
In bioshock e crysis 3 va meglio nvidia;
Negli altri game va megli ati , ma andava meglio anche con le vecchie radeon , grid 2 e metro sono stra ottimizzati ati.
Buona scheda comunque e con un ritardo di quasi un'anno ci mancava solo che andasse meno , ma troppo calore , aspettiamo le prime versioni vapor.
Io ho sempre avuto ati , ma il problema e che ultimamente scaldano troppo , le tirano al collo per guadagnare 1 fps , l'ultima vapor-x 7970 ghz che ho preso lo venduta per disperazione, troppo rumore , e non l'ho notato solo io basta cercare su google.....
Free Gordon
24-10-2013, 13:39
La temperatura di esercizio del silicio è tra i 60 e i 70° (che già significa bollente se lo tocchiamo). Oltre il fenomeno della elettromigrazione si fa sentire sempre di più.
Queste affermazioni (che non so a ragione di cosa, fai), sono state smentite più volte da Yossarian in passato (lavorava per una grande azienda produttrice di chip). I chip possono andare anche oltre i 100°.
Free Gordon
24-10-2013, 13:42
Francamente preferivo il vecchio approccio di AMD: schede un pelo meno potenti delle Nvidia ma dotate di un chip molto più piccolo ed efficiente (tant'è che le ho avute tutte)
Concordo.. :)
Ma il fatto è che stavolta...o così o così....
Tenendo conto dell'archi GCN, del fatto che è un'archi ibrida gaming/computing per ovvie ragioni di integrazione nelle future APU, o tagliavano le funzioni (e avremmo avuto una scheda molto più fresca e parca in consumi) o questo, considerando i 28nm, mi sa che è forse il massimo che potevamo attenderci... :)
beh, certo, con quel dissi che cosa ti aspettavi?
aspetta di vederne una sott'acqua :)
Sott'acqua andrà sicuramente bene ... il piu' è vedere come si comporta una toxic, una vapor-x o una windforce. In ogni caso, anche cambiando dissi i cosumi sono altri e di conseguenza il calore da dissipare è alto. Ora, pur parler, si potrebbe anche prevedere un -20 gradi su freq stock ... ma in oc la musica cambia.
Vedendo il grafico del system power consuption i consumi (e quindi il calore) aumentano esponenzialmente aggiungendo mhz, come ha gia fatto notare qualcuno. Vabbeh insomma ... vedremo ... inutile parlare sul niente :). Aspettiamo di vedere test seri in OC con schede custom com magari un PCB modificato. :)
CrapaDiLegno
24-10-2013, 13:59
Senza driver certificati? E dici poco, i driver certificati fanno da soli la quasi totalità della differenza di prezzo tra serie gaming e serie professionale.
Titan è una geforce. Fattene una ragione. Lo dice il nome, lo dice Nvidia stessa, solo tu sostieni il contrario per giustificare il 2x che nvidia ha deciso di mettere al prezzo.
Rispondoa questa e poi chiudo il discorso che a me non viene in tasca un bel nulla a perdere tempo qui.
1) mettiamo in chiaro che io non devo giustificare un bel niente a nessuno. A me che nvidia venda la Titan a 1000 o 10.000 euro proprio non frega una mazza (tanto non ci arrivo economicamente in entrambi i casi).
Dall'altra parte c'è chi deve giustificare i sottocosti di AMD con chip più grandi e prestazioni inferiori (compensate ancora da abbondante overclock) con la solita tiritera "prezzo/prestazioni".
2) Il fatto che nvidia abbia fatto sold-out con quel prezzo significa che aveva ragione a venderla così.
3) Che tu mi dica che è una semplice scheda da gioco quando ha 6GB di RAM e il calcolo DP sbloccato (che nessuna altra Geforce prima di lei ha mai avuto) ed è palesemente undecloccata (con un TDP ben lontano da quello che ci si aspetta da una non plus ultra, tipo questa) significa che sei ancora limitato a fare la guerra a chi ce l'ha più lungo con le barrette colorate (che in questa review sono sparite e vedo che molti se ne lamentano.. mamma mia, non ci sono più i numerini con le virgole!!!)
Quando capirai il valore di una scheda del genere per chi fa lavori GPGPU, e quindi non usa i bench in OpenCL, capirai anche tu perché la Titan non è una stupidssima GeForce da gioco e non entra in competizione né con quellle né con questa ultima soluzione di AMD che è un palese tentativo di mostrare che ancora esiste, abbandonando il vecchio adagio "piccolo è bello" e sfornando una mezza mattonella che consuma più della peggiore GPU fatta precedentemente (una lotta alla pari tra l'R600 e Fermi v1).
Se vuoi puoi continuare ad ignorare quello che al Titan dà di più rispetto alla GTX780 che costa, guardacaso, 400 euro in meno.
I driver certificati è logico che non te li dà, altrimenti non sarebbe a metà strada tra il mercato consumer e quello professionale ma sarebbe una Quadro a tutti gli effetti e non costerebbe "ben mille euro" ma almeno quattro volte tanto. Ma rimane in grado di fare i conti DP a tutta potenza in un framebuffer da 6GB, cosa che nessuna Geforce fa!
Metà strada tra professionale e consumer, tra una scheda che da una parte è venduta a 4000 euro e dall'altra a 600, e quindi con certi compromessi (ovvero il SW ma non con l'HW) si pone a "ben 1000" euro.
Dipendenti dal punto di vista, quei mille sono tanti o pochi. Se la paragoni a una Punto GT sono tanti, se la paragoni ad una Porche sono pochi.
sniperspa
24-10-2013, 14:00
Concordo.. :)
Ma il fatto è che stavolta...o così o così....
Tenendo conto dell'archi GCN, del fatto che è un'archi ibrida gaming/computing per ovvie ragioni di integrazione nelle future APU, o tagliavano le funzioni (e avremmo avuto una scheda molto più fresca e parca in consumi) o questo, considerando i 28nm, mi sa che è forse il massimo che potevamo attenderci... :)
Quoto, anch'io avrei preferito performance per watt migliori ma si sa, per quanto riguarda puramente il gaming forse è preferibile un crossfire di chip di fascia inferiore...d'altronde si vede anche dal grafico che in questo senso tra le migliori ci sono ancora le 78xx e la R9 270x
http://tpucdn.com/reviews/AMD/R9_290X/images/perfwatt.gif
PaulGuru
24-10-2013, 14:04
Bella scheda, la 290 quanto costerà ?
Goofy Goober
24-10-2013, 14:07
http://images.hardwarecanucks.com/image//skymtl/GPU/R9-290X-R/R9-290X-R-58.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/R9-290X-R/R9-290X-R-62.jpg
El Korki
24-10-2013, 14:30
Sott'acqua andrà sicuramente bene ... il piu' è vedere come si comporta una toxic, una vapor-x o una windforce. In ogni caso, anche cambiando dissi i cosumi sono altri e di conseguenza il calore da dissipare è alto. Ora, pur parler, si potrebbe anche prevedere un -20 gradi su freq stock ... ma in oc la musica cambia.
Vedendo il grafico del system power consuption i consumi (e quindi il calore) aumentano esponenzialmente aggiungendo mhz, come ha gia fatto notare qualcuno. Vabbeh insomma ... vedremo ... inutile parlare sul niente :). Aspettiamo di vedere test seri in OC con schede custom com magari un PCB modificato. :)
a dire la verità non è aggiungendo mhz che si alzano le temperature, ma alzando il voltaggio
con pcb custom, fasi migliorate e dissi custom probabilmente si riuscirà a mantenere le frequenze stock a voltaggio minore, che già non è male
inoltre, visti i grafici pubblicati nella pagina overclock della recensione su techpowerup, non vedo letteralmente l'ora di metterne una sott'acqua
TwinDeagle
24-10-2013, 14:45
Certo che gli fps ballano come il tracciato di un sismografo..a me personalmente ha sempre dato fastidio questa incostanza delle schede amd. Ad ogni modo, a quel prezzo, è una scheda eccellente.
tuttodigitale
24-10-2013, 14:52
L'hai deciso tu?
No perché ci sono mille fatti che indicano che Titan non è una schda "da gioco".
Se vuoi te li rielenco, ma forse ci puoi arrivare da solo.
Ti aiuto aggiungendo che poco dopo il lancio della Titan è arrivata la 780 (denominazione del top della serie corrente) che va uno sputo in meno e costa 400 euro in meno (con metà della RAM e senza DP.. chissà come mai).
E "non deriva da una serie professionale". E' a metà strada tra mercato consumer e mercato professionale: HW completamente sbloccato ma senza driver certificati. Infatti costa il doppio do una GeForce e un quarto di una Quadro.
E per finire, io scommetto che neanche conl'arrivo della 290X il prezzo della Titan verrà ritoccato. Saranno solo le Geforce a subirne le conseguenze.
Non hai citato un solo fattore tecnico che pone la Titan nella fascia superiore alle GeForce (tra le altre cose la Titan è una GeForce).
Parli di calcoli in DP, dimenticandoti che le quadro innanzitutto sono schede grafiche, ergo possono fare a meno del supporto dei calcoli con cifre a 64 bit.
Ci sono schede Quadro basate su gk104 che costano più di Titan...
I driver certificati sono quelli, che permettono alle Quadro di andare anche 10 volte più di una GF, di non mostrare artefatti ecc.
Finiamola con la sigla PROSUMER, che è priva di qualsiasi fondamento: c'è il professionista e l'amatore, non esiste il semi-professionista.
Ci sono professionisti che hanno bisogno di una maggior potenza di calcolo, e quindi necessitano di una Quadro top di gamma, e quelli che necessitano solo di stabilità e quindi anche una quadro di pochi soldi può andar bene. Stabilità che non possono fornire piattafrome e driver non certificati.
La Titan val bene all'amatore con il portafoglio gonfio (che per esigneze di marketing viene definito evoluti...). Ma parli di calcoli in DP..chi ha bisogno della doppia precisione certamente non lo fa perchè è un amatore che vuol prendere la mano con OpenCl e CUDA e un ente cosa se ne fa di una scheda senza la rivelazione degli errori sulla RAM?
Trovami un amatore che ha bisogno delle FP64 e poi ne riparliamo.
Sul prezzo e l'evoluzione di Titan cosa succederà in futuro è difficile sapelo:
il gk110 è un chippone da 561mmq vs i "soli" 428mmq di Hawaii.
Secondo me è più probabile che vedremo una nuova titan con un gk110 al completo venduta a 849 euro o una GTX780+ che ad un calo di prezzo..
PS la r9 290 si preannuncia molto interessante.
siluro85
24-10-2013, 15:11
E che è? la reclame dei fanboy nvidia?
Quando uscirono la 480 e la 470 co la 5870 che andava come una 470 e qualcosina + ma meno della 480 tutti a dire le nvidia velocissime chissene di consumi e temp (la 480 arrivava anche a 100°)... Oggi la 290 x consuma troppo, meglio una 780 o la titan AL DOPPIO DEL PREZZO? amd ha fatto bene a buttarsi nelle console visto il lavaggio di cervello che nvidia ha fatto all'utenza pc...
Un po di obiettività... La scheda è veloce, temp e consumi non sono tra i migliori, il prezzo è ottimo (rispetto agli standard di oggi...) e credo sia la causa delle temp, da qualche parte dovevano risparmiare...
IMHO, scheda da liquidare...
e lo dice uno che si era preso una 470 da liquidare ed è stata una delle schede che mi ha dato più soddisfazioni... un po come la 7970 che ho oggi... e non escludo la 290x, a liquido si risolve il problema caldo e si può occare..:D
Ps: il problema sono 50w? su un pc gaming e su un forum di nerd colpiti da scimmia hardware?????:doh:
E che è? la reclame dei fanboy nvidia?
Quando uscirono la 480 e la 470 co la 5870 che andava come una 470 e qualcosina + ma meno della 480 tutti a dire le nvidia velocissime chissene di consumi e temp (la 480 arrivava anche a 100°)... Oggi la 290 x consuma troppo, meglio una 780 o la titan AL DOPPIO DEL PREZZO? amd ha fatto bene a buttarsi nelle console visto il lavaggio di cervello che nvidia ha fatto all'utenza pc...
Un po di obiettività... La scheda è veloce, temp e consumi non sono tra i migliori, il prezzo è ottimo (rispetto agli standard di oggi...) e credo sia la causa delle temp, da qualche parte dovevano risparmiare...
IMHO, scheda da liquidare...
e lo dice uno che si era preso una 470 da liquidare ed è stata una delle schede che mi ha dato più soddisfazioni... un po come la 7970 che ho oggi... e non escludo la 290x, a liquido si risolve il problema caldo e si può occare..:D
Ps: il problema sono 50w? su un pc gaming e su un forum di nerd colpiti da scimmia hardware?????:doh:
Ti riporto un mio commento riguardo alla recensione della 480
http://www.hwupgrade.it/forum/showpost.php?p=31407988&postcount=136
...
Le prestazioni sono ok, ma porca miseria consumano e scaldano come un forno elettrico, senza contare il casino bestiale per raffreddarle...
Adesso come allora una scheda che consuma e scalda così tanto per andare qualche punto percentuale in più della concorrenza non la comprerei mai. Non è tanto un problema di consumo quanto di calore... una scheda che fa un casino bestiale e che butta fuori aria calda come una stufa non la voglio.
Leggendo qua, avendo da poco comprato la nvidia 780 prodotta da Gigabyte mi sono fregato da solo? :confused: La nuova 290 cosi a pelle non mi ispira se come leggo scalda di più e fa più rumore per tipo 100 euro in meno a prestazioni simili. O mi sfugge qualcosa?
PaulGuru
24-10-2013, 15:43
Leggendo qua, avendo da poco comprato la nvidia 780 prodotta da Gigabyte mi sono fregato da solo? :confused: La nuova 290 cosi a pelle non mi ispira se come leggo scalda di più e fa più rumore per tipo 100 euro in meno a prestazioni simili. O mi sfugge qualcosa?
Se invece aspettavi un po' ti prendevi maxwell e se aspettavi ancora un altro po' la gen successiva e se aspettavi ancora di più qualcosa di ancora meglio, le GTX700 sono sul mercato da un po' oramai, ci mancherebbe altro che ATI fosse inferiore. ;)
Leggendo qua, avendo da poco comprato la nvidia 780 prodotta da Gigabyte mi sono fregato da solo? :confused: La nuova 290 cosi a pelle non mi ispira se come leggo scalda di più e fa più rumore per tipo 100 euro in meno a prestazioni simili. O mi sfugge qualcosa?
A dire il vero no. O meglio ... in parte. Parliamo del 5% di prestazioni che di certo non fanno la differenza ...
I 100 € che avresti risparmiato, sono quelli sul dissipatore ... le custom costeranno sicuramente dai 50 ai 100 € in piu' delle reference. E come per magia il prezzo si allinea alla concorrenza.
Ok grazie, concordo che aspettare nell'informatica serve a poco dati i ritmi dell'evoluzione dei componenti. Conviene vedere come si comporta la nuova 290 e nel frattempo spero di divertirmi con la mia nuova 780 appena arriva :D
pincapobianco
24-10-2013, 15:53
Avviso ai recensori delle schede video di hwupgrade:
- non testate mai la performance delle schede video nello Stereo 3D (HD3D e 3D Vision)
- non testate mai la stabilità dei drivers, la frequenza di crash, i problemi di ottimizzazione, la necessità di scaricare hotfix di drivers o patch di giochi
Troppo facile dire che la 290x ha le stesse prestazioni della Titan e costa molto meno :asd: quando poi le schede AMD hanno un supporto pari quasi a zero per il 3D surround nei giochi e notevoli problemi nei drivers, nella stabilità, nella necessità di scaricare hotfix e patch ad hoc AMD per quasi ogni singolo gioco che esce :asd:
Quelle centinaia di euro in meno che risparmi nel comprare una scheda AMD le spendi poi in bestemmie, imprecazioni, giramenti di palle e quant'altro per farle funzionare decentemente nei giochi:asd:
P.S. lo dico senza nessun pizzico di malizia, ma constatando i fatti da ex possessore di schede AMD. Mi auguro di vedere presto nelle vostre prossime recensioni anche i test che ho elencato sopra e che dovrebbero esserci per orientare decentemente un videogiocatore all'acquisto di una scheda video piuttosto che di un'altra.
Avviso ai recensori delle schede video di hwupgrade:
- non testate mai la performance delle schede video nello Stereo 3D (HD3D e 3D Vision)
- non testate mai la stabilità dei drivers, la frequenza di crash, i problemi di ottimizzazione, la necessità di scaricare hotfix di drivers o patch di giochi
Troppo facile dire che la 290x ha le stesse prestazioni della Titan e costa molto meno :asd: quando poi le schede AMD hanno un supporto pari quasi a zero per il 3D surround nei giochi e notevoli problemi nei drivers, nella stabilità, nella necessità di scaricare hotfix e patch ad hoc AMD per quasi ogni singolo gioco che esce :asd:
Ma non diciamo baggianate. Le recensioni in 3d non le fa nessuno proprio perchè non interessa praticamente a nessuno, è stato un flop colossale.
Inoltre, gli "abominevoli problemi driver" di AMD sono una tua personalissima invenzione.
la 5870 va circa come una 470, o come una 560ti, o come una 650ti boost
possiamo andare avanti tutto il giorno a ricordare quanto la 5870 sia ancora una buona scheda, ma questo non cambia il fatto che la 290x la doppia due volte
infatti.
ad ogni modo per la precisione una 5870 sta ai livelli di una gtx560ti quindi può prendere questa come riferimento.
El Korki
24-10-2013, 16:10
A dire il vero no. O meglio ... in parte. Parliamo del 5% di prestazioni che di certo non fanno la differenza ...
I 100 € che avresti risparmiato, sono quelli sul dissipatore ... le custom costeranno sicuramente dai 50 ai 100 € in piu' delle reference. E come per magia il prezzo si allinea alla concorrenza.
questa è una tua invenzione, le schede custom costano al massimo 40-50€ più della reference, a parte sapphire vapor-x e msi lightning, che comunque sono soluzioni sempre sovraprezzate rispetto al gap di prestazionale che offrono
addirittura gigabyte fa uscire le schede con windforce al prezzo delle reference e occate a circa 10€ in più
pincapobianco
24-10-2013, 16:12
Ma non diciamo baggianate. Le recensioni in 3d non le fa nessuno proprio perchè non interessa praticamente a nessuno, è stato un flop colossale.
Inoltre, gli "abominevoli problemi driver" di AMD sono una tua personalissima invenzione.
1) Il 3D Surround: che non interessi a te non significa che non interessa ad altri :asd:
2) ne sono pieni i forum di tutto il mondo dei problemi di stabilità e ottimizzazione dei drivers di AMD :asd:
nevets89
24-10-2013, 16:15
Avviso ai recensori delle schede video di hwupgrade:
- non testate mai la performance delle schede video nello Stereo 3D (HD3D e 3D Vision)
- non testate mai la stabilità dei drivers, la frequenza di crash, i problemi di ottimizzazione, la necessità di scaricare hotfix di drivers o patch di giochi
Troppo facile dire che la 290x ha le stesse prestazioni della Titan e costa molto meno :asd: quando poi le schede AMD hanno un supporto pari quasi a zero per il 3D surround nei giochi e notevoli problemi nei drivers, nella stabilità, nella necessità di scaricare hotfix e patch ad hoc AMD per quasi ogni singolo gioco che esce :asd:
Quelle centinaia di euro in meno che risparmi nel comprare una scheda AMD le spendi poi in bestemmie, imprecazioni, giramenti di palle e quant'altro per farle funzionare decentemente nei giochi:asd:
P.S. lo dico senza nessun pizzico di malizia, ma constatando i fatti da ex possessore di schede AMD. Mi auguro di vedere presto nelle vostre prossime recensioni anche i test che ho elencato sopra e che dovrebbero esserci per orientare decentemente un videogiocatore all'acquisto di una scheda video piuttosto che di un'altra.
:doh: bravo comprati la titan... io ho avuto 4890-5850-7850 e i bug che ho riscontrato nei giochi sono pari tra nvidia e ati... e mai scaricati hotfix, patch e varie... vero che qualche volta i nuovi driver avevano bisogno di qualche correzione, ma chi non si ricorda i driver nvidia che hanno mandato all'altro mondo un bel po' di schede? oppure leggo di tanta gente che ha problemi con tutti i driver nvidia superiori ai 314... anche su ati alcuni hanno problemi simili.
già da un bel po' di tempo i driver amd hanno praticamente raggiunto gli nvidia(ho due pc, uno con 7850 e uno con gtx 560 ti)...nel crossfire ok, ancora non ci siamo del tutto.
detto ciò, effettivamente non è proprio un'ottima scheda, mi sembra che si siano invertite le parti di ati-nvidia delle serie gtx 4XX e HD 5***.. però almeno questa volta il prezzo è a vantaggio di ati.
1) Il 3D Surround: che non interessi a te non significa che non interessa ad altri :asd:
2) ne sono pieni i forum di tutto il mondo dei problemi di stabilità e ottimizzazione dei drivers di AMD :asd:
Non cominciamo coi soliti flame sulla stabilità dei driver AMD, eh! :rolleyes:
tuttodigitale
24-10-2013, 16:31
Rispondoa questa e poi chiudo il discorso che a me non viene in tasca un bel nulla a perdere tempo qui.
1) mettiamo in chiaro che io non devo giustificare un bel niente a nessuno. A me che nvidia venda la Titan a 1000 o 10.000 euro proprio non frega una mazza (tanto non ci arrivo economicamente in entrambi i casi).
Dall'altra parte c'è chi deve giustificare i sottocosti di AMD con chip più grandi e prestazioni inferiori (compensate ancora da abbondante overclock) con la solita tiritera "prezzo/prestazioni".
Tu parli di sottocosti di AMD. ma faccio solo presente che con un chip da 350mmq di nome Cypress AMD nel 2009 è uscita con le HD5850 e HD5870, prezzate a lancio 225 e 349 euro rispettivamente, prive di concorrenza (la GTX285 era più lenta e costosa della HD5850).
Forse, e dico forse, è inopportuno parlare di sottocosto di schede che solo dopo un anno hanno raggiunto quei prezzi.
overclock... Se il punto di maggior efficienza l'architettura GCN sui 28nm sembra proprio raggiungerla a quota 1GHz, e sembra avere ancora margini per salire in frequenza
2) Il fatto che nvidia abbia fatto sold-out con quel prezzo significa che aveva ragione a venderla così.
mi è giunta voce che nvidia ha rinviato di 12 mesi la messa in commercio di gk110 per un ordine mega-stratoferico di 18.000 gpu non completamente funzionanti. Questo basterebbe a zittire chiunque dice che Tahiti e Gk110 sono in competizione diretta. Non lo sono come non lo sono stati, RV770 e GT200 Cypress e GF100, Cayman e GF110.
Stiamo parlando di sold-out di numeri che rasentono il ridicolo.
nvidia ha venduta la Ge Force Titan a 1000 euro, no perchè sia una Prosumer :muro: ma perchè il prezzo per la quale può fare più introiti.
D'altra parte anche AMD ha avuto il coraggio di prezzare la HD7970 a 549 euro, non perchè non li valesse (la GTX580 da 3GB avevano lo stesso prezzo) ma perchè sono solo 50 euro meno della HD5970 che montava 2 chip della stessa dimensione.
Quando capirai il valore di una scheda del genere per chi fa lavori GPGPU, e quindi non usa i bench in OpenCL, capirai anche tu perché la Titan non è una stupidssima GeForce da gioco e non entra in competizione né con quellle né con questa ultima soluzione di AMD che è un palese tentativo di mostrare che ancora esiste, abbandonando il vecchio adagio "piccolo è bello" e sfornando una mezza mattonella che consuma più della peggiore GPU fatta precedentemente (una lotta alla pari tra l'R600 e Fermi v1
Hawaii è una pezza messa li da AMD per i problemi che sta avendo TMSC con i 20nm.
Il vecchio adagio piccolo è bello, non è stato abbandonato visto che la HD7990 è ancora li. E alla fine se è uscita solo ques'anno è proprio perchè nvidia, ha debuttato con chip di medie-grandi dimensioni
Sui consumi siamo a livelli di GTX580 e non certo sui drammatici livelli record della GTX480.
La HD2900xt è giusto dirlo consuma 30-40W meno di una GTX480.
Poi vi ricordo che la GTX480 è stata criticata:
1) per il prezzo: le HD5870 si trovavano a 320 euro, la GTx480 a 500
2) consumi.. La HD5870 in gaming consumava 180W contro i 320 Watt della GTX480...e consumava più delle dual gpu. consumi in idle elevati (25W più delle ATI)
3) margini di OC
4) temperatura di 100°C
1) la R9 290x costa meno della metà della Titan
2) consumi superiori, ma la differenza è nell'ordine dei 30W con la Titan. In idle non esiste praticamente differenza.
In assoluto son tanti (siamo vicini alla soglia psicologica dei 300W) , ma non c'è più una top di gamma che ne consuma meno di 190W in full.
La hd5870 dei nostri tempi è la HD7870. In altre parole se la GTX770 fosse il 5% più veloce e consumasse 80W in meno rispetto ad oggi, saremmo nelle stesse condizioni HD5870 e GTX480. Evidentemente non è così.
3) margini OC, presto per parlarne. ma con una frequenza stock di solo 1GHz è ipotizzabile che Hawaai possa salire del 15-20% senza problemi.
4) temperatura 94°C, in entrambi imodi. In questo caso è chiaro che la temperatura di 94°C non è ritenuta dannosa per la salute del die. Mi sembra di ricordare che anche la HD5870 aveva temperature elevate nonostante i consumi ridicoli.
Hawaii è una pezza messa li da AMD per i problemi che sta avendo TMSC con i 20nm.
Il vecchio adagio piccolo è bello, non è stato abbandonato visto che la HD7990 è ancora li. E alla fine se è uscita solo ques'anno è proprio perchè nvidia, ha debuttato con chip di medie-grandi dimensioni
Sui consumi siamo a livelli di GTX580 e non certo sui drammatici livelli record della GTX480.
La HD2900xt è giusto dirlo consuma meno di una GTX480.
Poi vi ricordo che la GTX480 è stata criticata:
1) per il prezzo: le HD5870 si trovavano a 320 euro, la GTx480 a 500
2) consumi.. La HD5870 in gaming consumava 180W contro i 320 Watt della GTX480...e consumava più delle dual gpu. consumi in idle elevati (25W più delle ATI)
3) margini di OC
4) temperatura di 100°C
1) la R9 290x costa meno della metà della Titan
2) consumi superiori, ma la differenza è nell'ordine dei 30W con la Titan. In idle non esiste praticamente differenza.
In assoluto son tanti (siamo vicini alla soglia psicologica dei 300W) , ma non c'è più una top di gamma che ne consuma meno di 190W in full.
La hd5870 dei nostri tempi è la HD7870
3) margini OC, presto per parlarne. ma con una frequenza stock di solo 1GHz è ipotizzabile che Hawaai possa salire del 15-20% senza problemi.
4) temperatura 94°C, in entrambi imodi. In questo caso è chiaro che la temperatura di 94°C non è ritenuta dannosa per la salute del die. Ad essere onesti ricordo anche la HD5870 aveva temperature elevate noostante i consumi ridicoli.
Quoto... il paragone con la 480 non ha senso, imho... ;)
L'hai deciso tu?
No perché ci sono mille fatti che indicano che Titan non è una schda "da gioco".
Se vuoi te li rielenco, ma forse ci puoi arrivare da solo.
Ti aiuto aggiungendo che poco dopo il lancio della Titan è arrivata la 780 (denominazione del top della serie corrente) che va uno sputo in meno e costa 400 euro in meno (con metà della RAM e senza DP.. chissà come mai).
E "non deriva da una serie professionale". E' a metà strada tra mercato consumer e mercato professionale: HW completamente sbloccato ma senza driver certificati. Infatti costa il doppio do una GeForce e un quarto di una Quadro.
E per finire, io scommetto che neanche conl'arrivo della 290X il prezzo della Titan verrà ritoccato. Saranno solo le Geforce a subirne le conseguenze.
sei già stato smentito, la Titan è una geforce per il gioco. quando uscirono le fermi senza DP erano inutili i dp e adesso invece con la titan sono utilissimi? mah sempre a difendere fanboy
1) Non voglio che mi funziona e basta a stock... visto che costa 5 bombe sarebbe anche bene che ci mettessero un sistema di dissipazione decente. Una scheda che funziona a 95 gradi fa un casino immane e scalda tutto il case.
2) Non è il consumo tout court a non piacermi, ma il fatto che consumando di più scalda anche di più.
3) Da cosa deduco che non ha margini di oc ? Dalle review... su Guru3d sono riusciti a farla salire di soli 75 Mhz, su Computerbase di 70, quindi presumibilmente si overclocca molto poco.
4) Il Fanboy qui sei te. Ah, tra l'altro, non ho una 780, nè ho intenzione di prenderne una.
Questa scheda mi sembra la GTX 480 in salsa AMD: uscita in ritardo, con prestazioni solo marginalmente superiori alla concorrenza (5% più della 780) e consumi e calore folli. Francamente preferivo il vecchio approccio di AMD: schede un pelo meno potenti delle Nvidia ma dotate di un chip molto più piccolo ed efficiente (tant'è che le ho avute tutte)
1: e che vuoi di più? hai quello che paghi, anzi hai troppo per quel prezzo, il costo di 5 "bombe" per un prodotto appena uscito e con la concorrenza che ti butta fuori schede solo tra i 500€ e i 1000€ è oro. compri una macchina hai quello che paghi, è ovvio che se cambi radiatori/dissipatori le prestazioni aumentano
2: scalda per i suoi ritmi e hai 2 anni garantiti che ti funzionerà cosi
3: se vuoi oc, cambi il dissipatore, ovvio che l'han fatta salire di soli 70 mhz, con quel dissi non si può chiedere di più
4: quando la gtx480 dimentichi una cosa fondamentale ma che ribalta le carte in tavola, il prezzo!
ps. le gtx4xx erano tirate già di loro al massimo quindi niente OC neanche cambiando dissi, qui invece le cose sono abbastanza "diverse"
beh, certo, con quel dissi che cosa ti aspettavi?
aspetta di vederne una sott'acqua :)
ma infatti
A dire il vero no. O meglio ... in parte. Parliamo del 5% di prestazioni che di certo non fanno la differenza ...
I 100 € che avresti risparmiato, sono quelli sul dissipatore ... le custom costeranno sicuramente dai 50 ai 100 € in piu' delle reference. E come per magia il prezzo si allinea alla concorrenza.i 100 che poi sono 50 , ma comunque mettiamo 100, ti danno silenzio e performance che con la gtx 780 o quella che vuoi non ti da allo stesso prezzo, visto che devi spendere di più per avere una scheda custom di stesso livello
Avviso ai recensori delle schede video di hwupgrade:
- non testate mai la performance delle schede video nello Stereo 3D (HD3D e 3D Vision)
- non testate mai la stabilità dei drivers, la frequenza di crash, i problemi di ottimizzazione, la necessità di scaricare hotfix di drivers o patch di giochi
Troppo facile dire che la 290x ha le stesse prestazioni della Titan e costa molto meno :asd: quando poi le schede AMD hanno un supporto pari quasi a zero per il 3D surround nei giochi e notevoli problemi nei drivers, nella stabilità, nella necessità di scaricare hotfix e patch ad hoc AMD per quasi ogni singolo gioco che esce :asd:
Quelle centinaia di euro in meno che risparmi nel comprare una scheda AMD le spendi poi in bestemmie, imprecazioni, giramenti di palle e quant'altro per farle funzionare decentemente nei giochi:asd:
P.S. lo dico senza nessun pizzico di malizia, ma constatando i fatti da ex possessore di schede AMD. Mi auguro di vedere presto nelle vostre prossime recensioni anche i test che ho elencato sopra e che dovrebbero esserci per orientare decentemente un videogiocatore all'acquisto di una scheda video piuttosto che di un'altra.
1) Il 3D Surround: che non interessi a te non significa che non interessa ad altri :asd:
2) ne sono pieni i forum di tutto il mondo dei problemi di stabilità e ottimizzazione dei drivers di AMD :asd:
il 3D è ed è stato un fail, sono più gli utenti con schermi 4k che 3d :rolleyes: ma comunque perchè vorresti che le testasse? loro testano le cose in comune per fare un confronto, se poi tu vuoi approfondisci per te varie features come anche il physx.
"stabilità dei drivers, la frequenza di crash, i problemi di ottimizzazione, la necessità di scaricare hotfix di drivers o patch di giochi"mi sa che sei rimasto indietro di 3 anni. vai a vedere i thread delle vga nvidia e capirai che non è tutto rose e fiori come vuoi far sembrare. poi io parlo per esperienza mia, ho avuto sli di 8800, 3-sli di 260 e cross di 6950 e ora di 7970, e credimi che ho avuto più sbattimenti con lo sli che dovevo sempre aver aperto nforcer che non con i cross.
peace & love bro
CrapaDiLegno
24-10-2013, 16:40
Non hai citato un solo fattore tecnico che pone la Titan nella fascia superiore alle GeForce (tra le altre cose la Titan è una GeForce).
Parli di calcoli in DP, dimenticandoti che le quadro innanzitutto sono schede grafiche, ergo possono fare a meno del supporto dei calcoli con cifre a 64 bit.
Ci sono schede Quadro basate su gk104 che costano più di Titan...
I driver certificati sono quelli, che permettono alle Quadro di andare anche 10 volte più di una GF, di non mostrare artefatti ecc.
Finiamola con la sigla PROSUMER, che è priva di qualsiasi fondamento: c'è il professionista e l'amatore, non esiste il semi-professionista.
Ci sono professionisti che hanno bisogno di una maggior potenza di calcolo, e quindi necessitano di una Quadro top di gamma, e quelli che necessitano solo di stabilità e quindi anche una quadro di pochi soldi può andar bene. Stabilità che non possono fornire piattafrome e driver non certificati.
La Titan val bene all'amatore con il portafoglio gonfio (che per esigneze di marketing viene definito evoluti...). Ma parli di calcoli in DP..chi ha bisogno della doppia precisione certamente non lo fa perchè è un amatore che vuol prendere la mano con OpenCl e CUDA e un ente cosa se ne fa di una scheda senza la rivelazione degli errori sulla RAM?
Trovami un amatore che ha bisogno delle FP64 e poi ne riparliamo.
Sul prezzo e l'evoluzione di Titan cosa succederà in futuro è difficile sapelo:
il gk110 è un chippone da 561mmq vs i "soli" 428mmq di Hawaii.
Secondo me è più probabile che vedremo una nuova titan con un gk110 al completo venduta a 849 euro o una GTX780+ che ad un calo di prezzo..
PS la r9 290 si preannuncia molto interessante.
Non ho citato un dato tecnico? L'abilitazione DP, 6GB di RAM e l'underclock ripestto a quanto è possibile tirare il GK110 non sono motivazioni tecniche? Driver a parte, dimmi quale motivazione tecnica distingue una GeForce da una Quadro, allora.
I 64bit sono per uso professionale, non c'è dubbio. Ma non tutti hanno 2000 o 4000 euro per una Quadro o una Tesla per fare il rendering dei propri lavori. No, neanche il professionista. Se può mettere 2 Titan per diminuire a 1/10 i tempi di calcolo lo fa. Le ECC servono per sistemi ultra professionali o critici, non certo per l'architetto che sta facendo il rendering dei suoi progetti o quelllo che monta i filmati degli eventi. Il tempo ridotto invece serve eccome.
E sopra la Titan girano tutti gli acceleratori scritti in CUDA (quelli professionali, non i benchini del menga in OpenCL che non usa nessuno se non appunto per fare test). Se vuoi queste cose nvidia te le fa pagare caro. Con la Titan molto meno che con una Quadro/Tesla, ma più di una Geforce fatta e studiata solo per fare girare giochini. La velocità dei calcoli CUDA non dipende dai driver (Geforce/Quadro/Tesla sparano gli stessi numeri se si usano le stesse GPU). I driver certificati influenzano altri aspetti della pipeline grafica. Quindi chi compra una Titan ha una capacità di calcolo pari a una Tesla a un quarto del prezzo.
Per quanto riguarda questa cosa che non esistono i semi-pro, ma solo giocatori vs centri di calcolo, se fosse vero vorrei farti notare quanto è stupida AMD a vendere le sue schede consumer con inutili unità di calcolo DP inserite nel die. Soprattutto lei che venderà si è no 100 schede con Tahiti nel mercato professionale (l'unico a cui serve il GPGPU, gusto?) in un anno.
Allora, o ha ragione nvidia che vende le unità DP a chi le paga (e quindi ne ha bisogno) oppure AMD che le regala a tutti facendo die più grandi e succhia corrente del necessario.
Infine, esistono eccome i semi-pro. Ci sono tutta una serie di sfumature tra il bamboccio che gioca 12 ore al giorno e lo scienziato che deve calcolare come si comporta una nuova molecola 24/24h. Così come ci sono una miriade di sfumature d'uso (e necessità) in molti altri campi. Vedi le macchine fotografiche, dalla spazzatura presente nei cellulari che molti esaltano perché comunque per loro basta e avanza) alle medio formato da 10.000 euro che alcuni trovano comunque limitative, passando da compatte da regao nel detersivo, quelle con il supporto RAW (compatte con RAW??? Ma a chi serve nel mercato degli amatori con le compatte?) mirrorless con sensore infimo, quelle con sensore APS-C, quelle con sensore FF e via ancora, con le reflex APS-C e FF in tutte le sfumature possibili (dai corpi in plastica a quelli che resistono ai proiettili). E non ho parlato delle ottiche.
Secondo te invece il mercato dovrebbe essere fatto da chi usa il cellulare con l'ottica in plastica e chi invece usa le medio formato con vetri che costano come un'auto. In mezzo non ci stanno altre necessità. :mbe:
Ribadisco, se la Titan fosse stata pensata per il mercato del videogioco e voler essere la non plus ultra, sarebbe uscita con 3GB, senza capacità DP e il guadagno dei W risparmiati insieme al TDP da 300W (già visto in precedenza come con Fermi v1) andavano a spingerla a 1100Mhz con tanti saluti a Tahiti, Hawaii e il resto delle Punto GT.
Esce questo Hawaii tiratissimo e con consumi pazzeschi (e sinceramente, sistema di dissipazione scandaloso)?
Vedremo presto una nuova GeForce (non Titan Ultra/Ti) con un numero di SP e frequenze suffienti a batterla (e sarà con frequenze e TDP più alti della Titan). Ma sarà una Geforce, non una Titan, che lì rimane anche se la nuova Geforce andrà di più nei giochini. E sarà la solita corsa chi ce l'ha più lungo :sofico:
Che tanto 10 frame in più quando ne fai già 100 non servono a niente.
Il calo di prezzo ci sarà, perché questo Hawaii offre le prestazioni superiori alla 780 che oggi costa qualcosa di più (come detto, se ci mettono un dissi decente la differenza di prezzo cala, ma andando di più nvidia deve abbassare i prezzi della ora sua top gamma che va di meno per fare spazio alla nuova che dovrà costare come la 780 se vuole essere competitiva).
Poi comunque dipende dal mercato. Se nvidia venderà comunque abbastanza schede, poco gliene fregherà di proporre lo stesso rapporto "prezzo/prestazioni" di AMD, come d'altronde ha fatto fino a oggi da Marzo 2012.
Se vedrà (o prevederà) una diminuzione delle vendite, allora certamente la sola introduzione della 780i super mega **** a prezzo esorbitante non basterà a farle mantenere le quote di mercato di oggi, e quindi giù di prezzo.
Per il mio interesse personale, vi invito tutti a comprare queste nuove schede :D Ne beneficieremo tutti
SArebbe bello se finissero gli OT sul fatto se Titan sia o meno una scheda da gaming... GRAZIE!
calcolatorez3z2z1
24-10-2013, 16:54
Scheda buona non alla portata di tutti.Occorre anche un buon case ed una adeguata circolazione forzata.
Per chi ne capisce veramente sa che da CCC si può abbassare il clock e tanti grossi problemi non se ne vedranno.
( x evitare di vedere lo smiley con muro ).
Il chip oltre certi °C rallenterà cmq (vale per tutte le schede).
in questa video recensione hanno testato sia la 290x che la 780 entrambe in overclock.
https://www.youtube.com/watch?v=djvZaHHU4I8
confermerebbe il fatto che la 290x esce già col collo bello tirato e che in overclock non solo non raggiunge la titan ma neppure la 780..
Da prendere con le pinze comunque eh! Non so quanto sia affidabile!
Ale55andr0
24-10-2013, 17:05
nel video si vede se la 780 è reference o custom?
in questa video recensione hanno testato sia la 290x che la 780 entrambe in overclock.
https://www.youtube.com/watch?v=djvZaHHU4I8
confermerebbe il fatto che la 290x esce già col collo bello tirato e che in overclock non solo non raggiunge la titan ma neppure la 780..
Da prendere con le pinze comunque eh! Non so quanto sia affidabile!
mah..
CrapaDiLegno
24-10-2013, 17:17
nvidia ha venduta la Ge Force Titan a 1000 euro, no perchè sia una Prosumer ma perchè il prezzo per la quale può fare più introiti.
ma stai dicendo un'ovvietà grande come la galassia! Le aziende vendono sempre al prezzo con uil quale ritengono di avere più introiti!
Il sottocosto delle GPU AMD è documentato dai resoconti trimestrali. A me poco frega quanto cosa un mm^2 di silicio all'una o all'altra: una vende le prorie schede a alla fine dell'anno fa parecchi soldi, l'altra (sempre tenedo conto quanto detto prima sul miglior guadano) se va bene va in pari.
Credete quello che volete sulla Titan, tanto quello è, mica quello che dite voi o io. E' una Geforce "diversa", con capacità oltre alle normali Geforce, permette di usare tutti gli applicativi CUDA anche quelli professionali con DP, ha un frame buffer grande a sufficienza per fare del lavoro serio ed è undercloccata perché non ha l'aspirazione di fare 5 frame in più in Battlefield4 anche se costa 1000 euro.
Quando riuscirete a capire perché esiste una 780 che va pochisimo di meno ma costa 400 euro in meno, allora capirete perché nvidia ha diviso la strategia tra mercato consumer (no DP) e mercato professionale (il DP se lo vuoi lo paghi).
Quando capirete che i 1000 euro non sono per i frame in più nei giochini, allora avrete capito perché alla fine del trimestre nvidia conta i soldi che entrano, AMD invece quelli che escono.
2 schede, 2 target di utenza diversi. Come con 100.000 altri prodotti, anche se la Titan volendo la si può usare per giocare a PacMan come la GT610 per chi ha tanti soldi da buttare.
Ma rimane il fatto che comparare una Geforce (o una qualsiasi AMD) con la Titan è come paragonare la PuntoGT che va a 200 all'ora "fuori tutto" con una Audi che va alla stessa velocità (consumando pure meno). Il contachilometri non è l'unico metro di giudizio per valutare la qualità (e il target) di un'auto.
6GB di RAM e DP (interni in pelle, climatizzatore, ruote larghe, navigatore e baule da 500litri e assoluta silenziosità) fanno della Titan una scheda che va sì a 200 all'ora, ma ben diversa da una Punto GT che con la nitro arriva a 210.
Vuoi l'auto più economica che va qualcosa di più di 200 all'ora? Prendi la Punto GT. Vuoi viaggiare diversamente a 200 all'ora? Prendi l'Audi. In questo secondo caso, se WV ti chiede il doppio della Punto (e un quarto di una Ferrari) non ti sta rubando niente.
SArebbe bello se finissero gli OT sul fatto se Titan sia o meno una scheda da gaming... GRAZIE!
A me piacerebbe che la gente la finisse di far paragoni stupidi tra prodotti destianti ad utenti diversi, invece. Ecco perché dell'off-topic (che tanto off topic non è, perché si sta comunque discutendo se il valore di questa scheda è giustficato o meno).
Paragonate questa scheda alla 780 o alla futura Geforce. La Titan è qualcosa d'altro. Ha un rapporto prezzo/prestazioni che sta ben oltre le stesse Geforce ancora prima dell'uscita di questa, che ne aggrava il valore in negativo.
Detto questo, saluti a tutti.
Severnaya
24-10-2013, 17:22
sempre chiacchiere da bar quando esce una scheda nuova
è la top gli arrampicatori sugli specchi stanno a zero
a poi i geni che dicono che sia uscita in ritardo... in ritardo rispetto a quale uscita?della 780? E allora quando uscirà la next di Nvidia sarà in ritardo rispetto alla 290X? O nvidia è sempre in orario(quasicit.)
Qualcosa è in ritardo se dicono che esce il 24 ottobre e poi viene annunciato un posticipo... perché visto che natale alle porte se tanto mi da tanto è in ritardo Nvidia se proprio vogliamo dirlo, ma non in ritardo verso AMD (ricordo che AMD ha comprato Ati) ma verso sè stessa.
tuttodigitale
24-10-2013, 17:31
Non ho citato un dato tecnico? L'abilitazione DP, 6GB di RAM e l'underclock ripestto a quanto è possibile tirare il GK110 non sono motivazioni tecniche? Driver a parte, dimmi quale motivazione tecnica distingue una GeForce da una Quadro, allora.
DP e 6GB sono anche apprezzati dal reparto marketing
l'Underclock, come tu lo chiami, è per avere innanzitutto un maggior numero di chip vendibili.
Hai detto niente. I driver sono quelli che definiscono la stabilità e le prestazioni della gpu con gli applicativi.
I 64bit sono per uso professionale, non c'è dubbio. Ma non tutti hanno 2000 o 4000 euro per una Quadro o una Tesla per fare il rendering dei propri lavori. No, neanche il professionista.
Aspetta, un professinista, come singolo ha bisogno dei 64 bit?
E poi ritorno a ripetere che per avere prestazioni decenti bisogna comprare una Quadro con gk104, visto che il pacchetto driver per le geforce è inadeguato.
Le ECC servono per sistemi ultra professionali o critici, non certo per l'architetto che sta facendo il rendering dei suoi progetti o quelllo che monta i filmati degli eventi. Il tempo ridotto invece serve eccome.
Parli ancora di applicativi, che necessitano dei driver certificati. Bello fare un rendering che dura diverse ore e scoprire che le texture sono sballate. Questa non è l'eccezione ma la regola.
Per quanto riguarda questa cosa che non esistono i semi-pro, ma solo giocatori vs centri di calcolo, se fosse vero vorrei farti notare quanto è stupida AMD a vendere le sue schede consumer con inutili unità di calcolo DP inserite nel die. Soprattutto lei che venderà si è no 100 schede con Tahiti nel mercato professionale (l'unico a cui serve il GPGPU, gusto?) in un anno.
Allora, o ha ragione nvidia che vende le unità DP a chi le paga (e quindi ne ha bisogno) oppure AMD che le regala a tutti facendo die più grandi e succhia corrente del necessario.
Ti faccio notare proprio perchè vende poche schede FirePRO, per AMD è antieconomico produrre un chip dedicato solo al mercato professionale.
Infine, esistono eccome i semi-pro.
Tu stai dicendo che si può essere professionisti per metà. In quale vita?
Ci sono utenti che con la vga vogliono giocare, programma di tanto in tanto utilizzatore di applicativi di grafica 3d.
Francamente a me riesce difficile pensare che un appassionato, ma anche un singolo professionista abbia bisogno dei float a precisione doppia.
Ribadisco, se la Titan fosse stata pensata per il mercato del videogioco e voler essere la non plus ultra, sarebbe uscita con 3GB, senza capacità DP e il guadagno dei W risparmiati insieme al TDP da 300W (già visto in precedenza come con Fermi v1) andavano a spingerla a 1100Mhz con tanti saluti a Tahiti, Hawaii e il resto delle Punto GT.
se il gk110 avesse avuto una produzione più regolare e meno travagliata, una scheda da 1000 euro non l'avremmo mai vista.
I 6GB, il DP, sono serviti solo per giustificare agli occhi dei polli i 1000 euro per una VGA.
Qui c'è gente che pensa davvero che nvidia stia vendendo nella fascia altissima del mercato un chip parzialmente disabilitato per il gìusto di farlo. Quei chip sono disabilitati perchè non funzionano. Se andavano a spingere quei chip a 1100MHz, ammesso che il TDP, vedi GTX770 vs GTX680, non subiscano una impennata, probabilmente la Titan l'avrebbero dovuta prezzarla a 4000 euro, perchè di chip funzionanti ce ne sarebbero stati ancora meno.
Mi quoto!
SArebbe bello se finissero gli OT sul fatto se Titan sia o meno una scheda da gaming... GRAZIE!
Se il presente è eccezionale per questa VGA, con il primato prestazionale ad una frazione di costo della concorrenza, il futuro dovrebbe esserlo ancora di più con driver più affinati, Mantle, porting da consolle che dovrebbero favorirla, senza contare l'uscita di soluzioni con dissipatori custom e un ulteriore probabile diminuzione di prezzo. Unica pecca rimarrà il consumo, ma solamente in full, quindi sul quale si potrà tranquillamente sorvolare.
Brava AMD.
AceGranger
24-10-2013, 18:09
Parli ancora di applicativi, che necessitano dei driver certificati. Bello fare un rendering che dura diverse ore e scoprire che le texture sono sballate. Questa non è l'eccezione ma la regola.
Stai confondendo viewport e calcolo GPGPU, e questa non è ne l'eccezione ne la regola, è semplicemente una stupidata.
Certo che gli fps ballano come il tracciato di un sismografo..a me personalmente ha sempre dato fastidio questa incostanza delle schede amd. Ad ogni modo, a quel prezzo, è una scheda eccellente.
bè si parla anche di una VGA appena uscita, sicuramente i driver avranno modo di migliorare nei prossimi mesi; a questo punto sara interessante vedere Mantle con BF 4 cosa fara
mirkonorroz
24-10-2013, 18:38
Bella scheda senza dubbio, ma io sto cercando di mantenere il proposito di non comprare componenti piu' esosi in energia di quelli che ho attualmente.
Per ora la 7970 mi basta per i giochi che uso e la tengo a 950 MHz a 1 volt, cosi' e' silenziosa anche in estate. La DualX OC che ho la "conosco" anche quando la ventola fa casino: non so se mi riabituerei ad usarla in tali condizioni (bios 2): anche se andra' a finire che la scheda l'avro' sotto-sfruttata di brutto (visto che aveva il pcb nero e quindi forse poteva salire parecchio) ho paura che aspettero' l'evolversi degli eventi per vedere se le top di gamma, o quelle appena sotto, in futuro usciranno un po' piu' parche nei consumi (ma dubito).
Mio padre accende il forno per fare pane e dolci ogni 3x2, non me la sento di mettermici troppo anche io :sofico: .
Certo che se riducessero le tariffe dell'energia elettrica e (AND) vendessero nello stesso tempo le schede con dissipatori ultra efficienti e silenziosi (ad aria) gia' montati forse... ma rimarrebbe il problema del calore in camera in estate, che diventa comunque troppo. (no aria condizionata)
Bella scheda comunque penso che rosichero' :D
Comunque mi piace anche la 780 :)
Delusione. Buone prestazioni, ma a discapito dei consumi, troppo alti!
Dissipatore mediocre, d'obbligo prendere una versione custom, tipo twin frozr o simili.
Boh, adesso come adesso mi sa che opterei per una gtx770 a 300€, giusto compromesso velocita-prezzo-consumi-temp/rumore.
pincapobianco
24-10-2013, 19:35
il 3D è ed è stato un fail, sono più gli utenti con schermi 4k che 3d :rolleyes: ma comunque perchè vorresti che le testasse? loro testano le cose in comune per fare un confronto, se poi tu vuoi approfondisci per te varie features come anche il physx.
"stabilità dei drivers, la frequenza di crash, i problemi di ottimizzazione, la necessità di scaricare hotfix di drivers o patch di giochi"mi sa che sei rimasto indietro di 3 anni. vai a vedere i thread delle vga nvidia e capirai che non è tutto rose e fiori come vuoi far sembrare. poi io parlo per esperienza mia, ho avuto sli di 8800, 3-sli di 260 e cross di 6950 e ora di 7970, e credimi che ho avuto più sbattimenti con lo sli che dovevo sempre aver aperto nforcer che non con i cross.
peace & love bro
Il 3D non è affatto in stato di fail e le vendite di monitor 3D sono in aumento anno dopo anno. Ci sono ottimi giochi in 3D ma che ovviamente puoi gustare a pieno solo con schede Nvidia, visto che con le AMD la stereoscopia è praticamente ridotta all'osso in pochissimi titoli, oltre a dimezzarti la risoluzione di gioco col SBS, cosa che non accade con le Geforce che usano il FS. C'è l'imbarazzo della scelta dei giochi 3D e l'esperienza di provarli ti cambia completamente il modo di giocare e di percepire gli ambienti. Solo chi ha provato il 3D (e io da quando l'ho fatto ne sono rimasto impressionato) sa di cosa sto parlando. Metro 2003, Metro Last Light, Just Cause 2, Tomb Raider 2003, Hitman Absolution, Battlefield 3, Batman Arkham City/Asylum/Origins, Resident Evil 5, LA Noire, Super Street Fighter IV, COD Blackops e Modern Warfare, Skyrim, Crysis 1/2/3, Deus Ex, Medal of Honor, Shadow Warrior, Grid 2, Dirt 2/3/Showdown e tanti tanti altri sono tutti titoli che con il 3D Vision sono spettacolari e ti cambiano totalmente l'esperienza di gioco. Inoltre c'è l'helix mod che migliora ancora di più il 3D sui giochi rated good, e alla fine hai un parco giochi enorme tra cui scegliere, c'è l'imbarazzo della scelta e tutti giocabili in Full HD e oltre col Frame Sequential, mentre con schede AMD devi giocarli a risoluzioni dimezzate perché il Side by Side non supporta la risoluzione piena nel rendering.
Quanto ai problemi di stabilità dei drivers AMD, è una cosa continua, ho amici che hanno comprato proprio di recente schede AMD e continuano a bestemmiare :D mentre io da quando sono passato a Nvidia mi godo tutti i giochi senza imprecazioni e incazzature :D Ho ritrovato il buon umore :D
P.S. un aspetto da non sottovalutare nell'acquisto della nuova 290X sono i consumi. La paghi molto meno di una Titan ma quei 439 watt vs i 399 della Titan in Full Load a lungo andare si fanno sentire sulla bolletta. Mettiamo anche solo che uno giochi due ore al giorno solo cinque giorni la settimana, in un anno intero sono oltre 500 ore di gioco e il wattaggio in più alla fine si fa sentire, con considerevole costo sulla bolletta. :)
Paolo mi spiace ma anche se volessimo imparare a leggere i nuovi grafici di FCAT, restano otticamente illeggibili.
Non puoi fare un grafico rosso, nero e verde e fare una leggenda tutto con una riga larga 1px.
E' ILLEGGIBILE su un IPS 24".
Quanto ai problemi di stabilità dei drivers AMD, è una cosa continua, ho amici che hanno comprato proprio di recente schede AMD e continuano a bestemmiare :D mentre io da quando sono passato a Nvidia mi godo tutti i giochi senza imprecazioni e incazzature :D Ho ritrovato il buon umore :D
P.S. un aspetto da non sottovalutare nell'acquisto della nuova 290X sono i consumi. La paghi molto meno di una Titan ma quei 439 watt vs i 399 della Titan in Full Load a lungo andare si fanno sentire sulla bolletta. Mettiamo anche solo che uno giochi due ore al giorno solo cinque giorni la settimana, in un anno intero sono oltre 500 ore di gioco e il wattaggio in più alla fine si fa sentire, con considerevole costo sulla bolletta. :)
ripeto, il 3d è stato definito da una grossa azienda nel campo non so se microsoft o google comunque, un fail. io in giro ho trovato il 3d solo al mediamondo , di tv 3d ce ne sono ma solo perchè ti obbligano con la nuova tv non per necessità, un po come i led.
Poi strani amici hai, io ho 5 famiglie a cui ho messo amd e hanno 0 problemi, di cross ne ho passati 2 versioni e 0 problemi di nuovo. forse sei pagato da nvidia per dire queste cose, comunque non mi dilungo oltre.
Ultima cosa, se tu spendi 1000€ per una titan o anche solo una 780 e guardi la bolletta, allora hai qualcosa che non va in te. se mi prendo una ford gt non mi interessa quanto consuma o quanto rumore fa. opinioni eh. ciau
nicola1283
24-10-2013, 20:12
Io dico solo complimenti ad amd per questa scheda (al momento la piu' veloce), ottimo anche il prezzo, ma e' ovvio che nvidia non restera' a guardare...
Spero solo che le schede top di gamma di nvidia d'ora in avanti abbiano prezzi + abbordabili; la competizione tra questi 2 grandi colossi, costretti a rivedere di volta in volta i loro prezzi, va solo a vantaggio di noi utenti finali, sia in termini di prestazioni, sia in termini di costi e pertanto riconoscendo l'eccezionale lavoro di amd, resto in attesa di quella che sara' la risposta di nvidia, che credo non tardera' ad arrivare
impressionante davvero!
costa 100euri in meno di una 780 e 400/500 in meno di una titan per andare mediamente meglio... amd a questo giro darà una bella botta al mercato... livella verso il basso il prezzo aumentando l'asticella delle prestazione top gamma.
non so come nvidia sia in grado di controbattere dato che dal punto di vista dei costi di produzione dovrebbe essere in chiaro svantaggio...
per quanto riguarda le diatribe da bar: per quanto mi riguarda questa è una scheda video top e va da se che, se vuoi giocare al massimo la variabile principale è data dalle prestazioni e dal prezzo
prestazioni>prezzo>rumorosità>consumi>temperature
queste dovrebbero essere le variabili da tenere in considerazione, non fa per me in quanto preferisco avere meno prestazioni ma una scheda video silenziosa direi che questo natale una 290 liscia ci stia alla grande, a conti fatti non vedo come nvidia possa rivaleggiare con ciò che ha in cantiere sicuramente non col gsync....
imho
cia'
yossarian
24-10-2013, 20:50
Che le GPU delle console sono nettamente inferiori a queste!!!
Come previsto Amd fa il botto, con investimenti quasi zero supera Titan. L'architettura Amd scala meglio all'aumentare degli shader. Purtroppo sono frenati dal PP ma credo che per nVidia sia finita la pacchia di vendere gli scarti da 600€ in su. La 780 deve costare al massimo 400€ e la Titan 500€!
non è che scali meglio all'aumentare degli shader ma, piuttosto, che ha scelto un approccio diverso che permette di avere molte più unità di calcolo di tipo matematico per unità di superficie. Ma non esistono solo gli shader e le architetture nVidia e AMD seguono un approccio diverso anche per le operazioni di texturing, di rasterizzazione e per quelle geometriche
La termografia della scheda confrontata ai concorrenti, rende l'idea:
http://www.hardware.fr/articles/910-10/bruit-temperatures.html
con un dissipatore migliore si abbassano le temperature ma non i consumi. E quando nVidia tirerà fuori un chip a 28 nm con frequenze più elevate si avranno consumi analoghi a quelli della R9. Penso si possa affermare che queste architetture, a 28 nm (vale tanto per Hawaii che per GK110), sono un bell'esercizio di stile e un'utile "palestra" per il prossimo scaling
A parte che le prime versioni custom le si vedrà tra un mese o anche più, ma al massimo si riuscirà a ridurre al emperatura con sistemi open air che vuol dire che il calore rimane nel case, e quindi servirà un bel case aerato onde evitare problemi al resto. Oltre 300W non sono uno scherzo.
E a parte la questione calore, rimangono quelle dei W. Con questi consumi l'overclock è inesistente (a meno di non voler accorciare la vita della GPU a qualche settimana. Prevedo comunque un numero non indifferente di RMA con quei 95° in uso normale).
Il GK110 come è stato venduto adesso è ben sotto i consumi di questa GPU (che ripeto, sembra il vecchio Fermi v1 di nvidia per quanto riguarda i consumi) e un overclock ben studiato non porrà difficoltà a superare Hawaii fino a certe risoluzioni. Poi, ovviamente, i 512bit di memory bus di Hawaii sono un vantaggio non indifferente e ad alte risoluzioni si fanno sentire.
Quello che spero è che comunuqe i prezzi finalmente scendano ai livelli di 2 anni e mezzo fa, quando c'era competizione vera.:muro:
con un overclock (anche ben studiato) ci metti poco a portare il GK110 ai consumi di Hawaii. Dal punto di vista dei consumi, è molto meglio aumentare le unità di calcolo che le frequenze (se poi si aumentano anche le tensioni allora si mette a rischio l'incolumità del chip :D )
Possibile che nessuno capisce che la Titan non è una scheda da gioco?
Perché non la comparate a una Quadro o a una Tesla? Pure quese ultime costano uno sproposito anche se montano a stessa identica GPU e sono pure "cieche".
Che ladri, eh?
veramente no e il fatto che abbia prestazioni in DP circa 24 volte superiori a quelle di una 780 non significa necessariamente che titan è pensata per il gpgpu. E' la 780 GTX che è castrata oltre misura. Titan ha prestazioni in DP "solo" il 48% superiori a quelle di una R9 280 (che è una scheda da gaming) e circa doppie rispetto ad una R9 290 (che è, a sua volta, castrata se paragonata alla R9 280)
Ottima scheda a prezzo tutto sommato contenuto...peccato per i consumi, attualmente la vedrei dura fare una dual gpu con questo chip ma forse non avrebbe nemmeno senso.
Per una dual ci sono sempre i chip di fascia inferiore che sono certamente più adatti.
Inoltre tempo di progettare una dual e probabilmente saranno pronti i 20nm quindi tutto sommato non mi sembra una mossa sbagliata quella di AMD, anzi sicuramente non lo è dopo aver visto il prezzo :D
una dual con questo? :ciapet:
ottima scheda ad un ottimo prezzo, ma mi aspettavo qualcosa di piu anche io;
Titan è uscita 8 mesi fa con un TDP di 250 Watt; questa VGA alla fine dovra reggere con le Maxwell che usciranno fra pochi mesi e, se tanto mi da tanto, nvidia tirera il collo ai 28 nm come ha fatto ora AMD, e con la nuova architettura mi sa che ritorneremo al punto di prima.
anche con Maxwell non potranno fare miracoli: se aumenti le frequenze aumenti i consumi oltre che le prestazioni.
Le GPU nelle Tesla hanno tutto abilitato, dalle ROP alle TMU, ma non hanno i circuiti per generare i signali video, quindi cieche.
Eppure sono vendute a prezzi fuori da ogni criterio usato qui.
Le Titan, che guardacaso nvidia non ha inserito nella linea GeForce, sono schede semi professionali tanto che nvidia ha lasciato sbloccato il calcolo DP e montato 6GB di RAM, che per il mercato gamer non servono a una mazza entrambi. E' pure cloccata molto in basso rispetto allo standard delle VGA per mercato consumer.
Poi se volete continuare a paragonarla ad una scheda che per andare qualcosa in più consuma 50W in più e raggiunge temperature (e rumorosità) pari ad un altoforno, allora fate pure (come paragonare una Audi a una Punto GT, o una Porche a una Mustang).
Anche se vanno uguali sono 2 schede con scopi evidentemente differenti e differenze sostanziali nell'ergonomia d'uso.
http://www.nvidia.it/object/geforce-gtx-titan-it.html
veramente nVidia la classifica come scheda per il gaming...
a dire la verità non è aggiungendo mhz che si alzano le temperature, ma alzando il voltaggio
con pcb custom, fasi migliorate e dissi custom probabilmente si riuscirà a mantenere le frequenze stock a voltaggio minore, che già non è male
inoltre, visti i grafici pubblicati nella pagina overclock della recensione su techpowerup, non vedo letteralmente l'ora di metterne una sott'acqua
anche alzando i Mhz aumentano i consumi anche se in misura minore rispetto ad un'operazione di overclock con overvolt
AceGranger
24-10-2013, 21:07
non so come nvidia sia in grado di controbattere dato che dal punto di vista dei costi di produzione dovrebbe essere in chiaro svantaggio...
'
bha, su questo non ne sarei cosi sicuro; ormai la produzione del GK110 è ben rodata, ne vende parecchi in campo professionale e con gli "scarti" ci fa Titan e 780, IMHO, potrebbe tagliere il prezzo senza problemi.
queste dovrebbero essere le variabili da tenere in considerazione, non fa per me in quanto preferisco avere meno prestazioni ma una scheda video silenziosa direi che questo natale una 290 liscia ci stia alla grande, a conti fatti non vedo come nvidia possa rivaleggiare con ciò che ha in cantiere sicuramente non col gsync....
non so è, ma stiamo parlando di una sola VGA, fra l'altro la TOP gamma, che avra un vantaggio sulla 780 per 4-5 mesi, ammesso che non taglino il prezzo e con in uscita una nuova VGA nVidia di quella fascia; il resto dell'offerta sono rebranding della vecchia serie in linea con le proposte nVidia.
non mi sembra una situazione da strapparsi i capelli... seguendo il tuo ragionamento, mi chiedo a questo punto come fara AMD nei 7-8 mesi dopo l'uscita di Maxwell che è data per il Q1 2014...
anche con Maxwell non potranno fare miracoli: se aumenti le frequenze aumenti i consumi oltre che le prestazioni.
infatti non mi aspetto nulla di diverso da Maxwell sotto questo punto di vista; aumenteranno anche lo ro i consumi e il TDP e la stessa situazione che c'e ora fra 7970 --- 780 probabilmente si riproporra con 290X --- ipotetica 880
bha, su questo non ne sarei cosi sicuro; ormai la produzione del GK110 è ben rodata, ne vende parecchi in campo professionale e con gli "scarti" ci fa Titan e 780, IMHO, potrebbe tagliere il prezzo senza problemi.
puoi ottimizzare la produzione quanto vuoi ma l'area occupata del chip sempre 561mm rimane contro i 438 di questo hawaii, per quanto riguarda le percentuali di produzione e vendita non saprei dato che, non so quali siano fra pro e consumer (titan/gtx780)
non so è, ma stiamo parlando di una sola VGA, fra l'altro la TOP gamma, che avra un vantaggio sulla 780 per 4-5 mesi, ammesso che non taglino il prezzo e con in uscita una nuova VGA nVidia di quella fascia; il resto dell'offerta sono rebranding della vecchia serie in linea con le proposte nVidia.
non mi sembra una situazione da strapparsi i capelli... seguendo il tuo ragionamento, mi chiedo a questo punto come fara AMD nei 7-8 mesi dopo l'uscita di Maxwell che è data per il Q1 2014...
il punto è proprio questo, amd ha abbassato l'asticella dei prezzi top gamma e, di conseguenza tutto ciò che viene sotto. A questo punto nvidia ha 2 strade da poter prendere la prima e più pericolosa, è quella di tagliare i prezzi per i prodotti di punta al momento in commercio che sono proprio quelli che le garantiscono margini più ampi.
la seconda è quella di sfornare un prodotto nuovo top gamma che garantisca margini prestazionali importanti rispetto a r9 in maniera da riportare il livello "top gamma" ai classici 600/1000 euro
la domanda è: è in grado? le conviene? e tutto il resto?
il gioco di amd ormai l'hanno capito tutti, lavorare sui prezzi bassi, nvidia non può permettersi da sola di fare tutto ciò avendo perso anche tutte le commesse delle console
Littlesnitch
24-10-2013, 21:46
Qualcuno della redazione potrebbe chiedere in maniera ufficiale ad nVidia, se la titan è una scheda gaming e di inviare la risposta ufficiale per raccomandata con timbro apostille all'utente CrapadiLegno.
Littlesnitch
24-10-2013, 21:53
P.S. un aspetto da non sottovalutare nell'acquisto della nuova 290X sono i consumi. La paghi molto meno di una Titan ma quei 439 watt vs i 399 della Titan in Full Load a lungo andare si fanno sentire sulla bolletta. Mettiamo anche solo che uno giochi due ore al giorno solo cinque giorni la settimana, in un anno intero sono oltre 500 ore di gioco e il wattaggio in più alla fine si fa sentire, con considerevole costo sulla bolletta. :)
50W per 500 ore quanto fa? 25KW all'anno!!!! se la dai in eredità forse i tuoi pronipoti arrivano a far pari con i costi in bolletta!
Qualcuna della redazione potrebbe chiedere in maniera ufficiale ad nVidia, se la titan è una scheda gaming e di inviare la risposta ufficiale per raccomandata con timbro apostille all'utente CrapadiLegno.
titan è una scheda da gaming.
che poi le aziende si siano inventate il settore "prosumer" per scucire più soldi alla gente è un altro discorso.
Qualcuno mi spiegherebbe perchè le 780 sono gli "scarti"? Nel senso in che maniera sono peggiori per Nvidia? :confused: Scusate la niubbaggine :)
AceGranger
24-10-2013, 22:33
puoi ottimizzare la produzione quanto vuoi ma l'area occupata del chip sempre 561mm rimane contro i 438 di questo hawaii, per quanto riguarda le percentuali di produzione e vendita non saprei dato che, non so quali siano fra pro e consumer (titan/gtx780)
FX8350/8150 315mm2
2600K 216mm2
e AMD li ha sempre venduti a meno, quindi il silicio conta fino ad un certo punto.
i dati di vendita sono piu o meno
VGA discrete
http://jonpeddie.com/back-pages/comments/add-in-board-market-down-in-q2-amd-gains-market-share/
nVidia 62%
AMD 36%
VGA Professionali
http://www.xbitlabs.com/news/graphics/display/20131020054243_AMD_Vows_to_Increase_Share_on_the_Market_of_Professional_Graphics_Cards.html
nVidia 81%
AMD 18%
other 1%
ammesso che abbiano lo stessa % di riuscita dei chip, unitariamente nVidia puo spalmare i costi di R&D su piu pezzi, e puo strappare pezzi migliori sulla materia prima visto che produce molti piu chip.
il punto è proprio questo, amd ha abbassato l'asticella dei prezzi top gamma e, di conseguenza tutto ciò che viene sotto. A questo punto nvidia ha 2 strade da poter prendere la prima e più pericolosa, è quella di tagliare i prezzi per i prodotti di punta al momento in commercio che sono proprio quelli che le garantiscono margini più ampi.
la seconda è quella di sfornare un prodotto nuovo top gamma che garantisca margini prestazionali importanti rispetto a r9 in maniera da riportare il livello "top gamma" ai classici 600/1000 euro
la domanda è: è in grado? le conviene? e tutto il resto?
il gioco di amd ormai l'hanno capito tutti, lavorare sui prezzi bassi, nvidia non può permettersi da sola di fare tutto ciò avendo perso anche tutte le commesse delle console
nVidia ha sempre venduto VGA a prezzo superiore e non ha mai avuto problemi a farlo; AMD ha sempre avuto le VGA con il prezzo/prestazioni migliore.
se prendo i dati di steam, che credo siano ottimi per capire qual'è la situazione
GTX 680 1,67%
HD 7970 1,11%
GTX 670 2,22%
HD 7950 1,23%
GTX 780 0,41% ( che credo sia altissimo contando quanto costano )
AMD pur facendo mega bundle di giochi e con prezzi piu bassi ha sempre venduto molte meno VGA di nVidia.
Qualcuno mi spiegherebbe perchè le 780 sono gli "scarti"? Nel senso in che maniera sono peggiori per Nvidia? :confused: Scusate la niubbaggine :)
la 780 è fatta con i chip GK110 che sono gli stessi usati per le VGA professionali di nVidia; i chip migliori, con tutti o buona parte degli stream processor abilitati, vengono usati per le schede professionali, gli altri che non passano i test finiscono sulle Titan e quelli con gli stream processor disabilitati sulle GTX 780.
ovviamente non sono malfunzionanti, ma sono un modo per ottimizzare la produzione di un chip che è nato con lo scopo principale di equipaggiare le VGA professionali.
Littlesnitch
24-10-2013, 22:36
Qualcuno mi spiegherebbe perchè le 780 sono gli "scarti"? Nel senso in che maniera sono peggiori per Nvidia? :confused: Scusate la niubbaggine :)
No le 780 sono gli scarti degli scarti. Sono basate sul chip GK110 che nVidia doveva lanciare a fine 2011 e invece è riuscita a lanciare solo a 2012 inoltrato per il mercato professionale e solo nel 2013 per il mercato consumer con gli scarti del mercato professionale. Le Titan sono fatte con chip fallati che non possono essere utilizzati per le Quadro e le Tesla, mentre le 780 sono fatte con gli ulteriori scarti che non vanno nemmeno per le Titan.
A scanso di equivoci, nel case ho 2 780!
Littlesnitch
24-10-2013, 22:38
nVidia ha sempre venduto VGA a prezzo superiore e non ha mai avuto problemi a farlo; AMD ha sempre avuto le VGA con il prezzo/prestazioni migliore.
se prendo i dati di steam, che credo siano ottimi per capire qual'è la situazione
GTX 680 1,67%
HD 7970 1,11%
GTX 670 2,22%
HD 7950 1,23%
GTX 780 0,41% ( che credo sia altissimo contando quanto costano )
AMD pur facendo mega bundle di giochi e con prezzi piu bassi ha sempre venduto molte meno VGA di nVidia.
Ma allora c'è meno dell'8% della gente che riesce a giocare in modo decente? Già una 7950 è insufficiente per il FHD....
pincapobianco
24-10-2013, 22:49
ripeto, il 3d è stato definito da una grossa azienda nel campo non so se microsoft o google comunque, un fail. io in giro ho trovato il 3d solo al mediamondo , di tv 3d ce ne sono ma solo perchè ti obbligano con la nuova tv non per necessità, un po come i led.
Poi strani amici hai, io ho 5 famiglie a cui ho messo amd e hanno 0 problemi, di cross ne ho passati 2 versioni e 0 problemi di nuovo. forse sei pagato da nvidia per dire queste cose, comunque non mi dilungo oltre.
Ultima cosa, se tu spendi 1000€ per una titan o anche solo una 780 e guardi la bolletta, allora hai qualcosa che non va in te. se mi prendo una ford gt non mi interessa quanto consuma o quanto rumore fa. opinioni eh. ciau
ma hai mai giocato a un monitor 3D dal vivo o parli per sentito dire? :asd: Oddio al mediamondo :eek: :eek: esiste ebay da un pezzo svegliati :asd:
Se dici che non hai mai avuto problemi con schede AMD mi sa che quello pagato sei tu dal momento che tutti i giochi usciti di recente ne hanno avuti (senza contare quelli di mesi fa) a cominciare da Saint Row 4 e Splinter Cell Backlist...e domani esce Arkham Origins che già da problemi con le schede AMD avendolo in molti già provato per vie che qui non si possono dire vigendo la censura :D
E per il consumo, a meno che tu non vivi di rendita e puoi permetterti di far stare la luce accesa anche di notte :D la differenza è abissale, io non comprerei mai una scheda che mi costa di meno ma poi mi fa consumare il doppio vita natural durante, soprattutto se decido di tenermela almeno un paio d'anni :D
FX8350/8150 315mm2
2600K 216mm2
e AMD li ha sempre venduti a meno, quindi il silicio conta fino ad un certo punto.
i dati di vendita sono piu o meno
VGA discrete
http://jonpeddie.com/back-pages/comments/add-in-board-market-down-in-q2-amd-gains-market-share/
nVidia 62%
AMD 36%
VGA Professionali
http://www.xbitlabs.com/news/graphics/display/20131020054243_AMD_Vows_to_Increase_Share_on_the_Market_of_Professional_Graphics_Cards.html
nVidia 81%
AMD 18%
other 1%
ammesso che abbiano lo stessa % di riuscita dei chip, unitariamente nVidia puo spalmare i costi di R&D su piu pezzi, e puo strappare pezzi migliori sulla materia prima visto che produce molti piu chip.
nVidia ha sempre venduto VGA a prezzo superiore e non ha mai avuto problemi a farlo; AMD ha sempre avuto le VGA con il prezzo/prestazioni migliore.
se prendo i dati di steam, che credo siano ottimi per capire qual'è la situazione
GTX 680 1,67%
HD 7970 1,11%
GTX 670 2,22%
HD 7950 1,23%
GTX 780 0,41% ( che credo sia altissimo contando quanto costano )
AMD pur facendo mega bundle di giochi e con prezzi piu bassi ha sempre venduto molte meno VGA di nVidia.
la 780 è fatta con i chip GK110 che sono gli stessi usati per le VGA professionali di nVidia; i chip migliori, con tutti o buona parte degli stream processor abilitati, vengono usati per le schede professionali, gli altri che non passano i test finiscono sulle Titan e quelli con gli stream processor disabilitati sulle GTX 780.
ovviamente non sono malfunzionanti, ma sono un modo per ottimizzare la produzione di un chip che è nato con lo scopo principale di equipaggiare le VGA professionali.
Grazie per la risposta!
Mi pare una gran scheda da quel che ho visto anche se sembra prenderle da nVidia in OC. Possibile che non salgano? :mbe:
Comunque complimenti ad AMD che pare aver sfornato un ottimo prodotto ad un prezzo veramente competitivo! Resto comunque fedele ai verdi :asd:
Dimonios
24-10-2013, 22:58
Qualcuno della redazione potrebbe chiedere in maniera ufficiale ad nVidia, se la titan è una scheda gaming e di inviare la risposta ufficiale per raccomandata con timbro apostille all'utente CrapadiLegno.
Soffoco. :sbonk:
ma hai mai giocato a un monitor 3D dal vivo o parli per sentito dire? :asd: Oddio al mediamondo :eek: :eek: esiste ebay da un pezzo svegliati :asd:
Se dici che non hai mai avuto problemi con schede AMD mi sa che quello pagato sei tu dal momento che tutti i giochi usciti di recente ne hanno avuti (senza contare quelli di mesi fa) a cominciare da Saint Row 4 e Splinter Cell Backlist...e domani esce Arkham Origins che già da problemi con le schede AMD avendolo in molti già provato per vie che qui non si possono dire vigendo la censura :D
E per il consumo, a meno che tu non vivi di rendita e puoi permetterti di far stare la luce accesa anche di notte :D la differenza è abissale, io non comprerei mai una scheda che mi costa di meno ma poi mi fa consumare il doppio vita natural durante, soprattutto se decido di tenermela almeno un paio d'anni :D
il 3d usato, nel senso messo in funzione, nel senso che lo guardi attraverso, forse cosi capisci meglio, ho 3 tv in casa che supportano il 3d e mai usato pur avendo il bluray e occhiali regalati
qui l'unico che si deve svegliare sei tu. ma fai come vuoi, i soldi sono tuoi come pure le idee. per il consumo non ho parole per il tuo discorso, sei semplicemente ignobile per una mia risposta. zitto e passa nella mia lista ignore :banned:
Dimonios
24-10-2013, 23:13
http://news.techeye.net/chips/amd-declares-all-out-war-on-nvidia
:ciapet:
Pachanga
24-10-2013, 23:28
Se si vuol dare un giudizio morale,tecnico od entrambi sui consumi,beh allora se ne puo' discutere...
Ma se si parla di costi,beh,mi sa che quasi nessuno si sia preso la briga di far 2 conti,altrimenti non si leggerebbero certi commenti nel thread...:D
Allora,da una piccola ricerca appena fatta:se avete un superpc,che diciamo consuma sempre e comunque 500 Watt(in game ad esempio)e lo tenete acceso a pieno carico per 5 ore al giorno,ebbene,sapete quanto vi costa?
50 centesimi al giorno.
Poco piu' di 180 € all'anno.
E si parla chiaramente di una situazione limite,ho fatto un esempio volutamente esagerato...
Ora,facciamo l'esempio di Titan contro 290x:40 watt in piu' per la scheda AMD:se applichiamo la differenza di consumo all'esempio fatto prima,risulta che spenderemo la bellezza di 4 centesimi in piu' al giorno passando dalla verde alla rossa,quindi 15 € all'anno in piu' circa...
Ora,e' chiaro,come gia' detto in precedenza,che qualsiasi utente,non solo un enthusiast,di fronte ad una simile cifra,si mettera' a ridere,ancor piu' se considerera' la differenza di prezzo tra le 2 schede...
Insomma,non traiamo conclusioni troppo affrettate in questo senso...;) :D
P.S. un aspetto da non sottovalutare nell'acquisto della nuova 290X sono i consumi. La paghi molto meno di una Titan ma quei 439 watt vs i 399 della Titan in Full Load a lungo andare si fanno sentire sulla bolletta. Mettiamo anche solo che uno giochi due ore al giorno solo cinque giorni la settimana, in un anno intero sono oltre 500 ore di gioco e il wattaggio in più alla fine si fa sentire, con considerevole costo sulla bolletta. :)
Su questo sei fuori strada in una maniera tale che nemmeno ti immagini... Sulla bolletta, una differenza di 50W a pieno carico in un anno di normale utilizzo si traducono in pochi euro (forse)
Se vuoi denigrare a tutti i costi la r290x trova altre strade che non siano consumi o driver, perché su questi due argomenti ti dice male, malissimo... ;)
Se invece vuoi solo trollare, allora lo stai facendo bene! :O
TwinDeagle
24-10-2013, 23:49
Che le GPU delle console sono nettamente inferiori a queste!!!
Come previsto Amd fa il botto, con investimenti quasi zero supera Titan. L'architettura Amd scala meglio all'aumentare degli shader. Purtroppo sono frenati dal PP ma credo che per nVidia sia finita la pacchia di vendere gli scarti da 600€ in su. La 780 deve costare al massimo 400€ e la Titan 500€!
Concordo sul prezzo.. stanno usando chip vecchi, che non hanno alcuna scusa per giustificare il prezzo.
Prestazioni da Titan, prezzo competitivo, gioco in omaggio.
Pero' non mi sento di osannare AMD completamente: Titan è uscita a Febbraio, Questo prodotto praticamente un anno dopo.
Offrendo le stesse prestazioni, ma consimando 50W in più e surriscaldandosi come un tostapane? Senza parlare del RUMORE?
Questa è una copia economica di Titan, non un prodotto migliore. Una cinesata. Poi c'è chi le compra (e vista la differenza di prezzo, ci mancherebbe solo!), ma probabilmente NVIDIA abbasserà il prezzo, ora che ha un competitor.
Vero, arriva parecchio in ritardo, e già la titan è una scheda castrata basata su un chip vecchio.
sempre chiacchiere da bar quando esce una scheda nuova
è la top gli arrampicatori sugli specchi stanno a zero
a poi i geni che dicono che sia uscita in ritardo... in ritardo rispetto a quale uscita?della 780? E allora quando uscirà la next di Nvidia sarà in ritardo rispetto alla 290X? O nvidia è sempre in orario(quasicit.)
Qualcosa è in ritardo se dicono che esce il 24 ottobre e poi viene annunciato un posticipo... perché visto che natale alle porte se tanto mi da tanto è in ritardo Nvidia se proprio vogliamo dirlo, ma non in ritardo verso AMD (ricordo che AMD ha comprato Ati) ma verso sè stessa.
Il ritardo di AMD è indubbio.. parliamoci chiaro, appena uscirono le 680 si parlava del gk110. Non fu utilizzato per mancanza di concorrenza. I problemi di produzione sono un fattore secondario..se c'era la concorrenza, nvidia avrebbe corso per rimetterli apposto. Vi immaginate cosa sarebbe successo se la 680 avesse montato il gk110? AMD si sarebbe dovuta nascondere.
In ogni caso, il vero problema è che Nvidia continua a fare prezzi assurdi per schede che ormai non hanno più costi di progettazione da ammortizzare, che sono uscite da un sacco. Questo è il vero problema di Nvidia. La vera innovazione di queste schede AMD è il prezzo! Ripeto, ottime schede.
PaulGuru
25-10-2013, 00:00
in bundle con questa 290x cosa ti danno di sicuro ?
Ma allora c'è meno dell'8% della gente che riesce a giocare in modo decente? Già una 7950 è insufficiente per il FHD....
No... vuol dire che per fortuna più del 90% della gente, giustamente, ci pensa bene, prima di spendere più di 200€ per una scheda grafica! ;)
FX8350/8150 315mm2
2600K 216mm2
e AMD li ha sempre venduti a meno, quindi il silicio conta fino ad un certo punto.
i dati di vendita sono piu o meno
VGA discrete
http://jonpeddie.com/back-pages/comments/add-in-board-market-down-in-q2-amd-gains-market-share/
nVidia 62%
AMD 36%
VGA Professionali
http://www.xbitlabs.com/news/graphics/display/20131020054243_AMD_Vows_to_Increase_Share_on_the_Market_of_Professional_Graphics_Cards.html
nVidia 81%
AMD 18%
other 1%
ammesso che abbiano lo stessa % di riuscita dei chip, unitariamente nVidia puo spalmare i costi di R&D su piu pezzi, e puo strappare pezzi migliori sulla materia prima visto che produce molti piu chip.
tu mi linki il market share, quello che interessa sono i volumi in questo caso, perchè stiamo parlando di produzione/vendita quindi serve sapere i costi di produzione, non il market share.
Il confronto intel e amd, sai benissimo che intel produce e amd no e le 2 aziende in ogni caso non sono minimamente paragonabili in termini di volumi.
nVidia ha sempre venduto VGA a prezzo superiore e non ha mai avuto problemi a farlo; AMD ha sempre avuto le VGA con il prezzo/prestazioni migliore.
se prendo i dati di steam, che credo siano ottimi per capire qual'è la situazione
GTX 680 1,67%
HD 7970 1,11%
GTX 670 2,22%
HD 7950 1,23%
GTX 780 0,41% ( che credo sia altissimo contando quanto costano )
andrebbe vista qual è l'incidenza sul mercato, basta vedere quante hd4000 e 3000 sono li tenendo conto dei portatili etc
l'unico vero ragionamento lo fai se parti da quanti e quali sono i costi di produzione per chip
poi per fare un po' di chiarezza:
il dato che posti te da steam è corretto per la gtx 780 MA è una percentuale riguardante solo le schede video dx11 che è meno della metà della 7970 (1.11%)
teniamo conto del fatto che la 780 è più recente, quindi ha un arco di tempo inferiore secondo me sono paragonabili...
(tanto per fare chiarezza, sul totale la percentuale di gtx780 installate sulle macchine registrate su steam è praticamente 0)
AMD pur facendo mega bundle di giochi e con prezzi piu bassi ha sempre venduto molte meno VGA di nVidia.
la 780 è fatta con i chip GK110 che sono gli stessi usati per le VGA professionali di nVidia; i chip migliori, con tutti o buona parte degli stream processor abilitati, vengono usati per le schede professionali, gli altri che non passano i test finiscono sulle Titan e quelli con gli stream processor disabilitati sulle GTX 780.
ovviamente non sono malfunzionanti, ma sono un modo per ottimizzare la produzione di un chip che è nato con lo scopo principale di equipaggiare le VGA professionali.
ripeto andrebbero visti i volumi, imho titan non ha rilevanza di mercato, serve solo a fare pubblcità. La differenza con oggi è che la 290x offre le stesse prestazioni in una fascia di prezzo "alta ma non troppo".
edit:
vediamo cosa venderà il bundle r290x+bf4 nei primi 2 mesi e poi possiamo capire dove può andare a parare un prezzo aggressivo del genere.
Riguardo ai consumi, oltre alle precedenti considerazioni, farei ancora notare che la differenza è solo in full, che spesso rappresenta una frazione del tempo in cui un PC rimane acceso.
Quei 40W non sono il problema, semmai un problema potrebbero essere le tmp, per questo aspetterò le versioni custom, a quel punto, lato prezzo e prestazioni, se Nvidia non rivoluzionerà i suoi listini, le 290/290x saranno le schede perfette fino a nuove uscite che possano stravolgere l'attuale situazione.
Quello che a questo punto mi chiedo è come possa Nvidia stravolgere i prezzi senza perdere la faccia nei confronti di chi pochi giorni prima aveva pagato le VGA una valanga di euro.
Senza contare poi il rapido deprezzamento del valore dell'usato.
pincapobianco
25-10-2013, 00:42
il 3d usato, nel senso messo in funzione, nel senso che lo guardi attraverso, forse cosi capisci meglio, ho 3 tv in casa che supportano il 3d e mai usato pur avendo il bluray e occhiali regalati
qui l'unico che si deve svegliare sei tu. ma fai come vuoi, i soldi sono tuoi come pure le idee. per il consumo non ho parole per il tuo discorso, sei semplicemente ignobile per una mia risposta. zitto e passa nella mia lista ignore :banned:
con una scheda Amd non vedo il motivo per cui dovresti usarlo :asd:
PaulGuru
25-10-2013, 00:45
si ma la versione con BF4 in bundle non è in regalo, la paghi di più, a questo punto tanto vale farsi la 290x normale e comprarsi a parte BF4.
pincapobianco
25-10-2013, 00:52
Su questo sei fuori strada in una maniera tale che nemmeno ti immagini... Sulla bolletta, una differenza di 50W a pieno carico in un anno di normale utilizzo si traducono in pochi euro (forse)
Se vuoi denigrare a tutti i costi la r290x trova altre strade che non siano consumi o driver, perché su questi due argomenti ti dice male, malissimo... ;)
Se invece vuoi solo trollare, allora lo stai facendo bene! :O
sui drivers è ancora presto per dirlo :asd: ma vedendo le altre schede AMD nel passato come si sono comportate non mi è difficile fare una previsione anche su questa :asd:
e comunque quanto ai consumi, io non comprerei mai una scheda che beve come un'aspirapolvere ma gli altri sono liberi di farlo :D
inoltre, per quanto riguarda il dissipatore, è un dato di fatto che quello della 290x è solo di media qualità
senza voler essere pignoli e parlare anche dell'estetica e dei componenti in plastica economica di questa nuova scheda :D
infine, la necessità di andare in quiet bios la trovo una cosa abbastanza deprecabile per chi compra una scheda high-end, capisco che per mantenere basso il prezzo bisogna scendere a compromessi, però qua parliamo della fascia di mercato enthusiast :D
non metto in dubbio le prestazioni velocistiche, ma mi ricorda un pò il Savage 2000/Viper II che alla fine degli anni '90 voleva scalzare la Geforce 256 con un prezzo aggressivo ma parecchi compromessi qua e là e componenti costruttivi fatti alla carlona :D
Zappa1981
25-10-2013, 00:58
la scheda a me sembra buona e soprattutto mi ha stupito il prezzo, io la davo a 800 euro invece lieto di essermi sbagliato... Nvidia tiene i prezzi troppo alti ed è vero che alla fine la r290x è il best-buy tra prezzo e prestazioni, tanto non si può dire ne di titan ne di 780 visto che a listino stanno molto più in alto... e in ogni caso sono sempre i soliti discorsi, la nuova nata scalda come un forno e posso dire che quando nvidia ha tirato fuori la 480 il fatto che scaldassero era visto come una cosa incredibilmente negativa, ora che lo fa amd allora va bene ;) ad ogni modo è una bella scheda e a quel prezzo (se potessi) la comprerei sicuramente
si ma la versione con BF4 in bundle non è in regalo, la paghi di più, a questo punto tanto vale farsi la 290x normale e comprarsi a parte BF4.
non era tanto il bundle il mio discorso, era legato al prezzo ed alla possibile fetta di mercato che potrebbe ritagliarsi.
PaulGuru
25-10-2013, 01:07
la scheda a me sembra buona e soprattutto mi ha stupito il prezzo, io la davo a 800 euro invece lieto di essermi sbagliato... Nvidia tiene i prezzi troppo alti ed è vero che alla fine la r290x è il best-buy tra prezzo e prestazioni, tanto non si può dire ne di titan ne di 780 visto che a listino stanno molto più in alto... e in ogni caso sono sempre i soliti discorsi, la nuova nata scalda come un forno e posso dire che quando nvidia ha tirato fuori la 480 il fatto che scaldassero era visto come una cosa incredibilmente negativa, ora che lo fa amd allora va bene ;) ad ogni modo è una bella scheda e a quel prezzo (se potessi) la comprerei sicuramenteQuindi AMD è brava e buona e gode nel renderci felici ed essere nostra amicona mentre Nvidia è brutta e cattiva. :rolleyes: .
Nvidia tiene i prezzi alti perchè è uscita per prima e senza concorrenza, adesso adeguerà i prezzi, quando uscì la GTX 680 non mi sembrava che li tenesse così alti.
La storia del calore è tutta una scusa per screditare la concorrenza, basta che non vada in throttling e via.
marchigiano
25-10-2013, 01:18
ennesima dimostrazione che, senza concorrenza, qualsiasi azienda fa prezzi assurdi
speriamo di vedere cose simili anche su cpu, hd, ssd e ram...
Quindi AMD è brava e buona e gode nel renderci felici ed essere nostra amicona mentre Nvidia è brutta e cattiva. :rolleyes: .
Nvidia tiene i prezzi alti perchè è uscita per prima e senza concorrenza, adesso adeguerà i prezzi, quando uscì la GTX 680 non mi sembrava che li tenesse così alti.
La storia del calore è tutta una scusa per screditare la concorrenza, basta che non vada in throttling e via.
la 680 costava 500 euro all'uscita e andava a scontrarsi con la 7970 ed erano simili in prestazioni
la 780 costava 650 e andava a scontrarsi con la 7970GE a 450 euro ed era migliore in prestazioni
la 290x costerà 500? e a cosa la paragoni?
marchigiano
25-10-2013, 01:25
P.S. un aspetto da non sottovalutare nell'acquisto della nuova 290X sono i consumi. La paghi molto meno di una Titan ma quei 439 watt vs i 399 della Titan in Full Load a lungo andare si fanno sentire sulla bolletta. Mettiamo anche solo che uno giochi due ore al giorno solo cinque giorni la settimana, in un anno intero sono oltre 500 ore di gioco e il wattaggio in più alla fine si fa sentire, con considerevole costo sulla bolletta. :)
sono 5 euro esatti... diciamo che per ripagarsi la titan ci vorrebbe qualche secolo :asd:
Quindi AMD è brava e buona e gode nel renderci felici ed essere nostra amicona mentre Nvidia è brutta e cattiva. :rolleyes: .
Nvidia tiene i prezzi alti perchè è uscita per prima e senza concorrenza, adesso adeguerà i prezzi, quando uscì la GTX 680 non mi sembrava che li tenesse così alti.
Non esistono buoni e cattivi, entrambi cercano di fare al meglio i loro interessi, ma la differente politica dei prezzi tra i due marchi è un fatto assodato.
AMD lo ha dimostrato parecchie volta sia entrando in concorrenza con Nvidia sui prezzi sia uscendo con VGA top senza concorrenza e mantenendo i prezzi ugualmente bassi. Al contrario Nvidia, in assenza di concorrenza, ha sempre sparato prezzi altissimi e, mediamente, in regime di concorrenza ha sempre avuto un rapporto Q/P inferiore ad AMD.
Ripeto, non ci sono buoni e cattivi, solo una diversa politica di prezzi e marketing, che poi nei fatti sembra portare bene a Nvidia.
Il problema, mi ripeto, è che difficilmente Nvidia adesso potrà far crollare i prezzi senza "perdere la faccia", a mio avviso avrebbe dovuto cominciare a farlo uno o due mesi fa per arrivare all'uscita delle AMD con una differenza meno clamorosa.
sui drivers è ancora presto per dirlo :asd: ma vedendo le altre schede AMD nel passato come si sono comportate non mi è difficile fare una previsione anche su questa :asd:
e comunque quanto ai consumi, io non comprerei mai una scheda che beve come un'aspirapolvere ma gli altri sono liberi di farlo :D
inoltre, per quanto riguarda il dissipatore, è un dato di fatto che quello della 290x è solo di media qualità
senza voler essere pignoli e parlare anche dell'estetica e dei componenti in plastica economica di questa nuova scheda :D
infine, la necessità di andare in quiet bios la trovo una cosa abbastanza deprecabile per chi compra una scheda high-end, capisco che per mantenere basso il prezzo bisogna scendere a compromessi, però qua parliamo della fascia di mercato enthusiast :D
Tu stai veramente male!! ma in che mondo vivi? ma svegliati un pò *****, hai 14 anni che devi essere per forza di parte e non un minimo oggettivo? prima mi parli della corrente , del rumore e per i soldi che paghi stai attento bla bla bla e poi mi vieni a raccontare eh ma qua parliamo di fascia enthusiast?!?!? ma un minimo di coerenza non ti vergogni a mostrarla? veramente, chiedi ad un mod di cancellarti dal forum dai. poi secondo te non uso il 3d perchè ho amd nel case giusto? perchè sicuramente nei cinema hanno solo NVIDIA per il tuo proiettore 3d..:rolleyes: l'indecenza portata a livelli estremi. poi ora chi è che parla per sentito dire dei driver? io che li provo tutti i giorni o tu che dici vedendo le altre schede... non ho parole per descriverti..
scorpion73
25-10-2013, 08:34
A mio avviso se parliamo di pura potenza e rapporto prezzo/prestazioni questa è una ottima scheda, chi dice il contrario non è obiettivo, ma ho forti riserve su altre cose:
- Calore: è un forno a microonde, leggendo la recensione, si scalda tutta la scheda e non di poco. Vediamo come saranno le versioni custom ma ricordiamoci che quelle non buttano tutta l'aria fuori dal case e qui parliamo non solo del chip ma di tutto il PCB. Questo è un aspetto che a me preoccupa molto sulla prospettiva di vita della scheda
- Driver: è inutile negarlo, non diciamo fesserie: sulla precedente generazionei veri driver stabili e ottimi sono cominciati ad uscire da poco, prima era un mezzo disastro. AMD su questo aspetto mi dispiace a dirlo ma ci mette del tempo e non gioca a suo favore
Non me ne frega niente dei consumi: con due titan nel case sarei ipocrita se parlassi dei consumi...
Onestamente poi non capisco chi parla della Titan: questa scheda è uscita ora, la Titan a Febbraio/Marzo. Se AMD con la sua top di gamma non la eguagliava direi che non è che avesse fatto molta strada eh... quindi per 6 mesi e passa Nvidia su questo fronte ha spadroneggiato, e AMD è stata in ritardo.
Non mi sembra che si debba gridare al clamore per una scheda che arriva 6 mesi dopo e che offre un livello di prestazioni uguale o poco superiore ad un'altra che sta da 6 mesi sul mercato.
E' normale che Nvidia ha fatto prezzi alti: non aveva concorrenza!!!! Ora invece la situazione può farsi interessante.
Ricordiamoci infine che queste schede si scontreranno con Maxwell: sarà li il vero confronto...
sono 5 euro esatti... diciamo che per ripagarsi la titan ci vorrebbe qualche secolo :asd:
Ma infatti si sta parlando DEL NULLA.
L'unica cosa da vedere è una, ovvero la dissipazione.
Chi prende (io prob. ) una VGA simile, sicuro non si affiderà al dissy stock, ma andrà con un accelero o direttamente a liquido.
gran scheda!
sniperspa
25-10-2013, 09:13
Ma infatti si sta parlando DEL NULLA.
L'unica cosa da vedere è una, ovvero la dissipazione.
Chi prende (io prob. ) una VGA simile, sicuro non si affiderà al dissy stock, ma andrà con un accelero o direttamente a liquido.
gran scheda!
*
L'importante aggiungo e' che sia affidabile se ben dissipata..
FX8350/8150 315mm2
2600K 216mm2
e AMD li ha sempre venduti a meno, quindi il silicio conta fino ad un certo punto.
Non la farei così semplice:
Sai qual'è la resa per wafer di chip funzionanti con il bulk Intel ed il rispettivo Soi AMD?
Sai la differenza di costi di sviluppo dei rispettivi nodi.
E per ultimo, e non meno importante quanto un utente è disposto a pagare un prodotto AMD e quanto uno Intel ?
AceGranger
25-10-2013, 09:39
Non la farei così semplice:
Sai qual'è la resa per wafer di chip funzionanti con il bulk Intel ed il rispettivo Soi AMD?
Sai la differenza di costi di sviluppo dei rispettivi nodi.
E per ultimo, e non meno importante quanto un utente è disposto a pagare un prodotto AMD e quanto uno Intel ?
era un semplice paragone che seguiva il ragionamento dell'altro utente che dava impossibile un prezzo competitivo solo perchè il chip di nVidia è piu grosso. Quello di AMD è motlo piu grosso eppure riesce a venderlo a molto meno, e non credo proprio che a Intel costi di piu farlo...
La dimensione del chip è appunto solo UNO sui 1000 parametri che influiscono sul prezzo finale, e imho nVidia potrebbe tranquillamente tagliare i prezzi come gli pare, visto che è palese che li abbia venduti superprezzati fino ad ora...
CrapaDiLegno
25-10-2013, 09:55
con un overclock (anche ben studiato) ci metti poco a portare il GK110 ai consumi di Hawaii. Dal punto di vista dei consumi, è molto meglio aumentare le unità di calcolo che le frequenze (se poi si aumentano anche le tensioni allora si mette a rischio l'incolumità del chip :D )
E a quel punto vorrei vedere la differenza di prestazioni.
veramente no e il fatto che abbia prestazioni in DP circa 24 volte superiori a quelle di una 780 non significa necessariamente che titan è pensata per il gpgpu. E' la 780 GTX che è castrata oltre misura. Titan ha prestazioni in DP "solo" il 48% superiori a quelle di una R9 280 (che è una scheda da gaming) e circa doppie rispetto ad una R9 290 (che è, a sua volta, castrata se paragonata alla R9 280)
[...]
http://www.nvidia.it/object/geforce-gtx-titan-it.html
veramente nVidia la classifica come scheda per il gaming...
Mi stai dando dei numeri sterili che non aiutano a capire.
AMD ha sempre tenuto il DP nei sui chip abilitati quando presente anche nel mercato gaming, quindi il raffronto con queste non ha senso.
Dimmi perché nvidia avrebbe abilitato le unita di calcolo DP su una scheda da gioco quando ormai sono anni che le castra in questo ambito. A che serve avere 24 volte la capacità di calcolo in DP di una GeForce? Per bellezza? Per machismo? O per fare GPGPU al completo come il GK110 è in grado di fare?
Dimmi perché ci sono 6GB di RAM montati (per fare girare BF4 a 10000x5000 con AA16x?)
Dimmi perché è evidentemente sotto cloccata rispetto a quello che potrebbe dare.
Dimmi perché esiste la 780 che ha clock superiore (per chi dice che non ci sarebbero abbastanza chip che passano i test a quelle velocità) e che per 400 euro in meno va uno sputo in meno.
La Titan sta nella lista delle schede da gioco perché nvidia ha 2 categorie: se non è professionale (e non lo è dato che non ha i driver certificati) deve per forza stare nell'altra. Ciò non toglie che non è una semplice scheda da gioco e non è pensata solo per quello e il fatto che possa fare calcoli DP lo fa pagare caro (giusto o sbagliato che sia, è la loro strategia da qualche anno).
Nomenclatura diversa, doppio della RAM necessaria per il mondo gaming, DP, under clock, a me non sembra che possa essere paragonata per target di utenza ad una 780 solo più veloce.
Infatti la nuova più veloce sarà la 780i (o come si chiamerà, perché non 780 Ti?), sempre senza funzionalità DP, non una Super Titan/God of War edition.
Ed è la 780(i) la scheda da gioco con cui confrontare questa nuova besta di AMD.
Ed è la 780 ad essere sovraprezzata, dato che viene brillantemente superata dalla 290X anche se quest'ultima ha ancora qualcosa da farsi perdonare in termini di consumi e temperature (è evidentemente una Punto GT che va a 210 all'ora, non un'Audi).
Io sto mettendo insieme degli indizi che mi fanno dire che per nvidia la Titan non è una semplice scheda da gioco e che è pensata per un target di utenza diverso che necessita delle feature aggiunte ed è disposto a pagarle.
Ripeto, non è una 780 overcloccata o con più shader e basta e quindi non hanno senso tutti quei commenti che dicono che la Titan è sovraprezzata per quel che dà nei giochini. I giochini non sono il solo scopo della scheda, anche se c'è chi se l'è comprata solo per quelli.
Poi, be', come detto, a me non viene in tasca niente né che la considerate schedina da gioco da confrontare con un'altra super over cloccata o che l'abbiata comprata per farci girare PacMan. Mi sembra solo riduttivo vederla solo in ottica "400 euro in più per 10 FPS in meno" e costruirci sopra tutta una sequela di commenti denigratori senza pensare al perché è venduta a 1000 euro (e io credo, che a 1000 euro resterà anche dopo questa 290X, mentre a calare sarà la 780).
Per il costo dei chip, AMD è 2 anni che vende Thaiti che è più grande del GK104 a prezzo inferiore. Quindi la dimensione conta fino a un certo punto (e non solo nel mondo del silicio :D)
Zappa1981
25-10-2013, 10:00
ogni azienda ha un margine di guadagno per ogni pezzo/componente che immette sul mercato. I costi di produzione di intel o amd si equivalgono solo che una cpu intel buona ti costa sui 320 euro e una amd buona 150. La differenza tra le due cpu c'è perchè le cpu intel è risaputo che abbiano più potenza di calcolo ma alla fine a mio avviso il prezzo superpompato non è giustificato da niente se non da io cel ho più grosso e se lo vuoi paghi di più... Poi ci sono le dicerìe, l amico della mico che ha intel, uno che si è trovato male con amd ed ecco che compri intel...ma per scegliere bene bisogna provare con le proprie mani... Tra nvidia e amd è la stessa identica cosa, i costi di produzione sono identici e anche se fossero leggermente maggiori per nvidia, cosa molto discutibile, questo non giustifica i prezzi superpompati di titan e compagnia bella perchè vuol dire che hanno un margine di guadagno su quel pezzo di 700 euro perchè la scheda ne costa 200circa se non di meno, amd probabilmente ci guadagna meno per pezzo ma conta di venderne molti di più con quel prezzo e alla fine dei conti ci vorranno più schede amd per guadagnare quanto nvidia con meno schede vendute all attivo è tutto marketing niente di più, però francamente trovo più onesti i prezzi di amd sia nelle cpu che nelle gpu che non quelli di intel e nvidia.. E poi diciamo la verità, parlando per me io con i soldi ci devo mangiare da quà il pc in firma, 320 euro più di un anno fa e faccio le stesse identiche cose con un pc pagato e parlo di scheda madre cpu e ram 700 euro di un mio amico più di un anno fa per un i7 e sapete cosa fa? le stesse cose che faccio io, l unica differenza è che lui monta una 5870 e io la 4890 quindi la grafica da me va peggio e i giochi girano peggio ma solo perchè ho la vga meno potente, se ne avessi una come la sua andrebbe tutto uguale ma ho speso 1/3 di quello che ha speso lui perchè ho amd e mi sono sempre e dico sempre trovato bene anche per le prestazioni....
E a quel punto vorrei vedere la differenza di prestazioni.
Mi stai dando dei numeri sterili che non aiutano a capire.
AMD ha sempre tenuto il DP nei sui chip abilitati quando presente anche nel mercato gaming, quindi il raffronto con queste non ha senso.
Dimmi perché nvidia avrebbe abilitato le unita di calcolo DP su una scheda da gioco quando ormai sono anni che le castra in questo ambito. A che serve avere 24 volte la capacità di calcolo in DP di una GeForce? Per bellezza? Per machismo? O per fare GPGPU al completo come il GK110 è in grado di fare?
Dimmi perché ci sono 6GB di RAM montati (per fare girare BF4 a 10000x5000 con AA16x?)
Dimmi perché è evidentemente sotto cloccata rispetto a quello che potrebbe dare.
Dimmi perché esiste la 780 che ha clock superiore (per chi dice che non ci sarebbero abbastanza chip che passano i test a quelle velocità) e che per 400 euro in meno va uno sputo in meno.
La Titan sta nella lista delle schede da gioco perché nvidia ha 2 categorie: se non è professionale (e non lo è dato che non ha i driver certificati) deve per forza stare nell'altra. Ciò non toglie che non è una semplice scheda da gioco e non è pensata solo per quello e il fatto che possa fare calcoli DP lo fa pagare caro (giusto o sbagliato che sia, è la loro strategia da qualche anno).
Nomenclatura diversa, doppio della RAM necessaria per il mondo gaming, DP, under clock, a me non sembra che possa essere paragonata per target di utenza ad una 780 solo più veloce.
Infatti la nuova più veloce sarà la 780i (o come si chiamerà, perché non 780 Ti?), sempre senza funzionalità DP, non una Super Titan/God of War edition.
Ed è la 780(i) la scheda da gioco con cui confrontare questa nuova besta di AMD.
Ed è la 780 ad essere sovraprezzata, dato che viene brillantemente superata dalla 290X anche se quest'ultima ha ancora qualcosa da farsi perdonare in termini di consumi e temperature (è evidentemente una Punto GT che va a 210 all'ora, non un'Audi).
Io sto mettendo insieme degli indizi che mi fanno dire che per nvidia la Titan non è una semplice scheda da gioco e che è pensata per un target di utenza diverso che necessita delle feature aggiunte ed è disposto a pagarle.
Ripeto, non è una 780 overcloccata o con più shader e basta e quindi non hanno senso tutti quei commenti che dicono che la Titan è sovraprezzata per quel che dà nei giochini. I giochini non sono il solo scopo della scheda, anche se c'è chi se l'è comprata solo per quelli.
Poi, be', come detto, a me non viene in tasca niente né che la considerate schedina da gioco da confrontare con un'altra super over cloccata o che l'abbiata comprata per farci girare PacMan. Mi sembra solo riduttivo vederla solo in ottica "400 euro in più per 10 FPS in meno" e costruirci sopra tutta una sequela di commenti denigratori senza pensare al perché è venduta a 1000 euro (e io credo, che a 1000 euro resterà anche dopo questa 290X, mentre a calare sarà la 780).
Per il costo dei chip, AMD è 2 anni che vende Thaiti che è più grande del GK104 a prezzo inferiore. Quindi la dimensione conta fino a un certo punto (e non solo nel mondo del silicio :D)
Ma ancora con sta storia.
Forse non ti sei reso conto, e faresti meglio a dargli un occhiata, che di quadro e firegl con listino sotto i 1000€ ci sono e quelli hanno driver certificati che ne fanno schede per utilizzo pro puro che scende fino al semi-pro (se per semi-pro intendi quel settore lavorativo dove non è preponderande l'apporto della vga).
Quindi smettila con questa storia della Titan rivolta al mercato semi-pro (che di fatto non esiste), così facendo si cade solo nel ridicolo.
nevets89
25-10-2013, 10:38
.....
- Driver: è inutile negarlo, non diciamo fesserie: sulla precedente generazionei veri driver stabili e ottimi sono cominciati ad uscire da poco, prima era un mezzo disastro. AMD su questo aspetto mi dispiace a dirlo ma ci mette del tempo e non gioca a suo favore...
scusa tanto, ma se hai avuto amd negli ultimi 4 anni e hai avuto problemi, beh probabilmente erano dovuti ad altro... io ho avuto 4890,5850,7850 e non ho visto questi mezzi disastri, è vero che non sempre i giochi sono andati perfettamente all'uscita, ma solitamente bastava aspettare alla grande 2 settimane... e anche nvidia ha avuto questi problemi, con shift a quanto ricordo... poi stabili? tutti quelli che ho provato erano stabili...dagli 10.X ad oggi.
PaulGuru
25-10-2013, 10:42
la 680 costava 500 euro all'uscita e andava a scontrarsi con la 7970 ed erano simili in prestazioni
la 780 costava 650 e andava a scontrarsi con la 7970GE a 450 euro ed era migliore in prestazioni.
la 290x costerà 500? e a cosa la paragoni?
I prezzi dal lancio possono anche variare, la 290x si confronta adesso con la GTX 780 e poi con la prossima GTX780 Ti, i cui prezzi verranno riadattati, anche se oramai ha poco senso visto che subito all'inizio del prox anno arriva Maxwell.
tuttodigitale
25-10-2013, 10:55
Il ritardo di AMD è indubbio.. parliamoci chiaro, appena uscirono le 680 si parlava del gk110. Non fu utilizzato per mancanza di concorrenza. I problemi di produzione sono un fattore secondario.
Ma neanche per sogno. Il debutto di gk110 nel mercato consumer è stato rinviato perchè dovevano produrre chip per il mercato militare. Parliamo di volumi ridotti: 18.000 uità parzialmente disabilitate.
Gk110 non è adatto alla produzione in volumi come lo sono i chip da 300-360mmq.
Vi immaginate cosa sarebbe successo se la 680 avesse montato il gk110? AMD si sarebbe dovuta nascondere.
OMG è dal 2007, ovvero dalla messa in commercio delle HD3800, che AMD utilizza la soluzione dual gpu contro la soluzione monolitica di nvidia.
HD3870x2 vs 9800GTX
HD4870x2 vs GTX280
HD5970 vs GTX480
In origine doveva essere:
HD7990 vs GTX680 (gk110)
Non dimentichiamoci che le dimensioni del "gigante" Tahiti sono inferiori a quelle di GF104 (chip montato nelle GTX460 560).
Il ritardo di nvidia ha fatto si che per lungo tempo le HD7900 (ma anche le schede inferiori) e le GTX680 rimanessero sovraprezzate.
tuttodigitale
25-10-2013, 11:24
la scheda a me sembra buona e soprattutto mi ha stupito il prezzo, io la davo a 800 euro invece lieto di essermi sbagliato...
I videogiocatori che spendono 800-1000 euro per la sola vga sono più unici che rari. AMD non avrebbe mai prodotto un chip che non ha mercato (il gk110 è orientato al mercato professionale).
e in ogni caso sono sempre i soliti discorsi, la nuova nata scalda come un forno e posso dire che quando nvidia ha tirato fuori la 480 il fatto che scaldassero era visto come una cosa incredibilmente negativa, ora che lo fa amd allora va bene ;) ad ogni modo è una bella scheda e a quel prezzo (se potessi) la comprerei sicuramente
Aspetta- Fino a un paio di generazioni fa avere gpu che lavorassero a 80-100°C era la normalità, la tanto decantata HD5870 non era certo dissimile.
Il fatto che nei driver è impostato di fabbrica la temperatura di 95°C dovrebbe rassicurare tutti sulla durata della scheda.
Il problema è la rumorosità.
Il calore prodotto dipende esclusivamente dal consumo, e questo non è molto più elevato (30W)
E' vero che consuma tanto in assoluto , ma è chiaro che i consumi delle attuali top di gamma si sono allineati a quelle di una GTX580/HD2900xt e non certo a quelli di una HD5870/7870....
Ripeto la GTX480 consumava 140W piùin full e 25W in idle rispetto ad una HD5870
la r9 290x consuma 30W in più (e ne consuma 30-40 in meno rispetto alla GTX480) e solo in FULL.
Certo se la GTX770 consumava quanto una HD7850 e andava il 5-10% in più, ci troveremmo nella stessa condizione...ma dubito che con un overclock seppur piccolo la GTX770 possa abbattere i consumi di 70-80W.
tuttodigitale
25-10-2013, 11:36
era un semplice paragone che seguiva il ragionamento dell'altro utente che dava impossibile un prezzo competitivo solo perchè il chip di nVidia è piu grosso. Quello di AMD è motlo piu grosso eppure riesce a venderlo a molto meno, e non credo proprio che a Intel costi di piu farlo...
Ti informo che AMD è in perdita nel reparto cpu mentre Intel ha guadagni da capogiro. AMD sta restando in piedi grazie alla divisione grafica.
La dimensione del chip è appunto solo UNO sui 1000 parametri che influiscono sul prezzo finale, e imho nVidia potrebbe tranquillamente tagliare i prezzi come gli pare, visto che è palese che li abbia venduti superprezzati fino ad ora...
La dimensione del chip è fondamentale, perchè TMSC non può produrre più di tot Wafer. Se ne produci la metà, anche ammesso che il costo del singolo chip di per sé fosse insignificante, vuol dire che devi vendere con il doppio del margine per avere gli stessi ricavi. E se i pezzi disponibili il prezzo sale: è il mercato.
Puoi tagliare i prezzi, se e solo se, ne produce o ha scorte a sufficienza. ad essere sincero vedo più probabile una nuova scheda basata su gk110 che ad un abbassamento del prezzo.
La dimensione del chip è fondamentale, perchè TMSC non può produrre più di tot Wafer. Se ne produci la metà, anche ammesso che il costo del singolo chip di per sé fosse insignificante, vuol dire che devi vendere con il doppio del margine per avere gli stessi ricavi. E se i pezzi disponibili il prezzo sale: è il mercato.
Puoi tagliare i prezzi, se e solo se, ne produce o ha scorte a sufficienza. ad essere sincero vedo più probabile una nuova scheda basata su gk110 che ad un abbassamento del prezzo.
La dimensione del chip è importante, ma non fondamentale.
Quello che è fondamentale è la resa di prodotti funzionanti per singolo wafer, ed anche se sembra logico che chip con dimensioni inferiori permettono un maggior numero di pezzi funzionanti da singolo wafer questo non sempre avviene.
Per esempio entro certi limiti si avrà una resa superiore con chip più grandi ed ugual numero di transistor (praticamente si riduce la densità).
L'ideale è un'equazione molto complessa e spesso si scontra con la realizzazione implementata sul processo litografico solo in fase di tape-out.
Ci sono ricorsi storici a documentarlo.
AceGranger
25-10-2013, 12:01
Ti informo che AMD è in perdita nel reparto cpu mentre Intel ha guadagni da capogiro. AMD sta restando in piedi grazie alla divisione grafica.
La dimensione del chip è fondamentale, perchè TMSC non può produrre più di tot Wafer. Se ne produci la metà, anche ammesso che il costo del singolo chip di per sé fosse insignificante, vuol dire che devi vendere con il doppio del margine per avere gli stessi ricavi. E se i pezzi disponibili il prezzo sale: è il mercato.
Puoi tagliare i prezzi, se e solo se, ne produce o ha scorte a sufficienza. ad essere sincero vedo più probabile una nuova scheda basata su gk110 che ad un abbassamento del prezzo.
va bene, allora prendiamo i chip della 680 e della 7970;
GK104 294mm2
Tahiti XT 365mm²
le AMD hanno sempre avuto il prezzo inferiore; è la stessa situazione del die size delle attuali GTX 780 e X290 a parti invertite, non vedo perchè mai non dovrebbe valere la stessa cosa; non sto dicendo che nVidia vendera le 780 a meno delle X290, ma sicuramente potrebbe tagliare i prezzi per allinearli visto che, fra l'altro, ha anche 1 Gb di ram in meno e un PCB sicuramente piu semplice avendo un bus piu ristretto.
ora non venirmi a dire che la 680 ha rese basse e la 7970 rese alte.... nVidia è come Intel ha un nome che le permette di vendere meglio i suoi prodotti, e la 780 è chiaramente uno di quei prodotti che costa piu del "dovuto" perchè il nome glie lo permette e perchè fino ad ora non aveva una rivale in quella fascia.
Scalda e consuma troppo, avevo la 7970 Ghz edition e dopo 5 minuti era come avere un phon dentro al PC, veramente fastidioso da sentire. Malgrado nvidia sia più cara, la preferisco di gran lunga... e poi questa 290 mi sa tanto di minestra riscaldata.... scaffale!
nevets89
25-10-2013, 12:33
Scalda e consuma troppo, avevo la 7970 Ghz edition e dopo 5 minuti era come avere un phon dentro al PC, veramente fastidioso da sentire. Malgrado nvidia sia più cara, la preferisco di gran lunga... e poi questa 290 mi sa tanto di minestra riscaldata.... scaffale!
scusa eh, ma tutte le recensioni che ho controllato danno la 7970 GHz edition rumorosa come la gtx 680, non arrivano a 1db di differenza...non dico che menti, forse hai qualche problema di flusso d'aria oppure il modello che avevi era difettato...
PaulGuru
25-10-2013, 12:50
scusa eh, ma tutte le recensioni che ho controllato danno la 7970 GHz edition rumorosa come la gtx 680, non arrivano a 1db di differenza...non dico che menti, forse hai qualche problema di flusso d'aria oppure il modello che avevi era difettato...
Le recensioni sono tutte o quasi indicative, la realtà spesso può essere più o meno differente.
nevets89
25-10-2013, 13:11
Le recensioni sono tutte o quasi indicative, la realtà spesso può essere più o meno differente.
si ok, però boh... di nvidia ho avuto gtx 285 e gtx 560 ti...beh la gtx 285 era un reattore e va beh, la gtx 560 ti invece è molto silenziosa, ma la 4890 vapor, la 5850 eXtreme o la 7850 sapphire sono silenziose, tutt'ora la 5850 eXtreme è la scheda più silenziosa e fresca che abbia avuto. poi boh, trovo nvidia e ati ottime sulla fascia media, le top sono pur sempre un prodotto di nicchia che pochi possono permettersi e che spariscono presto dagli store on-line, quindi non mi pronuncio.
va bene, allora prendiamo i chip della 680 e della 7970;
GK104 294mm2
Tahiti XT 365mm²
GK104 12milioni di transistor per mm2
Tahiti XT 11,8 milioni di transistor per mm2
Anche questo può incidere sulla resa finale (anche se di poco)
tuttodigitale
25-10-2013, 13:33
va bene, allora prendiamo i chip della 680 e della 7970;
GK104 294mm2
Tahiti XT 365mm²
le AMD hanno sempre avuto il prezzo inferiore;
Queste sono le dimensioni di :
Cypress 352mmq
GF104 367mmq
CAyman 369mmq
Le schede basate su questi 3 chip sono state prezzate a lancio a meno di 350 euro... diciamo che per tutto il 2012, sia AMD sia Nvidia non si sono fatte la guerra più di tanto.
nvidia qualcosa sicuramente farà, ma credo che in questo momento sia prioritario, per questioni di immagine, immettere una scheda video top di gamma.
Grazie alla forza del suo marchio, nvidia può permettersi di vendere con maggior margini le sue gpu, questo da sempre.
Ergo non c'è bisogno di una scheda video nuova per la r9 290 se sarà prezzata a 400 euro. Ma se il prezzo sarà allettante (350 euro?) la proposta di AMD rischi di diventare il best-buy di questa mezza-nuova generazione
CrapaDiLegno
25-10-2013, 13:36
Ma ancora con sta storia.
Forse non ti sei reso conto, e faresti meglio a dargli un occhiata, che di quadro e firegl con listino sotto i 1000€ ci sono e quelli hanno driver certificati che ne fanno schede per utilizzo pro puro che scende fino al semi-pro (se per semi-pro intendi quel settore lavorativo dove non è preponderande l'apporto della vga).
Quindi smettila con questa storia della Titan rivolta al mercato semi-pro (che di fatto non esiste), così facendo si cade solo nel ridicolo.
Forse non ti sei accorto che con le Quadro di quella fascia le unità DP non sono proprio presenti nel chip e hanno capacità di calcolo GPGPU in generale abbastanza ridicola.
Quello che paghi per quelle schede sono i driver certificati per uso grafico, non certo la loro capacità di acccelerarti i calcoli di qualsiasi plug-in/engine tu voglia usare.
Se vuoi commentare intelligentemente magari prova a informati meglio.
Sparare a zero solo perché avete voglia di fare i bastian contrari ("eh, ma l'ho letto su Donna Moderna, ma cosa dice questo?") non serve a nulla.
Attivate il neurone e rispondete alle domande sopra poste. Altrimenti lasicate stare e continuate a fraggare zombie o quel che volete con la vostra VGA preferita.
CrapaDiLegno
25-10-2013, 13:53
OMG è dal 2007, ovvero dalla messa in commercio delle HD3800, che AMD utilizza la soluzione dual gpu contro la soluzione monolitica di nvidia.
HD3870x2 vs 9800GTX
HD4870x2 vs GTX280
HD5970 vs GTX480
Infatti è dal 2007 che AMD prende in giro chi installa schede in crossfire, vista la recente questione dello stuttering che ancora non è risolta (siamo a fine 2013).
Ed è dal 2007 che prende in giro il mercato con "piccolo e bello". vatti a vedere come è variata la dimensione del top gamma dal RV670 in poi.
Non dimentichiamoci che le dimensioni del "gigante" Tahiti sono inferiori a quelle di GF104 (chip montato nelle GTX460 560).
Ecco, vedi un po' quanto sono sovraprezzate le schede grafiche oggi. Il GF104, un chip più grande del GK104 era venduto da nvidia nella fascia 100-200 nella serie 5000. Il GK104, che è più piccolo del GF104, oggi viene venduto nella fascia 300-500.
E i prezzi alti non sono per il ritardio di 3 mesi di nvidia. Sono perché con un chippetto di media fascia nvidia ottiene le stese prestazioni del chip top gamma di AMD. AMD è dovuta uscire con 20 mesi di ritardo con un nuovo chippozzo per superare le prestazioni di nvidia. E dopo 20 mesi, forse, magari, vedremo, i prezzi delle schede nvidia scenderanno.
Credo che di margine di taglio dei prezzi ci sia da entrambe le parti. Nvidia in questi ultimi 18 mesi ha messo in tasca un sacco di soldi, e per la questione GK104 vs Tahiti e per il fatto che il GK110 ha potuto produrlo quando il processo produttivo è stato migliorato, avendo molti meno scarti di quel che avrebbe avuto se avesse dovuto cominciare la produzione a Marzo per farlo uscire contro Tahiti.
Ti informo che AMD è in perdita nel reparto cpu mentre Intel ha guadagni da capogiro. AMD sta restando in piedi grazie alla divisione grafica.
Il bilancio quasi sempre in pari degli ultimi anni della sezione grafica non supporta per nulla la tua teoria. Infatti fino al trimestre scorso AMD non stava proprio in piedi dato che le perdite sono sempre state ingenti, indipendenemente dal reparto video.
Con l'ultimo trimestre e l'arrivo delle console la discesa si è arrestata.
Vedremo se terrà questa impostazione (con i tagli praticati al bilancio che nessuno ha notato).
Free Gordon
25-10-2013, 14:03
non è che scali meglio all'aumentare degli shader ma, piuttosto, che ha scelto un approccio diverso che permette di avere molte più unità di calcolo di tipo matematico per unità di superficie
Ciao Yoss!!! :sofico:
domanda:
Questo puoi quantificare quanto incide sui consumi di Hawaii?
Lo "shader core" con la sua frequenza sul ghz...è la causa di questi consumi "over" Titan?
Perchè secondo te hanno messo 11 (x4) unità e non 12? Non è un pò strano? :mbe:
Con 12 unità e frequenze massime sui 900 e qualcosa, la scheda sarebbe stata più fresca e più parca nei consumi, vero?
con un dissipatore migliore si abbassano le temperature ma non i consumi. E quando nVidia tirerà fuori un chip a 28 nm con frequenze più elevate si avranno consumi analoghi a quelli della R9. Penso si possa affermare che queste architetture, a 28 nm (vale tanto per Hawaii che per GK110), sono un bell'esercizio di stile e un'utile "palestra" per il prossimo scaling
Secondo te Maxwell sarà ancora a 28? La notizia di oggi è che TSMC ha pronti i 20 per il primo trimestre 2014...
Titan ha prestazioni in DP "solo" il 48%** superiori a quelle di una R9 280 (che è una scheda da gaming) e circa doppie rispetto ad una R9 290 (che è, a sua volta, castrata se paragonata alla R9 280)
Cos'è che hanno tagliato rispetto a Tahiti? :)
Pensavo che l'architettura fosse identica (o legg migliore) a quella in Bonaire...
**
Parli per unità di calcolo, giusto? Non in senso assoluto calcolando il potenziale teorico di tutto il chip.. :)
Free Gordon
25-10-2013, 14:05
FX8350/8150 315mm2
2600K 216mm2
e AMD li ha sempre venduti a meno, quindi il silicio conta fino ad un certo punto.
Il paragone però non calza molto...perchè lì stai paragonando due processi produttivi (anche se magari alla stessa nanometria) DIVERSI.
Tra AMD e Nvidia il pp è sempre lo stesso di TSMC. ;)
I costi scalano abb linearmente in questo caso (rispetto alle dimensioni), avendo yields paragonabili s'intende. :)
PaulGuru
25-10-2013, 14:16
si ok, però boh... di nvidia ho avuto gtx 285 e gtx 560 ti...beh la gtx 285 era un reattore e va beh, la gtx 560 ti invece è molto silenziosa, ma la 4890 vapor, la 5850 eXtreme o la 7850 sapphire sono silenziose, tutt'ora la 5850 eXtreme è la scheda più silenziosa e fresca che abbia avuto. poi boh, trovo nvidia e ati ottime sulla fascia media, le top sono pur sempre un prodotto di nicchia che pochi possono permettersi e che spariscono presto dagli store on-line, quindi non mi pronuncio.
A me invece con ATI che Nvidia, ed ho avuto anche una GTX 470 posso dire che non ho avuto alcun problema con nessuna, calde e fredda che siano a me non hanno mai fatto grosse differenze e a livello acustico mai dato fastidio.
mi domandavo se fossi cpu limited col primo pc in firma.
El Korki
25-10-2013, 14:35
il fanboysmo nvidia scorre potente in questo thread...
mi diverto tantissimo a leggere cose tipo "la amd fa schifo perchè una volta ho avuto una ati che faceva schifo, quindi per il resto della mia vita comprerò solo nvidia anche se dovrò spendere il doppio rispetto a amd per le stesse prestazioni, e andrò in giro per forum a rompere i coglio** a tutti quelli che vogliono fare una discussione oggettiva e basata sui dati, perchè padron huang sono 10 anni che basa il proprio marketing su noi fanboy e morirei piuttosto che deludere quel bel fusto"
mi domandavo se fossi cpu limited col primo pc in firma.
bravissimo, questo è proprio il posto per fare una domanda del genere.
comunque no
marchigiano
25-10-2013, 14:44
http://www.hwupgrade.it/articoli/skvideo/3805/grafici_schede_selezionate/Metro%20Last%20Light/PLOT.png
sarebbe bello se la redazione potesse fare un test per capire cosa genera quei rallentamenti, cpu? ram?
oramai le cpu sono uscite tutte e per un po non dovrebbero esserci novità, un bel round-up?
Free Gordon
25-10-2013, 14:48
Vi immaginate cosa sarebbe successo se la 680 avesse montato il gk110? AMD si sarebbe dovuta nascondere.
:sofico:
ma sei serio? :D
Free Gordon
25-10-2013, 14:59
mi domandavo se fossi cpu limited col primo pc in firma.
A 1440p con filtri, il limite più grosso attualmente credo sia ancora la GPU.. :D
A 1440p con filtri, il limite più grosso attualmente credo sia ancora la GPU.. :D
buono a sapersi.grazie e scusate ot.
il fanboysmo nvidia scorre potente in questo thread...
mi diverto tantissimo a leggere cose tipo "la amd fa schifo perchè una volta ho avuto una ati che faceva schifo, quindi per il resto della mia vita comprerò solo nvidia anche se dovrò spendere il doppio rispetto a amd per le stesse prestazioni, e andrò in giro per forum a rompere i coglio** a tutti quelli che vogliono fare una discussione oggettiva e basata sui dati, perchè padron huang sono 10 anni che basa il proprio marketing su noi fanboy e morirei piuttosto che deludere quel bel fusto"
chiedo umilmente perdono se dopo essermmela presa una volta in quel posto non voglio ripetere l'esperienza.
Evidentemente c'è gente a cui piace rischiare....che faccia.
Il mio non è essere fanboy, tant'è che quella volta la mia prima scelta ricadde proprio su una Ati. E non sono stato io a dire che i dissipatori stock sono a malapena sufficienti a tenere a bada le temperature delle schede Ati (sembra quindi che Ati abbia questo vizietto).
Tutti a dire "vedremo come saranno le soluzioni custo". Ma sapete questo cosa vuol dire? Sapete cosa sottintende? Che NESSUNO comprerebbe QUESTA scheda così come è ora. Se avessero recensito una versione custom non avrebbero scritto che riscalda come un forno e probabilmente i miei commenti sarebbero stati diversi. Ma QUESTA scheda (non una qualsiasi versione custom, ripeto QUESTA) è buona solo per quando finisci la bombola del gas e non sai come fare a far bollire l'acqua per la pasta.
El Korki
25-10-2013, 15:38
http://www.hwupgrade.it/articoli/skvideo/3805/grafici_schede_selezionate/Metro%20Last%20Light/PLOT.png
sarebbe bello se la redazione potesse fare un test per capire cosa genera quei rallentamenti, cpu? ram?
oramai le cpu sono uscite tutte e per un po non dovrebbero esserci novità, un bel round-up?
l'hai mai fatto girare il bench di metro last light? ha una frequenza di log ridicolmente alta, quindi i minimi non sono affidabili...
Forse non ti sei accorto che con le Quadro di quella fascia le unità DP non sono proprio presenti nel chip e hanno capacità di calcolo GPGPU in generale abbastanza ridicola.
Quello che paghi per quelle schede sono i driver certificati per uso grafico, non certo la loro capacità di acccelerarti i calcoli di qualsiasi plug-in/engine tu voglia usare.
Se vuoi commentare intelligentemente magari prova a informati meglio.
Sparare a zero solo perché avete voglia di fare i bastian contrari ("eh, ma l'ho letto su Donna Moderna, ma cosa dice questo?") non serve a nulla.
Attivate il neurone e rispondete alle domande sopra poste. Altrimenti lasicate stare e continuate a fraggare zombie o quel che volete con la vostra VGA preferita.
Mi sa che non sai proprio cos'è il gpgpu:
Titan a differenza delle tesla ha l'ECC disabilitato, la frequenza delle unità db è inferiore per un rapporto di di calcolo sp/dp di 1/24 (gtx 580 era di 1/8 e sotto linux era possibile abilitare anche ECC).
Si può aggirare questo limite da driver (operazione sconsigliata da nvidia stessa) aumentando il rapportorto del moltiplicatore interno delle unita DP portando le prestazioni ad 1/3 del SP, ma al contempo abbassando le frequenze di lavoro a 715 mhz (o inferiore dipende dalle temp di funzionamento) quando si utilizza le unità in doppia precisione.
Nonostante tutto questo non ti garantisce la certezza che i dati siano eseguiti in modo corretto.
Ma dato che tu hai neuroni in abbondanza da prestarne ad altri (me conpreso) dimmi quali calcoli esegui in modo semi pro su una titan, o se non lo fai tu quali eseguono i tuoi conoscenti?
Con questo chiudo l'ot.
I prezzi dal lancio possono anche variare, la 290x si confronta adesso con la GTX 780 e poi con la prossima GTX780 Ti, i cui prezzi verranno riadattati, anche se oramai ha poco senso visto che subito all'inizio del prox anno arriva Maxwell.
siamo a novembre maxwell si parla del primo 4° del 2014 la finestra di tempo non è poi così breve...
l'unica cosa sicura è che la gtx 780Ti non costerà 650 euro :)
siluro85
25-10-2013, 16:06
chiedo umilmente perdono se dopo essermmela presa una volta in quel posto non voglio ripetere l'esperienza.
Evidentemente c'è gente a cui piace rischiare....che faccia.
Il mio non è essere fanboy, tant'è che quella volta la mia prima scelta ricadde proprio su una Ati. E non sono stato io a dire che i dissipatori stock sono a malapena sufficienti a tenere a bada le temperature delle schede Ati (sembra quindi che Ati abbia questo vizietto).
Tutti a dire "vedremo come saranno le soluzioni custo". Ma sapete questo cosa vuol dire? Sapete cosa sottintende? Che NESSUNO comprerebbe QUESTA scheda così come è ora. Se avessero recensito una versione custom non avrebbero scritto che riscalda come un forno e probabilmente i miei commenti sarebbero stati diversi. Ma QUESTA scheda (non una qualsiasi versione custom, ripeto QUESTA) è buona solo per quando finisci la bombola del gas e non sai come fare a far bollire l'acqua per la pasta.
Mentre 480 e 470 erano ottime schede vero?
Ma l'obiettività l'avete lasciata nell'asciugatrice?
Io ho avuto entrambe, i driver amd mi sembrano come i corrispettivi nvidia.. Perchè nessuno mai ricorda che nvidia ha fatto una serie di driver che friggevano le schede... Problemi a giocare con amd 0 tranne i titoli dove nvidia pagava per boicottare...
Non vi piacciono ste schede? Vi rode che è più veloce? Cambiate 3d e andate su quelli dedicati alla vostra amata Nvidia... Ma che siete veramente pagati per boicottare?:muro: :muro: :muro: :muro: :muro:
Forse non ti sei accorto che con le Quadro di quella fascia le unità DP non sono proprio presenti nel chip e hanno capacità di calcolo GPGPU in generale abbastanza ridicola.
Quello che paghi per quelle schede sono i driver certificati per uso grafico, non certo la loro capacità di acccelerarti i calcoli di qualsiasi plug-in/engine tu voglia usare.
Se vuoi commentare intelligentemente magari prova a informati meglio.
Sparare a zero solo perché avete voglia di fare i bastian contrari ("eh, ma l'ho letto su Donna Moderna, ma cosa dice questo?") non serve a nulla.
Attivate il neurone e rispondete alle domande sopra poste. Altrimenti lasicate stare e continuate a fraggare zombie o quel che volete con la vostra VGA preferita.
non esistono schede semi-pro. non è un concetto difficile da capire...
esistono PR che fanno spendere soldi in più a chi pensa di avere un prodotto che possa fare un po' di tutto sbandierando alcune caratteristiche che non hanno le consumer.
esempio non IT? fotografia:
esiste la nikon 7100 considerata "semi-pro" anzi "pro-user" :D che ha delle caratteristiche che le user non hanno che potrebbero invece avere le pro... un professionista usa la d7100? la risposta è NO, chi ci lavora ha un'altra macchina completamente diversa e, anche come secondo corpo macchina tende a scegliere macchine tipo la d300 o d6/700 (FF)
spero sia chiaro l'esempio, anche perchè le prove sul campo dimostrano chiaramente che la titan in situazioni di grafica seria dedicata (cad, rendering, etc) le prende da tutte le schede dedicate al settore pro.
quindi... di cosa stiamo parlando? forse di folding at home?
la titan è una scheda per chi gioca. chiedo scusa per l'ot ma non se ne può più... :)
PaulGuru
25-10-2013, 16:21
Mentre 480 e 470 erano ottime schede vero?
Ma l'obiettività l'avete lasciata nell'asciugatrice?
Io ho avuto entrambe, i driver amd mi sembrano come i corrispettivi nvidia.. Perchè nessuno mai ricorda che nvidia ha fatto una serie di driver che friggevano le schede... Problemi a giocare con amd 0 tranne i titoli dove nvidia pagava per boicottare...
Non vi piacciono ste schede? Vi rode che è più veloce? Cambiate 3d e andate su quelli dedicati alla vostra amata Nvidia... Ma che siete veramente pagati per boicottare?:muro: :muro: :muro: :muro: :muro:
Perchè primo quelli erano casi singoli, e secondo erano problemi di una tipologia differente, non riguardavano il supporto giochi o un interazione con un altro applicativo.
Io ho avuto la GTX 470 e non ho avuto il minimo problema, con ATI invece a me è sempre crashato il flashplayer sia con la serie 5 che con la 6, e prima ancora mi crashavano sempre i drivers, cose che da quando sono tornato ad Nvidia non mi è mai più capitato e sicuramente non così spesso e pensare che erano tutti driver Catalyst ufficiali, niente beta strane.
Probabilmente le cose saranno anche cambiate ma fatto stà che i supporti AMD arrivano ancora dopo, come la storia dello stuttering dove AMD ha cominciato a lavorarci dopo e ancora oggi non so se hanno terminato.
E giusto per fare chiarezza io non ho mica detto nulla a riguardo queste schede, quindi non so a cosa ti riferisci.
nevets89
25-10-2013, 16:36
Perchè primo quelli erano casi singoli, e secondo erano problemi di una tipologia differente, non riguardavano il supporto giochi o un interazione con un altro applicativo.
Io ho avuto la GTX 470 e non ho avuto il minimo problema, con ATI invece a me è sempre crashato il flashplayer sia con la serie 5 che con la 6, e prima ancora mi crashavano sempre i drivers, cose che da quando sono tornato ad Nvidia non mi è mai più capitato e sicuramente non così spesso e pensare che erano tutti driver Catalyst ufficiali, niente beta strane.
Probabilmente le cose saranno anche cambiate ma fatto stà che i supporti AMD arrivano ancora dopo, come la storia dello stuttering dove AMD ha cominciato a lavorarci dopo e ancora oggi non so se hanno terminato.
E giusto per fare chiarezza io non ho mica detto nulla a riguardo queste schede, quindi non so a cosa ti riferisci.
ecco però, sono casi...io come ho detto ho avuto 4890,5850 e 7850, mai un crash di driver...con ufficiali o beta che sia(gli ultimi li ho quasi sempre evitati, ma nessun problema)... e anche sulle nvidia leggo di molta gente che lamenta crash dei driver con qualsiasi versione superiore a 314.XX, ma anche quelli sono casi...quindi non mi sembra che una sia superiore all'altra in assoluto, ognuno ha le proprie esperienze e poi puo' darsi che siano problemi di conflitto hardware software... sia da un lato che dall'altro...
Io al posto tuo la comprerei al day one. Non aspetterei neppure che qualcuno se ne esca con versioni custom, la prenderei liscia. Che poi tanto le Ati costano meno quindi anche se non dovesse andare bene si piange con un occhio solo.....e poi si può sempre sperare in un hotfix che risolva il problema, o si può provare a fleshare un bios per ridurre le frequenze così si riduce la temperatura (anche se poi il primato e quel 7% in più si vanno a fare benedire). Si io da come parli al posto tuo la comprerei subito!
Io al posto tuo la comprerei al day one. Non aspetterei neppure che qualcuno se ne esca con versioni custom, la prenderei liscia. Che poi tanto le Ati costano meno quindi anche se non dovesse andare bene si piange con un occhio solo.....e poi si può sempre sperare in un hotfix che risolva il problema, o si può provare a fleshare un bios per ridurre le frequenze così si riduce la temperatura (anche se poi il primato e quel 7% in più si vanno a fare benedire). Si io da come parli al posto tuo la comprerei subito!
tranquillo ,di fix che ti friggono letteralmente la scheda su amd non è mai successa.
e comunque per un discorso generale, con nvlddmkm avevo un crash ognigiorno
yossarian
25-10-2013, 19:25
E a quel punto vorrei vedere la differenza di prestazioni.
ti rigiro la questione: quanto pensi che possa salire, in overclock, un chip di 7 miliardi di transistor, seppure con parte del chip disabilitato, prima di superare i 300 W di assorbimento? E con le temperature come la metti? A parità di dissipatore, credi che un chip da 7 miliardi di transistor, portato alla stessa frequenza di uno da 6 miliardi, riesca a "stare più fresco"?
Mi stai dando dei numeri sterili che non aiutano a capire.
AMD ha sempre tenuto il DP nei sui chip abilitati quando presente anche nel mercato gaming, quindi il raffronto con queste non ha senso.
Quindi stai dicendo che le AMD sono TUTTE "prosumer" (ammesso che tale termine abbia senso) mentre le serie 6xx e 7xx di nVidia non lo sono?
la serie 6xx/7xx di nVidia ha prestazioni, in DP, scandalose anche rispetto alle serie precedenti della stessa nVidia, questo perché ha "castrato" i chip oltre misura anche rispetto a quanto fatto in passato. Tanto che per fare gpgpu, dove è richiesta la DP, una 580 e molto meglio di una 680 o di una 780. E lo ha fatto per un motivo: un chip così grosso, con tutto abilitato, non può salire in frequenza più di tanto senza diventare una stufa e consumare come un reattore nucleare. Quindi la scelta di creare una fascia "gaming" per poter competere con AMD richiedeva, per forza di cose, un chip con alcuni circuiti "spenti" e, per ovvie ragioni, la scelta è caduta sulla DP che in game non serve a niente. Avrebbero potuto disabilitarla del tutto se non fosse che può tornare utile per qualche applicazioni di simulazione fisica. AMD non ha lo stesso problema per due motivi: ha un'architettura che permette di avere una densità di unità di calcolo superiore e ottiene la DP sfruttando le stesse MAD fp32 che utilizza in SP.
Dimmi perché nvidia avrebbe abilitato le unita di calcolo DP su una scheda da gioco quando ormai sono anni che le castra in questo ambito. A che serve avere 24 volte la capacità di calcolo in DP di una GeForce? Per bellezza? Per machismo? O per fare GPGPU al completo come il GK110 è in grado di fare?
Dimmi perché ci sono 6GB di RAM montati (per fare girare BF4 a 10000x5000 con AA16x?)
perché solo la 780 e la 680 hanno una capacità di calcolo in DP di circa 1/24 rispetto a titan. Per la serie 5xx il "moltiplicatore" era un 8x, Quindi sono 7x0 e 6x0 che sono eccessivamente penalizzate nel calcolo in DP ma la cosa ha un senso in quanto si tratta di chip molto complessi
Dimmi perché è evidentemente sotto cloccata rispetto a quello che potrebbe dare.
se ti riferisci a titan è perché ha le unità DP tutte abilitate. Parliamo di un chip con il 16% in più di transistor rispetto ad hawaii; portalo a 1000 MHz con tutti i transistor abilitati e vedi cosa succede a consumi e calore generato sul chip. Non si è trattato di una libera scelta ma di una scelta obbligata
Dimmi perché esiste la 780 che ha clock superiore (per chi dice che non ci sarebbero abbastanza chip che passano i test a quelle velocità) e che per 400 euro in meno va uno sputo in meno.
perché la 780 non ha le unità DP abilitate :D
La Titan sta nella lista delle schede da gioco perché nvidia ha 2 categorie: se non è professionale (e non lo è dato che non ha i driver certificati) deve per forza stare nell'altra. Ciò non toglie che non è una semplice scheda da gioco e non è pensata solo per quello e il fatto che possa fare calcoli DP lo fa pagare caro (giusto o sbagliato che sia, è la loro strategia da qualche anno).
allora tutte la AMD rientrano nella stessa categoria, secondo il tuo ragionamento. Una R9 280 ha una capacità in DP pari a circa 13/14 volte quella di una 780. E' un chip "prosumer" pure quello?
Nomenclatura diversa, doppio della RAM necessaria per il mondo gaming, DP, under clock, a me non sembra che possa essere paragonata per target di utenza ad una 780 solo più veloce.
la titan è una GEFORCE (secondo nVidia, bada bene, non secondo il forum di HWUpgrade)
Infatti la nuova più veloce sarà la 780i (o come si chiamerà, perché non 780 Ti?), sempre senza funzionalità DP, non una Super Titan/God of War edition.
Ed è la 780(i) la scheda da gioco con cui confrontare questa nuova besta di AMD.
infatti una titan con tutti i transistor abilitati che viaggi a frequenze prossime a 1 GHz te la puoi scordare a 28 nm; con la 780 forse ci si riesce ad arrivare (aumentando consumi e calore generato)
Ed è la 780 ad essere sovraprezzata, dato che viene brillantemente superata dalla 290X anche se quest'ultima ha ancora qualcosa da farsi perdonare in termini di consumi e temperature (è evidentemente una Punto GT che va a 210 all'ora, non un'Audi).
quindi una ipotetica 780 tirata a 1000 MHz con consumi prossimi a 300 W da audi A4 diventa punto GT? :sofico:
Io sto mettendo insieme degli indizi che mi fanno dire che per nvidia la Titan non è una semplice scheda da gioco e che è pensata per un target di utenza diverso che necessita delle feature aggiunte ed è disposto a pagarle.
Ripeto, non è una 780 overcloccata o con più shader e basta e quindi non hanno senso tutti quei commenti che dicono che la Titan è sovraprezzata per quel che dà nei giochini. I giochini non sono il solo scopo della scheda, anche se c'è chi se l'è comprata solo per quelli.
ribadisco il concetto: il tuo ragionamento porta a includere tutte la AMD della serie Radeon nella fascia "prosumer" (quantitativo di ram a parte, per ora, gli altri elementi ci sono tutti, compresi la mancata certificazione dei driver)
Ciao Yoss!!! :sofico:
domanda:
Questo puoi quantificare quanto incide sui consumi di Hawaii?
Lo "shader core" con la sua frequenza sul ghz...è la causa di questi consumi "over" Titan?
ciao Gordon :p
direi proprio di si; ormai lo shader core con relativi registri occupa circa il 60-65% del die.
Perchè secondo te hanno messo 11 (x4) unità e non 12? Non è un pò strano? :mbe:
Con 12 unità e frequenze massime sui 900 e qualcosa, la scheda sarebbe stata più fresca e più parca nei consumi, vero?
perché 12 è il massimo di unità disponibili (vediamo se ci arrivi) :D
si, certo, con 12 unità attive a frequenze più basse avrebbero ridotto i consumi ma....
Secondo te Maxwell sarà ancora a 28? La notizia di oggi è che TSMC ha pronti i 20 per il primo trimestre 2014...
bella domanda; queste architetture sono propedeutiche al passaggio a 20 nm (sia per AMD che per nVidia); sono chip troppo grandi per i 28 nm ma è più saggio testare una nuova architettura con un pp collaudato piuttosto che fare il salto cambiando architettura e pp. SE Maxwell non è altro che un Kepler più "pompato" potrebbe essere semplicemente uno step in più utile ad affinare il pp a 28 nm o un tentativo di riprendersi la leadership per qualche mese. In caso contrario, non vedo molto il senso di tirare fuori un altro chip a 28 nm
Cos'è che hanno tagliato rispetto a Tahiti? :)
Pensavo che l'architettura fosse identica (o legg migliore) a quella in Bonaire...
non so se hanno effettivamente tagliato qualcosa. Questo è quello che è risultato dai test sintetici sui calcoli in DP; ora c'è da capire se si tratta di ottimizzazione dei driver o di diverso "arrangiamento" delle unità di calcolo e, in particolare, di utilizzo dei registri quando si effettuano i calcoli in DP. Di sicuro hanno modificato le RBE poiché hawaii, rispetto alle precedenti architetture AMD, nell'effettuare le operazioni di blending non perde frame rispetto al rendering senza blending (tranne nel caso di fp32x4) mentre nelle altre architetture, esclusa bonaire (che si comporta come hawaii) c'è quasi un dimezzamento della velocità di rendering effettuando le operazioni di color o alpha blending
**
Parli per unità di calcolo, giusto? Non in senso assoluto calcolando il potenziale teorico di tutto il chip.. :)
mi riferisco alla sola capacità teorica di calcolo in DP
Ciao yoss è un piacere rileggerti, ti avevamo chiamato in tanti nel thread aspettando le nuove schede video AMD, intanto ti invito nel thread della scheda (http://www.hwupgrade.it/forum/showthread.php?t=2605132&page=11)e poi ti pongo una domanda: tralasciando il fattore temperature secondo te la r9 290x era progettata per i 20nm visto i consumi oppure AMD ha cambiato strategia?
PaulGuru
25-10-2013, 19:54
ecco però, sono casi...io come ho detto ho avuto 4890,5850 e 7850, mai un crash di driver...con ufficiali o beta che sia(gli ultimi li ho quasi sempre evitati, ma nessun problema)... e anche sulle nvidia leggo di molta gente che lamenta crash dei driver con qualsiasi versione superiore a 314.XX, ma anche quelli sono casi...quindi non mi sembra che una sia superiore all'altra in assoluto, ognuno ha le proprie esperienze e poi puo' darsi che siano problemi di conflitto hardware software... sia da un lato che dall'altro...
I famigerati problemi con i 314.xx non sono accusati da nessuno con W8, solo con W7 e la maggior parte della gente in presenza di questi problemi non ha nemmeno formattato, io invece a go go.
yossarian
25-10-2013, 19:55
Ciao yoss è un piacere rileggerti, ti avevamo chiamato in tanti nel thread aspettando le nuove schede video AMD, intanto ti invito nel thread della scheda (http://www.hwupgrade.it/forum/showthread.php?t=2605132&page=11)e poi ti pongo una domanda: tralasciando il fattore temperature secondo te la r9 290x era progettata per i 20nm visto i consumi oppure AMD ha cambiato strategia?
ciao okorop, tutte le schede top di questa generazione sono progettate per i 20 nm
siluro85
25-10-2013, 20:04
Io al posto tuo la comprerei al day one. Non aspetterei neppure che qualcuno se ne esca con versioni custom, la prenderei liscia. Che poi tanto le Ati costano meno quindi anche se non dovesse andare bene si piange con un occhio solo.....e poi si può sempre sperare in un hotfix che risolva il problema, o si può provare a fleshare un bios per ridurre le frequenze così si riduce la temperatura (anche se poi il primato e quel 7% in più si vanno a fare benedire). Si io da come parli al posto tuo la comprerei subito!
E se ti dicessi che la 7970 è la prima ati che ho preso ed ho sempre avuto nvidia? che una delle schede che mi ha dato più soddisfazioni è la 470 che avevo prima della 680?....
Semplicemente mi girano le pelotas quelli che subito: consuma di più, ha temperature più alte, ecc... è vero, ovvio, però è anche la single gpu più veloce sul mercato. con tutto quello che ci va dietro, partendo dal prezzo a tutto il resto..
un ******** gamer od un fanatico che prende un esacore intel occato a 5 ghz con 3 monitor a 120hz od un 27 a 2560 con mille periferiche con un case moddatissimo e annesso impianto a liquido non compra questa scheda perchè: si è + veloce ma consuma 50w in +... GIAMMAI!! e spende quasi il doppio per una titan...
Problemi di temp? ek ha già fatto i waterblock...
Un utente medio manco le guarda ste schede...nvidia o ati che siano...fatemi il piacere, un po di realismo.
AceGranger
25-10-2013, 20:10
siamo a novembre maxwell si parla del primo 4° del 2014 la finestra di tempo non è poi così breve...
le serie di VGA mediamente rimangono fuori 1 annetto, se è vero che mancano 4-5 mesi da qui a Maxwell è anche vero che dopo ce ne saranno 7-8...
AceGranger
25-10-2013, 21:24
spero sia chiaro l'esempio, anche perchè le prove sul campo dimostrano chiaramente che la titan in situazioni di grafica seria dedicata (cad, rendering, etc) le prende da tutte le schede dedicate al settore pro.
stai facendo di tutta un'erba un fascio, e da quello che scrivi, sono sicuro che sono software che non usi.
Un conto sono le viewport e un conto è il calcolo GPGPU. Nel rendering GPGPU la Titan le prende SOLO E SOLTANTO dalla Quadro K6000 perchè quest'ultima ha il full GK100; sempre in rendering GPGPU, LE DA alla Tesla K20 ( ha meno SP e minor frequenza ), LE DA alla Tesla K20X ( minor frequenza ), LE DA a tutte le QUADRO ( che hanno il GK104 in varie castrature ) esclusa, come scritto sopra, la K6000. Di contro, per la gestione delle Viewport dove contano i driver, ( e non solo per le prestazioni pure, ma anche per la stabilita e fatal error vari ) non è un buon acquisto.
il succo è: cattiva per viewport, ottima per rendering GPGPU, anzi è proprio un best-buy visto che coniuga prestazioni e quantita di ram TOP ( esclusa sempre la K600 ) ad un prezzo "ottimo".
per la cronaca, ho sia una Quadro che una Titan ;)
CrapaDiLegno
25-10-2013, 21:31
perché la 780 non ha le unità DP abilitate :D
E quindi si rivolge ad una fascia di utenza diversa che preferisce MHz per i frame che le unità DP (che per altro tramite driver si possono accendere e spegnere, quindi la frequenza potrebbe benissimo essere come la 780 a DP spenti e più bassa quando abilitati).
allora tutte la AMD rientrano nella stessa categoria, secondo il tuo ragionamento. Una R9 280 ha una capacità in DP pari a circa 13/14 volte quella di una 780. E' un chip "prosumer" pure quello?
Ma no. AMD non fa distinzione delle sue fasce se la sua scheda ha o meno il calcolo DP abilitato. Come detto, lei lo regala. nvidia no. Lei questa capacità la vende! Cosa facessero le serie 4x/5xx poco importa. Questa nuova serie è fatta così e se vuoi il calcolo DP lo paghi così. Quindi se la vuoi, con la Titan, cacci la grana.
Non ti serve il DP? Prendi la 780(i/Ti) e vivi felice con più frequenza e più FPS e più soldi in tasca.
Oh, noto adesso il rapporto 13 o 14 volte rispetto alla 780 (che è GK110 based). Mi sembra proprio che non sia per niente così. Le Tesla hanno dimostrato di essere veloci quando Tahiti, che ha più unità di calcolo e viaggia a frequenza maggiore, ma proprio per questo le prime sono anche più efficienti e adottate largamente per fare sistemi di calcolo con le GPU. Non vedo Tahiti montato in nessun grande server di calcolo invece. Se fosse anche 10 volte (ma facciamo pure 2) più veloce a pari potenza consumata dalla Tesla sarebbe il non plus ultra.
Invece Tahiti mostra i muscoli solo nei bench sintetici e poi quando c'è da fare il lavoro.. opsss... Tanto comunque con le Radeon il DP bit è gratuito e BOINC ci gira bene :rolleyes:
la titan è una GEFORCE (secondo nVidia, bada bene, non secondo il forum di HWUpgrade)
Ok, ok, è una Geforce fatta per giocare a BF a 10000x5000 con AF16x. Altrimenti i 6GB li hanno montati giusto per rubare altri W alla GPU che è già undercloccata.
quindi una ipotetica 780 tirata a 1000 MHz con consumi prossimi a 300 W da audi A4 diventa punto GT? :sofico:
No, diventa una Audi GT che fa il verso alla Porche. E lascia la Punto GT là dove deve stare.
ribadisco il concetto: il tuo ragionamento porta a includere tutte la AMD della serie Radeon nella fascia "prosumer" (quantitativo di ram a parte, per ora, gli altri elementi ci sono tutti, compresi la mancata certificazione dei driver)
Ma anche no, come detto prima. AMD non vende il calcolo DP come feature professionale, nvidia si. E ci fa anche un mucchio di soldi (a differenza di AMD che primeggia sui benchamrk e basta).
Quindi trovare quella funzionalità in una Geforce che viene costare il 30% in più rispetto alla prima GeForce che non ce l'ha mi suggerisce che la Titan è per un altro tipo di utenza che non sia solo quella che vorrebbe far girare BF a 10000x5000 con una GPU undercloccata perché le unità di calcolo DP (inutili nei giochi come hai ben detto) si pappano parte della potenza termica che già non avanza.
Però va bene lo stesso. Finalizzo con Titan = GTX780 con + shader - meno frequenza e un mondo è pieno di niubbi che questi 400 shader (più quelli inutili con capacità DP) li hanno pagati 400 euro in più per andare 10% in più... 1 euro l'uno, 40 euro a punto percentuale... apperò! Congratulazioni al reparto marketing di nvidia a questo punto.
Vedremo se scenderà di prezzo e visto che la 780i/Ti andrà di più, vederemo se la Titan costerà meno di quest'ultima o se rimarrà in una fascia propria tutta sola.
Il tempo ce lo dirà, così magari si smette di fare paragoni tra la Punto GT e l'AUdi guardando solo il contachilometri :D
O magari no :Prrr:
CrapaDiLegno
25-10-2013, 21:34
stai facendo di tutta un'erba un fascio, e da quello che scrivi, sono sicuro che sono software che non usi.
Un conto sono le viewport e un conto è il calcolo GPGPU. Nel rendering GPGPU la Titan le prende SOLO E SOLTANTO dalla Quadro K6000 perchè quest'ultima ha il full GK100; sempre in rendering GPGPU, LE DA alla Tesla K20 ( ha meno SP e minor frequenza ), le da alla Tesla K20X ( minor frequenza ), le a tutte le QUADRO ( che hanno il GK104 in varie castrature ) esclusa, come sopra scritto sopra, la K6000. Di contro, per la gestione delle Viewport dove contano i driver, ( e non solo per le prestazioni pure, ma anche per la stabilita e fatal error vari ) non è un buon acquisto.
il succo è: cattiva per viewport, ottimaper rendering GPGPU, anzi è proprio un best-buy visto che coniuga prestazioni e quantita di ram TOP.
per la cronaca, ho sia una Quadro che una Titan ;)
Finalmente qualcuno che dà un taglio alle stupidate che vengono dette riguardo alle capacità GPGPU della Titan.
Grazie.
Littlesnitch
25-10-2013, 22:29
Ma dato che tu hai neuroni in abbondanza da prestarne ad altri (me conpreso) dimmi quali calcoli esegui in modo semi pro su una titan, o se non lo fai tu quali eseguono i tuoi conoscenti?
Con questo chiudo l'ot.
:rotfl: :rotfl: :rotfl:
Littlesnitch
25-10-2013, 22:39
E quindi si rivolge ad una fascia di utenza diversa che preferisce MHz per i frame che le unità DP (che per altro tramite driver si possono accendere e spegnere, quindi la frequenza potrebbe benissimo essere come la 780 a DP spenti e più bassa quando abilitati).
Ma no. AMD non fa distinzione delle sue fasce se la sua scheda ha o meno il calcolo DP abilitato. Come detto, lei lo regala. nvidia no. Lei questa capacità la vende! Cosa facessero le serie 4x/5xx poco importa. Questa nuova serie è fatta così e se vuoi il calcolo DP lo paghi così. Quindi se la vuoi, con la Titan, cacci la grana.
Non ti serve il DP? Prendi la 780(i/Ti) e vivi felice con più frequenza e più FPS e più soldi in tasca.
Oh, noto adesso il rapporto 13 o 14 volte rispetto alla 780 (che è GK110 based). Mi sembra proprio che non sia per niente così. Le Tesla hanno dimostrato di essere veloci quando Tahiti, che ha più unità di calcolo e viaggia a frequenza maggiore, ma proprio per questo le prime sono anche più efficienti e adottate largamente per fare sistemi di calcolo con le GPU. Non vedo Tahiti montato in nessun grande server di calcolo invece. Se fosse anche 10 volte (ma facciamo pure 2) più veloce a pari potenza consumata dalla Tesla sarebbe il non plus ultra.
Invece Tahiti mostra i muscoli solo nei bench sintetici e poi quando c'è da fare il lavoro.. opsss... Tanto comunque con le Radeon il DP bit è gratuito e BOINC ci gira bene :rolleyes:
Ok, ok, è una Geforce fatta per giocare a BF a 10000x5000 con AF16x. Altrimenti i 6GB li hanno montati giusto per rubare altri W alla GPU che è già undercloccata.
No, diventa una Audi GT che fa il verso alla Porche. E lascia la Punto GT là dove deve stare.
Ma anche no, come detto prima. AMD non vende il calcolo DP come feature professionale, nvidia si. E ci fa anche un mucchio di soldi (a differenza di AMD che primeggia sui benchamrk e basta).
Quindi trovare quella funzionalità in una Geforce che viene costare il 30% in più rispetto alla prima GeForce che non ce l'ha mi suggerisce che la Titan è per un altro tipo di utenza che non sia solo quella che vorrebbe far girare BF a 10000x5000 con una GPU undercloccata perché le unità di calcolo DP (inutili nei giochi come hai ben detto) si pappano parte della potenza termica che già non avanza.
Però va bene lo stesso. Finalizzo con Titan = GTX780 con + shader - meno frequenza e un mondo è pieno di niubbi che questi 400 shader (più quelli inutili con capacità DP) li hanno pagati 400 euro in più per andare 10% in più... 1 euro l'uno, 40 euro a punto percentuale... apperò! Congratulazioni al reparto marketing di nvidia a questo punto.
Vedremo se scenderà di prezzo e visto che la 780i/Ti andrà di più, vederemo se la Titan costerà meno di quest'ultima o se rimarrà in una fascia propria tutta sola.
Il tempo ce lo dirà, così magari si smette di fare paragoni tra la Punto GT e l'AUdi guardando solo il contachilometri :D
O magari no :Prrr:
MA tu veramente con quello che stai dimostrando di conoscere in ambito GPU vuoi metterti a confronto con Yoss? :doh: :doh: :doh: Abbi un po di umiltà e buon senso e ascolta cosa ha da dirti uno che ne sa più di tutti noi messi assieme.
MA tu veramente con quello che stai dimostrando di conoscere in ambito GPU vuoi metterti a confronto con Yoss? :doh: :doh: :doh: Abbi un po di umiltà e buon senso e ascolta cosa ha da dirti uno che ne sa più di tutti noi messi assieme.
Noooo... non farlo smettere, ti prego!!! :sofico:
ciao okorop, tutte le schede top di questa generazione sono progettate per i 20 nm
ti ringrazio :) è bello leggerti di nuovo
yossarian
26-10-2013, 01:38
stai facendo di tutta un'erba un fascio, e da quello che scrivi, sono sicuro che sono software che non usi.
Un conto sono le viewport e un conto è il calcolo GPGPU. Nel rendering GPGPU la Titan le prende SOLO E SOLTANTO dalla Quadro K6000 perchè quest'ultima ha il full GK100; sempre in rendering GPGPU, LE DA alla Tesla K20 ( ha meno SP e minor frequenza ), LE DA alla Tesla K20X ( minor frequenza ), LE DA a tutte le QUADRO ( che hanno il GK104 in varie castrature ) esclusa, come scritto sopra, la K6000. Di contro, per la gestione delle Viewport dove contano i driver, ( e non solo per le prestazioni pure, ma anche per la stabilita e fatal error vari ) non è un buon acquisto.
il succo è: cattiva per viewport, ottima per rendering GPGPU, anzi è proprio un best-buy visto che coniuga prestazioni e quantita di ram TOP ( esclusa sempre la K600 ) ad un prezzo "ottimo".
per la cronaca, ho sia una Quadro che una Titan ;)
occhio che gpgpu è una cosa, applicazioni di tipo CAD un'altra. Nel GPGPU, con bench basati su opencl, titan è tutt'altro che un mostro se paragonato alle AMD in alcune applicazioni e alle serie 5x0 di nVidia in altre applicazioni. :)
E quindi si rivolge ad una fascia di utenza diversa che preferisce MHz per i frame che le unità DP (che per altro tramite driver si possono accendere e spegnere, quindi la frequenza potrebbe benissimo essere come la 780 a DP spenti e più bassa quando abilitati).
qual è la fascia di utenza a cui si rivolge la serie 7x0?
qual è la fascia di utenza a cui si rivolge titan?
qual è la fascia di utenza a cui si rivolgono le quadro?
qual è la fascia di utenza a cui si rivolgono le tesla?
Ma no. AMD non fa distinzione delle sue fasce se la sua scheda ha o meno il calcolo DP abilitato. Come detto, lei lo regala. nvidia no. Lei questa capacità la vende!
facci capire!? AMD è un'associazione benefica? Chi è il CEO, madre teresa di calcutta? :rolleyes:
Cosa facessero le serie 4x/5xx poco importa. Questa nuova serie è fatta così e se vuoi il calcolo DP lo paghi così. Quindi se la vuoi, con la Titan, cacci la grana.
ah, ok, quindi è cambiato il CEO di nVidia; prima era padre pio, adesso è ebenezer scrooge (http://it.wikipedia.org/wiki/Ebenezer_Scrooge) :sofico:
Non ti serve il DP? Prendi la 780(i/Ti) e vivi felice con più frequenza e più FPS e più soldi in tasca.
oppure una AMD e hai sia il DP che la velocità con i giochi? Oppure questa opzione non rientra tra le "papabili" dal tuo punto di vista?
Oh, noto adesso il rapporto 13 o 14 volte rispetto alla 780 (che è GK110 based). Mi sembra proprio che non sia per niente così. Le Tesla hanno dimostrato di essere veloci quando Tahiti, che ha più unità di calcolo e viaggia a frequenza maggiore, ma proprio per questo le prime sono anche più efficienti e adottate largamente per fare sistemi di calcolo con le GPU. Non vedo Tahiti montato in nessun grande server di calcolo invece. Se fosse anche 10 volte (ma facciamo pure 2) più veloce a pari potenza consumata dalla Tesla sarebbe il non plus ultra.
Invece Tahiti mostra i muscoli solo nei bench sintetici e poi quando c'è da fare il lavoro.. opsss... Tanto comunque con le Radeon il DP bit è gratuito e BOINC ci gira bene :rolleyes:
noto una gran confusione. Cosa c'entrano le tesla con le 6x0 e le 7x0? Ops, magari, per sbaglio, hanno disabilitato i circuiti per gpgpu anche sulle tesla?! Cos'è, sono solo su titan? Allora 'ste tesla a cosa servono? Costano tanto e sono del tutto inutili? Avvisa nVidia e, soprattutto, quelli che le stanno comprando non sapendo a cosa andranno incontro :ciapet:
Ok, ok, è una Geforce fatta per giocare a BF a 10000x5000 con AF16x. Altrimenti i 6GB li hanno montati giusto per rubare altri W alla GPU che è già undercloccata.
infatti è una geforce; immagino tu sappia leggere. Ora, da bravo, scrivi una bella letterina a nVidia e spiegagli che titan non è una geforce e che hanno sbagliato a classificare la loro scheda. Magari si sono sbagliati sul serio e ti ringraziano pure per la dritta
No, diventa una Audi GT che fa il verso alla Porche. E lascia la Punto GT là dove deve stare.
quindi, se ho capito bene, ricapitolando, hawaii è una punto GT, titan è una porsche e la 780 è una audi GT. Ora, pare (dico pare) che la punto GT sia, al momento, più veloce dell'audi e della porsche e risulti pure più accessoriata dell'audi e con gli stessi accessori della porsche. In più costa pure meno. Ora, conoscendo un pochino le auto, mi risulta difficile credere che una punto sia più accessoriata di un'audi o di una porsche (magari di qualche modello degli anni '70 o '80), per cui i casi sono due: o hai sbagliato paragoni o sulle auto hai le idee parecchio confuse :D
Ma anche no, come detto prima. AMD non vende il calcolo DP come feature professionale, nvidia si. E ci fa anche un mucchio di soldi (a differenza di AMD che primeggia sui benchamrk e basta).
i benchmark sono lo specchio di quello che accade nel mondo reale (che poi è virtuale); questo tanto in game che nel gpgpu o nel CAD. Ti piaccia o no.
Quindi trovare quella funzionalità in una Geforce che viene costare il 30% in più rispetto alla prima GeForce che non ce l'ha mi suggerisce che la Titan è per un altro tipo di utenza che non sia solo quella che vorrebbe far girare BF a 10000x5000 con una GPU undercloccata perché le unità di calcolo DP (inutili nei giochi come hai ben detto) si pappano parte della potenza termica che già non avanza.
a parte il fatto che GPGPU non è solo DP; a parte il fatto che anche le AMD "regalano" la DP e hanno prestazioni teoriche, sempre in DP, di poco inferiori a quelle di titan (e di molto superiori a quelle delle serie 7x0 e 6x0 di nVidia). Dicevo, a parte questi due trascurabili particolari, ritorno alla domanda iniziale: quali sono le utenze a cui sono destinati determinati prodotti
Però va bene lo stesso. Finalizzo con Titan = GTX780 con + shader - meno frequenza e un mondo è pieno di niubbi che questi 400 shader (più quelli inutili con capacità DP) li hanno pagati 400 euro in più per andare 10% in più... 1 euro l'uno, 40 euro a punto percentuale... apperò! Congratulazioni al reparto marketing di nvidia a questo punto.
Vedremo se scenderà di prezzo e visto che la 780i/Ti andrà di più, vederemo se la Titan costerà meno di quest'ultima o se rimarrà in una fascia propria tutta sola.
Il tempo ce lo dirà, così magari si smette di fare paragoni tra la Punto GT e l'AUdi guardando solo il contachilometri :D
O magari no :Prrr:
ti sei scordato clamorosamente le unità di calcolo in DP :sofico:
tuttodigitale
26-10-2013, 09:06
E a quel punto vorrei vedere la differenza di prestazioni.
scusami, ma se oggi la differenza di prestazioni per watt tra Titan e R9 290X è del 7,9% a favore di Titan, mentre la GTX780 supera in efficienza la R9 solo del 5,3% (fonte:techpowerup), quanto pensi possa andare una Titan in leggerissimo OC?
Se definisci uno sputo la differenza prestazionale che c'è tra la GTX780 e TItan, tra una TITAN e una R9 290x, a parità di consumi c'è mezzo sputo.
Dimmi perché ci sono 6GB di RAM montati (per fare girare BF4 a 10000x5000 con AA16x?)
Prima di tutto è una scheda da 1000 euro, e le versioni esageratamente costose hanno anche dotazioni di RAM per certi versi spropositate (a proposito esistono diverse HD7970 con 6GB :eek: ). E considerando che nvidia ha vietato le versioni custom della Titan come fece a suo tempo per la GTX690, sarebbe stato proprio un peccato venderla solo con 3GB di Ram, visto il costo.
Comunque si, serve per giocare in 4k. :D
Dimmi perché è evidentemente sotto cloccata rispetto a quello che potrebbe dare.
questo lo dici tu. L'assorbimento elettrico non è basso. E per la cronaca la Titan consuma più della GTX780. Tra le due, è la seconda ad avere maggiori margini in termini di assorbimento (ma ha un efficienza inferiore)
Dimmi perché esiste la 780 che ha clock superiore (per chi dice che non ci sarebbero abbastanza chip che passano i test a quelle velocità) e che per 400 euro in meno va uno sputo in meno.
stiamo parlando di frequenze che non sono esagerate. Le schede AMD e nvidia anche di fascia bassa girano a 1GHz e oltre, e sono da considersi normali visto l'enorme volume di vendita.
Infini parli di underclock ecc. quando la 780 ha solo 25MHZ in più su core...
quindi, se ho capito bene, ricapitolando, hawaii è una punto GT, titan è una porsche e la 780 è una audi GT. Ora, pare (dico pare) che la punto GT sia, al momento, più veloce dell'audi e della porsche e risulti pure più accessoriata dell'audi e con gli stessi accessori della porsche. In più costa pure meno. Ora, conoscendo un pochino le auto, mi risulta difficile credere che una punto sia più accessoriata di un'audi o di una porsche (magari di qualche modello degli anni '70 o '80), per cui i casi sono due: o hai sbagliato paragoni o sulle auto hai le idee parecchio confuse :D
Ciao Yoss, questa parte è stupenda, mi hai strappato un sorriso ed una risata eheh :D
E' un vero piacere rileggerti!! :)
Yoss in Hawaii AMD ha usato transistor ad alta densità a tuo avviso ? :)
stai facendo di tutta un'erba un fascio, e da quello che scrivi, sono sicuro che sono software che non usi.
Un conto sono le viewport e un conto è il calcolo GPGPU. Nel rendering GPGPU la Titan le prende SOLO E SOLTANTO dalla Quadro K6000 perchè quest'ultima ha il full GK100; sempre in rendering GPGPU, LE DA alla Tesla K20 ( ha meno SP e minor frequenza ), LE DA alla Tesla K20X ( minor frequenza ), LE DA a tutte le QUADRO ( che hanno il GK104 in varie castrature ) esclusa, come scritto sopra, la K6000. Di contro, per la gestione delle Viewport dove contano i driver, ( e non solo per le prestazioni pure, ma anche per la stabilita e fatal error vari ) non è un buon acquisto.
il succo è: cattiva per viewport, ottima per rendering GPGPU, anzi è proprio un best-buy visto che coniuga prestazioni e quantita di ram TOP ( esclusa sempre la K600 ) ad un prezzo "ottimo".
per la cronaca, ho sia una Quadro che una Titan ;)
Ciao Ace, se guardi bene le specifiche della Titan si vede benissimo che è un chip declassato.
Ha si più prestazioni in gpgpu, ma solo con calcoli SP, in DP i moltiplicatori fanno le unità di elaborazioni destinati allo scopo viaggino ad una veloce inferiore di 1/8 rispetto a quelle di k20 (questo è il motivo principale delle frequenze superiori di titan rispetto a k20).
Addirittura con calcoli in DP la gtx580 ha prestazioni leggermente superiori (a default).
Come ho gia scritto è possibile da driver impostare il moltiplicatore delle unità DP al massimo consentito, rendondo il rapporto DP/SP uguale a quello delle K20, ma abbassando le frequenze di funzionamento dell'intero chip a 715mhz, praticamente inabilitando il turbo boost (a causa delle temp che si raggiungono) e spesso in caso di elevato carico GPGPU, sia SP che DP, le frequenze di lavoro scendono anche sotto i 700mhz (rendendo titan sempre più lenta di K20).
tuttodigitale
26-10-2013, 09:44
li hanno pagati 400 euro in più per andare 10% in più... 1 euro l'uno, 40 euro a punto percentuale... apperò! Congratulazioni al reparto marketing di nvidia a questo punto.
stessa sorte capita a chi compra l'i7 3960x invece del i7 3930k
che il reparto marketing di nvidia ci sappia fare è fuori da ogni discussione:
Dirò di più. Probabilmente se non fosse uscita la Titan, la GTX780 non sarebbe stata vista in un modo così favorevole....
Prezzata il doppio di una HD7970 per andare solo il 20% in più...non è certo quello che ci si aspetta.
Invece no, grazie al reparto marketing di nvidia, la GTX780 è sembrata persino conveniente, quando in realtà il suo rapporto prezzo/prestazioni è pessimo quanto lo era quello della GTX280, proprio per la presenza della Titan da 1000 euro..
Senza la Titan, le conclusioni sulla GTX780 sarebbero stati del tipo: scheda velocissima venduta ad un prezzo esagerato (per le prestazioni offerte).
grazie alla Titan (e del suo prezzo assurdo) le recensioni hanno riportato quasi all'unisono una frase del tipo: La GTX780 offre il 90% delle prestazioni della Titan ad una frazione del costo.
appleroof
26-10-2013, 10:21
ti rigiro la questione: quanto pensi che possa salire, in overclock, un chip di 7 miliardi di transistor, seppure con parte del chip disabilitato, prima di superare i 300 W di assorbimento? E con le temperature come la metti? A parità di dissipatore, credi che un chip da 7 miliardi di transistor, portato alla stessa frequenza di uno da 6 miliardi, riesca a "stare più fresco"?
cut
infatti una titan con tutti i transistor abilitati che viaggi a frequenze prossime a 1 GHz te la puoi scordare a 28 nm; con la 780 forse ci si riesce ad arrivare (aumentando consumi e calore generato)
quindi una ipotetica 780 tirata a 1000 MHz con consumi prossimi a 300 W da audi A4 diventa punto GT? :sofico:
cut
Yossarian intanto ciao...poi volevo farti presente che in game praticamente TUTTE le Titan e le 780 arrivano prossime a 1ghz di frequenza in boost, a dispetto dei dati di targa, e parlo di boost automatico, non overclock applicato dall'utente. Nvidia è stata conservativa nell'indicare i dati di targa delle Geforce che montano gk110, ma ti ripeto che praticamente tutte si approssimano e a volte toccano 1ghz di frequenza senza problemi, nell'uso di tutti i giorni e senza overclock manuale (e quindi pure nelle review).
Inoltre, a parità di dissipatore io passando da frequenze default a boost su 1110mhz (e memorie da 6ghz qdr a 6,4ghz che di sicuro ci mettono del loro nelle temp generali) ho visto la temperatura salire di pochi gradi, segno che i consumi non è che salissero in maniera spropositata; nelle recensioni di Hawaii invece in proporzione l'aumento di frequenze porta un aumento di consumi e temperature proporzionalmente maggiore.
Io mi sono persuaso che invece gk110 non è stato progettato per i 20 nm (ed infatti esiste da più di un anno, se ci metti il tapeout esiste da almeno marzo/aprile 2012, troppo presto per progettare un chip per quel pp, anche se fosse stato pronto, il pp a 20nm, per fine di quest'anno come previsto inizialmente) mentre Hawaii si, ed è stato riadattato ai 28nm (forse analogamente a Cayman che era per i 32nm e poi fu fatto per i 40nm)
Pare inoltre (ma devo ritrovare la fonte) che su Hawaii Amd abbia usato transistor ad alta densità, se fosse vero questo potrebbe contribuire a spiegare, oltre alle frequenze tirate, i consumi e di conseguenza il calore esagarati di questo chip, non credi?
PaulGuru
26-10-2013, 10:23
Ma per questo Hawaii è previsto un diretto successore a breve o è stato creato in questo modo appositamente per la mancanza dei 20nm e quindi destinato a competere con Maxwell ?
Cioè è una new generation anticipata ?
appleroof
26-10-2013, 10:34
Ma per questo Hawaii è previsto un diretto successore a breve o è stato creato in questo modo appositamente per la mancanza dei 20nm e quindi destinato a competere con Maxwell ?
Cioè è una new generation anticipata ?
non so se è una gen anticipata (io credo di si, ma certezze le ha solo Amd), ma le vga a 20nm dovrebbero arrivare tra un annetto
TwinDeagle
26-10-2013, 11:00
Ma neanche per sogno. Il debutto di gk110 nel mercato consumer è stato rinviato perchè dovevano produrre chip per il mercato militare. Parliamo di volumi ridotti: 18.000 uità parzialmente disabilitate.
Gk110 non è adatto alla produzione in volumi come lo sono i chip da 300-360mmq.
Certo, infatti di GTX 580 ne hanno prodotte solo due esemplari.. La dimensione del die non ha tutta questa importanza quando l'utente è disposto a pagare. Ripeto, se Nvidia avesse avuto la giusta concorrenza, avrebbe cambiato i suoi piani e fatto uscire da subito gk110, che sarebbe stata cosi schifosamente più performante della serie 5, che qualunque prezzo di uscita non avrebbe spaventato gli acquirenti. Almeno secondo me.
OMG è dal 2007, ovvero dalla messa in commercio delle HD3800, che AMD utilizza la soluzione dual gpu contro la soluzione monolitica di nvidia.
HD3870x2 vs 9800GTX
HD4870x2 vs GTX280
HD5970 vs GTX480
In origine doveva essere:
HD7990 vs GTX680 (gk110)
Non dimentichiamoci che le dimensioni del "gigante" Tahiti sono inferiori a quelle di GF104 (chip montato nelle GTX460 560).
Il ritardo di nvidia ha fatto si che per lungo tempo le HD7900 (ma anche le schede inferiori) e le GTX680 rimanessero sovraprezzate.
Ma che centra?? anche Nvidia ha le sue dual gpu. Mi stai dicendo che la politica di AMD è " se non puoi superarli con una, fallo con 2"?
In ogni caso, il mio discorso non cambia. Nvidia non ha usato il suo miglior chip da subito. Per un motivo o per un altro. Lo ha fatto uscire in un secondo momento, proponendolo a prezzi disumani e privi di ogni fondamento e giustificazione. AMD, da parte sua, ha fatto uscire una signora scheda, che per quanto possa avere problemi di temperatura e consumo (problemi è un parolone), è al momento la miglior scheda singola gpu sul mercato, proposta ad un prezzo estremamente concorrenziale
sundraw83
26-10-2013, 11:41
La versione con ventola di fabbrica la trovo a 560 euro. Quelle moddate staranno intorno ai 100 euro in più. Fermi v1 venne molto criticata per temps e consumi. Ora invece è tutto ok.
Mercuri0
26-10-2013, 12:04
con i modelli custom decenti le temperature non superanno i 70-80° nel peggiore dei casi, quindi il problema non ci sarà più
Epperchemmai? Con un dissipatore migliore, non è meglio andare sempre a 94° e fare andare la scheda più veloce?
(sempre se l'alimentatore tiene).
Un dissipatore migliore dovrebbe fare andare la scheda più veloce o essere più silenzioso.
Se AMD dice che la scheda funge bene a 94°, per me è un numero come un'altro. Un dissipatore migliore inoltre non riduce il calore prodotto dalla scheda.
Incidentalmente, anche i proci di Intel rallentano il turbo solo quando superano i 90°, anche su i portatili. (mi pare che la soglia a cui cercano di stabilizzarsi sia proprio 94°)
Mercuri0
26-10-2013, 12:07
Quanto sopra fermo restando che abituato più a seguire SoC (per cui 8 watt sono enormi) e portatili (per cui 35 watt di GPU sono enormi) 300 e passa watt di GPU mi straniscono :D
nevets89
26-10-2013, 12:15
La versione con ventola di fabbrica la trovo a 560 euro. Quelle moddate staranno intorno ai 100 euro in più. Fermi v1 venne molto criticata per temps e consumi. Ora invece è tutto ok.
non va bene cmq, ma riguardati le recensioni di fermi v1...a suo tempo la differenza di consumo tra la top gamma ati e nvidia era di 130W..il 40% in più sul totale del pc... ora la differenza tra gtx 780 e rx 290x è di 58W..il 15% del consumo totale..se permetti la differenza è sostanziale... per la temperatura sono d'accordo con te, troppo alta, anche se alla fine, come per la gtx 480, per molti non sarà un problema...
Free Gordon
26-10-2013, 12:18
ciao Gordon :p
direi proprio di si; ormai lo shader core con relativi registri occupa circa il 60-65% del die.
oK. :)
perché 12 è il massimo di unità disponibili (vediamo se ci arrivi) :D
si, certo, con 12 unità attive a frequenze più basse avrebbero ridotto i consumi ma....
Beh, hanno messo 12 unità e ne hanno spenta una per aumentare le rese...
A parte il discorso accoppiamento rops ecc, imho era meglio spenderci un pò di più sul chip (parlo di grandezza) e giocarsela meglio dal pdv consumi/calore..no? :) In fondo Titan è 100mmq più grossa di Hawaii...
Certo che non potevano prevedere tutto per filo e per segno...(leggasi comsumi esagerati) però fà strano vedere una Titan consumare 50W in meno..... :p non ti pare? :)
bella domanda; queste architetture sono propedeutiche al passaggio a 20 nm (sia per AMD che per nVidia); sono chip troppo grandi per i 28 nm ma è più saggio testare una nuova architettura con un pp collaudato piuttosto che fare il salto cambiando architettura e pp. SE Maxwell non è altro che un Kepler più "pompato" potrebbe essere semplicemente uno step in più utile ad affinare il pp a 28 nm o un tentativo di riprendersi la leadership per qualche mese. In caso contrario, non vedo molto il senso di tirare fuori un altro chip a 28 nm
Effettivamente non avrebbe molto senso, è per quello che ti chiedevo..
E nel caso fosse un'archi nuova, si prospetterebbe la famosa prova del fuoco della doppietta "nuovo PP, archi nuova" :D di cui hai sempre detto peste e corna. :D
Domandona: secondo te, AMD ad oggi è ancora avanti di mezzo nodo nel pp (o in generale nel rapporto con TSMC), oppure a causa del ritardo sui 20nm di TSMC ha perso questo vantaggio? :)
non so se hanno effettivamente tagliato qualcosa. Questo è quello che è risultato dai test sintetici sui calcoli in DP; ora c'è da capire se si tratta di ottimizzazione dei driver o di diverso "arrangiamento" delle unità di calcolo e, in particolare, di utilizzo dei registri quando si effettuano i calcoli in DP.
Quì la domanda è se non sai davvero o non vuoi dire... :sofico: un'idea ce l'avrai di sicuro. :D
Cmq i test gpgpu hanno sorpreso in negativo anche me, pensavo fosse veramente un mostro questa Hawaii mentre è solo un pò meglio di Tahiti...
Di sicuro hanno modificato le RBE poiché hawaii, rispetto alle precedenti architetture AMD, nell'effettuare le operazioni di blending non perde frame rispetto al rendering senza blending (tranne nel caso di fp32x4) mentre nelle altre architetture, esclusa bonaire (che si comporta come hawaii) c'è quasi un dimezzamento della velocità di rendering effettuando le operazioni di color o alpha blending
Ho visto dai test del fillrate su Hawai. :)
La gpu di XboxONE e quella di PS4 hanno questo stesso schema secondo te? :D :oink:
mi riferisco alla sola capacità teorica di calcolo in DP
Ok.
PaulGuru
26-10-2013, 12:26
non so se è una gen anticipata (io credo di si, ma certezze le ha solo Amd), ma le vga a 20nm dovrebbero arrivare tra un annetto
Maxwell è previsto al Q1 2014, volevo sapere se AMD aveva in previsione un ulteriore architettura per contrastarlo o se lo farà rimanendo con queste.
appleroof
26-10-2013, 12:56
Maxwell è previsto al Q1 2014, volevo sapere se AMD aveva in previsione un ulteriore architettura per contrastarlo o se lo farà rimanendo con queste.
non credo abbia in previsione nuove architetture, non per il Q1 2014 e a 28nm, almeno che io sappia.
tuttodigitale
26-10-2013, 13:09
Ripeto, se Nvidia avesse avuto la giusta concorrenza, avrebbe cambiato i suoi piani e fatto uscire da subito gk110, che sarebbe stata cosi schifosamente più performante della serie 5, che qualunque prezzo di uscita non avrebbe spaventato gli acquirenti. Almeno secondo me.
nvidia era in ritardo. Nel Marzo 2012, nvidia ha fatto un paper launch. Le GTX 680 si sono viste solo con la presentazione della GTX670 (ennesimo paper launch) ma le scorte sono state comunque ridotte tanto che a Maggio il prezzo per comprarsi una GTX680 era di 550 euro a dispetto di un listino di 499 euro. Di convesso le HD7970 si trovavano a meno di 500 (listino 549) già dopo 2 settimane dal debutto avvenuto nel gennaio del 2012.
Infatti nvidia ha avuto per almeno 4 mesi problemi nel produrre il gk104 (ecco anche il motivo per cui sono nate moltissime schede su questo chip)
Ma che centra?? anche Nvidia ha le sue dual gpu. Mi stai dicendo che la politica di AMD è " se non puoi superarli con una, fallo con 2"?
La politica di AMD è fare chip piccoli per avere maggiore resa con un nuovo processo produttivo (AMD scrive nelle sue slide fast introduction of new technology).
passaggio al processo produttivo 55nm
HD4870 (luglio 2008) GTX285 (gennaio 2009) 6 mesi di ritardo
40nm
HD5870 (settembre 2009) GTX480 (marzo 2010) 6 mesi ritardo
28nm
HD7970 (gennaio 2012)...nvidia cambia i piani, fa uscire il chip di fascia media.
AMD tiene i prezzi alti, cancella la HD7990 già pronta. La top di gamma slitta addirittura a Febbraio 2013. Esce la HD7990 tenuta nel cassetto e la pone su una fascia di prezzo superiore di quella preventivata per Marzo 2012....
La GTX 780 sul piano commerciale ricorda tantissimo la GTX280:
20% di prestazioni in più di una HD4870 e 300 euro differenza. Ma nvidia ha avuto al suo tempo il buon gusto di abbassare il listino, quasi istantaneamente dai 649 euro iniziale a 499 euro.
La GTX780 è in assoluto la peggior scheda per prezzo/prestazioni che si sia mai vista nella fascia dei 500-700 euro.
AceGranger
26-10-2013, 13:12
occhio che gpgpu è una cosa, applicazioni di tipo CAD un'altra. Nel GPGPU, con bench basati su opencl, titan è tutt'altro che un mostro se paragonato alle AMD in alcune applicazioni e alle serie 5x0 di nVidia in altre applicazioni. :)
hai detto proprio bene, bench di OpenCL.... io parlavo di software GPGPU CUDA veri e funzionanti; di OpenCL nVidia non ha per nulla ottimizzato, se ne è sbattuta allegramente per non intaccare il suo monopolio nel professionale; e dipende sempre da software a software, perchè se prendo Photoscan, che è un software professionale per la ricostruzione 3D mediante fotografie che utilizza OpenCL, le nVidia vanno molto meglio e gli stessi programmatori le consigliano;
TUTTI i migliori motori di rendering GPGPU sono CUDA, o come nel caso di Vray RT dove è presente sia OpenCL che CUDA, la versione CUDA va molto meglio, motivo per cui nessuno usa le AMD.
( anzi, direi proprio tutti i motori sono CUDA, ad esclusione del solito Lux Render che è un esercizio di stile tipo Blender o Gimp, che viene usato nelle review giusto perchè è free )
Ad oggi, OpenCL nei software professionali di grafica è praticamente a quota zero, e dove c'è o vanno meglio le nVidia o è irrilevante avere nVidia o AMD come nel caso della suite Adobe; nel futuro, che non sara certo nel breve periodo, vedremo cosa cambiera.
Ciao Ace, se guardi bene le specifiche della Titan si vede benissimo che è un chip declassato.
Ha si più prestazioni in gpgpu, ma solo con calcoli SP, in DP i moltiplicatori fanno le unità di elaborazioni destinati allo scopo viaggino ad una veloce inferiore di 1/8 rispetto a quelle di k20 (questo è il motivo principale delle frequenze superiori di titan rispetto a k20).
Addirittura con calcoli in DP la gtx580 ha prestazioni leggermente superiori (a default).
Come ho gia scritto è possibile da driver impostare il moltiplicatore delle unità DP al massimo consentito, rendondo il rapporto DP/SP uguale a quello delle K20, ma abbassando le frequenze di funzionamento dell'intero chip a 715mhz,
quello che scrivi è vero, ma io parlavo di Rendering GPGPU, e in questo caso tutti i motori di rendering in commercio effetuano calcoli SP.
e spesso in caso di elevato carico GPGPU, sia SP che DP, le frequenze di lavoro scendono anche sotto i 700mhz (rendendo titan sempre più lenta di K20).
nei calcoli DP non saprei, mai usati e non conosco nemmeno software che li utilizzino, nel calcolo SP in full 100% le frequenze non mi pare siano mai scese sotto gli 830 mhz, sua frequenaza base, comunque per essere sicuro lunedi faro una prova con Vray RT, e con GPU Shark controllero le frequenze.
tuttodigitale
26-10-2013, 13:18
La versione con ventola di fabbrica la trovo a 560 euro. Quelle moddate staranno intorno ai 100 euro in più. Fermi v1 venne molto criticata per temps e consumi. Ora invece è tutto ok.
Diamo un pò di numeri se no qui non si capisce una mazza:
la differenza di prestazioni per watt tra
Titan e R9 290X è del 7,9% a favore di Titan,
GTX780 e R9 290x è del 5,3%
Invece, la HD5870 era più efficiente della GTX480 del 62% . (fonte techpowerup)
lla HD5870 era più efficiente della GTX580 del 23%. In definitiva la seconda reicarnazione di Fermi ha portato ad un aumento dell'efficienza del 32%.
Parliamo di cose molto diverse. E' vero la R9 290x consuma poco meno della GTX480, ma le varie Titan, GTX680, GTX780 consumano molto ma molto di più della HD5870 (80-120W in più, in alcuni casi il doppio quindi)
PS la r9 290x in configurazioni multi-monitor è la più efficiente di tutte, superando la TITAN di un buon 10-15%....
PPS valutare i prezzi di schede video uscite il giorno prima non è corretto. Già dalla prossima settimana vedremo prezzi in alcuni casi già allineati a listino
PPPS a rileggere questi numeri mi è venuta quasi la nostalgia per l'architettura vliw...
yossarian
26-10-2013, 13:27
Ciao Yoss, questa parte è stupenda, mi hai strappato un sorriso ed una risata eheh :D
E' un vero piacere rileggerti!! :)
Yoss in Hawaii AMD ha usato transistor ad alta densità a tuo avviso ? :)
se li hanno usati, è stato solo per il MC (mi fa pensare il fatto che si sia passati da 384 a 512 bit risparmiando il 20% di spazio). D'accordo le ottimizzazioni ma questa mi pare eccessiva anche perché i 28 nm sono "fuori" da un po' e molte cose sono già state limate in precedenza
Yossarian intanto ciao...poi volevo farti presente che in game praticamente TUTTE le Titan e le 780 arrivano prossime a 1ghz di frequenza in boost, a dispetto dei dati di targa, e parlo di boost automatico, non overclock applicato dall'utente. Nvidia è stata conservativa nell'indicare i dati di targa delle Geforce che montano gk110, ma ti ripeto che praticamente tutte si approssimano e a volte toccano 1ghz di frequenza senza problemi, nell'uso di tutti i giorni e senza overclock manuale (e quindi pure nelle review).
ciao Apple, non è proprio così. Il GPU boost 2 limita la frequenza del chip in base alla temperatura e/o al consumo. Titan lavora con tensione di circa 1,162 V e la temperatura di "soglia" è impostata a 80°C di default. Con queste impostazioni, in game, nonostante ciò che dichiari nVidia, il chip non supera mai la frequenza di boost di 875/880 MHz. Per poterlo fare è necessario cambiare la velocità di rotazione della ventola (portandola all'85%) e si riesce ad arrivare ad una frequenza di boost di circa 995 MHz, oppure,s e si vuole andare oltre, aumentare leggermente la tensione (di circa 36-38 mV perché oltre diventa instabile e la protezione tende a riabbassarla automaticamente ai valori di default indipendentemente da quanto è stato impostato) e portare la soglia della temperatura a 94-95°C. In questo modo è possibile raggiungere una frequenza massima di boost attorno ai 1130 MHz (oltre il sistema va in crash e non è possibile compensare aumentano ancora la tensione di alimentazione). Le prestazioni salgono con questi ultimi accorgimenti di circa il 15-20% a seconda dei titoli ma anche i consumi aumentano arrivando a superare quelli di hawaii. Inoltre c'è da considerare che la rilevazione avviene in una arco di tempo tale da non potersi considerare istantanea e con la funzione "boost frequency" i chip nVidia hanno continue oscillazioni della frequenza di funzionamento che non permettono di affermare che il chip lavori "stabile" a una determinata frequenza
Inoltre, a parità di dissipatore io passando da frequenze default a boost su 1110mhz (e memorie da 6ghz qdr a 6,4ghz che di sicuro ci mettono del loro nelle temp generali) ho visto la temperatura salire di pochi gradi, segno che i consumi non è che salissero in maniera spropositata; nelle recensioni di Hawaii invece in proporzione l'aumento di frequenze porta un aumento di consumi e temperature proporzionalmente maggiore.
a parità di dissipatore dovrebbe valere tra hawaii e titan o 780 GTX. Non credo che il dissipatore di hawaii abbia una qualità eccelsa :D
Il fatto che le temperature non variassero di molto dipende dal "limitatore" di temperatura impostato sul chip. Però tieni conto che il limitatore funziona in modo tale che se hai impostato di default un valore di 80°C, come la temperatura si avvicina a quel limite la frequenza di funzionamento di abbassa. In questo modo, su scene con carichi elevati hai continui picchi di frequenze in alto e in basso che limitano le temperature ma anche le prestazioni
Io mi sono persuaso che invece gk110 non è stato progettato per i 20 nm (ed infatti esiste da più di un anno, se ci metti il tapeout esiste da almeno marzo/aprile 2012, troppo presto per progettare un chip per quel pp, anche se fosse stato pronto, il pp a 20nm, per fine di quest'anno come previsto inizialmente) mentre Hawaii si, ed è stato riadattato ai 28nm (forse analogamente a Cayman che era per i 32nm e poi fu fatto per i 40nm)
il fatto che esista da oltre un anno vuol dire poco. GK110 è un chip molto complesso e di enormi dimensioni e ha costretto nVidia, per poter avere un maggior boost di frequenze in game, a disabilitare il DP sulla 780 per abbassare i consumi in caso di aumento delle frequenze. La mia idea è che se ci fossero stati i 20 nm, la 780 non sarebbe uscita affatto perché il vero GK110, di fatto, è titan
Pare inoltre (ma devo ritrovare la fonte) che su Hawaii Amd abbia usato transistor ad alta densità, se fosse vero questo potrebbe contribuire a spiegare, oltre alle frequenze tirate, i consumi e di conseguenza il calore esagarati di questo chip, non credi?
come ho risposto a Maury, penso che se sia stato fatto uso di transistor ad alta densità questo sia avvenuto solo per il memory controller. I transistor ad alta densità possono causare un aumento della temperatura da smaltire (a causa del fatto che le connessioni sono disposte su tre dimensioni) ma non dei consumi del chip. Quelli sono conseguenza del numero di transitor e di altri fattori legati alle caratteristiche del PP e delle librerie utilizzate
Beh, hanno messo 12 unità e ne hanno spenta una per aumentare le rese...
A parte il discorso accoppiamento rops ecc, imho era meglio spenderci un pò di più sul chip (parlo di grandezza) e giocarsela meglio dal pdv consumi/calore..no? :) In fondo Titan è 100mmq più grossa di Hawaii...
nVidia e AMD/ATi hanno un approccio diverso alla progettazione del layout del chip. Quello di nVidia tende al superscalare, quello di AMD al vettoriale. Ognuno ha vantaggi e svantaggi a seconda dell'applicazione che ci deve girare e di come è ottimizzata. L'approccio di nVidia, a livello di unità di calcolo è più efficiente per watt (molte energia la spende per la logica di controllo delle unità di calcolo) quello di AMD è più efficiente per unità di superficie (meno circuiti di controllo, feedback, ecc, ma molte più unità di calcolo per unità di superficie). Inoltre, questo porta anche a vantaggi e svantaggi sul piano dei blocchi e non solo delle singole unità funzionali. L'architettura di GK110 risulta più efficiente nelle operazioni geometriche e ha più texture unit. Quella di AMD va meglio con le operazioni matematiche quando c'è la possibilità di ottenere un elevato parallelismo (ad esempio molte applicazioni di tipo GPGPU), è nettamente superiore nelle operazioni di rendering e ha latenze inferiori negli accessi alle memorie e nelle operazioni che implicano trasferimento di dati dai registri. Quindi, limitare il confronto a dimensioni, watt e temperature e molto "riduttivo". C'è anche da aggiungere che a questo giro, nVidia ha fatto un eccellente lavoro nel contenere consumi e temperature (il limitatore di tensione, temperatura e consumo funziona veramente bene)
Certo che non potevano prevedere tutto per filo e per segno...(leggasi comsumi esagerati) però fà strano vedere una Titan consumare 50W in meno..... :p non ti pare? :)
titan lavora anche a frequenze di molto inferiori
E nel caso fosse un'archi nuova, si prospetterebbe la famosa prova del fuoco della doppietta "nuovo PP, archi nuova" :D di cui hai sempre detto peste e corna. :D
se Maxwell è un'architettura nuova, la transizione da Kepler avverrà ancora a 28 nm e solo poi si passerà ai 20 con la nuova architettura già collaudata.
Domandona: secondo te, AMD ad oggi è ancora avanti di mezzo nodo nel pp (o in generale nel rapporto con TSMC), oppure a causa del ritardo sui 20nm di TSMC ha perso questo vantaggio? :)
no, non è più in vantaggio. Entrambe hanno avuto modo di collaudare bene i 28 nm e sono pronte a passare ai 20
Quì la domanda è se non sai davvero o non vuoi dire... :sofico: un'idea ce l'avrai di sicuro. :D
si, un'idea ce l'ho ma, al momento, preferisco tenermela. :D Comunque non credo sia questione di driver :sofico:
Ho visto dai test del fillrate su Hawai. :)
La gpu di XboxONE e quella di PS4 hanno questo stesso schema secondo te? :D :oink:
si, suppongo che l'approccio per le RBE sia quello utilizzato per hawaii a livello di operazioni di blending.
Free Gordon
26-10-2013, 13:30
Maxwell è previsto al Q1 2014, volevo sapere se AMD aveva in previsione un ulteriore architettura per contrastarlo o se lo farà rimanendo con queste.
Sicuramente AMD farà GPU più grosse ma non penso con architetture molto differenti, perché sennò il progetto Mantle se ne va' a farsi benedire. :)
Nvidia non si sa se farà un cambio netto di architettura (non credo) ma tutte e due le case scaleranno ai 20nm appena possono / appena sarà conveniente.
Fino a qualche tempo fà, AMD era in vantaggio sull'half node, ma il salto ai 20nm è un nodo intero, quindi probabile che AMD ed Nvidia arrivino più o meno insieme sui 20nm ma AMD dovrebbe uscire prima con i 16 finFET. Tutta teoria cmq.
Se Maxwell è atteso per aprile 2014, AMD farà almeno un refresh @20nm della 290X, magari con una 290XT.
yossarian
26-10-2013, 13:32
hai detto proprio bene, bench di OpenCL.... io parlavo di software GPGPU CUDA veri e funzionanti; di OpenCL nVidia non ha per nulla ottimizzato, se ne è sbattuta allegramente per non intaccare il suo monopolio nel professionale; e dipende sempre da software a software, perchè se prendo Photoscan, che è un software professionale per la ricostruzione 3D mediante fotografie che utilizza OpenCL, le nVidia vanno molto meglio e gli stessi programmatori le consigliano;
TUTTI i migliori motori di rendering GPGPU sono CUDA, o come nel caso di Vray RT dove è presente sia OpenCL che CUDA, la versione CUDA va molto meglio, motivo per cui nessuno usa le AMD.
Ad oggi, OpenCL nei software professionali di grafica è praticamente a quota zero, e dove c'è o vanno meglio le nVidia o è irrilevante avere nVidia o AMD come nel caso della suite Adobe; nel futuro, che non sara certo nel breve periodo, vedremo.
questo perché opencl è mono sviluppato ma non necessariamente inferiore a CUDA, anzi. Lo stesso approccio utilizzato in CTM da AMD permette un controllo delle funzioni della GPU a livello molto più basso rispetto a CUDA. Il fatto che CUDA sia più sviluppato e diffuso significa solo che nVidia è stata brava a introdurlo prima e a convincere le SW house ad utilizzarlo ma non che le GPU di nVida siano migliori. I test sintetici danno la misura delle prestazioni REALI di un chip, contrariamente a quello che puoi pensare e permettono anche di individuare punti di forza e punti deboli (e ottimizzare di conseguenza).
VRay è un motore per CAD e fa uso molto limitato di GPGPU. Il GPGPU è un'altra cosa. Questo intendevo con la differenza tra CAD e GPGPU
AceGranger
26-10-2013, 13:49
questo perché opencl è mono sviluppato ma non necessariamente inferiore a CUDA, anzi. Lo stesso approccio utilizzato in CTM da AMD permette un controllo delle funzioni della GPU a livello molto più basso rispetto a CUDA. Il fatto che CUDA sia più sviluppato e diffuso significa solo che nVidia è stata brava a introdurlo prima e a convincere le SW house ad utilizzarlo ma non che le GPU di nVida siano migliori. I test sintetici danno la misura delle prestazioni REALI di un chip, contrariamente a quello che puoi pensare e permettono anche di individuare punti di forza e punti deboli (e ottimizzare di conseguenza).
questo non lo metto in dubbio, il mio è un sempice spaccato di quello che è la realta, che sia idealmente uguale o migliore non è che importi molto è... conta quello che ci puoi fare; non so tu, ma io compro una VGA in base a quello che posso fare non a quello che in un futuro non definito potro forse fare.
VRay è un motore per CAD e fa uso molto limitato di GPGPU. Il GPGPU è un'altra cosa. Questo intendevo con la differenza tra CAD e GPGPU
e in cosa sarebbe limitato ? visto che funziona interamente su GPU, la impegna al 100%, e sono calcoli matematici, perchè mai quello dovrebbe essere limitato, mentre la decrittazione di password, il mining o un calcolo di fluidodinamica non dovrebbero esserlo ?
PaulGuru
26-10-2013, 14:03
Sicuramente AMD farà GPU più grosse ma non penso con architetture molto differenti, perché sennò il progetto Mantle se ne va' a farsi benedire. :)
Nvidia non si sa se farà un cambio netto di architettura (non credo) ma tutte e due le case scaleranno ai 20nm appena possono / appena sarà conveniente.
Fino a qualche tempo fà, AMD era in vantaggio sull'half node, ma il salto ai 20nm è un nodo intero, quindi probabile che AMD ed Nvidia arrivino più o meno insieme sui 20nm ma AMD dovrebbe uscire prima con i 16 finFET. Tutta teoria cmq.
Se Maxwell è atteso per aprile 2014, AMD farà almeno un refresh @20nm della 290X, magari con una 290XT.
Cioè fammi capire, ATI rimarrà con la stessa architettura perchè sennò Mantle non sarà più compatibile ?
Comunque sia Nvidia ha in arrivo Maxwell, ATI invece volevo sapere più nello specifico .... a breve ha in previsione un altro nomignolo o no ?
Maxwell dall'ultima news sembrerebbe essere parecchio diverso con GM100 :
The NVIDIA Maxwell GM100 chip would consist of 8 GPCs consisting of 24 SMX modules (3 SMX Per GPC), 384 TMUs, 6144 Cuda Cores, 8 MB of L3 Cache (8 L2 cache’s per GPC), 64 ROPs, a 512-bit interface followed by a VRAM upto 8 GB GDDR5 operation at around 6 GHz. The GM100 is supposed to replace the high-performance GK110 chip so its going to end up in both GeForce parts and Tesla parts. It will probably show up in the Tesla parts first before shipping to consumers.
Clock frequencies would be maintained at different levels for each product tier as listed below:
GeForce GM100: 930 MHz Core / 1 GHz Boost
Tesla GM100: 850 MHz (2.61 TFlops DP)
http://wccftech.com/alleged-nvidia-maxwell-architectural-specifications-unveiled-project-denver-maxwell-refresh/
yossarian
26-10-2013, 14:08
questo non lo metto in dubbio, il mio è un sempice spaccato di quello che è la realta, che sia idealmente uguale o migliore non è che importi molto è... conta quello che ci puoi fare; non so tu, ma io compro una VGA in base a quello che posso fare non a quello che in un futuro non definito potro forse fare.
e in cosa sarebbe limitato ? visto che funziona interamente su GPU, la impegna al 100%, e sono calcoli matematici, perchè mai quello dovrebbe essere limitato, mentre la decrittazione di password, il mining o un calcolo di fluidodinamica non dovrebbero esserlo ?
limitato perché operazioni di raytracing, modellazione 3D o rendering, proprie dei programmi di CAD sono tipiche delle GPU e il fatto che impieghino al 100% la GPU significa solo che tramite CUDA o chi per esso riescono a sfruttare al meglio l'hardware a disposizione. In VRay una TMU svolge il compito per cui è stata progettata. Nelle applicazioni di tipo GPGPU più "estreme" (soli calcoli matematici) ad esempio, le TMU sono utilizzate per "mappare" le istruzioni; un'operazione di memory read si traduce in una di texture fetch e una di memory write in una di pixel filling che coinvolge le RBE. Per questo le tesla non hanno uscite video. Questo senza tener conto che per il rendering non serve la DP
<Masquerade>
26-10-2013, 14:15
ciao Apple, non è proprio così. Il GPU boost 2 limita la frequenza del chip in base alla temperatura e/o al consumo. Titan lavora con tensione di circa 1,162 V e la temperatura di "soglia" è impostata a 80°C di default. Con queste impostazioni, in game, nonostante ciò che dichiari nVidia, il chip non supera mai la frequenza di boost di 875/880 MHz. Per poterlo fare è necessario cambiare la velocità di rotazione della ventola (portandola all'85%) e si riesce ad arrivare ad una frequenza di boost di circa 995 MHz
Ciao yossarian
Guarda che è come dice Apple, te lo confermo.
ho posseduto due Titan ed ora una 780 GTX e queste schede vanno ben oltre il boost.
c'è un ulteriore boost che le manda oltre 876mhz.
se ci sono le condizioni giuste, la scheda mediamente sarà circa sui 1000mhz (non confequenza fissa al 100%).
è proprio così.
poi si se il carico di lavoro è leggero la scheda si downclocca... se supera gli 80 gradi idem, e se supera il limite di potenza sotto carico pesante uguale.
Free Gordon
26-10-2013, 14:24
nVidia e AMD/ATi hanno un approccio diverso alla progettazione del layout del chip. Quello di nVidia tende al superscalare, quello di AMD al vettoriale. Ognuno ha vantaggi e svantaggi a seconda dell'applicazione che ci deve girare e di come è ottimizzata. L'approccio di nVidia, a livello di unità di calcolo è più efficiente per watt (molte energia la spende per la logica di controllo delle unità di calcolo) quello di AMD è più efficiente per unità di superficie (meno circuiti di controllo, feedback, ecc, ma molte più unità di calcolo per unità di superficie). Inoltre, questo porta anche a vantaggi e svantaggi sul piano dei blocchi e non solo delle singole unità funzionali. L'architettura di GK110 risulta più efficiente nelle operazioni geometriche e ha più texture unit. Quella di AMD va meglio con le operazioni matematiche quando c'è la possibilità di ottenere un elevato parallelismo (ad esempio molte applicazioni di tipo GPGPU), è nettamente superiore nelle operazioni di rendering e ha latenze inferiori negli accessi alle memorie e nelle operazioni che implicano trasferimento di dati dai registri. Quindi, limitare il confronto a dimensioni, watt e temperature e molto "riduttivo". C'è anche da aggiungere che a questo giro, nVidia ha fatto un eccellente lavoro nel contenere consumi e temperature (il limitatore di tensione, temperatura e consumo funziona veramente bene)
Beh certo. :)
Pensavo cmq che con GCN l'approccio di AMD fosse leggermente cambiato...ma effettivamente anche quì, se si fà un banale conto delle ALU si vede che son molte di più per superficie rispetto a Nvidia. La solita vecchia storia. :D
Però con con R580 ha reso... con R600 no... :sofico: con la serie 4*** e 5*** ha reso abbastanza bene...
Per la serie 7 io avrei preferito vedere una cosa così:
Vliw4 per i giochi, con un gozzigliardo di sp e texture unit...e una roba simile a GCN per le professionali Fire.... :)
.....Ma GCN probabilmente è strutturata così perchè parte del progetto Fusion, non è vero? :)
Cmq a me sembra un'altra ATI da quando è tornato Koduri. :D Menomale. :oink:
se Maxwell è un'architettura nuova, la transizione da Kepler avverrà ancora a 28 nm e solo poi si passerà ai 20 con la nuova architettura già collaudata.
Ok.
no, non è più in vantaggio. Entrambe hanno avuto modo di collaudare bene i 28 nm e sono pronte a passare ai 20
Hmm...male per AMD, o sbaglio?
si, un'idea ce l'ho ma, al momento, preferisco tenermela. :D Comunque non credo sia questione di driver :sofico:
Dimmela in PVT..!!! :sofico:
Non lo dico a nessuno!!!!!! :oink:
si, suppongo che l'approccio per le RBE sia quello utilizzato per hawaii a livello di operazioni di blending.
Ti devo fare una domanda sull'eSRAM...... :sofico:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.