View Full Version : NVIDIA GeForce GTX 680: arriva Kepler
E' vero che la fascia alta la fan prestazioni e prezzo, quello che si voleva dire è che questo GK104 è nato per la fascia media, non si mettono 256bit su un top di gamma tanto meno fa parte della filosofia Nvidia.
ripeto... era stato pensato per la fascia media... ma è stato designato per coprire la fascia alta... tu stesso poi dici che è la gpu più veloce: ergo è l'attuale top di gamma (fascia ALTA, sia per prezzo che per prestazioni)... il gk110 ancora non esiste/non c'è... se non capisci questo semplice processo logico il fanboy, qua, non sono certo io... ;)
vittorio8800
23-03-2012, 08:28
Io mi chiedo... Vabbè la GTX 480 a suo tempo consumava e scaldava quasi il doppio, e accetto alcuni commenti. Ma ora si arriva all'assurdo ragà!! non mi dite che 5W in idle e 30W in full chip più piccolo 2gb di ram e bla bla bla..... non è un consumo spaventoso, si parla di fregnacce proprio!!! come se fosse la cosa "fondamentale"... Chi gioca davvero, con hardware a dovere, questo.. la cosa che mi fa girare è che la maggior parte di questi post vengono fatti da gente che se vedi firma hanno postazioni sopra la media per non dire folli, quandi si intende che che il consumo non è così tanto importante...
Poi....... E' castrata in GPGPU e OpenCL bla bla bla... ma scusate, la sigla GeForce cosa indica????? che fai i calcoli per il Cern di Ginevra???? Mi pare abbiano inventato Tesla per questo ruolo. Da quello che so GeForce è "solo" per i videogiocatori.
Magari mi sbaglio, ovviamente non si finisce mai di imparare. Mi sarò perso qualche confernza nell'arco di questi mesi... ahahah
Non rosicate e non arrampicatevi sugli specchi per favore, Nvidia ha fatto davvero un buon lavoro, non siate quadrati con il vostro pensiero ma obiettivi!!
Squall 94
23-03-2012, 08:39
Non mi sembra corretto fare i test sempre con una configurazione top, si guadagna sempre qualche fps in più, fondamentali quando si parla di Full HD, quindi di valori che non superano una scala da 0 a 100.
Nelle nostre configurazione sicuramente non daranno quei risultati.
Mi sembra di vedere che comunque la 7970 vada di più rispetto alla nuova Nvidia, non c'è motivo per acquistarla, soprattutto per il prezzo, fatta eccezione per programmi particolari per i quali i driver nvidia si sa, hanno quella marcia in più ma solo perchè funzionano meglio, nessuna differenza percepibile a occhio.
Ma fare, in mezzo a 200 test sui giochi, pure un test gpgpu no, eh?
Ah, ho trovato un primo test
http://www.tomshw.it/cont/articolo/nvidia-geforce-gtx-680-gk104-kepler-e-la-gpu-piu-potente-per-i-videogiochi-risultati-benchmark-prestazioni-di-calcolo-in-luxmark-2-0/36510/19.html
Penosa per quello che era il fiore all'occhiello Nvidia, ovvero il gpgpu.
peccato che nel gpgpu vada un decimo.. quindi non è la scheda perfetta..
è un ottima scheda e forse la migliore per il gioco attualmente ma a versatilità proprio no..
uscira se va bene a fine anno; le QUADRO Fermi sono uscite ben dopo le Fermi gaming, quindi di certo non avremo un refresh a breve. Poi con Fermi aveva operato al contrario, il GF 110 è molto prestante ed efficiente lato professionale e lo è stato poco lato gaming, pero per problemi di tempistiche è stata costretta a lanciare comunque la prima serie gaming e ha corretto il tiro con le 5xx modificando il chip;
Completamente sbilanciata l'architettura sul gaming buttando all'aria il GPGPU.
Un po' quello che ha fatto amd... al contrario!
Sconsigliata a chi voleva Cuda e Physx quindi. Chissà cosa nasconde questa scelta: cuda e physx sono da mollare? Oppure vogliono vendervi le Tesla???
cavolo è un fallimento totale per le mie esigenze.
ovviamente sono interessato unicamente al Rendering 3D tramite GPU usando SLG.
grazie agli utenti che mi hanno postato bench di altri forum, avrei fatto un mega errore a comprarla.
Non posso che concordare con tutti voi... delusione incredibile per me che speravo nel prendere questa scheda per GPGPU.
Incito la redazione di HU a fare un benchmark con cuda tra le varie schede nvidia...
Non mi esprimo sulle prestazioni, driver acerbi e il vecchio trucco del "tiro le frequenze da subito così sono avanti" (4870-4890, anyone? :D amd potrebbe tranquillamente far uscire una 7980 con frequenze di ram e gpu pompate e tornare avanti) ma vorrei fare un appunto alla redazione: per schede di fascia alta ( se non come gpu, come prezzo) ha ancora senso fare test a 1680x1050? uno spende 500 euro per una scheda video e non ne trova 150 per un 22" full hd? capisco l'esigenza dsi strutturare i test in modo da avere i confronti anche con le schede di fascia più bassa, ma per come la vedo io schede come la 680 e la 7970-7950 andrebbero testate dai 1080p in su, tagliando i 1680x1050 e mettendo da subito un test in dual monitor ( dual 1080p o dual 1440p)... è come fare i test di accelerazione di una lamborghini vs una ferrari e tenere conto nella batteria di test di come si comportano entrambe con montato il ruotino di scorta...
Non posso che concordare con tutti voi... delusione incredibile per me che speravo nel prendere questa scheda per GPGPU.
Incito la redazione di HU a fare un benchmark con cuda tra le varie schede nvidia...
confesso di non essere aggiornatissimo su queste cose perché i miei interessi nel gpgpu sono altri (crittografia) ma questa nuova 680 avendo tagliato le capacità gpgpu dovrebbe essere anche inferiore nella gestione della fisica nei giochi?
edit: e chi nel tempo libero usava premier e photoshop? tutti i programmi che usano cuda? ormai tantissimi software di comune utilizzo cominciavano ad avantaggiarsi di cuda, ecc..
non vedete il mio intervento come un tentativo di flame.. voglio capire e penso che interessi a molti (soprattutto in un forum di alta tecnologia come questo in cui non tutti giocano e non tutti vogliono una tesla/quadro).
Danielao
23-03-2012, 09:08
Non facciamo confusione. Qui è stata tagliata la capacità computazione in dp. In sp va benissimo e la maggior parte del GPGPU casalingo lavora in sp :)
confesso di non essere aggiornatissimo su queste cose perché i miei interessi nel gpgpu sono altri (crittografia) ma questa nuova 680 avendo tagliato le capacità gpgpu dovrebbe essere anche inferiore nella gestione della fisica nei giochi?
Una delle domande più sensate che ho letto in questo mare di roba, e a cui sono interessato da perfetto ignorante anche io (con o senza physx);
Qualche buonanima che ha più esperienza può analizzare la cosa?
Grazie anticipate :P
AceGranger
23-03-2012, 09:15
confesso di non essere aggiornatissimo su queste cose perché i miei interessi nel gpgpu sono altri (crittografia) ma questa nuova 680 avendo tagliato le capacità gpgpu dovrebbe essere anche inferiore nella gestione della fisica nei giochi?
edit: e chi nel tempo libero usava premier e photoshop? tutti i programmi che usano cuda? ormai tantissimi software di comune utilizzo cominciavano ad avantaggiarsi di cuda, ecc..
non vedete il mio intervento come un tentativo di flame.. voglio capire e penso che interessi a molti (soprattutto in un forum di alta tecnologia come questo in cui non tutti giocano e non tutti vogliono una tesla/quadro).
servirebbeto test piu approfonditi, ho provato a cercare ma compare sempre il solito bench.
tralasciando che non mi sembrano proprio programmi del tempo libero... per photoshop non cambiera praticamente nulla, la VGA è usata poco, vedremo se la CS6 in uscita riuscira a mettere sotto stress le GPU;
vediamo come si evolvera in questi mesi l'offerta nVidia, la risposta certa l'avremo all'uscita delle nuove Quadro.
servirebbeto test piu approfonditi, ho provato a cercare ma compare sempre il solito bench.
tralasciando che non mi sembrano proprio programmi del tempo libero... per photoshop non cambiera praticamente nulla, la VGA è usata poco, vedremo se la CS6 in uscita riuscira a mettere sotto stress le GPU;
vediamo come si evolvera in questi mesi l'offerta nVidia, la risposta certa l'avremo all'uscita delle nuove Quadro.
ma guarda sarò io che ho amici strani ma molti di loro usano più premier che i videogiochi e lo fanno nel tempo libero :)
dipende tutto cosa fa uno con il pc :)
anche photoshop.. dipende che filtri usi e su dove..
E' solo un classica scusa di qualche fan per giusticare che il suo prodotto preferito è innegabilmente inferiore globalmente parlando.
No, globalmente no. Per i giochi è sì inferiore, ma globalmente no
Vedasi voce gpgpu...
unfaced12
23-03-2012, 09:35
http://www.overclockers.ru/lab/46427/Obzor_i_testirovanie_videokarty_NVIDIA_GeForce_GTX_680.html
Tra tutte le review lette questa è quella che mi pare più completa.
P.S. L'autore e fanboy nVidia dichiarato;)
Non facciamo confusione. Qui è stata tagliata la capacità computazione in dp. In sp va benissimo e la maggior parte del GPGPU casalingo lavora in sp :)
E' comunque abbondantemente dietro anche in sp rispetto alla 7970....
AceGranger
23-03-2012, 09:41
ma guarda sarò io che ho amici strani ma molti di loro usano più premier che i videogiochi e lo fanno nel tempo libero :)
dipende tutto cosa fa uno con il pc :)
anche photoshop.. dipende che filtri usi e su dove..
1000 euro di programma professionale non mi sembra tempo libero.
anche photoshop.. dipende che filtri usi e su dove..
no, dipende dal fatto che la CS 5.5 non sfrutta quasi per nulla la VGA; ho sia una Quadro 600 ( 96 cuda 1 Gb ram ) che una 4000 ( 256 cuda 2 Gb ram ), e la 600 si comporta nel medesimo modo, in tutte le situazioni, e a tutte le risoluzioni.
la CS6 aumentera l'uso della VGA, quando uscira vedremo come sara.
Danielao
23-03-2012, 09:44
Vero ma ha CUDA :)
C'è anche chi pensa che questa retromarcia di Nvida sul gpgpu home non sia una cosa positiva:
http://www.gpugrid.net/
C'è anche chi pensa che questa retromarcia di Nvida sul gpgpu home non sia una cosa positiva:
http://www.gpugrid.net/
vorrà dire che verrà supportato molto di più openCL e le AMD guadagneranno fasce di mercato che prima erano designate ad Nvidia..
Ale55andr0
23-03-2012, 10:04
http://www.overclockers.ru/lab/46427/Obzor_i_testirovanie_videokarty_NVIDIA_GeForce_GTX_680.html
Tra tutte le review lette questa è quella che mi pare più completa.
P.S. L'autore e fanboy nVidia dichiarato;)
Grande, grande recensione: moltissimi titoli provati, tra i quali the witcher 2 (!) e tutti i test effettuati anche overcloccando entrambe le contendenti. Come si notava tirandole al limite si dimostrano praticamente equivalenti, ma con nvidia che nella maggior parte dei titoli mantiene comunque un'incollatura di vantaggio, e per questo va decretata in assoluto come la vincitrice (eccellente risultato anche in virtu' di un bus a 256bit) anche in un test "ad armi pari" ovvero con entrambe le contendenti tirate per il collo:1280/1800 per nvidia, 1250/1700 per AMD. La 7970 ad ogni modo e' la attaccata (gli legge gli scarichi :asd: cit.) e in alcune mattonelle come Metro 2033 e The Witcher 2 da qualcosa in piu' così come 680 da qualcosa in piu' in mattonelle come Battlefield 3 e come Batman AC. Che si scornino sui prezzo ora, grazie! :D
OldSchoolShoter
23-03-2012, 10:11
Grande, grande recensione: moltissimi titoli provati, tra i quali the witcher 2 (!) e tutti i test effettuati anche overcloccando entrambe le contendenti. Come si notava tirandole al limite si dimostrano praticamente equivalenti, ma con nvidia che nella maggior parte dei titoli mantiene un'incollatura di vantaggio e per questo va decretata in assoluto come la vincitrice anche in un test "ad armi pari". La 7970 ad ogni modo e' la attaccata (gli legge la marca degli scarichi :asd: cit.) e in alcune mattonelle come Metro 2033 e The Witcher 2 da qualcosina in piu' così come 680 da qualcosa in piu' in una mattonella come Battlefield 3. Che si scornino sui prezzo ora, grazie! :D
non capisco come mai c'è bisogno di giustificarsi con queste frasi e che bisogno c'è di tirar fuori i "se" e i "ma" ogni volta, senza contare che facciamo ancora finta di non vedere che i driver sono alla prima uscita, il gap fra le due schede aumenterà aulteriormente, mamma mia che rosico allucinante, spero che tu abbia la 7970.
inoltre non vedo cosa possa avere di completo quella review in russo, guarda o aspetta altre recensioni come computerbase, xbitlabs se vuoi avere la lista di ogni singolo titolo dettagliato, fra l'altro in quella recensione dice pure che nvidia scalda e consuma meno e fa meno rumore.
argent88
23-03-2012, 10:29
Nvidia vinde questo round.
Sù, dai non è così difficile da dire.
SinapsiTXT
23-03-2012, 10:29
http://www.overclockers.ru/lab/46427/Obzor_i_testirovanie_videokarty_NVIDIA_GeForce_GTX_680.html
Tra tutte le review lette questa è quella che mi pare più completa.
P.S. L'autore e fanboy nVidia dichiarato;)
link interessante, peccato non capire una mazza di russo :fagiano:
guardando The Witcher 2 sembra leggermente meglio la HD7970 con la risoluzione Full HD ma non mi è chiaro i valori che ha messo ad es. la GTX680 riporta 55-66,5 sono i fps minimi e massimi?
Ale55andr0
23-03-2012, 10:29
non capisco come mai c'è bisogno di giustificarsi con queste frasi e che bisogno c'è di tirar fuori i "se" e i "ma" ogni volta, senza contare che facciamo ancora finta di non vedere che i driver sono alla prima uscita, il gap fra le due schede aumenterà aulteriormente.
.
E io non capisco come mai tiri in ballo una mia frase criticandomi visto che ho commentato quello che succede tra l'altro evidenziando la superiorità di 680 tanto che sono sempre piu' spinto verso l'aquisto della 680 (4gb). Ti do' un consiglio, leggi i commenti con piu' serenità anche perchè in piu' di un'occasione le tue frasi che danno del fanboy cercascuse a destra e a manca hanno francamente tediato, o in altre parole, rotto i maroni, grazie.
MarcoAK47
23-03-2012, 10:32
non capisco come mai c'è bisogno di giustificarsi con queste frasi e che bisogno c'è di tirar fuori i "se" e i "ma" ogni volta, senza contare che facciamo ancora finta di non vedere che i driver sono alla prima uscita, il gap fra le due schede aumenterà aulteriormente.
mamma mia che rosico allucinante, spero che tu abbia la 7970 perchè se non ce l'hai siamo messi proprio male.
inoltre non vedo cosa possa avere di completo quella review, guarda o aspetta altre recensioni come computerbase, xbitlabs se vuoi avere la lista di ogni singolo titolo dettagliato, fra l'altro in quella recensione dice pure che nvidia scalda e consuma meno e fa meno rumore.
L'utente che hai quotato ha detto solo com'è la recensione e come si comportano le schede in caso che l'acquirente pratichi overclock e che finalmente con la concorrenza i prezzi dovrebbero calare per entrambe, il tutto a favore del "popolo".
Non ci vedo niente di male, le due schede sono simili, alcuni preferiranno amd per opencl, altri nvidia per le migliori prestazioni generali nei giochi ecc.
Nessuno mette in dubbio che con i nuovi driver la situazione possa migliorare a favora di nvidia, dato che è comunque un' evoluzione importante del precedente chip con nuove features. L'unica che rosica sembri te, come se dai rumors precedenti all' uscita ti aspettassi realmente prestazioni superiori del 25% con consumi di molto inferiori.......
halduemilauno
23-03-2012, 10:33
Un'utile riassunto di molte rece...
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-680/launch-analyse-nvidia-geforce-gtx-680-seite-2
unfaced12
23-03-2012, 10:34
link interessante, peccato non capire una mazza di russo :fagiano:
guardando The Witcher 2 sembra leggermente meglio la HD7970 con la risoluzione Full HD ma non mi è chiaro i valori che ha messo ad es. la GTX680 riporta 55-66,5 sono i fps minimi e massimi?
Min e Avg. :) Sotto cmq ci sono i grafici per vedere esattamente com si comportano nell'arco di tutto il test.
OldSchoolShoter
23-03-2012, 10:35
E io non capisco come mai tiri in ballo una mia frase criticandomi visto che ho commentato quello che succede tra l'altro evidenziando la superiorità di 680 tanto che sono sempre piu' spinto verso l'aquisto della 680 (4gb). Ti do' un consiglio, leggi i commenti con piu' serenità anche perchè in piu' di un'occasione le tue frasi che danno del fanboy cercascuse a destra e a manca hanno francamente tediato, o in altre parole, rotto i maroni, grazie.
quello che cerca scuse sei tu quì che ogni volta cerca sempre il pretesto e la scusa per giusitificare l'inferiorità di ati, io non sono un fanboy, ho visto le reviews e la 680 è superiore in modo chiaro e netto, infatti tutte le recensioni nel commento finale lo dicono, nessuna dice che è inferiore alla 7970, anche se è un derivato di fascia media.
Ale55andr0
23-03-2012, 10:35
spero che tu abbia la 7970 perchè se non ce l'hai siamo messi proprio male..
Come vedesi da firma il PC nuovo è in fase di lavori in corso, non non ho la 7970 e credo di avere ormai quasi sicuramente optato per la 680 aspettando la variante da 4gb. Tu invece hai perso un'altra occasione per evitare di flammare :rolleyes:
OldSchoolShoter
23-03-2012, 10:37
Come vedesi da firma il PC nuovo è in fase di lavori in corso, non non ho la 7970 è credo di avere ormai quasi sicuramente optato per la 680 aspettando la variante da 4gb. Tu invece hai perso un'altra occasione per evitare di flammare :rolleyes:
va bene vedo che sto discutendo con un troll, non l'avevo capito, inutile andare avanti
ciao
unfaced12
23-03-2012, 10:37
Ragazzi c'è il tasto segnala, non diamo da mangiare ai......
Così si intasa solo il thread.
OldSchoolShoter
23-03-2012, 10:40
link interessante
The Witcher 2 sembra leggermente meglio la HD7970 con la risoluzione Full HD
http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-680/GTX-680-72.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-680/GTX-680-73.jpg
Ale55andr0
23-03-2012, 10:40
Ragazzi c'è il tasto segnala, non diamo da mangiare ai......
Così si intasa solo il thread.
Fatto pochi minuti fa ;)
SinapsiTXT
23-03-2012, 10:46
http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-680/GTX-680-72.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-680/GTX-680-73.jpg
qui la situazione è inversa, leggermente meglio la GTX680, sono manciate di frame bene o male con The Witcher 2 sembrano equivalersi o quasi (non so quali impostazioni grafiche abbia utilizzato il russo), qualcuno che ha testato The Witcher 2 con l'ubersampling attivo? Mi sa che per avere fps decenti con quell'opzione sia necessario uno SLI/crossfire :doh:
unfaced12
23-03-2012, 10:50
qui la situazione è inversa, leggermente meglio la GTX680, sono manciate di frame bene o male con The Witcher 2 sembrano equivalersi o quasi (non so quali impostazioni grafiche abbia utilizzato il russo), qualcuno che ha testato The Witcher 2 con l'ubersampling attivo? Mi sa che per avere fps decenti con quell'opzione sia necessario uno SLI/crossfire :doh:
Preset Ultra, Uber off AA on. La differenza stà nella CPU, dove il russo ha utilizzato un 2600K a 4.5Ghz. E generalmente dove hanno usato CPU SB la 7970 si trova meglio :) Non so a cosa sia dovuto ma è quello che emerge, infatti su HWU con un 3960 in alcuni titoli la 7970 prende il volo.
OldSchoolShoter
23-03-2012, 10:57
La differenza stà nella CPU, dove il russo ha utilizzato un 2600K a 4.5Ghz.
E generalmente dove hanno usato CPU SB la 7970 si trova meglio :) Non so a cosa sia dovuto ma è quello che emerge, infatti su HWU con un 3960 in alcuni titoli la 7970 prende il volo.
Si tratta di un leggero CPU limited quello, il 3960x ha una frequenza molto più bassa della cpu usata dal russo e fa un po' da tappo alle schede, per questo quì appiono più allineate, altro che volo. :rolleyes:
Ale55andr0
23-03-2012, 10:58
Preset Ultra, Uber off AA on. La differenza stà nella CPU, dove il russo ha utilizzato un 2600K a 4.5Ghz. E generalmente dove hanno usato CPU SB la 7970 si trova meglio :) Non so a cosa sia dovuto ma è quello che emerge, infatti su HWU con un 3960 in alcuni titoli la 7970 prende il volo.
la serie 2000 però è maggiormente diffusa, oltre chè piu' prestazionale in ambito gaming, almeno a vedere quello che succede nelle review del 3820 che nonostante la maggiore frequenza e il quad channel nei giochi si trova di qualche frazione dietro ai classici 2500/2600 (latenze? bug? boh), direi quindi che questo è un plus positivo per chi acquista una 680 :) la serie 3000 credo sia piu' orientata al settore professionale (inolrte è davvero troppo costosa come piattaforma)
Ale55andr0
23-03-2012, 11:02
utilissimo, la media matematica che ne esce è 107%. Bisogna vedere quanti hawx2 ci sono in giro e togliere magari altri 2 punti percentuali. Considerato l'oc automatico oltre i 1050, ma soprattutto considerato l'hype generato, non è certo un gran risultato. Una 7970 portata a 1050 (per tenermi stretto, visto che tutte toccano il fondo scala del CCC a 1125 a voltaggio default) "in automatico" (come il gpu boost in fin dei conti) tramite sw terze parti sta già al pari. Quindi una 7970 a 1050mhz va uguale ad una 680 che si porta a 1100 in automatico. Overcloccando ed overvoltando ulteriormente, sarebbe proprio da vedere.
ha fatto molto meglio ed in meno tempo amd da 6970 a 7970, sopra avanzando anche nel campo del gpgpu, che nvidia da 580 a 680.
no aspetta, nella review russa (o quello che è :asd:) la 7970 era mediamente inferiore, seppur di poco, nella maggior parte dei titoli pur occata a 1250/1700 vs i 1280/1800 di 680, quindi nvdia ne esce meglio, anche considerando il bus a 256bit che le da' meno bandwidth e ciononostante fa la sua porca figura, direi che l'architettura kepler è leggermente superiore, quindi a costo simile, direi che la 680 è l'aquisto per chi gioca :)
ancora una volta non c'e' un test con Battlefiled 3... ovviamente Tom's Hardware cel'ha
unfaced12
23-03-2012, 11:11
la serie 2000 però è maggiormente diffusa, oltre chè piu' prestazionale in ambito gaming, almeno a vedere quello che succede nelle review del 3820 che nonostante la maggiore frequenza e il quad channel nei giochi si trova di qualche frazione dietro ai classici 2500/2600 (latenze? bug? boh), direi quindi che questo è un plus positivo per chi acquista una 680 :) la serie 3000 credo sia piu' orientata al settore professionale (inolrte è davvero troppo costosa come piattaforma)
Forse non mi sono spiegato, ma con un 2000 la 7970 stà più vicina rispetto ad un 900, con i 39xx è ancora più vicina. In definitiva chi ha un SB e occa le schede senza OV si troverà un sostanziale pareggio, forse qualcosina in più la 680. Alla fin fine concordo con te che Kepler è leggermente superiore a GCN, e AMD ha recuperato molto terreno questo giro.
unfaced12
23-03-2012, 11:15
guarda come ho già detto e ripetuto, non sto dicendo che la 680 fa schifo, anzi.
sto dicendo che è equivalente alla 7970 e che dopo tutto l'hype generato, raschiare dal fondo del clock qualche mhz per staccare neanche il 10% in più non mi sembra un gran risultato, considerato che ha dovuto rinunciare molto nel campo che spingeva come "la rivoluzione" ai tempi della presentazione fermi.
la review russa non so come facciate a leggerle, ma io non riesco proprio, penso di aver fatto una media si 21 test linkati da hal su 3dcenter, test più test meno il risultato non cambierebbe.
C'e poco da leggere..... ci sono i grafici.:) Dagli un'occhiata perché è fatta molto bene.
Ale55andr0
23-03-2012, 11:19
guarda come ho già detto e ripetuto, non sto dicendo che la 680 fa schifo, anzi.
e come puoi/hai potuto vedere, nemmeno io che 7970 facia schifo, anzi! :D
sto dicendo che è equivalente alla 7970 e che dopo tutto l'hype generato, raschiare dal fondo del clock qualche mhz per staccare neanche il 10% in più non mi sembra un gran risultato, considerato che ha dovuto rinunciare molto nel campo che spingeva come "la rivoluzione" ai tempi della presentazione fermi.
Se l'obiettivo era annichilire la 7970 direi che hai ragione, se era avere la vga comunque piu' performante ci sono riusciti, certo con approccio aggressivo (ma con bus a 256, che avvalora la bontà di 680), ma alla fine dato che messe in condizioni simili la 680 comunque da' qualcosa in piu' un maggior numero di volte, ho deciso di optare per la 680/4gb (poi per me avere uno sctafascio di ram è fondamentale :asd: ). Non ti nego che c'è anche la voglia di provare qualcosa di nuovo :) (dopo anni di assoluta soddisfazione con AMD/Ati, si intende)
la review russa non so come facciate a leggerle, ma io non riesco proprio, penso di aver fatto una media si 21 test linkati da hal su 3dcenter, test più test meno il risultato non cambierebbe.
semplice, ho usato google traduttore (devi inserire il link deal rece) e si legge tranquillamente, anche se fa ridere leggere "Sporco 3" nei titoli usati :asd:
eh io gioco a 1440p a volte in 1080p se la scheda muore :)
cmq bf3 con tutto allo stramassimo arriva a ciucciare 2,6 gb di vram... :D
Falso , al max BF3 arriva come picco a 1.7 gb di vram , non guardare con il cross della serie 7*** che c'è un baco per cui somma la vram di una all'altra invece di rilevare quella corretta per ogni singola GPU.
Ormai sarà la millesima volta che lo ripeto , spero qualcuno lo legga :doh:
Per me sto gk100 o come si chiama non esiste, vogliono solo spargere la voce che dopo 3 mesi di ritardo hanno l'asso nella manica, ma va va nvidia se vuoi te lo dico io dove hai l'asso..
Unica cosa positiva di questa scheda è che abbassera i costi delle 7970, quindi molto volentoroso di prenderne una.
Questa meravigliosa scheda la vedete solo voi... gogo prosciutto gogo
Si tutti parlano di gk110 che quando uscirà farà piazza pulita.
Ma nessuno di questi nota che sono arrivati sul mercato con tanti mesi di ritardo, con un articolo che non sà nè di carne nè tanto meno di pesce.
Ora mi domando se ad agosto esce il gk110 che senso ha comprare la 680 ora?
Tutto marketing, gg ad nvidia che dopo 5 mesi di ritardo per evitare di fare un ulteriore figuraccia, inventa il gk110. Che tristessa.
Cosa non si fà x evitare brutte figure e vendere qualcosa.
su ragazzi siamo realistici.... non e quello che ci aspettavamo dalla GTX 680 ..... a 500 euro e sicuramente un fail......... considerando che la HD 7970 sta sui 430 euro... ha 3gb di ram con bus 384 bit + 70 gb/s di banda in più..
inoltre da notare come l'architettura gpu della hd 7970 e superiore a parita di clock 925 Mhz contro 1006 Mhz + 50 di turbobust e non e una questione di fan boy AMD e la verità.
in tutta sincerità mi aspettavo di più dalla GTX 680.... forse non era un fail se veniva proposta a 399 Euro allora si erò d'accordo,...
e pensate che lo dico da fan boy Nvidia .. non che AMD non mi piaccia ne ho avute e mi sono trovato bene... questa volta e preferibile AMD... con <<<Physx e cuda non fai molto... sono poco sfruttati.. almeno per chi gioca.... e giocare vuol dire giocare di tutto guardatela come quadro generale della situazione.... un saluto e viva la concorenza...............
ma dove? le 7970 le si trova a poco piu' di 400 :rolleyes:
Non mi pare che nella review consumi meno, ma 34w in piu' con chip piu' piccolo e con 1gb di memoria in meno (4 chip di memoria in meno da alimentare)
vero, ma non ovunque (e non in entità tale da rendere giocabile un gioco che su 7970 è ingiocabile)
il supporto al 3d lo ha anche AMD mentre Physx nei 4 titoli in cui è supportato non fa gridare al miracolo, specie in relazione al costo in termini di risorse hardware, tutto cose implementabili anche meglio senza tecnologie proprietarie
Se parti da minore consumo di 7970 (vedi review...) e overclocchi senza toccare il vcore non aumenta il consumo ma solo le prestazioni (e 7970 scala bene all'aumentare della frequenza, in modo quasi lineare). La nvidia si auto-overclocca da sola arrivando anche a 1100mhz (vedi recensione) contro un clock fisso di 925mhz di 7970 (comunque colpa di AMD se è stata troppo conservativa, apprezzo l'approccio piu' aggressivo di nvidia).
PS: Nella review la 680 è stato overcloccata facendo l'uso di overvolt tra l'altro...
"In molti scenari la GPU avrà però a disposizione molte risorse da poter ancora sfruttare, ecco allora che GPU Boost spingerà le frequenze di funzionamento oltre quel 5% di incremento indicato dal "boost clock", facendo registrare frequenze operative decisamente superiori"
(l'hai letta la rece?)
su hw upgrade sostengono il contrario, a sto' punto chi ha ragione? :D
domani vedro' altre review per far media
'notte
era default allora anche il secondo bios OC delle 6990 che asfaltava le 590? Vedi che mezzucci, la scheda si autocloca non di 50mhz ma anche di più, come se la 7970 si autocloccasse ad almeno 1100mhz, avendo ancora margine per salire.
mi spiace, staccasse un +30% almeno di prestazioni in più, tanto di cappello, ma se per fari il 10% risicato in più in fullhd (e non sempre, per altro su framerate mostruosi dove 150fps sono uguali a 165fps) ed andare uguale a 2500 (e non sempre...) grazie all' "overclock default", beh tanto di cappello (al femminile)...
e costa pure di più...
più se ne parla e più mi convincete che, nonostante le ottime prestazioni e nonostante sia equivalente ad una 7970 in linea di massima, dopo tutta la manfrina, dopo tutte le dichiarazioni (stiamo arrivando e non ce n'è per nessuno, amd ci ha deluso), l'nda violento, le slide fake ed i canti di vittoria precoci, questo 104 sul piano delle attese si sia rivelato un fail.
fail :O
Un'utile riassunto di molte rece...
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-680/launch-analyse-nvidia-geforce-gtx-680-seite-2
Grande Hal così almeno i soliti recidivi che non hanno voglia di sbattersi a leggere altre recensioni , almeno si accorgono che la reltà è ben diversa da quella di HWupgrade , che tra l'altro è l'UNICA testata ad aver usato di driver vecchi :doh:
il prezzo più basso a cui si trova ora la 7970 da negozio quantomeno serio è 440 http://www.trovaprezzi.it/prezzo_schede-grafiche_7970.aspx
La 680 passato il primo mese la si troverà pure lei allo stesso prezzo se non meno , visto che già al day one si trova a 500 € quando la 7970 a meno di 550 non si trovava ;)
I consumi superiori della 680 sulla 7970 , di tutte le rece che ci sono in rete solo quella di HWUPGRADE li ha rilevati :rolleyes:
Poi un bel suntino preso grazie al link fornitoci da Hal , per tutti quelli che dicono che la 680 non è superiore , o addirittura un Fail :doh:
http://s19.postimage.org/qyf8fh41b/7970_vs_680.jpg (http://postimage.org/image/qyf8fh41b/)
guarda come ho già detto e ripetuto, non sto dicendo che la 680 fa schifo, anzi.
sto dicendo che è equivalente alla 7970 e che dopo tutto l'hype generato, raschiare dal fondo del clock qualche mhz per staccare neanche il 10% in più non mi sembra un gran risultato, considerato che ha dovuto rinunciare molto nel campo che spingeva come "la rivoluzione" ai tempi della presentazione fermi.
la review russa non so come facciate a leggerle, ma io non riesco proprio, penso di aver fatto una media si 21 test linkati da hal su 3dcenter, test più test meno il risultato non cambierebbe.
Secondo me a questo giro ha sbagliato AMD. Alla fin fine le prestazioni GPGPU non sono importanti per un videogiocatore e, forse, hanno spinto troppo in tal senso, abbandonando la strada che li ha portati al rilancio e al successo.
Secondo me a questo giro ha sbagliato AMD. Alla fin fine le prestazioni GPGPU non sono importanti per un videogiocatore e, forse, hanno spinto troppo in tal senso, abbandonando la strada che li ha portati al rilancio e al successo.
Bisogna pero` capire che un hobbista non puo` generalmente permettersi una Quadro od una Tesla, per cui suggerimenti in tal senso lasciano il tempo che trovano.
E` come dire, ad esempio, che uno che giochicchia a casa con le Virtual Machine o piccoli server debba prendersi Xeon od Opteron.
E credo che sia molta di piu` la gente interessata al GPGPU per il rendering, calcoli, folding, cracking, ecc.
halduemilauno
23-03-2012, 11:28
utilissimo, la media matematica che ne esce è 107%. Bisogna vedere quanti hawx2 ci sono in giro e togliere magari altri 2 punti percentuali. Considerato l'oc automatico oltre i 1050, ma soprattutto considerato l'hype generato, non è certo un gran risultato. Una 7970 portata a 1050 (per tenermi stretto, visto che tutte toccano il fondo scala del CCC a 1125 a voltaggio default) "in automatico" (come il gpu boost in fin dei conti) tramite sw terze parti sta già al pari. Quindi una 7970 a 1050mhz va uguale ad una 680 che si porta a 1100 in automatico. Overcloccando ed overvoltando ulteriormente, sarebbe proprio da vedere.
ha fatto molto meglio ed in meno tempo amd da 6970 a 7970, sopra avanzando anche nel campo del gpgpu, che nvidia da 580 a 680.
A me pare un risultato eccellente in assoluto e tenendo conto dell'iter del chip.
E il controhype generato da chi non credeva tutto questo possibile dove lo metti?
Prima ati/amd facevano chip piccoli e immancabilmente arrivavano secondi e voi a difenderlo e ma piccolo ha i suoi vantaggi ora il chip piccolo lo ha Nvidia ma con la differenza che è primo. Ecco questo ve fa rode e vi fa rodere anche il fatto che Nvidia ha adottato il boost dinamico ecco prendetevela con amd che non solo non ci ha pensato ma ha anche imposto frequenze, a sentir voi, inadeguate.
Ecco questa è la situazione.
Strato1541
23-03-2012, 11:29
Certo che è incredibile che SEMPRE gli stessi utenti che criticarono il progetto fermi(aveva difetti he nulla da dire) e all'epoca dissero che nvidia fà solo chip "mattonelle" ,con consumi assurdi,calore da cucinare uova, con funzionalità inutili per i giocatori(cuda) , con physx che è solo marketing e chi più nè ha più nè metta...Ora che nvidia presenta un chip piccolo(più piccolo di tahiti ricordo...)con consumi allineati alla concorrenza temperature buone e soprattutto più veloce della concorrenza ancora non vada bene!Ora è diventa importante il gpugpu(ancora da verificare bene cosa non và , dato che i driver son acerbi e se permettette al lancio di gf100 presi una 470 e molte cose non erano ottimali , come lo sarebbero diventate poi dopo 2 mesi)..
è proprio incredibile che ogni volta debba andare così!
Se le schede vanno esattamente come i grafici dicono, direi che INUTILE dire"se amd portava il core ad 1 ghz se nvidia non metteva il turbo etc), le schede a default vanno prese come tali, altrimenti anch'io potrei dire "se amd produceva gpu più potenti la gtx 680 sarebbe stata fascia media costerebbe la metà e ci sarebbe gk110", ma questa è un'illazione
Io ho una tahiti ho visto cosa fà e cosa non fà(i crash degli ultimi driver non mi permettevano neanche il passaggio al semplice dual monitor tanto per dire) e ci ho creduto nel progetto infatti la presi subito, ma son anche obiettivo, specie dopo aver provato.
Siate obiettivi e soprattutto chi non sà (non necessariamente chi non prova perchè può sapere molto bene) stia zitto.
Fate ragionamenti costruttivi e non di parte nè giovano tutti.
TheDarkAngel
23-03-2012, 11:32
Secondo me a questo giro ha sbagliato AMD. Alla fin fine le prestazioni GPGPU non sono importanti per un videogiocatore e, forse, hanno spinto troppo in tal senso, abbandonando la strada che li ha portati al rilancio e al successo.
E' riuscita a portare sul mercato la serie alta 3 mesi fa, quella media un mese fa, prestazionalmente è indietro a 1920 del 10%, risoluzione più usata, grazie all'overclock dinamico che nvidia ha introdotto, questo perchè la scheda scala sempre fino a 1110mhz che poi regola in base alla temperatura e al consumo (ecco i risultati differenti?). Ora proprio volendo guardare tutto, le cose più interessanti della gtx680 sono le feature introdotte e meno discusse, l'Adaptive VSync e il TXAA. Ad overclockkare per fornire una scheda più prestante siamo capaci tutti :p
and the question is: apple ha tolto molte geforce dai futuri macbook perchè scarse su openCL, features su cui Apple sta puntando molto?
Strato1541
23-03-2012, 11:43
and the question is: apple ha tolto molte geforce dai futuri macbook perchè scarse su openCL, features su cui Apple sta puntando molto?
La risposta è qui..
http://www.tomshw.it/mobile/cont/news/nvidia-lascia-a-piedi-apple-macbook-pro-senza-geforce/36417/1.html
Non centra nulla ciò che dici, il problema è diverso , almeno per ora..
La risposta è qui..
http://www.tomshw.it/mobile/cont/news/nvidia-lascia-a-piedi-apple-macbook-pro-senza-geforce/36417/1.html
Non centra nulla ciò che dici, il problema è diverso , almeno per ora..
E i potrei risponderti, non c'entra nulla quello che posti perché sono supposizioni e semiaccurate non ne becca una da tempo.
SinapsiTXT
23-03-2012, 11:48
Concordo con TheDarkAngel, quello che mi ha interessato di più sono le due funzioni Adaptive VSync e TXAA, spero di vedere degli articoli di approfondimento su queste due tecnologie, credo che lo sapevano pure i sassi che Nvidia uscendo 3 mesi dopo AMD avrebbe puntato alla scheda singola gpu più veloce e c'è riuscita (con la risoluzione FullHD), forse alcuni si aspettavano un margine più ampio e altri non pensavano che avrebbero eliminato la componente gpgpu ma così è stato, è tornata la concorrenza spero di vedere altre declinazioni Kepler a breve :)
La funzione gpu boost a mio avviso è un'opzione inutile (cambia da scheda a scheda e uno può farci poco affidamento), più interessante invece fissare i frame minimi e spero di vedere un articolo di approfondimento anche su quella funzione.
Strato1541
23-03-2012, 11:49
E i potrei risponderti, non c'entra nulla quello che posti perché sono supposizioni e semiaccurate non ne becca una da tempo.
Se già nè sai di più allora non chiedere..
Scusate se dico una stupidata ma mi sono convinto che queste sono le basi (belle solide) per una GPU per consolle, d'altro canto se Nvidia vuole vendere (e c'è mercato) in quel settore la strada del chippone potente ma avido di risorse e con temperature elevate da smaltire non ha senso.
Un'altra considerazione personale sull'overclock dinamico: lo si può considerare un trucchetto o meno ma poco importa visto che è presente di fabbrica esattamente come il secondo bios AMD e sarebbe giusto usare anche il secondo nelle comparative.
PaP
Se già nè sai di più allora non chiedere..
ma che ragionamento è?!?!?? :mc: :mc:
è un forum dove le persone portano le proprie idee per dare spunti di riflessione.
MarcoAK47
23-03-2012, 11:53
Secondo me a questo giro ha sbagliato AMD. Alla fin fine le prestazioni GPGPU non sono importanti per un videogiocatore e, forse, hanno spinto troppo in tal senso, abbandonando la strada che li ha portati al rilancio e al successo.
Secondo me da quel punto di vista ha fatto bene, fare più progetti, una per giocatori e una per lavoro porta maggiori costi, invece così ha un'ottimo compremesso tra i due. Ha sbagliato senza dubbio sulle frequenze, 925Mhz sono davvero pochi per la top di gamma (con questo pp), senza overvolt arrivano tutte (quelle che ho visto) a 1100MHz circa, potevano tranquillamente impostare almeno 1000MHz in tutta sicurezza; non sarebbe cambiato molto, la gtx680 sarebbe ugualmente più veloce però il gap sarebbe inferiore.
Ha sbagliato anche sul prezzo, un 50 dollari in meno di listino erano molto meglio, poi il prezzo sul mercato sarebbe stato probabilmente ugualmente alto a causa della poca disponibilità di schede...... ma non possiamo saperlo.
In conclusione (almeno da parte mia su questo thread) mi sento di affermare che sono due splendide schede e il gap prestazionale, di consumi ecc. non è mai stato così risicato negli ultimi anni. Questo è un bene per tutti! Buon week end :)
Strato1541
23-03-2012, 11:53
ma che ragionamento è?!?!?? :mc: :mc:
è un forum dove le persone portano le proprie idee per dare spunti di riflessione.
Il ragionamento è questo : se qualcuno gentilmente si è preso la briga di rispondere ad un quesito(con un minimo di argomentazione, o almeno quella che è riuscito a trovare) e il richiedente risponde con saccenza e sarcasmo , allora è normale che chi ha risposto si scocci..
TheDarkAngel
23-03-2012, 11:55
è un forum dove le persone portano le proprie idee per dare spunti di riflessione.
Sicuro? :asd:
Il ragionamento è questo : se qualcuno gentilmente si è preso la briga di rispondere ad un quesito(con un minimo di argomentazione, o almeno quella che è riuscito a trovare) e il richiedente risponde con saccenza e sarcasmo , allora è normale che chi ha risposto si scocci..
il ragionamento è: se mi rispondi che e' sbagliato quello che dico perché mi posti un link di un rumors e non provi a ragionarci neanche sopra, questo mi fa scocciare.
Sicuro? :asd:
già ma la colpa è nostra che ci ostiniamo a voler discutere..
signori torno a lavorare perché qui di discussioni creative non ne vedo proprio.
OT: Dark ho appena comprato casa proprio a Mornago ^^.
Strato1541
23-03-2012, 11:59
il ragionamento è: se mi rispondi che e' sbagliato quello che dico perché mi posti un link di un rumors e non provi a ragionarci neanche sopra, questo mi fa scocciare.
Postami tu un link (anche un rumors và bene) dove si dice quanto da te sostenuto e lì possiamo discutere.
Anche perchè c'è poco da ragionare , io ho risposto che la questione stando a quanto si legge è diversa da quello che tu dici, non ho detto una virgola di più.
Tra parentesi , sei tu il primo a non aver neanche discusso dato che hai concluso che "semiaccurate non nè prende una da tempo", senza (certamente dato il lasso di tempo con cui hai risposto) neanche aver letto per intero quanto da me postato.
AceGranger
23-03-2012, 12:03
Secondo me a questo giro ha sbagliato AMD. Alla fin fine le prestazioni GPGPU non sono importanti per un videogiocatore e, forse, hanno spinto troppo in tal senso, abbandonando la strada che li ha portati al rilancio e al successo.
da quello che hanno scritto su tom's, ha prestazioni scarse nel GPGPU per una questione di blocco volontario; vedendo le indiscrezioni passate e la frequenza di partena,
IMHO,
mi sembra molto plausibile la teoria che il GK104 dovesse essere il chip delle VGA di facia media, quindi gia progettato con i blocchi; le GTX Fermi attuali hanno blocchi nei calcoli in dp maggiori nelle fasce basse e medie mi pare che si attestino a 1/6, mentre i chip di fascai alta si attestino a 1/2.
quindi potrebbe essere che il cgip si è rivelato migliore del previsto, lo hanno pompato un po di piu in frequenza e mandato fuori come fascia alta, pero ovviamente con i blocchi della fascai media.
una brutta situzione, pero mi piacerebbe vedere meglio con altri programmi GPGPU e programmi CUDA com'è il divario reale, diciamo a 360°.
una brutta situzione, pero mi piacerebbe vedere meglio con altri programmi GPGPU e programmi CUDA com'è il divario reale, diciamo a 360°.
Io dopo aver visto le recensioni (e i primi confronti con il GPGPU) ero curioso di vedere con PhysX come si comportava. Ovviamente il confronto va fatto con la GTX580. Diciamo che la seconda perde meno fps attivando le funzionalità in più, la prima però è più veloce del 20/30% (vado a memoria) e riesce quindi a rimanere (anche con PhysX) attivato, di poco sopra o alla pari.
Diciamo che i "calcoli" che si sono fatti in casa Nvidia non sono neanche sbagliati, il GPGPU va di moda (e lo dissi anche all'uscita della GTX580) ma se deve essere sfruttato così "tanto per", tanto vale puntarci il giusto.
Ovviamente chi lo usa non sarà così contento, a questo punto però ha alternative molto buone nelle vecchie schede Fermi oppure nelle nuove AMD.
yossarian
23-03-2012, 12:26
Non facciamo confusione. Qui è stata tagliata la capacità computazione in dp. In sp va benissimo e la maggior parte del GPGPU casalingo lavora in sp :)
kepler gestisce le istruzioni in modalità In Order, fermi e tahiti Out of Order; la differenza nel gpgpu la fa soprattutto questa caratteristica
yossarian
23-03-2012, 12:39
Secondo me a questo giro ha sbagliato AMD. Alla fin fine le prestazioni GPGPU non sono importanti per un videogiocatore e, forse, hanno spinto troppo in tal senso, abbandonando la strada che li ha portati al rilancio e al successo.
AMD ha l'esigenza di integrare cpu e gpu e una gpu OoO si presta meglio di una IO come cayman.
da quello che hanno scritto su tom's, ha prestazioni scarse nel GPGPU per una questione di blocco volontario; vedendo le indiscrezioni passate e la frequenza di partena,
IMHO,
mi sembra molto plausibile la teoria che il GK104 dovesse essere il chip delle VGA di facia media, quindi gia progettato con i blocchi; le GTX Fermi attuali hanno blocchi nei calcoli in dp maggiori nelle fasce basse e medie mi pare che si attestino a 1/6, mentre i chip di fascai alta si attestino a 1/2.
quindi potrebbe essere che il cgip si è rivelato migliore del previsto, lo hanno pompato un po di piu in frequenza e mandato fuori come fascia alta, pero ovviamente con i blocchi della fascai media.
una brutta situzione, pero mi piacerebbe vedere meglio con altri programmi GPGPU e programmi CUDA com'è il divario reale, diciamo a 360°.
kepler ha una logica di funzionamento diversa da fermi: fermi ha lo scheduling delle istruzioni dinamico eseguito via HW con riordino delle stesse a seconda delle priorità di esecuzione; kepler fa lo scheduling statico via SW. In poche parole, kepler lavora, da questo punto di vista, come le architetture vliw di ATi, mentre tahiti lavora come fermi :D
roccia1234
23-03-2012, 12:46
AMD ha l'esigenza di integrare cpu e gpu e una gpu OoO si presta meglio di una IO come cayman.
kepler ha una logica di funzionamento diversa da fermi: fermi ha lo scheduling delle istruzioni dinamico eseguito via HW con riordino delle stesse a seconda delle priorità di esecuzione; kepler fa lo scheduling statico via SW. In poche parole, kepler lavora, da questo punto di vista, come le architetture vliw di ATi, mentre tahiti lavora come fermi :D
Quindi, se non ho capito male, dovremo aspettarci una maggiore dipendenza dai driver per kepler rispetto alle ultime uscite ati e alle nvidia precedenti, giusto?
Red Baron 80
23-03-2012, 12:49
Se Nvidia ha deciso di cambiare approccio un motivo ci sarà e di certo non produrrà risultati negativi. Anzi se dipende di più dai drivers potrebbe pure essere cosa buona in quanto migliore è il SW migliore è la resa. Nvidia sotto questo punto di vista è andata sempre meglio della controparte.
Se Nvidia ha deciso di cambiare approccio un motivo ci sarà e di certo non produrrà risultati negativi. Anzi se dipende di più dai drivers potrebbe pure essere cosa buona in quanto migliore è il SW migliore è la resa. Nvidia sotto questo punto di vista è andata sempre meglio della controparte.
Certo, d'altronde l'ultimo esempio in casa Nvidia di questo tipo è la Geforce FX 5800. Le premesse sono positive :asd:
unfaced12
23-03-2012, 12:54
Se Nvidia ha deciso di cambiare approccio un motivo ci sarà e di certo non produrrà risultati negativi. Anzi se dipende di più dai drivers potrebbe pure essere cosa buona in quanto migliore è il SW migliore è la resa. Nvidia sotto questo punto di vista è andata sempre meglio della controparte.
Eh no! Prima andava meglio perché dipendeva meno dai driver rispetto ad AMD. Se inverti la dipendenza devi anche invertire i rischi. ;) Almeno a logica è così. Poi sicuramente in casa nVidia si saranno fatti i loro calcoli, ma sopratutto credo che bisognerà aspettare Gk110 perché credo che lì si tornerà all'approccio di fermi per il GPGPU.
yossarian
23-03-2012, 13:05
Quindi, se non ho capito male, dovremo aspettarci una maggiore dipendenza dai driver per kepler rispetto alle ultime uscite ati e alle nvidia precedenti, giusto?
dai driver e dall'ottimizzazione del SW. C'è da dire, in ogni caso, che nel settore giochi il problema è relativo, tranne nei rari casi di SW volutamente mal ottimizzato per una determinata architettura. Questo perchè l'elaborazione è piuttosto lineare e le latenze abbastanza prevedibili. Diverso il discorso per il gpgpu, dove accade l'esatto contrario, soprattutto in certi ambiti. In quel caso, una gestione di tipo OoO è da preferire.
In ogni caso, l'approccio di nVidia non è identico a quello seguito da AMD con la VLIW, perchè in quel caso il compilatore i deve occupare anche di raggruppare le istruzioni indipendenti di uno stesso thread da inviare ad ogni singola alu; nel caso di kepler, ogni alu lavora su un singolo thread elaborando una sola istruzione per volta, come avviene anche in fermi. Quindi, la differenza sostanziale è che nel caso, ad esempio, di cayman, il compilatore doveva stabilire l'ordine di esecuzione delle istruzioni e individuare le micro istruzioni indipendenti del thread A, ad esempio a, b, c, d, e, f, da inviare all'alu X; l'alu X eseguiva in un solo ciclo a, b, c, d e in un altro ciclo e ed f con due vie dell'alu che restano inattive; nel caso di kepler, il compilatore deve svolgere solo il primo dei due task, ovvero stabilire l'ordine di esecuzione delle istruzioni; nel caso di elaborazione dello stesso thread A, quindi, l'alu X di kepler impiegherà 6 cicli per portare a termine l'istruzione completa con l'alu che non resta mai inattiva.
Diciamo che l'approccio seguito per kepler è, da questo punto di vista, una via di mezzo tra fermi e cayman.
La differenza rispetto a fermi e tahiti è che in kepler non è possibile riordinare le istruzioni a seconda delle esigenze ma l'orine di esecuzione è fissato a priori dal compilatore
Red Baron 80
23-03-2012, 13:06
Eh no! Prima andava meglio perché dipendeva meno dai driver rispetto ad AMD. Se inverti la dipendenza devi anche invertire i rischi. ;) Almeno a logica è così. Poi sicuramente in casa nVidia si saranno fatti i loro calcoli, ma sopratutto credo che bisognerà aspettare Gk110 perché credo che lì si tornerà all'approccio di fermi per il GPGPU.
Ma allora scusami semmai dovessero tornare all'approccio Fermi, che senso avrebbe invertirlo con Kepler? Mi sembra una cosa strana. Innovare l'approccio per poi far marcia indietro? Mi sembra un controsenso...
yossarian
23-03-2012, 13:12
Ma allora scusami semmai dovessero tornare all'approccio Fermi, che senso avrebbe invertirlo con Kepler? Mi sembra una cosa strana. Innovare l'approccio per poi far marcia indietro? Mi sembra un controsenso...
a dire la verità, l'approccio innovativo era quello di fermi :D
unfaced12
23-03-2012, 13:40
Ma allora scusami semmai dovessero tornare all'approccio Fermi, che senso avrebbe invertirlo con Kepler? Mi sembra una cosa strana. Innovare l'approccio per poi far marcia indietro? Mi sembra un controsenso...
Perché nel Gk104 hanno tagliato tutto il superfluo in game. Cosa che penso reintrodurranno in GK110. Ti ricordo che è accreditato di 6mld di transistor e 2200SP contro i 1536 di GK104 per circa la metà dei transistor.
Come vedi è lampante che i conti non tornano;)
Scordati l'efficenza di GK104 nel GK110. Se fosse uscito oggi consumerebbe 400W. PP acerbo e ripiegamento in difesa sia di AMD (frequenze) che di nVidia (OC del GK104).
OldSchoolShoter
23-03-2012, 13:53
Grande Hal così almeno i soliti recidivi che non hanno voglia di sbattersi a leggere altre recensioni , almeno si accorgono che la reltà è ben diversa da quella di HWupgrade , che tra l'altro è l'UNICA testata ad aver usato di driver vecchi :doh:
I consumi superiori della 680 sulla 7970 , di tutte le rece che ci sono in rete solo quella di HWUPGRADE li ha rilevati :rolleyes:
Poi un bel suntino preso grazie al link fornitoci da Hal , per tutti quelli che dicono che la 680 non è superiore , o addirittura un Fail :doh:
Il problema non sono solo i driver vecchi ma è anche leggermente cpu limited con alcuni giochi, per questo sembrano più appaiate le schede quì.
Non postare più nulla, tanto si sa che questi sono solo fanboy ATI, fanno semplicemente finta di non vedere e basta, trovando scuse a go go a partire dal confronto che deve essere fatto per forza a parità di clock ( visto che per loro è la stessa architettura ), che l'overboost non è considerato parte della freq di default, o che adesso i confronti si devono fare alla risoluzione massima sennò non vale, oppure che Nvidia ha usato un approccio aggressivo per battere ATI, quando invece è un chip nato per la fascia media e pure con un TDP minore.
Da quando non hanno più la scusa del calore e del consumo non sanno più a cosa aggrapparsi per giustificare il fatto che la 7970 è inferiore e meno conveniente, quando gli parli di driver acerbi però si girano dall'altra parte.
eh direi!:fagiano: ... non credo che sfrutti a dovere nemmeno la 580 con un q6600! :stordita:
Beh non mi lamento. Il cambio del Pc (se lo faccio) lo faccio solo per divertimento, ora come ora non mi serve a niente avere più potenza se devo essere sincero.
a dire la verità, l'approccio innovativo era quello di fermi :D
Appunto, un approccio che però sembra che nei numeri non gli avesse dato ragione. Io non so se questa nuova famiglia di Nvidia nasce con l'obiettivo di riconquistare il dominio del mercato gamer e francamente, bontà del prodotto o meno, mi sembra impossibile che ci riescano. Oramai AMD/ATi ha acquisito una fetta così considerevole di mercato che, se eviteranno clamorosi errori di percorso come quelli fatti da Nvidia, non potrà mutare lo scenario di vendite nei prossimi 4/5 anni. Fatto sta che più leggo sopra Kepler, più mi sembra una scheda pensata esclusivamente per il mercato consumer e più precisamente gamer, non vedendo incluse sostanziali novità in tutto il resto. E poi i consumi quando la scheda viene sollecitata non sembrano affatto next-gen. Immaginatevi una configurazione sli o quad sli. Se accendete il pc e la lavatrice insieme, probabilmente vi salta l'interruttore differenziale. Mah
unfaced12
23-03-2012, 14:03
http://i.imgur.com/2iqMm.png
Intanto sembra che per i veri enthusiast il limite dei 2 Gb si faccia sentire. Cmq è fuori dal mondo che per godersi BF3 in surround ci vogliano 3 7970:muro:
Aspettiamo i prossimi driver e le versioni 4Gb cmq.
OldSchoolShoter
23-03-2012, 14:07
Intanto sembra che per i veri enthusiast il limite dei 2 Gb si faccia sentire. Cmq è fuori dal mondo che per godersi BF3 in surround ci vogliano 3 7970:muro:
Aspettiamo i prossimi driver e le versioni 4Gb cmq.
con il triple monitor non si riesce a giocare bene quanto la 7970 ? questo sì che è un vero hanticap :rolleyes:
non ci dormiremo la notte guarda.
se posso dire la mia... che schifo il sorround 5800*1080 :D
non spenderei 100 euro per quella roba :) per non parlare del treddi' :Puke:
il 2560*1440 su un ips dai millemila colori è molto piu inebriante :O
unfaced12
23-03-2012, 14:10
se posso dire la mia... che schifo il sorround 5800*1080 :D
non spenderei 100 euro per quella roba :) per non parlare del treddi' :Puke:
il 2560*1440 su un ips dai millemila colori è molto piu inebriante :O
Non dirlo a me che ho un U2711;) Cmq anche a 2560x1440 supera i 2Gb:)
Non ho mai neanche lontanamente considerato il surround e nemmeno il 3D.
TecnologY
23-03-2012, 14:10
ho visto molta conoscenza tecnica da parte di alcuni utenti, per caso qualcuno sa dirmi quale generazione di schede ati o nvidia è più veloce ad elaborare il dato e quindi genera meno lag?
sul test di reazione con una vecchia ati HD4850 (e anche con una 9500GT) andavo meglio che con la 5850 di un 40 msec che non sono pochi direi, penso sia dovuto all'architettura
unfaced12
23-03-2012, 14:11
ho visto molta conoscenza tecnica da parte di alcuni utenti, per caso qualcuno sa dirmi quale generazione di schede ati o nvidia è più veloce ad elaborare il dato e quindi genera meno lag?
sul test di reazione con una vecchia ati HD4850 (e anche con una 9500GT) andavo meglio che con la 5850 di un 40 msec che non sono pochi direi, penso sia dovuto all'architettura
Perdonami ma non ho ben afferrato a cosa ti riferisci.
certo che faccio fatica a credere che qualche utente qui non sia pagato da nvidia o amd..
Esistono cmq i thread delle 7970/7950 per sostegni psicologici....:D
AceGranger
23-03-2012, 14:16
AMD ha l'esigenza di integrare cpu e gpu e una gpu OoO si presta meglio di una IO come cayman.
kepler ha una logica di funzionamento diversa da fermi: fermi ha lo scheduling delle istruzioni dinamico eseguito via HW con riordino delle stesse a seconda delle priorità di esecuzione; kepler fa lo scheduling statico via SW. In poche parole, kepler lavora, da questo punto di vista, come le architetture vliw di ATi, mentre tahiti lavora come fermi :D
pero la serie vecchia di ATI non aveva questa perdita di prestazioni, quindi potrebbe essere un insieme di fattori.
potrebbe anche essere solo come dici tu; questo avvalorerebbe in toto la testi che arrivera un nuovo chip GK110 che avra sicuramente parti diverse, perchè con questo chip Quadro e Tesla non si possono fare; sicuramente dovra anche arrivare un chip con piu di 256 bit di banda, perchè le attuali pofessionali di punta attualmente hanno 6 Gb, di sicuro le nuove dovrebbero arrivare a 8 Gb.
OldSchoolShoter
23-03-2012, 14:20
oppure si potrebbe parlare di XDR DRAM e mantenere il 256bit ma non credo possa accadere nell'immediato.
TecnologY
23-03-2012, 14:25
Perdonami ma non ho ben afferrato a cosa ti riferisci.
in questo articolo anandtech (http://www.anandtech.com/show/2803/7) illustra come la maggior parte del lag sia prodotto dall'elaborazione grafica
siccome ho notato una netta differenza tra una serie HD4000 e una 5000 vorrei sapere se qualcuno ha idea di quale possa essere la scheda verde o rossa con la più alta velocità di rendering, questo è uno dei pochi fattori a cui do importanza
unfaced12
23-03-2012, 14:26
in questo articolo anandtech (http://www.anandtech.com/show/2803/7) illustra come la maggior parte del lag sia prodotto dall'elaborazione grafica
siccome ho notato una netta differenza tra una serie HD4000 e una 5000 vorrei sapere se qualcuno ha idea di quale possa essere la scheda verde o rossa con la più alta velocità di rendering, questo è uno dei pochi fattori a cui dò importanza
Capito! Ma non ne ho la più pallida idea.
TecnologY
23-03-2012, 14:28
siamo in 2 :D allora
sweetlou
23-03-2012, 14:36
Grande, grande recensione: moltissimi titoli provati, tra i quali the witcher 2 (!) e tutti i test effettuati anche overcloccando entrambe le contendenti. Come si notava tirandole al limite si dimostrano praticamente equivalenti, ma con nvidia che nella maggior parte dei titoli mantiene comunque un'incollatura di vantaggio, e per questo va decretata in assoluto come la vincitrice (eccellente risultato anche in virtu' di un bus a 256bit) anche in un test "ad armi pari" ovvero con entrambe le contendenti tirate per il collo:1280/1800 per nvidia, 1250/1700 per AMD. La 7970 ad ogni modo e' la attaccata (gli legge gli scarichi :asd: cit.) e in alcune mattonelle come Metro 2033 e The Witcher 2 da qualcosa in piu' così come 680 da qualcosa in piu' in mattonelle come Battlefield 3 e come Batman AC. Che si scornino sui prezzo ora, grazie! :D
Finalmente il benchmark di The Witcher 2 ...... anche questa volta Ubersampling è disattivato (probabilmente troppo pesante anche per la 680)
Integrare in hardware le parti che mancano in GK100 significherebbe modificare il core. Improbabile che pensino di affrontare una spesa simile solo per immettere sul mercato la nuova generazione di quadro, destinate per altro ad una cerchia di utenti decisamente minori. Io credo invece che per sto giro sia andata così e amen. Probabilmente Nvidia ha deciso di fare un passo indietro per portarsi avanti in termini di prestazioni per usergamer. Operazione che a mio avviso non è riuscita neppure tanto bene, se si considera che l'ottimazzione dei driver di Nvidia è da sempre migliore rispetto ad AMD. Non credo riuscirà a guadagnare molto di più nelle successive release.
Vedremo
unfaced12
23-03-2012, 14:40
Integrare in hardware le parti che mancano in GK100 significherebbe modificare il core. Improbabile che pensino di affrontare una spesa simile solo per immettere sul mercato la nuova generazione di quadro, destinate per altro ad una cerchia di utenti decisamente minori. Io credo invece che per sto giro sia andata così e amen. Probabilmente Nvidia a deciso di fare un passo indietro per portarsi avanti in termini di prestazioni per usergamer. Operazione che a mio avviso non è riuscita neppure tanto bene, se si considera che l'ottimazzione dei driver di Nvidia è da sempre migliore rispetto ad AMD. Non credo riuscirà a guadagnare molto di più nelle successive release.
Vedremo
Si ma ci sono 3 mld di transistor e solo 500 SP in più. Sempre che i rumor siano veri....
yossarian
23-03-2012, 15:06
in questo articolo anandtech (http://www.anandtech.com/show/2803/7) illustra come la maggior parte del lag sia prodotto dall'elaborazione grafica
siccome ho notato una netta differenza tra una serie HD4000 e una 5000 vorrei sapere se qualcuno ha idea di quale possa essere la scheda verde o rossa con la più alta velocità di rendering, questo è uno dei pochi fattori a cui do importanza
la più alta velocità di rendering equivale al frame rate più alto, quindi la risposta è: la scheda video più veloce.
Ora, poichè non è il rendering il solo fattore che influenza il lag, sarebbe da capire se, nel tuo caso, c'è qualcos'altro. Ad esempio, il tipo di gioco, i driver usati, cosa intendi per lag (ossia che tipo di fenomeno dal punto di vista visivo) ecc
Certo che è incredibile che SEMPRE gli stessi utenti che elogiarono il progetto fermi(aveva difetti he nulla da dire) e all'epoca dissero che nvidia fà solo chip "mattonelle" ,con consumi giustificati,calore non esagerato, con funzionalità che fanno sempre comodoi(cuda) , con physx che è un'ottima tecnologia proprietaria e chi più nè ha più nè metta...Ora che nvidia presenta un chip piccolo(più piccolo di tahiti ricordo...)con consumi allineati alla concorrenza temperature buone e soprattutto più veloce della concorrenza ancora non vada bene!Ora non diventa importante il gpugpu(ancora da verificare bene cosa non và , dato che i driver son acerbi e se permettette al lancio di gf100 presi una 470 e molte cose non erano ottimali , come lo sarebbero diventate poi dopo 2 mesi).. e che per amd non vale, ricordiamolo
è proprio incredibile che ogni volta debba andare così!
FIXED :fagiano:
Si scherza eh, però le fette di prosciutto ci sono da ambo i lati :)
TecnologY
23-03-2012, 15:41
sono d'accordo e sul gaming ne ho avuto la conferma. + fps = meno lag
la cosa che mi ha fatto insospettire è notare quasi per caso che sul lag-test http://www.humanbenchmark.com/tests/reactiontime/index.php ho notato una disparità nei risultati medi tra una 5850 e una 4850 a favore dell'ultima (circa 40 ms, son talmente tanti che è evidentemente dovuto all'hardware e non alla mia lucidità altalentante :D ) ma va detto che c'eran di mezzo due SO diversi. devo provare la 5850 con xp. insospettito ho provato sullo stesso sistema una vetusta nvidia 9500 che ho notato andare anch'essa leggermente meglio della 5850
mi bastava sapere se in generale è una cosa conosciuta dai più esperti o un caso isolato magari dovuto a qualche situazione driver hardware sfavorevole.
penso sia la seconda purtroppo :cry:
comuqnue una cosa l'ho notata e posso consigliarvela a riguardo, quando giocate impostate win 7 sul tema BASIC, vedrete che avrete meno lag e non poco!
OldSchoolShoter
23-03-2012, 15:42
FIXED :fagiano:
Si scherza eh, però le fette di prosciutto ci sono da ambo i lati :)
Vero ma chi è dalla parte del torto è chi nega di fronte all'evidenza.
Lo ripeto da quando è uscita la vga.
Le schede si equivalgono in generale.
gtx 680 ha un 10% circa di prestazioni in piu, 30w in meno di consumo con 1gb di vram in meno ed è assente buona parte gpgpu.
hd7970 ha 10% in meno della concorrente, 30w in piu con 1 gb in piu di vram ed in gpgpu è decisamente messa meglio della concorrente e la nitidezza in 2d classica di ATI/AMD
In base alle esigenze si sceglie.
Io personalmente non so proprio cosa prenderei, di sicuro aspetterei il calo di prezzi.
Che poi doveva uscire il gk110 ed asfaltare tahiti son chiacchere da bar. Si confronta cio che è sul mercato, non cio che ci sarà in futuro.
...gtx 680 ha ... 30w in meno di consumo...
http://www.hwupgrade.it/articoli/skvideo/3181/consumi_full.png
Ho qualche dubbio anche sul 10% in più di prestazioni, sia guardando questo sito, che per esempio il riepilogo di Techpowerup. Se poi si considera la risoluzione 2560*1600 (inutile guardare prestazioni FullHD di adesso, magari con giochi vecchi, quando una VGA la prendo per usare giochi nuovi e giochi che usciranno in futuro, con richieste HW ancora maggiori), allora la differenza è contenuta in un semplice 5% (se non meno)... ma col turbo OC.
Strato1541
23-03-2012, 15:54
FIXED :fagiano:
Si scherza eh, però le fette di prosciutto ci sono da ambo i lati :)
Non è molto simpatico però, dato che io parlo in incoerenza , dal canto mio sono sempre stato coerente , le mie idee sono chiare e sempre le stesse,semmai scrivilo a chi ha fatto ciò..Ma non a me grazie..
Strato1541
23-03-2012, 16:05
Ho qualche dubbio anche sul 10% in più di prestazioni, sia guardando questo sito, che per esempio il riepilogo di Techpowerup. Se poi si considera la risoluzione 2560*1600 (inutile guardare prestazioni FullHD di adesso, magari con giochi vecchi, quando una VGA la prendo per usare giochi nuovi e giochi che usciranno in futuro, con richieste HW ancora maggiori), allora la differenza è contenuta in un semplice 5% (se non meno)... ma col turbo OC.
Questo discorso del turbo và avanti da pagine, la scheda è concepita così, uscita dalla fabbrica và così e come tale và valutata(anche alle tahiti potevano implementare una cosa simile , ma non l'hanno fatto ,quindi inutile discutere sulle prestazioni).Se parliamo di architetture allora ha senso parlarne ma , se si parla di prestazioni pure mi spiace ma non ha senso..
(ot attendo ancora risposta riguardo i 2 socket amd)..
Quello che non ha senso per te, lo ha per me.
Se una VGA ha delle prestazioni in OC, io sono curioso di sapere quanto ancora possa essere spremuta, perchè se poi con un semplice OC "casalingo", oppure con una versione custom della HD7970 riesco ad ottenere di più, a me poco interessa che quell'OC era di fabbrica.
(ot attendo ancora risposta riguardo i 2 socket amd)..
Io a te non devo nessuna risposta: rispondo a chi voglio, quando voglio, se ne ho voglia, non sono a scuola e te non sei mio professore.
Strato1541
23-03-2012, 16:21
Quello che non ha senso per te, lo ha per me.
Se una VGA ha delle prestazioni in OC, io sono curioso di sapere quanto ancora possa essere spremuta, perchè se poi con un semplice OC "casalingo", oppure con una versione custom della HD7970 riesco ad ottenere di più, a me poco interessa che quell'OC era di fabbrica.
Io a te non devo nessuna risposta: rispondo a chi voglio, quando voglio, se ne ho voglia, non sono a scuola e te non sei mio professore.
Meglio che stai calmo,dato che la questione l'hai sollevata tu dicendo esattamente questo : "Riguardo al socket, quando serve, che lo cambino pure, nessuno contesta questa cosa, il problema è che Intel lo cambia sempre, ed utilizza pure più socket contemporaneamente, cosa che a me dà molto fastidio, e lo dico da utilizzatore che aggiorna con ritmi molto lenti, quindi la MB la cambierei comunque, ma ugualmente trovo questa politica ppoco rispettosa nei confronti dell'acquirente."..
Poi te nè sei sparito, quando ti ho obiettato dicendo che amd fà esattamente la medesima cosa ma non ti dà fastidio,la conclusione è molto facile estrapolarla ,ma evito di dirla..Il fatto che tu te la prenda lo dimostra ancora di più, chiuso OT.
Alla 680 si più fare overclock, e spremerla quindi non vedo dove stanno i problemi,anche perchè i grafici e i confronti si stavano facendo a default, il discorso oc resta comunque un'altra storia.
Non è molto simpatico però, dato che io parlo in incoerenza , dal canto mio sono sempre stato coerente , le mie idee sono chiare e sempre le stesse,semmai scrivilo a chi ha fatto ciò..Ma non a me grazie..
Non volevo riferirmi a te, infatti te non cambi mai opinione, ti leggo fermo sulle tue idee dall'uscita di fermi.
E' che la frase si prestava veramente bene :D
unfaced12
23-03-2012, 16:34
Alla 680 si più fare overclock, e spremerla quindi non vedo dove stanno i problemi,anche perchè i grafici e i confronti si stavano facendo a default, il discorso oc resta comunque un'altra storia.
Allora chiariscici qual'è la frequenza stock della 680 in UH, BF3, 3DMark 11. Per Furmark sappiamo che è 1006;)
Se gira a 1100 ma la dichiarano 1006 allora il confronto va fatto con la 7970 a 1015Mhz...... resta cmq davanti la 680 ma il divario rimane esiguo.
Poi c'è il discorso power tune, nessuno nelle review ha specificato come lo hanno impostato. C'e parecchio da discutere su questo piano per chi è interessato all'acquisto. Ad esempio chi non è pratico di OC sicuramente fa meglio a prendersi la 680, chi invece è pratico e smanettone vuole prendersi la VGA scegliendo quella che gli darà più prestazioni con OC senza intervenire sul voltaggio e aumentare consumi,rumore, calore. Ad esempio si è capito che queste 680 oltre i 1100 e rotti senza OV non salgono, mentre le 7970 diciamo che mediamente arrivano a 1150. Confrontale a queste freq e avrai un altra situazione. Qui su HWU non siamo utenti normali ai quali consiglio di non rompersi i maroni e prendersi la 680, ma utenti particolari che queste cose c'interessano e ne capiamo abbastanza in tema.
P.S. Una domanda alla quale puoi anche non rispondere: Perché hai preso la 7950? Se non sbaglio avevi uno Sli di 560 prima, che senso aveva quella scheda per svenderla e prendersi una 680 presumo.
Strato1541
23-03-2012, 16:42
Allora chiariscici qual'è la frequenza stock della 680 in UH, BF3, 3DMark 11. Per Furmark sappiamo che è 1006;)
Se gira a 1100 ma la dichiarano 1006 allora il confronto va fatto con la 7970 a 1015Mhz...... resta cmq davanti la 680 ma il divario rimane esiguo.
Poi c'è il discorso power tune, nessuno nelle review ha specificato come lo hanno impostato. C'e parecchio da discutere su questo piano per chi è interessato all'acquisto. Ad esempio chi non è pratico di OC sicuramente fa meglio a prendersi la 680, chi invece è pratico e smanettone vuole prendersi la VGA scegliendo quella che gli darà più prestazioni con OC senza intervenire sul voltaggio e aumentare consumi,rumore, calore. Ad esempio si è capito che queste 680 oltre i 1100 e rotti senza OV non salgono, mentre le 7970 diciamo che mediamente arrivano a 1150. Confrontale a queste freq e avrai un altra situazione. Qui su HWU non siamo utenti normali ai quali consiglio di non rompersi i maroni e prendersi la 680, ma utenti particolari che queste cose c'interessano e ne capiamo abbastanza in tema.
P.S. Una domanda alla quale puoi anche non rispondere: Perché hai preso la 7950? Se non sbaglio avevi uno Sli di 560 prima, che senso aveva quella scheda per svenderla e prendersi una 680 presumo.
Appena avrò la 680 potrò chiarire tutti i tuoi dubbi(e anche i miei),l'unica cosa che posso dire è che le schede vanno confrontate come escono dalle fabbrica,nvidia ha messo in gioco una variabile in più se vogliamo...A causa del powertune un confronto clock to clock è decisamente più difficile , se è questo a cui ti riferisci..
Infatti io parlavo di prestazioni PURE, il modo in cui esse sono ottenute è argomento di discussione, finchè si vuole..
Riguardo alla tua domanda,le 560 le ho vendute perchè avevano solo 1 gb di ram, con più monitor era un pò un limite..Poi ho provato una 590 che non mi ha convinto molto e subito dopo ho deciso di provare le nuove tahiti,però son rimasto deluso dai driver nuovamente,speravo che con la rivoluzione fatta le cose fossero cambiate, ma con alcuni titoli le cose non vanno ancora e ho avuto anche molti crash dei driver(specie con 12.3).Quindi prima che perdesse troppo valore ho deciso di darla via dato che la 680 sembra un'ottima scheda ben equilibrata per giocare..
unfaced12
23-03-2012, 16:51
Appena avrò la 680 potrò chiarire tutti i tuoi dubbi(e anche i miei),l'unica cosa che posso dire è che le schede vanno confrontate come escono dalle fabbrica,nvidia ha messo in gioco una variabile in più se vogliamo...A causa del powertune un confronto clock to clock è decisamente più difficile , se è questo a cui ti riferisci..
Infatti io parlavo di prestazioni PURE, il modo in cui esse sono ottenute è argomento di discussione, finchè si vuole..
Riguardo alla tua domanda,le 560 le ho vendute perchè avevano solo 1 gb di ram, con più monitor era un pò un limite..Poi ho provato una 590 che non mi ha convinto molto e subito dopo ho deciso di provare le nuove tahiti,però son rimasto deluso dai driver nuovamente,speravo che con la rivoluzione fatta le cose fossero cambiate, ma con alcuni titoli le cose non vanno ancora e ho avuto anche molti crash dei driver(specie con 12.3).Quindi prima che perdesse troppo valore ho deciso di darla via dato che la 680 sembra un'ottima scheda ben equilibrata per giocare..
Perfetto su questo siamo d'accordo al 100%:mano:
Grazie per la risposta, dalla sign non ho potuto ricavare che usi più monitor.
Cmq se tutto va bene anch'io ne avrò 1 o 2 da provare per un paio di giorni la prossima settimana.
P.S. Confermo i crash random con gli ultimi driver AMD.
Meglio che stai calmo,dato che la questione l'hai sollevata tu dicendo esattamente questo : "Riguardo al socket...
Ma guarda che io sono calmissimo ^^
Ciò non toglie che voglio essere libero di rispondere a chi voglio, quando voglio, quindi è inutile che mi fai una domanda in un thread sulle CPU Intel, poi dopo qualche post mi richiedi la risposta e poi addirittura mi vieni a chiedere la risposta in un thread dedicato alle nuove VGA Nvidia.
Non so bene di cosa vai in cerca, ma stai sprecando banda, mandando in OT un thread ed infastidendomi, senza ottenere nulla, visto che non ho alcuna intenzione di rispondere a quella specifica domanda che mi hai fatto.
Al massimo posso toglierti una curiosità dicendoti che, nonostante le tue valide arringhe, relativamente ai socket, la penso esattamente come avevo scritto, e che non mi interessa assolutamente se quello che fa Intel lo fa ora anche AMD, il problema Intel vs AMD o Nvidia vs AMD è un problema solo tuo.
Allora chiariscici qual'è la frequenza stock della 680 in UH, BF3, 3DMark 11. Per Furmark sappiamo che è 1006;) Ed infatti da tempo il test Fumark nemmeno lo guardo ^^
AceGranger
23-03-2012, 17:05
Che poi doveva uscire il gk110 ed asfaltare tahiti son chiacchere da bar. Si confronta cio che è sul mercato, non cio che ci sarà in futuro.
anche da vecchie indiscrezioni non doveva uscire ora il GK 110, ma verso settembre. Ora doveva uscira la fascia media , poi hanno visto che andava di piu e hanno fatto uscire la fascia alta.
comunque pare che il GK110 usira ad agosto
http://www.hwupgrade.it/news/skvideo/gk110-le-indiscrezioni-sulla-futura-scheda-kepler-di-nvidia_41359.html
Strato1541
23-03-2012, 17:05
Ma guarda che io sono calmissimo ^^
Ciò non toglie che voglio essere libero di rispondere a chi voglio, quando voglio, quindi è inutile che mi fai una domanda, poi dopo qualche post mi richiedi la risposta e poi addirittura mi vieni a chiedere la risposta in un thread dedicato alle nuove VGA Nvidia.
Non so bene di cosa vai in cerca, ma stai sprecando banda, mandando in OT un thread ed infastidendomi, senza ottenere nulla, visto che non ho alcuna intenzione di tornare su quell'argomento.
Al massimo posso toglierti una curiosità dicendoti che, nonostante le tue valide arringhe, relativamente ai socket, la penso esattamente come avevo scritto, e che non mi interessa assolutamente se quello che fa Intel lo fa ora anche AMD, il problema Intel vs AMD o Nvidia vs AMD è un problema solo tuo.
L'unica cosa che volevo dimostrare è che spesso e volentieri non sei obiettivo quando si parla di intel e amd e anche nvidia e amd.(e anche in questa occasione non ti smentisci)
Nonostante tu sostenga che il problema è mio, la cosa non sussiste dato che io provo entrambe le cose(eccetto bulldozer , perchè non ci siamo proprio e non c'è nulla da provare) ,mi faccio le mie idee e le espongo.E non ho problemi a rilevare che certi hardware hanno o meno problemi.
Mentre me resto alla larga dal giudicare se una o l'altra società faccia delle scelte per fregare o meno gli utenti, in quanto non sono un ingegnere e non ho le competenze necessarie per giudicare se ha senso o meno sostituire un socket per esempio e se anche ci fosse qualcuno che me lo spiega non ho in mano il lato commerciale nè di intel nè di amd per giudicare se ha più senso un cambio o meno.(ecco perchè l'antipatia ha ancora meno senso , se ci ragioniamo esiste solo per "bandiera" diciamo)
Farlo senza le dovute presse è abbastanza da saccenti onestamente.
Poi è chiaro che siamo in forum, se si scrive significa che si vuole scrivere e se qualcuno obietta non vedo perchè non si debba rispondere se quanto obiettato è supportato da argomentazioni e tali sono esposte con criterio ed educazione,altrimenti facciamo tutti monologhi e abbiamo tutti ragione!
Chiuso Ot.
non vedo perchè non si debba rispondere se quanto obiettato è supportato da argomentazioni e tali sono esposte con criterio ed educazioneNon vedi perchè, ma ci stai arrivando ;)
Devi solo smettere di dare del fanboy, del saccente, del poco obiettivo o quant'altro al tuo interlocutore (e magari smettere di magnificare la tua imparzialità ed obiettività di giudizio) e poi sarai perfetto :D
Chiuso OT
unfaced12
23-03-2012, 17:14
DukeIT e Strato
Per favore chiudete sto flame che già questo thread è ad alto rischio flame per l'argomento trattato :sofico: Se ci mettiamo anche una diatriba AMD vs Intel e cambio dei socket qua diventa peggio di Stalingrado.
DukeIT e Strato
Per favore chiudete sto flame che già questo thread è ad alto rischio flame per l'argomento trattato :sofico: Se ci mettiamo anche una diatriba AMD vs Intel e cambio dei socket qua diventa peggio di Stalingrado.
Scusa, che c'entra DukeIT? Sono il primo ad avergli chiesto di non inquinare il thread, poi gli ho dovuto una risposta sperando che la si potesse chiudere qui e non trovarmi domande sui socket anche su un thread sugli HD :rolleyes:
Strato1541
23-03-2012, 17:26
Non vedi perchè, ma ci stai arrivando ;)
Devi solo smettere di dare del fanboy, del saccente, del poco obiettivo o quant'altro al tuo interlocutore (e magari smettere di magnificare la tua imparzialità ed obiettività di giudizio) e poi sarai perfetto :D
Chiuso OT
Bè bisogna cambiare interlocutore allora, in quanto sono i dati a parlare, infatti ho riesumato tale discussione proprio nel momento in cui stava iniziando il discorso di parte e si stava arrivando a dire che nvidia ha fatto una scheda che "imbroglia sulle frequenze", altrimenti di certo non sarei andato a cercarmi casini..
Quindi inutile fare i "finti tonti" ed è bene prendersi le responsabilità di ciò che viene detto.
Ma lasciamo perdere tutto.(io non ho "magnificato" e qui ritorna il sarcasmo).
Certo che è difficile finirla quando anche di fronte all'evidenza si cerca di distorcere le cose, ora come in passato!
http://www.hwupgrade.it/articoli/skvideo/3181/consumi_full.png
Ho qualche dubbio anche sul 10% in più di prestazioni, sia guardando questo sito, che per esempio il riepilogo di Techpowerup. Se poi si considera la risoluzione 2560*1600 (inutile guardare prestazioni FullHD di adesso, magari con giochi vecchi, quando una VGA la prendo per usare giochi nuovi e giochi che usciranno in futuro, con richieste HW ancora maggiori), allora la differenza è contenuta in un semplice 5% (se non meno)... ma col turbo OC.
Guardati tutte le recensioni della rete e vedrai che i consumi sono maggiori sulla 7970 (esclusa quella di HWupgrade) , e anche i punteggi che ottiene la 680 sono migliori nelle altre rece , che hanno usato driver più aggiornati . Se non hai voglia di sbatterti vasi sul thread ufficiale della 680 e in prima pagina trovi un bel sunto di tutte le testate più autorevoli e relativi bench ;)
La 680 è superiore sotto tutti gli aspetti per quanto riguarda il Game punto :)
Guardati tutte le recensioni della rete e vedrai che i consumi sono maggiori sulla 7970 (esclusa quella di HWupgrade) , e anche i punteggi che ottiene la 680 sono migliori nelle altre rece , che hanno usato driver più aggiornati . Se non hai voglia di sbatterti vasi sul thread ufficiale della 680 e in prima pagina trovi un bel sunto di tutte le testate più autorevoli e relativi bench ;)
La 680 è superiore sotto tutti gli aspetti per quanto riguarda il Game punto :)
Mi trovo stranamente in situazione opposta a quella di molte altre recensioni passate in cui mi è stato fatto notare che qui si discutono le recensioni di HWUpgrade, così proprio oggi che volevo adattarmi mi dite di andare a guardare le altre recensioni :D
Comunque è vero, spesso le altre recensioni danno situazioni diverse, non vorrei che il gpu boost avesse messo del suo nel creare difficoltà nella corretta rilevazioni di questo dato, dunque mi piacerebbe capire dalla redazione come stanno le cose, ho il sospetto che tutte le recensioni, relativamente a questo aspetto, siano da prendersi con le pinze...
ragazzi facendo l'upgrade a uno SLI di GTX680 più o meno che boost prestazionale dovrei avere?
ironman72
23-03-2012, 18:26
semmai si vede il contrario, è diverso, Nvidia costa anche meno.
perchè il 3D Vision è inutile ? questa è proprio bella !
Quoto
Il 3dvision e' inutile per chi non lo ha!
Giocare a bf3 cod mw3 in 3d e' da paura..!!
e da questo lato nvidia ha da insegnare.. il 3d della controparte e' ridicolo...
OldSchoolShoter
23-03-2012, 18:31
E MENO MALE CHE GK110 ERANO SOLO VOCI :
Arriverà ad Agosto signori miei, ecco la news ufficiale
http://www.hwupgrade.it/news/skvideo/gk110-le-indiscrezioni-sulla-futura-scheda-kepler-di-nvidia_41359.html
unfaced12
23-03-2012, 18:44
E MENO MALE CHE GK110 ERANO SOLO VOCI :
Arriverà ad Agosto signori miei, ecco la news ufficiale
http://www.hwupgrade.it/news/skvideo/gk110-le-indiscrezioni-sulla-futura-scheda-kepler-di-nvidia_41359.html
Le indiscrezioni al momento disponibili, pubblicate dal sito 3DCenter e non confermate da NVIDIA, prevedono per questa architettura una superficie del die pari a circa 550 millimetri quadrati, contro i poco meno di 300 riportati per la GPU GK104. Una superficie così elevata dovrebbe permettere di integrare circa 6 miliardi di transistor, utilizzati per un totale di 2.304 CUDA cores contro i 1.536 implementati nella GPU GK104 della scheda GeForce GTX 680.
Eh si più ufficiale di così :asd: :asd: :asd:
OldSchoolShoter
23-03-2012, 18:47
Eh si più ufficiale di così :asd: :asd: :asd:
Bè se l'architettura di ATI è così buona non sarebbe stata superata da una scheda nata come fascia media, come vedi la vera top single deve ancora uscire.
unfaced12
23-03-2012, 18:47
ragazzi facendo l'upgrade a uno SLI di GTX680 più o meno che boost prestazionale dovrei avere?
http://www.guru3d.com/article/geforce-gtx-680-sli-review/
Considera anche che i driver sono ancora un po da affinare.....
unfaced12
23-03-2012, 18:51
Bè se l'architettura di ATI è così buona non sarebbe stata superata da una scheda nata come fascia media, come vedi la vera top single deve ancora uscire.
E' ipotizzabile che NVIDIA possa adottare il brand GeForce 700 per questo prodotto, abbinando nuove revisioni delle architetture Kepler che sono disponibili ora e che verranno rilasciate nel corso dei prossimi mesi. Nel frattempo si attende il debutto della prima soluzione dual GPU della famiglia, basata su due chip GK104 montati su singolo PCB, che dovrebbe avvenire entro il mese di Maggio.
La TOP della prossima generazione volevi dire......
Poi non mi pare di aver nominato ATI, che non esiste nemmeno più :cry:
che confusione però.. non vorrei imbarcarmi nella spesa per poi vedere le mie schede sorpiantate dopo poco.. gia al momento i soldi per 2 non li ho :muro:
Da una parte mi pare strano che la GTX680 non rimanga il top.. a partire da:
1) Nome, x80 ha sempre riguardato il modello di punta
2) Prezzo, più cara della 580 appena uscita!
3) Prestazioni, che di sicuro non si possono attribuire a una scheda video di fascia medio/alta
Però mi chiedo anche da dove spuntano tutte ste notize su GK110 e come hanno fatto a fare sto screen (anche se è un po' vecchiotto penso..)
http://i41.tinypic.com/141myat.jpg
Si vede chiaramente che la GPU in esame ha ben 6 miliardi di transistor
http://www.guru3d.com/article/geforce-gtx-680-sli-review/
Considera anche che i driver sono ancora un po da affinare.....
Visto, grazie! ;)
Certo che la scritta "GEFORCE GTX" a lato è proprio .. :sbav: :Perfido:
unfaced12
23-03-2012, 19:02
che confusione però.. non vorrei imbarcarmi nella spesa per poi vedere le mie schede sorpiantate dopo poco.. gia al momento i soldi per 2 non li ho :muro:
Da una parte mi pare strano che la GTX680 non rimanga il top.. a partire da:
1) Nome, x80 ha sempre riguardato il modello di punta
2) Prezzo, più cara della 580 appena uscita!
3) Prestazioni, che di sicuro non si possono attribuire a una scheda video di fascia medio/alta
Però mi chiedo anche da dove spuntano tutte ste notize su GK110 e come hanno fatto a fare sto screen (anche se è un po' vecchiotto penso..)
http://i41.tinypic.com/141myat.jpg
Si vede chiaramente che la GPU in esame ha ben 6 miliardi di transistor
Visto, grazie! ;)
Certo che la scritta "GEFORCE GTX" a lato è proprio .. :sbav: :Perfido:
Tranquillo questa è la TOP di questa generazione. Per il GK110 si andrà a ottobre-novembre o cmq a ridosso del lancio delle nuova AMD;)
Quegli screen sono fake come gli screen di UH con 2000pts per GK104 trapelati qualche giorno fà:)
Però mi chiedo anche da dove spuntano tutte ste notize su GK110 e come hanno fatto a fare sto screen (anche se è un po' vecchiotto penso..)
è un fake... :fagiano: Se vuoi ti passo uno screen del nuovo GM110 (Maxwell) che ha 12 miliardi di transistor e 8 gb di ram... :O
OldSchoolShoter
23-03-2012, 19:53
GK110 veramente potrebbe chiamarsi GTX700, come han fatto per la serie Fermi passando da 400 a 500.
Sinceramente mi aspettavo di più da Nvidia...
nevets89
23-03-2012, 20:30
GK110 veramente potrebbe chiamarsi GTX700, come han fatto per la serie Fermi passando da 400 a 500.
appunto, non capisco chi dice che questa è la fascia media e che poi nvidia spaccherà di brutto...ma quando nvidia lancerà il gk110 saremo vicini alla nuova serie di amd....quindi sarà con quella che si scontrerà...non con questa....IMHO
unfaced12
23-03-2012, 20:37
Sinceramente mi aspettavo di più da Nvidia...
Ad esempio???? Va un buon 30% più della 580, scalda e consuma di meno, cosa vuoi di più?
leoneazzurro
23-03-2012, 21:49
Il physx serve per chi lo usa altrimenti si può TRANQUILLAMENTE vivere senza, e se devo spendere 100 euro per averlo, se lo possono tenere.
Si certo il 3D hahahahhaha
Si vede sei un fanboy accanito xD
Vediamo di evitare. 2 giorni.
La 7970 si è ribassata dal lancio per via della disponibilità che c'è ora, Nvidia farà lo stesso, si trova già sotto i 500.
Costa anche di meno la 680 perchè ATI è dichiarata attorno ai 550$, se la trovi di meno ora è perchè non è uscita da poco, c'è più disponibilità nel mercato e gli shop hanno ribassato.
Qualè la nuova scusa dei fan ATI ? Che adesso è a pari frequenza che ci si deve fare il confronto ?
Quando c'era Fermi però queste cose non le dicevate, strano. :mc:
in altre fa 30W in meno, dipende cosa ci fai girare per quando fai il test.
Ah quindi adesso il vantaggio prestazionale siccome non è tale da.....è inesistente, non si considera più.
il 3d non ce l'ha ATI, c'ha ufficialmente l'HD3D, ma anche sui 3D passivi che è fornito solo da Samsung con le schede ATI i titoli danno parecchi problemi rispetto all'usare Nvidia, per questo è preferibile anche con i Samsung 750 e 950 usare una Nvidia.
non capisco come mai c'è bisogno di giustificarsi con queste frasi e che bisogno c'è di tirar fuori i "se" e i "ma" ogni volta, senza contare che facciamo ancora finta di non vedere che i driver sono alla prima uscita, il gap fra le due schede aumenterà aulteriormente, mamma mia che rosico allucinante, spero che tu abbia la 7970.
inoltre non vedo cosa possa avere di completo quella review in russo, guarda o aspetta altre recensioni come computerbase, xbitlabs se vuoi avere la lista di ogni singolo titolo dettagliato, fra l'altro in quella recensione dice pure che nvidia scalda e consuma meno e fa meno rumore.
quello che cerca scuse sei tu quì che ogni volta cerca sempre il pretesto e la scusa per giusitificare l'inferiorità di ati, io non sono un fanboy, ho visto le reviews e la 680 è superiore in modo chiaro e netto, infatti tutte le recensioni nel commento finale lo dicono, nessuna dice che è inferiore alla 7970, anche se è un derivato di fascia media.
va bene vedo che sto discutendo con un troll, non l'avevo capito, inutile andare avanti
ciao
Bè se l'architettura di ATI è così buona non sarebbe stata superata da una scheda nata come fascia media, come vedi la vera top single deve ancora uscire.
Se si hanno argomenti, si devono anche esporre con toni adeguati. Cosa che non è successa qui. 5 giorni.
Flying Tiger
23-03-2012, 23:03
che confusione però.. non vorrei imbarcarmi nella spesa per poi vedere le mie schede sorpiantate dopo poco.. gia al momento i soldi per 2 non li ho :muro:
Da una parte mi pare strano che la GTX680 non rimanga il top.. a partire da:
1) Nome, x80 ha sempre riguardato il modello di punta
2) Prezzo, più cara della 580 appena uscita!
3) Prestazioni, che di sicuro non si possono attribuire a una scheda video di fascia medio/alta
Infatti , una grande confusione che mi lascia molto perplesso , sopratutto per la poca chiarezza con cui e' stata lanciata sul mercato questa scheda con una operazione commerciale molto dubbia sfruttando la nomenclatura x80 , che ha da praticamente sempre caratterizzato la fascia top di questo brand , per far passare tale una scheda che e' indubbiamente di altra fascia .
Pur prendendo per buono il discorso che questo e' un chip molto efficente e semplificato in cui hanno mantenuto solo la parte prettamente dedicata al gaming , non si spiega assolutamente il discorso del bus a 256bit , dell' alimentazione 6+6 pin e quant' altro , aspetti questi sicuramente associabili ai prodotti di fascia inferore al top di gamma e inferiori alle serie precedenti 480/580 , come dire , qualcosa sicuramente non torna .
Il discorso del GK110 e della sua possibile commercializzazione in tempi relativamente brevi poi , in soldoni pochi mesi dal lancio di questa , non fa' che aumentare questa confusione e queste perplessita' , anche se sono un simpatizzante delle verdi , naturalmente senza scendere nel fanboysmo , devo dire che questa volta non sono assolutamente daccordo con Nvidia , si fa' pagare come una top di gamma un prodotto che non lo e' , poi potra' anche andare piu' della controparte Amd , ma e' il principio che non funziona , giocare di astuzia in questo modo lo trovo molto deplorevole per un azienda di questo calibro , come si dice , scaffale .
;)
Vedo che c'e' un'enorme battibecco e confusione su "fascia media" vs "fascia alta", vediamo se riesco a fare un po' di luce sulla questione.
La prima cosa da considerare e' il tempo che ci vuole a sviluppare questi chip: lo sviluppo di Kepler e' cominciato nel 2008, col codice scritto nel 2009 e 2010 (freezato nel 2010!). Il 2011-12 e' stato speso per sintesi, layout, place and route eccetera, invio in fonderia, produzione dei sample, debug del silicio, correzione dei bug, costruzione delle board, caratterizzazione dei dispositivi, affinamento dei driver, eccetera.
Questo e' tipico, AMD ci avra' messo piu' o meno lo stesso per Tahiti, e per Bulldozer probabilmente anche un anno o due di piu'.
Quindi, quando una compagnia decide che chip fare, lo fa tra i 2 e i 4 anni PRIMA che questo venga immesso sul mercato -- e quindi MOLTO prima di sapere cosa avra' la concorrenza.
Quando NVidia ha deciso come fare il gk104 (il ragionamento sara' esattamente speculare per AMD) ha considerato quali erano i suoi target, le risorse da mettere in gioco, e anche una sua stima di come sarebbe stato il lineup di AMD. Secondo nvidia, in fase di progetto, gk104 sarebbe dovuto allinearsi con 78xx ed essere una scheda di fascia media (cioe' gtx660), secondo le aspettative che nvidia aveva di 78xx. Come fascia media, non ha tutta la potenza in double-precision e non e' ottimizzata per GPGPU (cosi' come non lo era gf104 rispetto a gf100).
Quando e' uscita 79xx, nvidia ha visto che le prestazioni erano molto sotto quello che si aspettava lei, nei giochi (fondamentalmente perche' AMD ha speso una larga parte di area per la roba necessaria al GPGPU, a livelli che nvidia non si aspettava, e infatti la cosa si vede benissimo nelle review, dove 79xx ha fatto un salto avanti enorme rispetto a 6xxx, mentre gtx680 a volte le prende anche da gtx580).
Quindi, hanno deciso di "upgradare" gk104 a fascia alta e chiamarlo GTX680. Per questo, nei giochi tiene si' testa a 7970, ma nel gpgpu no perche' non era stata progettata per quello spazio inizialmente. Ma visto che il grosso delle vendite lo fanno i giochi e non il gpgpu, la cosa funziona egregiamente: possono vendere al prezzo di una fascia alta un chip da 300mm^2 invece che uno da 550mm^2, con risparmio di costi impressionante.
Per Quadro e Tesla ci sara' gk110, quella si' progettata per il gpgpu (erede di gf110), e il cerchio verra' chiuso. Cosa sia gk110, pero', al momento e' solo rumor -- il fatto che sia progettata per gpgpu e' certo perche' alimentera' il nuovo supercomputer di Oak Ridge:
http://www.ornl.gov/info/press_releases/get_press_release.cfm?ReleaseNumber=mr20111011-00
e quella gente di solito sa fare bene i suoi conti :)
sinceramente mi aspettavo qualcosa di piu... se per 2 fps posso risparmiare anche 70€...beh...scelgo amd! dicono che arrivera sui 499€,ma sicuramente passera i 500€!! e se posso prendermi una 7970 a 430€ non ho dubbi sulla scelta! per non parlare delle alte risoluzioni (e di xfire),e per non parlare che hanno avuto 3-4 mesi di piu di AMD,... insomma..io mi aspettavo qualcosa di piu (credo che la mia gtx580 matrix,potra aspettarre ancora una generazione!)
tutti parlano di vincite di qua e vincite di la...le schede (680 e 7970) sono in sostanziale pareggio,tutto vi aspettavate di piu,dite la verita! per non parlare delle alte risoluzioni,ovvero quando si spreme di piu la gpu...beh addirittura viene superata (e non succedeva da un bel po) a conti fatti tutti a criticare AMD,ma alla fine chi ne esce vincitore è proprio AMD stessa! (e parlo da possessore di una gtx580 matrix,che aspettero a cambiare,almeno la prossima generazione,visto che questa non mi ha proprio stupito)
Vedo che c'e' un'enorme battibecco e confusione su "fascia media" vs "fascia alta", vediamo se riesco a fare un po' di luce sulla questione.
La prima cosa da considerare e' il tempo che ci vuole a sviluppare questi chip: lo sviluppo di Kepler e' cominciato nel 2008, col codice scritto nel 2009 e 2010 (freezato nel 2010!). Il 2011-12 e' stato speso per sintesi, layout, place and route eccetera, invio in fonderia, produzione dei sample, debug del silicio, correzione dei bug, costruzione delle board, caratterizzazione dei dispositivi, affinamento dei driver, eccetera.
Questo e' tipico, AMD ci avra' messo piu' o meno lo stesso per Tahiti, e per Bulldozer probabilmente anche un anno o due di piu'.
Quindi, quando una compagnia decide che chip fare, lo fa tra i 2 e i 4 anni PRIMA che questo venga immesso sul mercato -- e quindi MOLTO prima di sapere cosa avra' la concorrenza.
Quando NVidia ha deciso come fare il gk104 (il ragionamento sara' esattamente speculare per AMD) ha considerato quali erano i suoi target, le risorse da mettere in gioco, e anche una sua stima di come sarebbe stato il lineup di AMD. Secondo nvidia, in fase di progetto, gk104 sarebbe dovuto allinearsi con 78xx ed essere una scheda di fascia media (cioe' gtx660), secondo le aspettative che nvidia aveva di 78xx. Come fascia media, non ha tutta la potenza in double-precision e non e' ottimizzata per GPGPU (cosi' come non lo era gf104 rispetto a gf100).
Quando e' uscita 79xx, nvidia ha visto che le prestazioni erano molto sotto quello che si aspettava lei, nei giochi (fondamentalmente perche' AMD ha speso una larga parte di area per la roba necessaria al GPGPU, a livelli che nvidia non si aspettava, e infatti la cosa si vede benissimo nelle review, dove 79xx ha fatto un salto avanti enorme rispetto a 6xxx, mentre gtx680 a volte le prende anche da gtx580).
Quindi, hanno deciso di "upgradare" gk104 a fascia alta e chiamarlo GTX680. Per questo, nei giochi tiene si' testa a 7970, ma nel gpgpu no perche' non era stata progettata per quello spazio inizialmente. Ma visto che il grosso delle vendite lo fanno i giochi e non il gpgpu, la cosa funziona egregiamente: possono vendere al prezzo di una fascia alta un chip da 300mm^2 invece che uno da 550mm^2, con risparmio di costi impressionante.
Per Quadro e Tesla ci sara' gk110, quella si' progettata per il gpgpu (erede di gf110), e il cerchio verra' chiuso. Cosa sia gk110, pero', al momento e' solo rumor -- il fatto che sia progettata per gpgpu e' certo perche' alimentera' il nuovo supercomputer di Oak Ridge:
http://www.ornl.gov/info/press_releases/get_press_release.cfm?ReleaseNumber=mr20111011-00
e quella gente di solito sa fare bene i suoi conti :)Solo che, se Nvidia aveva progettato quattro anni prima GK104 per la fascia media, allora aveva progettato 4 anni prima anche un chip (GK110) per la fascia alta gaming... ma mi sembrerebbe molto strano che dopo 4 anni di lavoro, semplicemente perchè il GK104 è "sufficiente", cancellino un progetto e stravolgano completamente una roadmap relegando il GK110, che avrebbe potuto essere nettamente superiore, all'ambito pro.
Quale sarebbe il motivo tanto importante da fargli decidere una cosa del genere? Un GK104 che, nonostante esca tre mesi dopo, strappa poco più di un pareggio?
Hanno lasciato 3 mesi AMD con le sue VGA al top e non hanno capitalizzato il ritardo proponendo una VGA nettamente superiore, mi sembrerebbe strano che questa situazione li abbia resi felici al punto di fargli abbandonare il progetto di un chip top da dedicare al settore gaming. Nemmeno la questione costi potrebbe giustificare la cosa, visto che prezzando il GK104 in linea con la HD7970, un GK110 avrebbero potuto venderlo a molto di più.
Penso proprio che se avessero avuto in tempo un chip molto più performante lo avrebbero usato, come hanno sempre fatto.
Se il GK110 c'è, io propenderei semplicemente per un ritardo che li ha costretti ad utilizzare il GK104 per coprire la fascia alta, nel qual caso il rischio sarebbe però quello di uscire con GK110 molto vicini al lancio della serie 8000 di AMD.
Solo che, se Nvidia aveva progettato quattro anni prima GK104 per la fascia media, allora aveva progettato 4 anni prima anche un chip (GK110) per la fascia alta gaming... ma mi sembrerebbe molto strano che dopo 4 anni di lavoro, semplicemente perchè il GK104 è "sufficiente", cancellino un progetto e stravolgano completamente una roadmap relegando il GK110, che avrebbe potuto essere nettamente superiore, all'ambito pro.
Quale sarebbe il motivo tanto importante da fargli decidere una cosa del genere? Un GK104 che, nonostante esca tre mesi dopo, strappa poco più di un pareggio?
Hanno lasciato 3 mesi AMD con le sue VGA al top e non hanno capitalizzato il ritardo proponendo una VGA nettamente superiore, mi sembrerebbe strano che questa situazione li abbia resi felici al punto di fargli abbandonare il progetto di un chip top da dedicare al settore gaming. Nemmeno la questione costi potrebbe giustificare la cosa, visto che prezzando il GK104 in linea con la HD7970, un GK110 avrebbero potuto venderlo a molto di più.
Penso proprio che se avessero avuto in tempo un chip molto più performante lo avrebbero usato, come hanno sempre fatto.
Se il GK110 c'è, io propenderei semplicemente per un ritardo che li ha costretti ad utilizzare il GK104 per coprire la fascia alta, nel qual caso il rischio sarebbe però quello di uscire con GK110 molto vicini al lancio della serie 8000 di AMD.
La penso esattamente come te;)
Solo che, se Nvidia aveva progettato quattro anni prima GK104 per la fascia media, allora aveva progettato 4 anni prima anche un chip (GK110) per la fascia alta gaming... ma mi sembrerebbe molto strano che dopo 4 anni di lavoro, semplicemente perchè il GK104 è "sufficiente", cancellino un progetto e stravolgano completamente una roadmap relegando il GK110, che avrebbe potuto essere nettamente superiore, all'ambito pro.
Quale sarebbe il motivo tanto importante da fargli decidere una cosa del genere? Un GK104 che, nonostante esca tre mesi dopo, strappa poco più di un pareggio?
Hanno lasciato 3 mesi AMD con le sue VGA al top e non hanno capitalizzato il ritardo proponendo una VGA nettamente superiore, mi sembrerebbe strano che questa situazione li abbia resi felici al punto di fargli abbandonare il progetto di un chip top da dedicare al settore gaming. Nemmeno la questione costi potrebbe giustificare la cosa, visto che prezzando il GK104 in linea con la HD7970, un GK110 avrebbero potuto venderlo a molto di più.
Penso proprio che se avessero avuto in tempo un chip molto più performante lo avrebbero usato, come hanno sempre fatto.
Se il GK110 c'è, io propenderei semplicemente per un ritardo che li ha costretti ad utilizzare il GK104 per coprire la fascia alta, nel qual caso il rischio sarebbe però quello di uscire con GK110 molto vicini al lancio della serie 8000 di AMD.
EDIT
Come mi aspettavo, quello che ho scritto e' stato completamente frainteso, eppure mi sembrava semplice...
Solo che, se Nvidia aveva progettato quattro anni prima GK104 per la fascia media, allora aveva progettato 4 anni prima anche un chip (GK110) per la fascia alta gaming... ma mi sembrerebbe molto strano che dopo 4 anni di lavoro, semplicemente perchè il GK104 è "sufficiente", cancellino un progetto e stravolgano completamente una roadmap relegando il GK110, che avrebbe potuto essere nettamente superiore, all'ambito pro.
Chi e' che ha cancellato cosa? Ho appena detto che gk110 e' l'erede di gf110, quindi ha tutto il gpgpu (per tesla e quadro di massimo livello) ed e' anche il chip piu' grosso, quindi sara' anche il chip gaming piu' perfomante di nvidia a questo giro. Magari lo chiameranno GTX780, chi lo sa, ma quello e' un problema del marketing.
Quale sarebbe il motivo tanto importante da fargli decidere una cosa del genere? Un GK104 che, nonostante esca tre mesi dopo, strappa poco più di un pareggio?
Quale parte di " possono vendere al prezzo di una fascia alta un chip da 300mm^2 invece che uno da 550mm^2, con risparmio di costi impressionante" non era chiara? NVidia ha scoperto di poter vendere un chip da 300mm^2 a 500 dollari invece che 300. Secondo te non e' un motivo importante? Per una compagnia a scopo di lucro, e' il motivo piu' importante che ci possa essere.
Hanno lasciato 3 mesi AMD con le sue VGA al top e non hanno capitalizzato il ritardo proponendo una VGA nettamente superiore
Quale parte di "servono anni per progettare un chip di quella taglia" non era chiara? Era stato previsto per gennaio, ma c'e' stato qualche mese di ritardo ed e' arrivato a marzo. La stessa cosa capita a tutti -- Intel doveva far uscire Ivy Bridge a gennaio, invece sara' aprile per qualcosa e giugno per il resto. Bulldozer quando doveva uscire? Accumulare mesi di ritardo su un progetto di qualche anno e' normale e capita a tutti.
gk110 era stato messo in pipeline per piu' tardi, e piu' tardi arrivera'.
Mah,io rimango dell'avviso che avere una scheda che non eccelle in un ambito particolare ma che se la cava su più versanti sia una buona cosa.Comprendo che il gpgpu riguardi esclusivamente il mondo professionale però cacchio,vedere una quadro 5000 a 1500 euro con 352 Gigaflop in DP e una 7970 con 947 ma a 427 euro mi fa un po specie considerando il potenziale...per non parlare di sta mezza delusione di 680 in tal senso...
Steven1987
24-03-2012, 09:42
Comunque analizzando i fatti a me non sembra una novità ma una storia che si ripete:
GTX480 più prestante della HD5870
GTX580 più prestante della HD6970
GTX680 più prestante della HD7970
però io mi ricordo che a differenza di quest'ultima generazione, il gap prestazioneale fra le due single top era più elevato, mentre qui è decisamente risicato, ma ricordo altrettanto che le più elevate prestazioni delle passate geforce andavano na scapito di consumi e temperature altine, cosa sui cui nvidia ha avorato molto stavolta.
Conclusione: complimenti a nvidia per aver tirato fuori questa scheda e viva la concorrenza!
certo che essere felici di questa politica nvidia, è piuttosto difficile. commercializzare la fascia medio alta per alta in modo da monetarizzare di più, mi sembra alquanto scorretto nei confronti di noi acquirenti, sopratutto indicando anche che a distanza di pochi mesi uscira la top di gamma e che chi adesso acquista una 680 spendendo 500E a breve si ritroverà con una scheda molto deprezzata dall'uscita della nuova fascia alta. questo sempre che quanto dicono e ci raccontano sia la verità, e non sia solo una scusa per difendere la loro reputazione di casa che presenta sempre schede molto superiori alla concorrenza ( considerando il ravvicinato pareggio sulle prestazioni con la concorrenza). anche perché, altrimenti, non mi spiego il trapelare e la pubblicizzazione del nuovo gk110 (se non per difendere la propria reputazione di casa top) , visto che in questo modo la casa verde non fa altro che farsi concorrenza e limitare gli acquisti di quanti avrebbero acquistato la gtx680 e adesso aspettano gk110.
AceGranger
24-03-2012, 11:31
Hanno lasciato 3 mesi AMD con le sue VGA al top e non hanno capitalizzato il ritardo proponendo una VGA nettamente superiore
e ora nVidia avra la singola VGA piu prestante ed efficiente per i prossimi 6 mesi; non mi sembra un problema.
Mah,io rimango dell'avviso che avere una scheda che non eccelle in un ambito particolare ma che se la cava su più versanti sia una buona cosa.Comprendo che il gpgpu riguardi esclusivamente il mondo professionale però cacchio,vedere una quadro 5000 a 1500 euro con 352 Gigaflop in DP e una 7970 con 947 ma a 427 euro mi fa un po specie considerando il potenziale...per non parlare di sta mezza delusione di 680 in tal senso...
Le Quadro NON sono per il GPGPU; Quello che paghi sono i driver, la stabilita e le certificazioni con i programmi di grafica.
AceGranger
24-03-2012, 11:38
certo che essere felici di questa politica nvidia, è piuttosto difficile. commercializzare la fascia medio alta per alta in modo da monetarizzare di più, mi sembra alquanto scorretto nei confronti di noi acquirenti, sopratutto indicando anche che a distanza di pochi mesi uscira la top di gamma e che chi adesso acquista una 680 spendendo 500E a breve si ritroverà con una scheda molto deprezzata dall'uscita della nuova fascia alta. questo sempre che quanto dicono e ci raccontano sia la verità, e non sia solo una scusa per difendere la loro reputazione di casa che presenta sempre schede molto superiori alla concorrenza ( considerando il ravvicinato pareggio sulle prestazioni con la concorrenza). anche perché, altrimenti, non mi spiego il trapelare e la pubblicizzazione del nuovo gk110 (se non per difendere la propria reputazione di casa top) , visto che in questo modo la casa verde non fa altro che farsi concorrenza e limitare gli acquisti di quanti avrebbero acquistato la gtx680 e adesso aspettano gk110.
:doh:
da che mondo e mondo i componenti PC vengono prezzati in base alle loro prestazioni, poco importa che nella scaletta di nVidia questo sia il suo chip medio, basso, alto o supremo; contano le prestazioni e paghi quello che va. quando uscira il GK110 se andra di piu lo pagherai di piu.
e certamente non fallira perchè 4 gatti che leggono forum di componenti PC, ( che fra l'altro è popolato di gente che cambia VGA ad ogni uscita ), sanno che ""dovrebbe" uscire un nuovo chip, senza sapere la data, senza sapere su che VGA verra montato e soprattutto senaza sapere il prezzo, visto hce potrebbero tranquillamente prezzarlo sopra la GTX 680.
@AceGranger
Una Tesla 2075 ha in DP di picco 500 Gigaflops circa per un valore di 2300 euro, si ha 6 GB di ram rispetto ad una hd 7970 ma quest'ultima è capace di quasi un Teraflops in dp e costa non più di 500 euro...tralasciando tutto il discorso di driver , certificazioni supporto CUDA e compagnia bella la sproporzione attualmente rimane..non so il futuro gk110...ma potrei essere sempre davanti a macinare calcoli con un crossfire di due 7970 rimanendo molto al di sotto della soglia di costo di una tesla...
AceGranger
24-03-2012, 14:24
@AceGranger
Una Tesla 2075 ha in DP di picco 500 Gigaflops circa per un valore di 2300 euro, si ha 6 GB di ram rispetto ad una hd 7970 ma quest'ultima è capace di quasi un Teraflops in dp e costa non più di 500 euro...tralasciando tutto il discorso di driver , certificazioni supporto CUDA e compagnia bella la sproporzione attualmente rimane..non so il futuro gk110...ma potrei essere sempre davanti a macinare calcoli con un crossfire di due 7970 rimanendo molto al di sotto della soglia di costo di una tesla...
non puoi tralascaire "tutto il discorso" e poi andare a comparare i prezzi, paghi per determinate prestazioni, stabilita e supporti; la potenza bruta è solo un dato come un'altro e nemmeno quello piu importante. AMD ha sempre sbandierato numeri maggiori in DP, poi all'atto pratico ha il 40% del mercato discrete e il 10% di quello professionale.
dopo di che, cotruire tutti questi fanta discorsi vedendo UNA sola scheda senza vedere l'intera nuova gamma Kepler è abbastanza senza senso. Non saranno certo questi 3 mesetti a cambiare il mercato o a mettere in crisi chissa cosa, quando uscira l'intera gamma potremo trarre le conclusioni.
Chi e' che ha cancellato cosa? Ho appena detto che gk110 e' l'erede di gf110, quindi ha tutto il gpgpu (per tesla e quadro di massimo livello) ed e' anche il chip piu' grosso, quindi sara' anche il chip gaming piu' perfomante di nvidia a questo giro. Magari lo chiameranno GTX780, chi lo sa, ma quello e' un problema del marketing.Mi spiace dover spendere un lungo post per spiegare cosa intendevo e come avevo inteso il tuo precedente messaggio, ma se frammenti così il mio discorso e non lo relazioni a quanto da te scritto, non si capisce nulla.
Senza citare tutto il tuo intervento frase per frase, quello che non mi appariva chiaro del tuo discorso era l'insieme di affermazioni che non trovavo coerenti per la mancanza di due semplici affermazioni (prova a rileggerlo): GK110 è il chip di punta per VGA (anche) da gioco; GK110 è in ritardo.
Del resto se tu credi (come me) a queste due cose, allora molte altre affermazioni fatte, perdono di senso, cioè che il GK104 sia stato promosso per le sue qualità e per i costi di GK110.
Dal tuo mssaggio appariva che avevano "promosso" GK104 sia per le sue performance (e quelle di HD7970), sia per i mnori costi. Inoltre di GK110 ne parlavi solo come chip per Quadro/Tesla e per GPGPU.
Se rileggi bene quanto hai scritto non usi la parola gaming per GK110 e non usi la parola ritardo, che a mio avviso sono la chiave del discorso.
Infatti se ora dici che GK110 è ancora il chip di punta di questa serie gaming, il senso del tuo discorso cambia completamente, perchè in tal caso non si tratterebbe di una scelta precisa, come fai intendere (dovuta ai costi del chippone e ottime rese del chippino), bensì di un ritardo.
E non si tratterebbe ancora di una scelta ben precisa la promozione di GK104, bensì di un ripiego (fortunato quanto vuoi, visto che hanno prodotto comunque una VGA competitiva), ma un ripiego per tamponare il ritardo di GK110.
Non si tratterebbe nemmeno di una scelta dovuta a motivi economici, visto che stando a quanto scrivi ora, il GK110 sarebbe ancora il modello di punta per i giochi, dunque alla fine verrebbe presentato e venduto, nonostante i presumibili maggiori costi e maggiori consumi.
Se comunque il senso del tuo discorso era che, essendo GK110 in ritardo hanno fatto di necessità virtù, allora siamo perfettamente d'accordo, se leggi con attenzione quanto ho scritto, è quanto da me sostenuto.
Semplicemente, cadono tutte le scusanti ("visto che si sono trovati per le mani un chip performante", "visto che la concorrenza non aveva fatto uscire una VGA eccessivamente potente", "visto che GK110 costava troppo" e così via), semplicemente bastava dire che erano in ritardo e che hanno comunque tamponato egregiamente con GK104.
Rimane la mia perplessità sul rischio di un GK110 in uscita molto vicino alla serie 8000.
P.S.
Scusate per l'OT
Se ci rispondiamo agrappandoci a singole frasi che prese da sole non danno il senso di quanto si voleva dire, è difficile chiarirsi, sempre che lo scopo sia chiarirsi...
Ultimamente scrivo molto meno in questo forum e mi accorgo ad ogni intervento che è veramente difficile e faticoso "ragionare" (cosa che dovrebbe invece essere un divertimento), perchè spesso ogni intevento diventa motivo di scontro ed interpretato non in base ai contenuti, bensì in base alla supposta appartenenza a questa o quella fazione od al fatto che il discorso sembra possa portare o meno l'acqua a qualche mulino.
Ma a questo punto a che serve la discussione? Non si fa prima a fare una semplice dichiarazione di fede? E' senz'altro meno frustrante che una discussione dove si deve ogni volta spiegare lettera per lettera quello che si voleva dire a qualcuno che non ha alcun interesse a capirlo, bensì quello di demolirlo a prescindere dai contenuti.
Siamo tra persone intelligenti che non hanno guadagno alcuno dalle sorti di questa o quella azienda, parliamo di pezzi di plastica/metallo/silicio, possibile non sia possibile un "reset" e ricominciare in altro modo?
Sia ben chiaro che non mi riferisco assolutamente a Pleg.
Fine dell'OT.
halduemilauno
24-03-2012, 17:39
Vedo che c'e' un'enorme battibecco e confusione su "fascia media" vs "fascia alta", vediamo se riesco a fare un po' di luce sulla questione.
La prima cosa da considerare e' il tempo che ci vuole a sviluppare questi chip: lo sviluppo di Kepler e' cominciato nel 2008, col codice scritto nel 2009 e 2010 (freezato nel 2010!). Il 2011-12 e' stato speso per sintesi, layout, place and route eccetera, invio in fonderia, produzione dei sample, debug del silicio, correzione dei bug, costruzione delle board, caratterizzazione dei dispositivi, affinamento dei driver, eccetera.
Questo e' tipico, AMD ci avra' messo piu' o meno lo stesso per Tahiti, e per Bulldozer probabilmente anche un anno o due di piu'.
Quindi, quando una compagnia decide che chip fare, lo fa tra i 2 e i 4 anni PRIMA che questo venga immesso sul mercato -- e quindi MOLTO prima di sapere cosa avra' la concorrenza.
Quando NVidia ha deciso come fare il gk104 (il ragionamento sara' esattamente speculare per AMD) ha considerato quali erano i suoi target, le risorse da mettere in gioco, e anche una sua stima di come sarebbe stato il lineup di AMD. Secondo nvidia, in fase di progetto, gk104 sarebbe dovuto allinearsi con 78xx ed essere una scheda di fascia media (cioe' gtx660), secondo le aspettative che nvidia aveva di 78xx. Come fascia media, non ha tutta la potenza in double-precision e non e' ottimizzata per GPGPU (cosi' come non lo era gf104 rispetto a gf100).
Quando e' uscita 79xx, nvidia ha visto che le prestazioni erano molto sotto quello che si aspettava lei, nei giochi (fondamentalmente perche' AMD ha speso una larga parte di area per la roba necessaria al GPGPU, a livelli che nvidia non si aspettava, e infatti la cosa si vede benissimo nelle review, dove 79xx ha fatto un salto avanti enorme rispetto a 6xxx, mentre gtx680 a volte le prende anche da gtx580).
Quindi, hanno deciso di "upgradare" gk104 a fascia alta e chiamarlo GTX680. Per questo, nei giochi tiene si' testa a 7970, ma nel gpgpu no perche' non era stata progettata per quello spazio inizialmente. Ma visto che il grosso delle vendite lo fanno i giochi e non il gpgpu, la cosa funziona egregiamente: possono vendere al prezzo di una fascia alta un chip da 300mm^2 invece che uno da 550mm^2, con risparmio di costi impressionante.
Per Quadro e Tesla ci sara' gk110, quella si' progettata per il gpgpu (erede di gf110), e il cerchio verra' chiuso. Cosa sia gk110, pero', al momento e' solo rumor -- il fatto che sia progettata per gpgpu e' certo perche' alimentera' il nuovo supercomputer di Oak Ridge:
http://www.ornl.gov/info/press_releases/get_press_release.cfm?ReleaseNumber=mr20111011-00
e quella gente di solito sa fare bene i suoi conti :)
Come mi aspettavo, quello che ho scritto e' stato completamente frainteso, eppure mi sembrava semplice...
Chi e' che ha cancellato cosa? Ho appena detto che gk110 e' l'erede di gf110, quindi ha tutto il gpgpu (per tesla e quadro di massimo livello) ed e' anche il chip piu' grosso, quindi sara' anche il chip gaming piu' perfomante di nvidia a questo giro. Magari lo chiameranno GTX780, chi lo sa, ma quello e' un problema del marketing.
Quale parte di " possono vendere al prezzo di una fascia alta un chip da 300mm^2 invece che uno da 550mm^2, con risparmio di costi impressionante" non era chiara? NVidia ha scoperto di poter vendere un chip da 300mm^2 a 500 dollari invece che 300. Secondo te non e' un motivo importante? Per una compagnia a scopo di lucro, e' il motivo piu' importante che ci possa essere.
Quale parte di "servono anni per progettare un chip di quella taglia" non era chiara? Era stato previsto per gennaio, ma c'e' stato qualche mese di ritardo ed e' arrivato a marzo. La stessa cosa capita a tutti -- Intel doveva far uscire Ivy Bridge a gennaio, invece sara' aprile per qualcosa e giugno per il resto. Bulldozer quando doveva uscire? Accumulare mesi di ritardo su un progetto di qualche anno e' normale e capita a tutti.
gk110 era stato messo in pipeline per piu' tardi, e piu' tardi arrivera'.
costretto a quotare per quanto semplice, ovvio e aggiungerei anche un...gia detto + volte.
;)
St1ll_4liv3
24-03-2012, 19:51
Anche io credo che NVIDIA abbia nel cassetto qualcosa di molto più performante, ma che, data la concorrenza ha deciso di non lanciare.
E' logico: una gtx 680 con chip gk 104 va come una 7970, forse un pò meglio...quel che basta per renderla preferibile/concorrenziale.
Una ipotetica gk 110 che andasse il 40% più di una gtx 680 al momento non ha senso, e non è conveniente per NVIDIA rilasciarla...perlomeno non finchè non ammortizza a dovere i costi di produzione con la gtx 680.
Anche io credo che NVIDIA abbia nel cassetto qualcosa di molto più performante, ma che, data la concorrenza ha deciso di non lanciare.
E' logico: una gtx 680 con chip gk 104 va come una 7970, forse un pò meglio...quel che basta per renderla preferibile/concorrenziale.
Una ipotetica gk 110 che andasse il 40% più di una gtx 680 al momento non ha senso, e non è conveniente per NVIDIA rilasciarla...perlomeno non finchè non ammortizza a dovere i costi di produzione con la gtx 680.
non ha senso come per ati tirare fuori ora una serie 8000 se ha la serie 7000 ora che vende. sai da quanto tempo covano e producono le schede prima di commercializzarle? :)
capitan ovvio direi ;)
Una ipotetica gk 110 che andasse il 40% più di una gtx 680 al momento non ha senso, e non è conveniente per NVIDIA rilasciarla...perlomeno non finchè non ammortizza a dovere i costi di produzione con la gtx 680.
In questo momento Nvidia sta lavorando per i progetti futuri, per prodotti sempre più performanti di quelli che ha attualmente, hanno già una roadmap che stabilisce cosa e quando dovrà uscire. Se gk110 doveva uscire ora, sarebbe uscito ora perchè dopo avranno altri prodotti.
Il fatto che il prodotto sia molto buono, non mi pare per un'azienda una controindicazione a metterlo in vendita, nè tantomeno di ritardarne il lancio per poi guadagnarci meno.
A maggior ragione se la percentuale fosse del 40% (un'enormità, ma facciamo finta), la metterebbero subito nel mercato e potrebbero decidere se guadagnarci un capitale vendendola a cifre stellari o se ammazzare il mercato e la concorrenza vendendola a cifre umane, senza contare la pubblicità che un evento del genere porterebbe... per quale motivo la dovrebbero tenere ben nascosta, per tirarla fuori quando varrà la metà? Mi riesce difficile immaginare un'azienda che preferisca "500 euro dopo" piuttosto che "1000 euro subito".
Per forza dev'esserci un prodotto talmente buono che per carità nei confronti di AMD decidono di lasciare ad ammuffire?
La soluzione più semplice che la nuova GK110 sia semplicemente in ritardo (o che sia stato pianificato venga ultimata più avanti), proprio non la vuole considerare nessuno?
unfaced12
24-03-2012, 20:35
Anche io credo che NVIDIA abbia nel cassetto qualcosa di molto più performante, ma che, data la concorrenza ha deciso di non lanciare.
E' logico: una gtx 680 con chip gk 104 va come una 7970, forse un pò meglio...quel che basta per renderla preferibile/concorrenziale.
Una ipotetica gk 110 che andasse il 40% più di una gtx 680 al momento non ha senso, e non è conveniente per NVIDIA rilasciarla...perlomeno non finchè non ammortizza a dovere i costi di produzione con la gtx 680.
Si si..... E al marmotta impacchettava la cioccolata :sofico:
Ma ve lo mettete in testa che GK110 ad oggi non esiste??? :mc:
nevets89
24-03-2012, 20:43
ancora non riesco a capire che problemi vi crei il fatto che nvidia abbia il gk110 in serbo....non è né un miracolo né un problema....amd ha in serbo la serie 8000 che probabilmente uscirà dopo qualche mese dalla gk110....praticamente si sono invertiti i ruoli, ora sarà nvidia ad uscire prima...solo che fino a che nvidia usciva dopo tutti a dire:"aspettiamo di vedere le nvidia"....ora invece sembra che tutti dicano:"nvidia è super!! o my god ecc..." ...boh
ma o mi sono rimbabito io,oppure lo siete voi :D
ma dove vedete tutto questo strapotere NVIDIA,quando una scheda con 4 mesi di vantaggio ha le stesse prestazioni (addirittura inferiore ad alte risoluzioni,ovvero quello per cui queste schede sono progettate per rendere al meglio,senza perdere la qualita') maggiori consumi,e e temperature piu elevate (in full non vale nulla,visto che nessuno avra la proprio gpu MAI al 100% per piu di pochi secondi al massimo) proprio non capisco!
e sicuramente se avevano qualcosa di veramente performante come dite,ovvero il fantomatico gk110 nvidia vedevi come la faceva uscire per sbaragliare la concorrenza su tutti i fronti,lasciando poche speranze ad AMD...la realta' dei fatti cari fanboy NVIDIA è che stavolta "i verdi" non hanno fatto un buon lavoro,anzi...AMD sta guadagnando molto terreno in campo GPU,e arriveremo sicuramente al sorpasso definitivo se nvidia non si da una mossa! (aggiungo purtroppo,da felice possessore di una 580)
La soluzione più semplice che la nuova GK110 sia semplicemente in ritardo (o che sia stato pianificato venga ultimata più avanti), proprio non la vuole considerare nessuno?
Finalmente siamo d'accordo su qualcosa :)
E' tutto li', e' cosi' semplice: i prodotti non possono uscire tutti insieme, vengono schedulati secondo una roadmap e mandati in produzione in una pipeline: prima finisce il progetto di A, poi mentre di A viene fatto il layout finisce il progetto di B, eccetera. Naturalmente, ci sono spesso ritardi (di mesi), visto che stiamo parlando di chip di complessita' spaventosa (*). Il fatto che AMD sia riuscita a far uscire l'intero lineup (79xx, 78xx, 77xx) tra dicembre '11 e marzo '12 indica un'esecuzione eccellente.
La cosa buffa e' che gk104 non e' il primo chip Kepler :) il primo e' stato gk107, ed e' uscito piu' di un mese fa... solo che e' stata data la precedenza alla versione mobile, per la nuova generazione di portatili basata su Ivy Bridge, e finche' Ivy Bridge non si decide ad uscire (parlando di ritardi...), i milioni di gk107 gia' spediti stanno a languire nell'oscurita' :)
(*) molti miliardi di transistor per chip... rendiamoci conto che il gk110 di cui si specula al momento potrebbe avere piu' transistor in 550mm^2 di quanti esseri umani ci sono sull'intero pianeta :)
sniperspa
24-03-2012, 21:26
ancora non riesco a capire che problemi vi crei il fatto che nvidia abbia il gk110 in serbo....non è né un miracolo né un problema....amd ha in serbo la serie 8000 che probabilmente uscirà dopo qualche mese dalla gk110....praticamente si sono invertiti i ruoli, ora sarà nvidia ad uscire prima...solo che fino a che nvidia usciva dopo tutti a dire:"aspettiamo di vedere le nvidia"....ora invece sembra che tutti dicano:"nvidia è super!! o my god ecc..." ...boh
Assolutamente nessuno, anche perché se ha veramente le dimensioni che dicono sarà una scheda useless per la maggior parte della gente, con consumi stratosferici e costi che in pochi potranno permettersi.
Questa gtx680 ha prestazioni e consumi del tutto simili alla 7970 che è uscita da qualche mese, il che è comunque segno che nvidia ha recuperato buona parte del gap che aveva con la serie precedente...amd penso stia ancora in vantaggio con i tempi ma sarà da vedere come si evolve la situazione nei prossimi mesi.
Intanto la prossima scheda top ad uscire immagino che sarà la 7990
Finalmente siamo d'accordo su qualcosa :)
Ma và, eravamo d'accordo su quasi tutto ^^
Come detto, dal tuo primo mex io avevo inteso tu dicessi che il GK110 era pronto ma che Nvidia avesse deciso al volo di cancellarlo perchè gk104 era risultato sufficientemente performante (e perchè GK110 era costoso) e che alla fine sarebbe uscito solo in ambito pro.
Una volta chiarita la cosa, stavamo dicendo le stesse cose.
St1ll_4liv3
24-03-2012, 23:20
non ha senso come per ati tirare fuori ora una serie 8000 se ha la serie 7000 ora che vende. sai da quanto tempo covano e producono le schede prima di commercializzarle? :)
capitan ovvio direi ;)
Fammi indovinare...ah si, hai una ati, ora si spiega tutto ;)
C'è una piccola e dico piccola differenza: la 6970 andava peggio della gtx 580, quindi era Ati a dover recuperare terreno, non nvidia. L'ha fatto? Si. Con un anno di ritardo ha sfornato una buona 7970, sicuramente migliore della gtx 580, ma non una rivoluzione da strapparsi i capelli.
Tant'è che con il minimo sforzo nvidia ha snocciolato fuori una gtx 680 appena superiore. Che sia una scheda di fascia media "rifinita meglio" credo sia evidente, sia per le caratteristiche, che per il nome stesso del chip.
Semplicemente non vale la pena, per nvidia, farla uscire adesso.
St1ll_4liv3
24-03-2012, 23:21
In questo momento Nvidia sta lavorando per i progetti futuri, per prodotti sempre più performanti di quelli che ha attualmente, hanno già una roadmap che stabilisce cosa e quando dovrà uscire. Se gk110 doveva uscire ora, sarebbe uscito ora perchè dopo avranno altri prodotti.
Il fatto che il prodotto sia molto buono, non mi pare per un'azienda una controindicazione a metterlo in vendita, nè tantomeno di ritardarne il lancio per poi guadagnarci meno.
A maggior ragione se la percentuale fosse del 40% (un'enormità, ma facciamo finta), la metterebbero subito nel mercato e potrebbero decidere se guadagnarci un capitale vendendola a cifre stellari o se ammazzare il mercato e la concorrenza vendendola a cifre umane, senza contare la pubblicità che un evento del genere porterebbe... per quale motivo la dovrebbero tenere ben nascosta, per tirarla fuori quando varrà la metà? Mi riesce difficile immaginare un'azienda che preferisca "500 euro dopo" piuttosto che "1000 euro subito".
Per forza dev'esserci un prodotto talmente buono che per carità nei confronti di AMD decidono di lasciare ad ammuffire?
La soluzione più semplice che la nuova GK110 sia semplicemente in ritardo (o che sia stato pianificato venga ultimata più avanti), proprio non la vuole considerare nessuno?
In ritardo, volutamente rinviata...non lo so, ma una cosa la credi anche tu se dici così: la gtx 680 NON nasce come scheda di fascia alta, e va più di una 7970. Sono dati eh! A me personalmente non frega nulla...
Nanolitro
24-03-2012, 23:31
voglio complimentarmi con la redazione di hw upgrade per la professionalità dimostrata nella stesura di questa recensione e per la scelta degli strumenti utilizzati.
L'obiettivo di rendere un confronto utile e imparziale credo sia stato raggiunto al 100%.
In particolare ho trovato molto intelligente la scelta di usare una HD5870 come riferimento, dimostrazione di competenza nel settore e di conoscenza delle esigenze di noi lettori.
grazie
ps
voi si che usate il cervello altro che quelli di toms hardware :p
nevets89
25-03-2012, 00:21
Fammi indovinare...ah si, hai una ati, ora si spiega tutto ;)
C'è una piccola e dico piccola differenza: la 6970 andava peggio della gtx 580, quindi era Ati a dover recuperare terreno, non nvidia. L'ha fatto? Si. Con un anno di ritardo ha sfornato una buona 7970, sicuramente migliore della gtx 580, ma non una rivoluzione da strapparsi i capelli.
Tant'è che con il minimo sforzo nvidia ha snocciolato fuori una gtx 680 appena superiore. Che sia una scheda di fascia media "rifinita meglio" credo sia evidente, sia per le caratteristiche, che per il nome stesso del chip.
Semplicemente non vale la pena, per nvidia, farla uscire adesso.
la gtx 680 va più della 7970? giustamente è uscita dopo, con tecnologia turboboost e senza gpgpu..la prossima amd andrà più veloce della gtx 680?capitan ovvio(io), sicuramente, visto che uscirà dopo la gtx 680....non riesco proprio a capire cosa ci trovate di così rivoluzionario....
In ritardo, volutamente rinviata...non lo so, ma una cosa la credi anche tu se dici così: la gtx 680 NON nasce come scheda di fascia alta, e va più di una 7970. Sono dati eh! A me personalmente non frega nulla...
Sinceramente non sono certo di nulla, ho sentito vari ragionamenti diversi... e mi hanno convinto tutti ^^
- Non ha caratteristiche da top (bus 256, scarsa dotazione di memoria) ed è castrata nel gpgpu, nemmeno il nome del chip è quello solito delle top Nvidia. Dunque si può supporre che esista un chip top (GK110); se poi sia in ritardo o sia stato pianificato di farlo uscire dopo non lo so.
Però...
- C'è però anche la possibilità che, visto il nome dato alla VGA, per la serie 6xx il top sia questo e che altro sia sì stato pianificato... ma per la serie 7xx...
- Ma c'è pure la possibilità che Nvidia abbia definitivamente rinunciato al chippone per le serie gaming a favore di consumi più bassi e costi inferiori e che il chippone lo riservi solo per le serie pro. Alla fine Nvidia esce sempre per prima con l'alto di gamma, è uscita con una VGA che ha il nome utilizzato per le top (x80), l'ha prezzata come alto di gamma ed ha buone caratteristiche, perchè non dovrebbe essere considerata la top della serie 6xx?
Insomma, queste tre sono tutte supposizioni buone, speculazioni basate su ragionamenti logici che però portano a conclusioni diverse; quello che conta è quanto offre ora il mercato, ed in questo momento per la fascia top bisogna confrontare HD7970 e GTX680.
L'unica cosa di cui sono convinto è che, se veramente GK110 sia stato pianificato come chip di fascia alta per i giochi di questa serie (6xx), allora non è ancora pronto, altrimenti l'avremmo già sul mercato.
appleroof
25-03-2012, 00:36
Sinceramente non sono certo di nulla, ho sentito vari ragionamenti diversi... e mi hanno convinto tutti ^^
- Non ha caratteristiche da top (bus 256, scarsa dotazione di memoria) ed è castrata nel gpgpu, nemmeno il nome del chip è quello solito delle top Nvidia. Dunque si può supporre che esista un chip top (GK110); se poi sia in ritardo o sia stato pianificato di farlo uscire dopo non lo so.
Però...
- C'è però anche la possibilità che, visto il nome dato alla VGA, per la serie 6xx il top sia questo e che altro sia sì stato pianificato... ma per la serie 7xx...
- Ma c'è pure la possibilità che Nvidia abbia definitivamente rinunciato al chippone per le serie gaming a favore di consumi più bassi e costi inferiori e che il chippone lo riservi solo per le serie pro. Alla fine Nvidia esce sempre per prima con l'alto di gamma, è uscita con una VGA che ha il nome utilizzato per le top (x80), l'ha prezzata come alto di gamma ed ha buone caratteristiche, perchè non dovrebbe essere considerata la top della serie 6xx?
Insomma, queste tre sono tutte supposizioni buone, speculazioni basate su ragionamenti logici che però portano a conclusioni diverse; quello che conta è quanto offre ora il mercato, ed in questo momento per la fascia top bisogna confrontare HD7970 e GTX680.
L'unica cosa di cui sono convinto è che, se veramente GK110 sia stato pianificato come chip di fascia alta per i giochi, allora non è ancora pronto, altrimenti l'avremmo già sul mercato.
Ma se te l'ha appena detto un ingegnere nVidia che esiste, deve venire direttamente JHH a casa tua per comunicartelo? :D
Ma se te l'ha appena detto un ingegnere nVidia che esiste, deve venire direttamente JHH a casa tua per comunicartelo? :DProbabilmente non ho visto la news in cui lo dice, me la puoi linkare, così restringo "il range delle possibilità" a due?
appleroof
25-03-2012, 00:43
Probabilmente non ho visto la news in cui lo dice, me la puoi linkare, così restringo "il range delle possibilità" a due?
è Pleg, ha postato con te su questo stesso thread due pagine fa :stordita:
edit: Ovviamente sono d'accordo con chi dice che per ora è la top di nVidia
è Pleg, ha postato con te su questo stesso thread due pagine fa :stordita:
:eek:
Vabbè, allora le possibilità rimaste sono solo due :D
Anche se però dice solamente: "Per Quadro e Tesla ci sara' gk110, quella si' progettata per il gpgpu (erede di gf110), e il cerchio verra' chiuso. Cosa sia gk110, pero', al momento e' solo rumor -- il fatto che sia progettata per gpgpu e' certo"
Anche se però dice solamente: "Per Quadro e Tesla ci sara' gk110, quella si' progettata per il gpgpu (erede di gf110), e il cerchio verra' chiuso. Cosa sia gk110, pero', al momento e' solo rumor -- il fatto che sia progettata per gpgpu e' certo"
"Dico solamente" perche' non posso dire di piu' :)
Il fatto che sia progettata per gpgpu e' deducibile da questo (anche senza bisogno di un insider): il nuovo supercomputer Titan dell'Oak Ridge National Laboratory usera' schede Tesla ed e' previsto che venga installato verso la fine di quest'anno (e' stato annunciato a ottobre dell'anno scorso, puoi googolare), il che significa che non sono Tesla Fermi (che sono disponibili da mo') e quindi devono essere Tesla Kepler, e quindi deve essere il chippone ottimizzato per gpgpu (cioe' gk110), perche' di sicuro non ci mettono i gk104 dentro i supercomputer (non dopo aver visto le prestazioni deludenti di gtx680 in gpgpu).
Fammi indovinare...ah si, hai una ati, ora si spiega tutto ;)
ho avuto sia schede ati che nvidia.
non parlare di cose che non sai ;)
C'è una piccola e dico piccola differenza: la 6970 andava peggio della gtx 580, quindi era Ati a dover recuperare terreno, non nvidia. L'ha fatto? Si. Con un anno di ritardo ha sfornato una buona 7970, sicuramente migliore della gtx 580, ma non una rivoluzione da strapparsi i capelli.
Tant'è che con il minimo sforzo nvidia ha snocciolato fuori una gtx 680 appena superiore. Che sia una scheda di fascia media "rifinita meglio" credo sia evidente, sia per le caratteristiche, che per il nome stesso del chip.
Semplicemente non vale la pena, per nvidia, farla uscire adesso.
ma perche vi fissate sui nomi dei chip quando in questo caso non ci azzecca niente.
se l'hanno chiamata 680 non è un caso. con il minimo sforzo? se avessero voluto subito tamponare le amd avrebbe fatto uscire questa scheda molto prima.
inoltre le cose vanno valutate allo stato attuale non su rumor o sparate da fanboy.
e ancora con questa storia della fascia media...e basta , fate solo disinformazione, siamo stufi di questa litania.
non puoi tralascaire "tutto il discorso" e poi andare a comparare i prezzi, paghi per determinate prestazioni, stabilita e supporti; la potenza bruta è solo un dato come un'altro e nemmeno quello piu importante. AMD ha sempre sbandierato numeri maggiori in DP, poi all'atto pratico ha il 40% del mercato discrete e il 10% di quello professionale.
dopo di che, cotruire tutti questi fanta discorsi vedendo UNA sola scheda senza vedere l'intera nuova gamma Kepler è abbastanza senza senso. Non saranno certo questi 3 mesetti a cambiare il mercato o a mettere in crisi chissa cosa, quando uscira l'intera gamma potremo trarre le conclusioni.
...si per carità,hai perfettamente ragione, l'ecosistema intorno ad un'architettura si deve pagare,(e tra l'altronon so di cosa sia capace il nuovo chippone),ma se,guardando il passato, una scheda che mi costa oltre 5 volte tanto una desktop e potezialmente va uguale (forse) se non addirittura di meno,francamente è seccante soprattutto se il software che uno usa può sfruttare architetture diverse... li poi ti accorgi che le differenze ci sono...:D
AceGranger
25-03-2012, 11:07
...si per carità,hai perfettamente ragione, l'ecosistema intorno ad un'architettura si deve pagare,(e tra l'altronon so di cosa sia capace il nuovo chippone),ma se,guardando il passato, una scheda che mi costa oltre 5 volte tanto una desktop e potezialmente va uguale (forse) se non addirittura di meno,francamente è seccante soprattutto se il software che uno usa può sfruttare architetture diverse... li poi ti accorgi che le differenze ci sono...:D
quello sicuro, non è mai bello spendere molto di piu sapendo di poter avere pari prestazioni spendendo di meno; per il mio ambito, che è quello grafico, sono il primo a dire che per il GPGPU conviene assolutamente prendere le schede consumer, perchè le feature in piu date delle Tesla in molti ambiti sono (IMHO) inutili; ero uno di quelli aspettava queste GTX solo per quello,e ovviamente non sono per nulla contento.. sarei interessato ad altri bench, per vedere se magari con un codice differente ottiene risultati migliori, tipo Vray RT o Photoscan, ma dubito.
tuttavia, essendo una sola scheda, aspetterei di vedere il nuovo GK110 e le nuove Quadro-Tesla, per sapere in via definitiva se è il chip a fare schifo nel GPGPU o se c'è di mezzo anche un blocco hardware da parte di nVidia.
...si Ace non posso che quotarti,sono esattamente nel tuo stesso "stato d'animo",ho un po di delusione per questa politica di nvidia e molto pessimista sul futuro gk110,credo che le limitazioni hardware in ambito gpgpu ci saranno tutte tanto da non far sussistere nemmeno lontanamente il paragone con la controparte AMD...almeno in ambito desktop.
ma ragazzi, a livello di programmi tipo 3ds max/maya/zbrush/mudbox/photoshop ci saranno parecchie differenze con le consumer amd in fatto di prestazione?
non ho capito se questo gpgpu influsce sui suddetti programmi oppure no..?
...ma solo io ho notato che nel test dell' overclock, passando da 1006mhz a 1206mhz il boost prestazionale è meno del 6%? c'è qualcosa che non mi torna...
semplice perche la 680 gia' si overclocca in automatico con "gpu-boost"
in pratica di base la 680 mostra i 1006mhz solo a gpu-z,ma quando lavora il clock varia secondo il carico di lavoro,si downclocca quando fa girare vecchi giochi poco bisognosi di risorse,risparmiando energia
si overclocca quando al contrario deve macinare un gioco pesante,girando intorno ai 1100mhz,tenendo sotto controllo il tdp
purtroppo quando overclocchi di tuo,tra 1000 a 1200,il sistema gia' variava per conto suo e le prestazioni rimangono quasi uguali
in generale trovo la 680 inferiore alla 7970,a parita' di frequenza e a quel prezzo almeno,poi se la tagliano di prezzo ok
ma l'errore piu' grave che ha commesso nvidia e' stato il ridicolo supporto al gpgpu,proprio quando amd recupera tantissimo:doh:
e questo e' un errore che in futuro potrebbe pagare molto,molto caro
i famosi chip da 550mm2 costosissimi che nvidia progetta e produce,vengono ammortizzati tutti nel settore business,tesla e quadro
chipponi per gamer sono sconvenienti da produrre,ma fa niente tanto erano in produzione per motivi sopra,e in piu' fanno ottima pubblicita',marketing per i modelli inferiori a prezzi umani,molto piu' renumerativi
ma adesso si fanno attaccare proprio nel loro core business,con il monopolio potevano fare prezzi allucinanti,ma se uno puo' scegliere una valida alternativa e quindi finalmente rivolgersi alla concorrenza,i prezzi si abbassano ma....e' dura tagliare i prezzi a un chippone da 550mm costoso,partorito dopo un lungo travaglio con o senza cesareo:asd:
AceGranger
25-03-2012, 14:15
ma ragazzi, a livello di programmi tipo 3ds max/maya/zbrush/mudbox/photoshop ci saranno parecchie differenze con le consumer amd in fatto di prestazione?
non ho capito se questo gpgpu influsce sui suddetti programmi oppure no..?
nei programmi che hai citato praticamente nessuno sfrutta direttamente il GPGPU; 3D Max, Maya, Zbrush e Mudbox sfruttano la VGA in modo simile ai giochi, quindi muoverai piu poligoni e avrai piu fps nelle viewport, e qui contano molto i driver e le schede Quadro/firePRO ( non è solo una questione di numero di fps ma anche di difetti grafici nelle viewport e di stabilita, ovvero meno crash )
la parte GPGPU è mero calcolo, in 3D max e Maya ce l'hai se usi motori di rendering che sfruttano la GPU, come iray, Vray RT etc. etc. o motori stand-alone come Arion o Octane.
in Zbrush e Mudbox non mi pare che sfruttino la GPU nei loro motori interni e non conosco plugin di motori di terze parti, ma li conosco poco, potrei tranquillamente sbagliarmi.
Photoshop sfrutta la GPU per effettuare alcune operazioni, ma per ora, per come li sfrutta, non c'è molta differenza fra una entry lvl gaming e una top Quadro, figuriamoci fra una nVidia o AMD di pari fascia ;)
nei programmi che hai citato praticamente nessuno sfrutta direttamente il GPGPU; 3D Max, Maya, Zbrush e Mudbox sfruttano la VGA in modo simile ai giochi, quindi muoverai piu poligoni e avrai piu fps nelle viewport, e qui contano molto i driver e le schede Quadro/firePRO ( non è solo una questione di numero di fps ma anche di difetti grafici nelle viewport e di stabilita, ovvero meno crash )
la parte GPGPU è mero calcolo, in 3D max e Maya ce l'hai se usi motori di rendering che sfruttano la GPU, come iray, Vray RT etc. etc. o motori stand-alone come Arion o Octane.
in Zbrush e Mudbox non mi pare che sfruttino la GPU nei loro motori interni e non conosco plugin di motori di terze parti, ma li conosco poco, potrei tranquillamente sbagliarmi.
Photoshop sfrutta la GPU per effettuare alcune operazioni, ma per ora, per come li sfrutta, non c'è molta differenza fra una entry lvl gaming e una top Quadro, figuriamoci fra una nVidia o AMD di pari fascia ;)
bene tutto quello che dovevo sapere comunque faccio solamente modelli per videogames quindi posso andare tranquillo..
Si certo una quadro sarebbe stato l'ideale ma mi piace pure giocare e comunque anche con una 8800 gtx riuscivo a gestire bene sia max che mud/zbrush quindi non credo avro praticolari problemi con questa visto che sta cosa del gpgpu non intacca nulla.
grazie
alcuni test in overclock
http://vr-zone.com/articles/asus-gtx-680-2gb-overclocking-review-win-some-lose-some/15322-5.html
nei programmi che hai citato praticamente nessuno sfrutta direttamente il GPGPU; 3D Max, Maya, Zbrush e Mudbox sfruttano la VGA in modo simile ai giochi, quindi muoverai piu poligoni e avrai piu fps nelle viewport, e qui contano molto i driver e le schede Quadro/firePRO ( non è solo una questione di numero di fps ma anche di difetti grafici nelle viewport e di stabilita, ovvero meno crash )
la parte GPGPU è mero calcolo, in 3D max e Maya ce l'hai se usi motori di rendering che sfruttano la GPU, come iray, Vray RT etc. etc. o motori stand-alone come Arion o Octane.
in Zbrush e Mudbox non mi pare che sfruttino la GPU nei loro motori interni e non conosco plugin di motori di terze parti, ma li conosco poco, potrei tranquillamente sbagliarmi.
Photoshop sfrutta la GPU per effettuare alcune operazioni, ma per ora, per come li sfrutta, non c'è molta differenza fra una entry lvl gaming e una top Quadro, figuriamoci fra una nVidia o AMD di pari fascia ;)
...esistono anche molti software di simulazione di fenomeni fisici di cui si ha un modello matematico che sfruttando molto il parallelismo trarrebbero giovamento dalla architettura parallela di una gpu(persino le ultime versioni di matlab hanno modo di sfruttarla in parecchi calcoli),quindi avere una scheduzza da 400 e rotti euro che in singola precisione è capace quasi di 4 teraflops sarebbe interessante e ancora di più accoppiarla in crossfire... :)
LordShaitan
25-03-2012, 18:00
purtroppo quando overclocchi di tuo,tra 1000 a 1200,il sistema gia' variava per conto suo e le prestazioni rimangono quasi uguali
in generale trovo la 680 inferiore alla 7970,a parita' di frequenza e a quel prezzo almeno,poi se la tagliano di prezzo ok
No guarda che ti sbagli :)
Il turbo boost continua a lavorare prendendo come base la frequenza della scheda, quindi se overcocki il boost prenderà come base la nuova frequenza e partirà da li!
Nei confronti con la 680 e la 7970 entrambe al massimo overclock la 680 ha mantenuto il leggero vantaggio, esempio:
http://www.hardwareheaven.com/reviews/1455/pg20/asus-geforce-gtx-680-oc-vs-r7970-oc-vs-gtx-580-oc-performance-review-maximum-overclock.html
Nei confronti con la 680 e la 7970 entrambe al massimo overclock la 680 ha mantenuto il leggero vantaggio, esempio:
http://www.hardwareheaven.com/reviews/1455/pg20/asus-geforce-gtx-680-oc-vs-r7970-oc-vs-gtx-580-oc-performance-review-maximum-overclock.htmlCerto che è un po' strano quanto risulta in quel sito: la Nvidia occata aumenta di 62w il consumo in "load", mentre la AMD aumenta di soli 2w.
Strano anche il diverso comportamento della dissipazione in OC.
No guarda che ti sbagli :)
Il turbo boost continua a lavorare prendendo come base la frequenza della scheda, quindi se overcocki il boost prenderà come base la nuova frequenza e partirà da li!
Nei confronti con la 680 e la 7970 entrambe al massimo overclock la 680 ha mantenuto il leggero vantaggio, esempio:
http://www.hardwareheaven.com/reviews/1455/pg20/asus-geforce-gtx-680-oc-vs-r7970-oc-vs-gtx-580-oc-performance-review-maximum-overclock.html
sinceramente il turboboost mi sembra un po una cavolatina.. arriva a dare al massimo 50 mhz in piu... io sono per gli oc manuali e sostanziosi!
LordShaitan
25-03-2012, 23:52
sinceramente il turboboost mi sembra un po una cavolatina.. arriva a dare al massimo 50 mhz in piu... io sono per gli oc manuali e sostanziosi!
No arriva a dare molto di più, se leggi bene le review vedrai che va ben oltre i 50 MHz dichiarati, è dinamico quindi a seconda dello sforzo richiesto dal gioco aumenta anche di molto, inoltre funziona anche su schede in OC manuale, è una cosa in più non sostituisce l'OC! :)
Certo che è un po' strano quanto risulta in quel sito: la Nvidia occata aumenta di 62w il consumo in "load", mentre la AMD aumenta di soli 2w.
Strano anche il diverso comportamento della dissipazione in OC.
Si strano che la amd aumenti di così poco in effetti, comunque quel sito lo seguo e finora sono stati affidabili :)
Certo che è un po' strano quanto risulta in quel sito: la Nvidia occata aumenta di 62w il consumo in "load", mentre la AMD aumenta di soli 2w.
Strano anche il diverso comportamento della dissipazione in OC.
La 680 in base alla frequenza da raggiungere si auto overvolta , ecco perchè aumenta anche il consumo.
sinceramente il turboboost mi sembra un po una cavolatina.. arriva a dare al massimo 50 mhz in piu... io sono per gli oc manuali e sostanziosi!
Sicuro di aver quanto meno perso 5 minuti per leggerti bene di come funziona il boost ?
No arriva a dare molto di più, se leggi bene le review vedrai che va ben oltre i 50 MHz dichiarati, è dinamico quindi a seconda dello sforzo richiesto dal gioco aumenta anche di molto, inoltre funziona anche su schede in OC manuale, è una cosa in più non sostituisce l'OC! :)
Si strano che la amd aumenti di così poco in effetti, comunque quel sito lo seguo e finora sono stati affidabili :)
Se la frequenza da raggiungere è molto alta la 680 fa anche auto overvolt
Ale55andr0
26-03-2012, 10:59
conclusioni abbastanza chiare, scheda ottima a default (se così si può dire), ma un enthusiast che overclocca deve pensar bene che risparmiando qualcosa può ottenere una scheda altrettanto ottima.
Tanto meglio, piu' scelta e magari, si spera, piu' concorrenza sul prezzo. Comunque a mio avviso la conclusione è che in termini assoluti, considerando che quasi sicuramente l'utente tipico di queste vga overcloccherà, vanno simili, con vantaggio ora l'una ora per l'altra (ripeto, con entrambe overcloccate). Nvidia ha il plus physx dalla sua nei giochi che lo supportano e AMD la potenza in gpgpu (in attesa di gk110...). Il bivio è chiaro e fare un'aquisto sbagliato praticamente impossibile :)
In gaming puro io consiglerei la 680 :O
...da 4 gb però :asd:
LordShaitan
26-03-2012, 11:17
La 680 in base alla frequenza da raggiungere si auto overvolta , ecco perchè aumenta anche il consumo.
Sicuro di aver quanto meno perso 5 minuti per leggerti bene di come funziona il boost ?
Se la frequenza da raggiungere è molto alta la 680 fa anche auto overvolt
È vero! Lo dicono anche nel video di EVGA in cui spiegano come funziona l'overclock sulla 680, dicono che volendo si può aumentare manualmente il voltaggio ma non serve, anzi settare un valore fisso può peggiorare le performance, meglio lasciarlo in automatico e aumentare il Power Target.
LordShaitan
26-03-2012, 21:36
probabilmente sono d'accordo con te, nel senso che fino alla 2gb preferisco la 7970, se esce la 4gb MOLTO probabilmente prenderei la 680. Certo non pagandola 100 carte in più
Io attendo la Classified: 4GB, 8+8 pin e 14 fasi di alimentazione...slurp :read:
non so se sono gia' stati postati,ma mi sono fatto una passeggiata per il web e ho trovato un po' di roba per fare un riassunto;)
ebbene si la 680 overvolta in automatico sia con gpu-boost,sia se si overclocca manualmente
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/31.html
questo comportamento,gpu-boost piu' overvolt,attualmente non sembra disattivabile,spiegato il drastico aumento dei consumi se overcloccata
poi sotto gpu-boost ho trovato questo test:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/25/#abschnitt_gpuboost_wie_viel_turbo_kommt_an
:eek:la 680 in molti giochi,compreso Battlefield 3,gira tra 1084 e 1097 a default,grazie al ciufolo se riesce a stare davanti alla 7970
la media presa da otto recensioni e' del 10% se non meno:
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-680/launch-analyse-nvidia-geforce-gtx-680-seite-2
ma se si overclocca la 7970(che ricordiamo e' stata rilasciata con un clock veramente mite)senza overvolt e a una freq simile alla 680 allora recupera(la media)fino a superarla con un blando aumento dei consumi:D
controllate il test di techpowerup al primo link a fondo pagina;)
sta paracula di nvidia ha cercato di far passare una furbata per una feature:sofico:
ma alla fin fine si sta rilevando un bug da eliminare:banned:
speriamo presto a delle non reference da 4GB senza bug,cioe' gpu.boost e overvolt disattivabili,ma attualmente la 7970 e' tecnicamente ancora superiore,fermo restando che nulla puo' con il supporto e i giochi pro nvidia
LordShaitan
27-03-2012, 01:15
non so se sono gia' stati postati,ma mi sono fatto una passeggiata per il web e ho trovato un po' di roba per fare un riassunto;)
ebbene si la 680 overvolta in automatico sia con gpu-boost,sia se si overclocca manualmente
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/31.html
questo comportamento,gpu-boost piu' overvolt,attualmente non sembra disattivabile,spiegato il drastico aumento dei consumi se overcloccata
poi sotto gpu-boost ho trovato questo test:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/25/#abschnitt_gpuboost_wie_viel_turbo_kommt_an
:eek:la 680 in molti giochi,compreso Battlefield 3,gira tra 1084 e 1097 a default,grazie al ciufolo se riesce a stare davanti alla 7970
la media presa da otto recensioni e' del 10% se non meno:
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-680/launch-analyse-nvidia-geforce-gtx-680-seite-2
ma se si overclocca la 7970(che ricordiamo e' stata rilasciata con un clock veramente mite)senza overvolt e a una freq simile alla 680 allora recupera(la media)fino a superarla con un blando aumento dei consumi:D
controllate il test di techpowerup al primo link a fondo pagina;)
sta paracula di nvidia ha cercato di far passare una furbata per una feature:sofico:
ma alla fin fine si sta rilevando un bug da eliminare:banned:
speriamo presto a delle non reference da 4GB senza bug,cioe' gpu.boost e overvolt disattivabili,ma attualmente la 7970 e' tecnicamente ancora superiore,fermo restando che nulla puo' con il supporto e i giochi pro nvidia
Aspetta però, la 680 sale comunque benissimo e le prestazioni aumentano decisamente, guarda qua, hanno raggiunto i 1300 MHz:
http://www.guru3d.com/article/geforce-gtx-680-overclock-guide/
Inoltre non dimentichiamoci che ha due 6 pin, e l'overclock dipende dal limite massimo di consumi settato, il power target, impostabile con EVGA precision ad esempio (il voltaggio si regola di conseguenza), quindi quando usciranno le versioni a 8+8 pin e 14 fasi se ne vedranno delle belle :D
non so se sono gia' stati postati,ma mi sono fatto una passeggiata per il web e ho trovato un po' di roba per fare un riassunto;)
ebbene si la 680 overvolta in automatico sia con gpu-boost,sia se si overclocca manualmente
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/31.html
questo comportamento,gpu-boost piu' overvolt,attualmente non sembra disattivabile,spiegato il drastico aumento dei consumi se overcloccata
poi sotto gpu-boost ho trovato questo test:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/25/#abschnitt_gpuboost_wie_viel_turbo_kommt_an
:eek:la 680 in molti giochi,compreso Battlefield 3,gira tra 1084 e 1097 a default,grazie al ciufolo se riesce a stare davanti alla 7970
la media presa da otto recensioni e' del 10% se non meno:
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-680/launch-analyse-nvidia-geforce-gtx-680-seite-2
ma se si overclocca la 7970(che ricordiamo e' stata rilasciata con un clock veramente mite)senza overvolt e a una freq simile alla 680 allora recupera(la media)fino a superarla con un blando aumento dei consumi:D
controllate il test di techpowerup al primo link a fondo pagina;)
sta paracula di nvidia ha cercato di far passare una furbata per una feature:sofico:
ma alla fin fine si sta rilevando un bug da eliminare:banned:
speriamo presto a delle non reference da 4GB senza bug,cioe' gpu.boost e overvolt disattivabili,ma attualmente la 7970 e' tecnicamente ancora superiore,fermo restando che nulla puo' con il supporto e i giochi pro nvidia
Tecnicamente sulla carta superiore , ma che nella realtà in game va meno , grazie anche (come da te citato ) all'ottimo supporto software da parte di Nvidia .
Perciò tra un paio di settimane quando i prezzi saranno uguali (già adesso si trovano 680 a 450 € ) , l'acquisto per chi usa la vga solo per giocare è la 680 .
AceGranger
27-03-2012, 11:27
ma attualmente la 7970 e' tecnicamente ancora superiore,fermo restando che nulla puo' con il supporto e i giochi pro nvidia
OC lo fanno 4 gatti sparsi per il pianeta; nessuno ha puntato la pistola alla tempia ad AMD per farla uscire con quel clock.
se si parla "tecnicamente", la prima cosa che si va a guardare sono le prestazioni rapportate ai consumi e la dimenzione del chip, e fino a prova contraria, attualmente, la GTX è tecnicamente superiore, visto che va un 10% in piu, consumando meno e con un chip piu piccolo.
SinapsiTXT
27-03-2012, 13:36
OC lo fanno 4 gatti sparsi per il pianeta; nessuno ha puntato la pistola alla tempia ad AMD per farla uscire con quel clock.
se si parla "tecnicamente", la prima cosa che si va a guardare sono le prestazioni rapportate ai consumi e la dimenzione del chip, e fino a prova contraria, attualmente, la GTX è tecnicamente superiore, visto che va un 10% in piu, consumando meno e con un chip piu piccolo.
concordo, probabilmente se nella 7970 venissero castrate le funzioni gpgpu le prestazioni per dimensioni del chip/consumi sarebbero di nuovo al pari con la 680.
Secondo me tra scegliere la GTX680 o la HD7970 è tutta questione di prezzo e di necessità (gpgpu o chi vuole il 3d di nvidia), sono due schede video entrambe molto valide.
Hulk9103
27-03-2012, 14:40
Tecnicamente sulla carta superiore , ma che nella realtà in game va meno , grazie anche (come da te citato ) all'ottimo supporto software da parte di Nvidia .
Perciò tra un paio di settimane quando i prezzi saranno uguali (già adesso si trovano 680 a 450 € ) , l'acquisto per chi usa la vga solo per giocare è la 680 .
Ti sei letto le varie recensioni, cioè le hai anche quotate quindi mi auguro di si.
Chi si compra una 7970 o 680 sono sicuramente appassionati di gaming, quindi sapendo che reggono molto bene in oc, perchè non farlo?
AMD mantiene il consumo, nvidia aumento anche di 60W, vorrei sapere il vantaggio precisando che in alcuni casi amd và anche di più, lasciando perdere il discorso che amd con 3 7970 và un 15-20% in più di 4 680.
Io che gioco solo dovrei prendere una 680? Con tutti il rispetto di chi compra nvidia, ma nessuno si è accorto che questa casa sta prendendo tutti un pò in giro? cioè consumi contenuti poi, la si clocca ed esce la sopresina di 60w in più.
Io credo che i fanboy di entrambe le parti si prenderanno la loro vga e la stimeranno a morte, chi come me guarda i comportamenti della casa verso il cliente, per me nvidia può anche fallire e parlo da possessore nvidia da almeno 6 seri.
Per la mia ottica con amd risparmia, mi piace più di più al momento, non scrive Cazz**e come fà nvidia, quindi pollice in su per amd.
Poi oh se leggete le recensioni ed avete i prosciutti negli occhi è normale che direte il contrario.
OC lo fanno 4 gatti sparsi per il pianeta; nessuno ha puntato la pistola alla tempia ad AMD per farla uscire con quel clock.
se si parla "tecnicamente", la prima cosa che si va a guardare sono le prestazioni rapportate ai consumi e la dimenzione del chip, e fino a prova contraria, attualmente, la GTX è tecnicamente superiore, visto che va un 10% in piu, consumando meno e con un chip piu piccolo.
Ma se in gpgpu la 7970 consumando 30w in più gli è 10 volte superiore.
Quindi tu la scheda la guardi solo per il colore e per il nome che ha? cioè nulla conta che la 7970 in oc consuma uguale, la 680 in oc consuma 60w in più, e ora dico alla faccia dei consumi contenuti, no ma gg.
E' come se ti danno macchina che consuma 10 l/100km invece poi premendo l'acceleratore consuma 20 l/100km il discorso cambia.
se si parla "tecnicamente", la prima cosa che si va a guardare sono le prestazioni rapportate ai consumi e la dimenzione del chip, e fino a prova contraria, attualmente, la GTX è teoricamente superiore, visto che va in alcuni giochi circa un 10% in piu, consumando meno a default e con un chip piu piccolo. Senza considerare che 3x7970 vanno di un 15-20% in più di 4x680....
Come si dice? A facc ro cazz
OC lo fanno 4 gatti sparsi per il pianeta; nessuno ha puntato la pistola alla tempia ad AMD per farla uscire con quel clock.
se si parla "tecnicamente", la prima cosa che si va a guardare sono le prestazioni rapportate ai consumi e la dimenzione del chip, e fino a prova contraria, attualmente, la GTX è tecnicamente superiore, visto che va un 10% in piu, consumando meno e con un chip piu piccolo.
Si, la HD7970 ha un cip più grande ma non è castrata e nonostante ciò ha consumi equiparabili (in questa recensione addirittura 30w in meno).
Relativamente al discorso iniziale, cioè che chi compra spesso non occa e quindi contano le prestazioni a default, ricordo che esistono comunque i modelli custom che offrono VGA già occate, così nel caso di AMD le prestazioni si equiparerebbero a quelle di Nvidia, senza aumentare i consumi e con in più la possibilità di gpgpu.
P.S.
Sempre con riferimento al test in OC linkato, è da notare che già nei modelli reference, in OC (a differenza che sulle 680) ci sarebbe addirittura anche un calo abbastanza sensibile delle tmp...
l'acquisto per chi usa la vga solo per giocare è la 680 .
... certo... la 7970 adesso va bene solo per word e navigazione internet :O
... obiettività, questa sconosciuta... :rolleyes:
Credo si riferisse al GPGPU, dove la 7970 va abbastanza meglio in generale.
Prestazionalmente in quell'ambito la 680 si posiziona in media fra la 570 e la 580.
Ti sei letto le varie recensioni, cioè le hai anche quotate quindi mi auguro di si.
Chi si compra una 7970 o 680 sono sicuramente appassionati di gaming, quindi sapendo che reggono molto bene in oc, perchè non farlo?
AMD mantiene il consumo, nvidia aumento anche di 60W, vorrei sapere il vantaggio precisando che in alcuni casi amd và anche di più, lasciando perdere il discorso che amd con 3 7970 và un 15-20% in più di 4 680.
Io che gioco solo dovrei prendere una 680? Con tutti il rispetto di chi compra nvidia, ma nessuno si è accorto che questa casa sta prendendo tutti un pò in giro? cioè consumi contenuti poi, la si clocca ed esce la sopresina di 60w in più.
Io credo che i fanboy di entrambe le parti si prenderanno la loro vga e la stimeranno a morte, chi come me guarda i comportamenti della casa verso il cliente, per me nvidia può anche fallire e parlo da possessore nvidia da almeno 6 seri.
Per la mia ottica con amd risparmia, mi piace più di più al momento, non scrive Cazz**e come fà nvidia, quindi pollice in su per amd.
Poi oh se leggete le recensioni ed avete i prosciutti negli occhi è normale che direte il contrario.
Ma se in gpgpu la 7970 consumando 30w in più gli è 10 volte superiore.
Quindi tu la scheda la guardi solo per il colore e per il nome che ha? cioè nulla conta che la 7970 in oc consuma uguale, la 680 in oc consuma 60w in più, e ora dico alla faccia dei consumi contenuti, no ma gg.
E' come se ti danno macchina che consuma 10 l/100km invece poi premendo l'acceleratore consuma 20 l/100km il discorso cambia.
se si parla "tecnicamente", la prima cosa che si va a guardare sono le prestazioni rapportate ai consumi e la dimenzione del chip, e fino a prova contraria, attualmente, la GTX è teoricamente superiore, visto che va in alcuni giochi circa un 10% in piu, consumando meno a default e con un chip piu piccolo. Senza considerare che 3x7970 vanno di un 15-20% in più di 4x680....
Come si dice? A facc ro cazz
Forse non te le sei lette tu le recensioni , anzi forse hai letto solo quella di HWupgrade , perchè la 680 consuma meno della 7970 e va di più punto , quello che succede in oc è un discorso a parte e cmq poco paragonabile al momento ,dato che l'overboost di Nvidia oltre ad alzare le frequenze sulla gpu la overvolta in automatico , vedremo se renderanno possibile disabilitare tale feature e poter settare nuovamente tutto a manina , o se la tengono così .
Poi scusa ma dove avresti visto i 60 Watt in più della 680 sulla 7970 ? :rolleyes:
... certo... la 7970 adesso va bene solo per word e navigazione internet :O
... obiettività, questa sconosciuta... :rolleyes:
No ok , forse mi sono espresso male , intendevo dire che a parità di prezzo per uno che col pc gioca solamente e non ha preferenze di una o l'altra marca , conviene la 680 se invece ha bigono anche di gpgpu la scelta si inverte .
AceGranger
27-03-2012, 17:24
Ma se in gpgpu la 7970 consumando 30w in più gli è 10 volte superiore.
nvidia ha sempre tarpato parte del gpgpu sulle fascie consumer, perchè a differenza di AMD ha il monopolio del mercato professionale che è piu redditizio e molto piu incentrato sul gpgpu; che la 7970 sia piu conveniente in questo ambito contro questa versione di chip non indica che sia tecnicamente superiore, ma solo che nVidia è piu stronza.
Quindi tu la scheda la guardi solo per il colore e per il nome che ha? cioè nulla conta che la 7970 in oc consuma uguale, la 680 in oc consuma 60w in più, e ora dico alla faccia dei consumi contenuti, no ma gg.
io di una scheda guardo prezzo, prestazioni e consumi, e se poi si va a fare un discorso "tecnico" anche la dimensione del chip.
l'OC non è in garanzia, non è costante e significa far lavorare una VGA fuori specifica; sono 4 gatti che lo fanno, e se quei 4 riterranno la 7970 migliore prenderanno quella.
la scheda a default è costante, garantita ed è la frequenza che il produttore ritiene piu opportuna per la stabilita e durata della stessa e quello valuto.
non ho certo detto che è migliore a 360 gradi, ma essendo una scheda gaming, dalle recensioni emerge che tecnicamente, in questa fascia, è il chip migliore.
la GTX è teoricamente superiore, visto che va in alcuni giochi circa un 10% in piu, consumando meno a default e con un chip piu piccolo.
sopra hanno postato le medie delle piu importanti recensioni, e il 10% piu potente è quello che emerge, non credo che ci sia molto da disquisire su questo.
LordShaitan
27-03-2012, 17:32
Vabe dai, siamo seri, che 3x 7970 vadano meno di 4 680 non vuol dire nulla, è palesemente una mancata ottimizzazione del 4-Way sulle 680. Probabilmente al momento 3x 680 vanno più di 4, e non mi stupirei se anche 3x 7970 andassero più di 4.
Io poi con 4 vga AMD ho avuto solo problemi, (anche con 3 in realtà) infatti sono rimasto con 2.
Comunque dalle recensioni che ho visto in OC la 7970 recupera Sulla 680 ma rimane un pelo sotto, ma ho l'impressione che la classified si lascerà dietro tutte in OC
ironman72
27-03-2012, 17:56
Preso dalla curiosita' ho voluto vedere praticamente quanto incidono quei fantomatici 60w in piu' della 680gtx in un anno tenendo conto di 5 ore giornaliere ( in full)...
12 euro in piu' l'anno!!!
Farsi tante se...e mentali per 12 € l'anno in piu'dopo aver speso oltre 500€ per le schede..
l'OC non è in garanzia, non è costante e significa far lavorare una VGA fuori specifica; sono 4 gatti che lo fanno, e se quei 4 riterranno la 7970 migliore prenderanno quella.
Mi auto-quoto:
ricordo che esistono comunque i modelli custom che offrono VGA già occate, così nel caso di AMD le prestazioni si equiparerebbero a quelle di Nvidia, senza aumentare i consumi e con in più la possibilità di gpgpu.
OC non significa automaticamente che lo si deve fare da soli (anche se in questo forum molti lo fanno, il tuo discorso vale semmai in generale, ma allora mi sa che non guardano nemmeno i bench), ma esistono anche i modelli custom con VGA occate "di fabbrica" e garantite.
Obrigado
27-03-2012, 18:10
non so se sono gia' stati postati,ma mi sono fatto una passeggiata per il web e ho trovato un po' di roba per fare un riassunto;)
ebbene si la 680 overvolta in automatico sia con gpu-boost,sia se si overclocca manualmente
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/31.html
questo comportamento,gpu-boost piu' overvolt,attualmente non sembra disattivabile,spiegato il drastico aumento dei consumi se overcloccata
poi sotto gpu-boost ho trovato questo test:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/25/#abschnitt_gpuboost_wie_viel_turbo_kommt_an
:eek:la 680 in molti giochi,compreso Battlefield 3,gira tra 1084 e 1097 a default,grazie al ciufolo se riesce a stare davanti alla 7970
la media presa da otto recensioni e' del 10% se non meno:
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-680/launch-analyse-nvidia-geforce-gtx-680-seite-2
ma se si overclocca la 7970(che ricordiamo e' stata rilasciata con un clock veramente mite)senza overvolt e a una freq simile alla 680 allora recupera(la media)fino a superarla con un blando aumento dei consumi:D
controllate il test di techpowerup al primo link a fondo pagina;)
sta paracula di nvidia ha cercato di far passare una furbata per una feature:sofico:
ma alla fin fine si sta rilevando un bug da eliminare:banned:
speriamo presto a delle non reference da 4GB senza bug,cioe' gpu.boost e overvolt disattivabili,ma attualmente la 7970 e' tecnicamente ancora superiore,fermo restando che nulla puo' con il supporto e i giochi pro nvidia
brucia e!
Hulk9103
27-03-2012, 20:12
Forse non te le sei lette tu le recensioni , anzi forse hai letto solo quella di HWupgrade , perchè la 680 consuma meno della 7970 e va di più punto , quello che succede in oc è un discorso a parte e cmq poco paragonabile al momento ,dato che l'overboost di Nvidia oltre ad alzare le frequenze sulla gpu la overvolta in automatico , vedremo se renderanno possibile disabilitare tale feature e poter settare nuovamente tutto a manina , o se la tengono così .
Poi scusa ma dove avresti visto i 60 Watt in più della 680 sulla 7970 ? :rolleyes:
Infatti nessuno ha fatto il paragone con la 7970, si è solo visto e detto che la 680 in oc consuma 60w in più (riferiti a se stessa) mentre la 7970 in oc mantiene lo stesso consumo.
No ok , forse mi sono espresso male , intendevo dire che a parità di prezzo per uno che col pc gioca solamente e non ha preferenze di una o l'altra marca , conviene la 680 se invece ha bigono anche di gpgpu la scelta si inverte .
Ti sei espresso male di nuovo, obiettività?
1) Non saranno mai a parità di prezzo.
2) Anche se lo fossero, non è detto che bisogna prendere per forza la 680 solo perchè sei un giocatore e vuoi il max, il alcune recensione la 680 è sotto la 7970. Sono l'unico esempio neutrale che a parità di prezzo, prenderebbe una 7970? bhe magari molta gente (da notare che NESSUNO ha quotato quella parte scritta da me prima, ma tutti hanno quotato la parte prestazione, vi brucia?) non guarda il rispetto verso il cliente, e la fedeltà che la suddetta casa ripone verso i propri fan.
Voglio fare un punto anomalo, vi prego non mi sospendete o bannato e non accanitevi troppo:
3) Cioè nvidia ha il monopolio assoluto lato professional, e circa il 70% lato consumer, ora mi domando, apparte il davvero inesistente rispetto che si è visto verso i clienti neutrali (come me) e i fanboy nvidia, ma con tutti i soldi che fanno sia lato consumer che professional è possibile che siano riusciti a fare solo una scheda del genere?
Cioè AMD con 1/5 (se va bene) del fatturato di nvidia gli sta al pari, la trovo una cosa davvero tristissima.
Unlock3d
27-03-2012, 20:16
brucia e!
piu che brucia.... obiettività meno 200..... :rolleyes:
LordShaitan
27-03-2012, 20:23
Infatti nessuno ha fatto il paragone con la 7970, si è solo visto e detto che la 680 in oc consuma 60w in più (riferiti a se stessa) mentre la 7970 in oc mantiene lo stesso consumo.
Ti sei espresso male di nuovo, obiettività?
1) Non saranno mai a parità di prezzo.
2) Anche se lo fossero, non è detto che bisogna prendere per forza la 680 solo perchè sei un giocatore e vuoi il max, il alcune recensione la 680 è sotto la 7970. Sono l'unico esempio neutrale che a parità di prezzo, prenderebbe una 7970? bhe magari molta gente (da notare che NESSUNO ha quotato quella parte scritta da me prima, ma tutti hanno quotato la parte prestazione, vi brucia?) non guarda il rispetto verso il cliente, e la fedeltà che la suddetta casa ripone verso i propri fan.
Voglio fare un punto anomalo, vi prego non mi sospendete o bannato e non accanitevi troppo:
3) Cioè nvidia ha il monopolio assoluto lato professional, e circa il 70% lato consumer, ora mi domando, apparte il davvero inesistente rispetto che si è visto verso i clienti neutrali (come me) e i fanboy nvidia, ma con tutti i soldi che fanno sia lato consumer che professional è possibile che siano riusciti a fare solo una scheda del genere?
Cioè AMD con 1/5 (se va bene) del fatturato di nvidia gli sta al pari, la trovo una cosa davvero tristissima.
Scusa, dici di essere neutrale ma è evidente che hai il dente avvelenato con Nvidia.
Rispetto per i clienti? Fedeltà verso i fan? (fan poi...io mi ritengo cliente, non fan).
Io ho avuto molti più problemi con Ati: ho preso due 6990 (1200€) per scoprire che c'erano dei problemi con la maggior parte dei titoli in DX11 e andava solo una scheda su due. Inoltre anche AMD fa rebrand selvaggi e prese in giro del genere, entrambe puntano al guadagno.
Per quanto riguarda l'ultima parte, Nvidia ha usato il suo chip di fascia media per la 680, non mi sembra per niente triste che vada leggermente di più del chip di fascia alta AMD (e parlo di chip, non vga che sono entrambe top gamma).
ironman72
27-03-2012, 20:28
Scusate ma si e' obiettivi SOLO se si ha una Amd/Ati?
Ad oggi la proposta nvidia va di piu' di amd.
Per chi vuole cambiare vga ha 2 scelte entrambe ottime , con features differenti che possono influenzare le scelte.
Ma schierarsi dicendo che la scelta migliore e' sempre Amd beh e' veramente da poco obiettivi!
imho.
AceGranger
27-03-2012, 21:07
OC non significa automaticamente che lo si deve fare da soli (anche se in questo forum molti lo fanno, il tuo discorso vale semmai in generale, ma allora mi sa che non guardano nemmeno i bench), ma esistono anche i modelli custom con VGA occate "di fabbrica" e garantite.
Le VGA occate di fabbrica molto spesso hanno chip leggermente selezionati; quelle a default hanno range molto piu ampi, quindi hanno frequenze inferiori;
ora comunque usciranno piano piano i modelli occati di fabbrica e vedremo come si comporteranno.
AceGranger
27-03-2012, 21:27
3) Cioè nvidia ha il monopolio assoluto lato professional, e circa il 70% lato consumer, ora mi domando
ha il 90% del professionale e il 60% delle discrete
come mercato globale AMD ha una % superiore, visto che vende anche llano e quelel integrate nei chipset
ma con tutti i soldi che fanno sia lato consumer che professional è possibile che siano riusciti a fare solo una scheda del genere?
sono una societa, il loro scopo è la massima resa minima spesa
Cioè AMD con 1/5 (se va bene) del fatturato di nvidia gli sta al pari, la trovo una cosa davvero tristissima.
AMD fattura il doppio di nVidia...
a spanne, i valori a trimestre sono questi
AMD fattura circa 1,7-1,8 miliardi di dollari di cui circa 400 milioni sono date dalle VGA discrete
nVidia fattura circa 900 milioni di dollari di cui circa 600-700 milioni dovrebbero essere date dalle VGA
leoneazzurro
27-03-2012, 21:47
A tutti: per favore non trascendete ed evitate di far degeneare la discussione (non ha nessuna attinenza con il post riportato qui sopra)
Unlock3d
27-03-2012, 21:58
Scusate ma si e' obiettivi SOLO se si ha una Amd/Ati?
Ad oggi la proposta nvidia va di piu' di amd.
Per chi vuole cambiare vga ha 2 scelte entrambe ottime , con features differenti che possono influenzare le scelte.
Ma schierarsi dicendo che la scelta migliore e' sempre Amd beh e' veramente da poco obiettivi!
imho.
mi pare che un post del genere, cosi obiettivo in tutta la discussione non l'abbia mai letto!
BRAVO. se fossero tutti cosi obiettivi sarebbe veramente molto bello leggervi. Ciao.
Hulk9103
27-03-2012, 22:29
Scusa, dici di essere neutrale ma è evidente che hai il dente avvelenato con Nvidia.
Rispetto per i clienti? Fedeltà verso i fan? (fan poi...io mi ritengo cliente, non fan).
Io ho avuto molti più problemi con Ati: ho preso due 6990 (1200€) per scoprire che c'erano dei problemi con la maggior parte dei titoli in DX11 e andava solo una scheda su due. Inoltre anche AMD fa rebrand selvaggi e prese in giro del genere, entrambe puntano al guadagno.
Per quanto riguarda l'ultima parte, Nvidia ha usato il suo chip di fascia media per la 680, non mi sembra per niente triste che vada leggermente di più del chip di fascia alta AMD (e parlo di chip, non vga che sono entrambe top gamma).
Ma no, nessun dente avvelenato, ho detto di essere un cliente; solo che quando vede che il gk104 è chip medio e và come un alto nvidia fà girar un pò le balls, mi spiego meglio:
Nel mercato nvidia è uscita con iul gk104 a 500 euro chiamandolo 680 quindi fascia alta a TUTTI GLI EFFETTI, mi domando perchè la gente che crede ancora in babbo natale non lo ammette, solo questo che mi fà rabbia e nvidia marciandosi continua a far uscire notizie relative al gk110, cose assurde.
Questa del gk104, definito da molti fascia media a 500 euro è una sana e buona presa per il cul*, almeno amd l'ha detto, 7970 fascia alta STOP, la vuoi? sono 500 verdoni.
Qui non si parla di prestazioni, che poi tutta questa superiorità tecnica non è che sia evidentissima (almeno non come quella che c'era tra 580 e 6970).
Qua chiudo dicendo che dopo 5 o 6 generazioni di nvidia, passando ad ati è tutta n'altra cosa.
E anche se ci fosse stata l'intenzione di prendere una nvidia, bhe leggendo un pò in qua e un pò in là mi ha fatto passare la voglia, tantè che anche se a parità di costo la nvidia andasse il 50% (ipotesi assurda, fatta appunto per ingigantire il mio scontento) superiore io prendere amd, perchè ok il portafoglio, ma i miei soldi a chi mi prende per i fondelli non glieli dò.
Hulk9103
27-03-2012, 22:31
AMD fattura circa 1,7-1,8 miliardi di dollari di cui circa 400 milioni sono date dalle VGA discrete
nVidia fattura circa 900 milioni di dollari di cui circa 600-700 milioni dovrebbero essere date dalle VGA
Si ok quindi in ogni caso nvidia ha cmq 200-300 mln in più da investire, scusa se sono pochi eh...
Cmq nei tuoi conti in generali qualcosa non mi torna proprio per nulla. bha
Cmq nei tuoi conti in generali qualcosa non mi torna proprio per nulla. bha
Cos'e' che non torna? I numeri sono corretti (per trimestre): AMD ha (stando a google) 11mila dipendenti e fa ~7 miliardi l'anno, nvidia ha 7mila dipendenti e fa ~4 miliardi l'anno. Non sapendo come sono ripartiti all'interno delle aziende, non e' possibile fare confronti (in AMD, quanti lavorano alle GPU e quanti alle CPU? in nvidia, quanti lavorano alle GPU, quanti a Tegra e quanti a Denver?)
LordShaitan
27-03-2012, 22:49
Ma no, nessun dente avvelenato, ho detto di essere un cliente; solo che quando vede che il gk104 è chip medio e và come un alto nvidia fà girar un pò le balls, mi spiego meglio:
Nel mercato nvidia è uscita con iul gk104 a 500 euro chiamandolo 680 quindi fascia alta a TUTTI GLI EFFETTI, mi domando perchè la gente che crede ancora in babbo natale non lo ammette, solo questo che mi fà rabbia e nvidia marciandosi continua a far uscire notizie relative al gk110, cose assurde.
Questa del gk104, definito da molti fascia media a 500 euro è una sana e buona presa per il cul*, almeno amd l'ha detto, 7970 fascia alta STOP, la vuoi? sono 500 verdoni.
Qui non si parla di prestazioni, che poi tutta questa superiorità tecnica non è che sia evidentissima (almeno non come quella che c'era tra 580 e 6970).
Qua chiudo dicendo che dopo 5 o 6 generazioni di nvidia, passando ad ati è tutta n'altra cosa.
E anche se ci fosse stata l'intenzione di prendere una nvidia, bhe leggendo un pò in qua e un pò in là mi ha fatto passare la voglia, tantè che anche se a parità di costo la nvidia andasse il 50% (ipotesi assurda, fatta appunto per ingigantire il mio scontento) superiore io prendere amd, perchè ok il portafoglio, ma i miei soldi a chi mi prende per i fondelli non glieli dò.
?? Dici di essere imparziale e poi dici che prenderesti AMD indipendentemente dalle prestazioni, non mi sembra un discorso coerente :read:
Comunque devo dirti che stai facendo una questione di principio assurda.
A te cosa importa se il chip dentro la 680 e di fascia media, alta, bassa o microscopica? :rolleyes:
L'importante sono le prestazioni finali e il costo.
Nvidia ha messo a 50$ in MENO di amd (prezzi ufficiali al lancio) una scheda che va in media leggermente di più, con bassi consumi e silenziosa.
Cosa dovevano fare per non farti sentire preso per i fondelli? Rilasciare con 2 mesi di ritardo una scheda con GK100 che va il 30% in più della 7970, guadagnandoci di meno (a loro costa di più produrla), aumentando il ritardo rispetto ad amd e dovendo spendere altri soldi in ricerca e sviluppo per la prossima generazione?
Hanno aspettato la mossa di amd e visto che con GK104 riuscivano a tenere botta hanno usato quello (che era già pronto), così hanno già pronta anche la prossima generazione senza spendere altri soldi.
Amd semplicemente non poteva fare questo ragionamento, ma essendo la prima ad uscire ne ha approfittato alzando i prezzi, come vedi nessuno è santo.
Ti ricordo anche le slide sulle fantastiche prestazioni rilasciate per mesi e mesi da AMD su Bulldozer, con utenti che non compravano Sandy Bridge in attesa della super cpu di amd, slide che si sono rivelate illusorie.
Concludendo: entrambe le aziende vogliono i nostri soldi e ci prenderebbero (o prendono) per i fondelli per averli, prendiamo il prodotto che ci piace di più senza questioni morali inutili ;)
Tornando IT:
Qualcuno ha idea di quanto costerà la EVGA Classified Hydro Copper? 750€ è realistica come cifra?
AceGranger
27-03-2012, 22:56
Si ok quindi in ogni caso nvidia ha cmq 200-300 mln in più da investire, scusa se sono pochi eh...
non è che se investi il doppio dei soldi, hai un chip che va il doppio... Intel investe 10 cvolte quello che investe AMD, eppure non ha CPU che vanno 10 volte di piu.
fatturera pure di piu, pero AMD fino ad ora ha investito praticamente solo nel gaming, nVidia ha investito sia nel gaming molto sia nel professionale, e molto anche, e i risultati si sono visti.
Cmq nei tuoi conti in generali qualcosa non mi torna proprio per nulla. bha
bho non saprei, cosa non ti torna? i dati sono piu o meno una media dei valori presi dalle news sui fatturati trimestrali ufficiali, dove spesso vengono anche dichiarati i fatturati delle singole divisioni.
Hulk9103
27-03-2012, 22:56
Cos'e' che non torna? I numeri sono corretti (per trimestre): AMD ha (stando a google) 11mila dipendenti e fa ~7 miliardi l'anno, nvidia ha 7mila dipendenti e fa ~4 miliardi l'anno. Non sapendo come sono ripartiti all'interno delle aziende, non e' possibile fare confronti (in AMD, quanti lavorano alle GPU e quanti alle CPU? in nvidia, quanti lavorano alle GPU, quanti a Tegra e quanti a Denver?)
Si ma non puoi fare l'esempio di gpu e cpu AMD con tegra e gpu nvidia :fagiano:
Cioè lo studio per una gpu e una cpu al momento sono diversi, mentre cmq sia in casa nvidia resta sempre gpu e quindi deduco e credo da come mi par di leggere e capire che cmq sia lo studio dietro è più o meno quello salvo qualche fattore.
Quindi credo sia lecito dire: i conti non tornano, in quanto AMD fattura sia lato cpu che gpu mentre nvidia no.
E in ogni caso nvidia ha cmq più fondi da investire e sviluppare, anche secondo i vostri conti.
Hulk9103
27-03-2012, 22:58
non è che se investi il doppio dei soldi, hai un chip che va il doppio... Intel investe 10 cvolte quello che investe AMD, eppure non ha CPU che vanno 10 volte di piu.
fatturera pure di piu, pero AMD fino ad ora ha investito praticamente solo nel gaming, nVidia ha investito molto di piu nel professionale e i risultati si sono visti.
Vuoi mettere 10 ingegneri che studiano e sviluppano contro 50?
Qualcosa non mi torna neanche in questo. bha
AceGranger
27-03-2012, 23:10
Vuoi mettere 10 ingegneri che studiano e sviluppano contro 50?
Qualcosa non mi torna neanche in questo. bha
si ma visto che lavorano tutti sullo stesso processo produttivo... non è che perchè sono in 50 possono fare miracoli; anno appunto tirato fuori un chip un po piu piccolo e un po piu performante.
E in ogni caso nvidia ha cmq più fondi da investire e sviluppare, anche secondo i vostri conti.
basta che guardi il lato professionale per vedere dove nVidia ha investito i soldi "in piu" di AMD....
nVidia lato professionale offre prodotti, driver, supporto, SDK e un ecosistema che AMD si sogna. AMD, e prima ATI, praticamente hanno investito sempre e solo nel gaming
Zappa1981
28-03-2012, 00:30
scusate ho letto la rece e io possessore di ati la trovo un ottima scheda, consumi umani e prestazioni ottime, ho notato chiaramente come tutti che ati gli sta sopra quindi opterei per ati ma avendone la possibilità avrei una 580 nel case e non una ati ma solo per aggiornamento la 4800 va ancora alla grande
nevets89
28-03-2012, 00:54
scusate però...amd:intel=ati:nvidia....non si puo' paragonare amd e nvidia!!!
Hulk9103
28-03-2012, 13:29
scusate però...amd:intel=ati:nvidia....non si puo' paragonare amd e nvidia!!!
No ma vabbè tanto nessuno lo capisce, la gente crede ancora che nvidia ha il 70% del mercato solo perchè lavora bene; guarda caso anche Intel ha la stessa percentuale, chissà come mai, forse perchè sono alleate? forse perchè se vedi un cpu intel al 95% ha una gpu nvidia? và a vedere nei supermercato i pc fissi o i notebook.
Ci lavoro (anche da poco) ma vedere un pc con processore amd e gpu nvidia o cpu intel e gpu amd è davvero raro, poi oh se volete trovare una scusante per nvidia fatelo pure.
Per l'utente sopra, vuoi mettere 50 cervelli contro 10? se entrambi stanno allo stesso piano significa due cose: o che i 40 in più sono un pò ritardati oppure che qualcosa evidentemente non funziona proprio nel sistema.
Vabbè mi da qui in poi mi appresto solo a leggere.
LordShaitan
28-03-2012, 14:46
No ma vabbè tanto nessuno lo capisce, la gente crede ancora che nvidia ha il 70% del mercato solo perchè lavora bene; guarda caso anche Intel ha la stessa percentuale, chissà come mai, forse perchè sono alleate? forse perchè se vedi un cpu intel al 95% ha una gpu nvidia? và a vedere nei supermercato i pc fissi o i notebook.
Ci lavoro (anche da poco) ma vedere un pc con processore amd e gpu nvidia o cpu intel e gpu amd è davvero raro, poi oh se volete trovare una scusante per nvidia fatelo pure.
Per l'utente sopra, vuoi mettere 50 cervelli contro 10? se entrambi stanno allo stesso piano significa due cose: o che i 40 in più sono un pò ritardati oppure che qualcosa evidentemente non funziona proprio nel sistema.
Vabbè mi da qui in poi mi appresto solo a leggere.
Inizio a sentire puzza di troll ;-)
Tra l'altro TUTTI i Mac hanno CPU Intel e gpu Amd, lol!
Comunque nessuno sa niente su una possibile data di uscita e prezzo della Classified Hydro Copper?
powershark
28-03-2012, 18:28
ragazzi lol :) cmq bellissima scheda, una grandissima risposta di nVida, nulla da dire...aspettiamo le GK110
GK104 ha le sue buone frecce da scoccare e lo ha dimostrato nelle prove. Curiosamente il chip AMD sembra più completo e complesso, visto che la bontà dell'architettura si rivela proprio con il crescere delle risoluzioni.
Io personalmente non vedo l'ora di dare uno sguardo a gk110, che stando alla roadmap Nvidia, dovrebbe uscire entro pochi mesi. Inserire 2 core in un unico chip potrebbe rivelarsi una soluzione molto competitiva se paragonata alla produzione di schede a doppia gpu attualmente sul mercato. Se riuscissero a proporla a poco più di 600 dollari, credo che sarebbero in molti a farci un pensierino.
unfaced12
29-03-2012, 11:52
Inizio a sentire puzza di troll ;-)
Tra l'altro TUTTI i Mac hanno CPU Intel e gpu Amd, lol!
Comunque nessuno sa niente su una possibile data di uscita e prezzo della Classified Hydro Copper?
Mah IMHO fai prima a prendere una reference e prenderti il WB che più ti accomoda. Spendi anche di meno e credo farai prima. A meno che tu non voglia cercare OC particolarmente spinti per bench session.
Ma no, nessun dente avvelenato, ho detto di essere un cliente; solo che quando vede che il gk104 è chip medio e và come un alto nvidia fà girar un pò le balls, mi spiego meglio:
Nel mercato nvidia è uscita con iul gk104 a 500 euro chiamandolo 680 quindi fascia alta a TUTTI GLI EFFETTI, mi domando perchè la gente che crede ancora in babbo natale non lo ammette, solo questo che mi fà rabbia e nvidia marciandosi continua a far uscire notizie relative al gk110, cose assurde.
Questa del gk104, definito da molti fascia media a 500 euro è una sana e buona presa per il cul*, almeno amd l'ha detto, 7970 fascia alta STOP, la vuoi? sono 500 verdoni.
Qui non si parla di prestazioni, che poi tutta questa superiorità tecnica non è che sia evidentissima (almeno non come quella che c'era tra 580 e 6970).
Qua chiudo dicendo che dopo 5 o 6 generazioni di nvidia, passando ad ati è tutta n'altra cosa.
E anche se ci fosse stata l'intenzione di prendere una nvidia, bhe leggendo un pò in qua e un pò in là mi ha fatto passare la voglia, tantè che anche se a parità di costo la nvidia andasse il 50% (ipotesi assurda, fatta appunto per ingigantire il mio scontento) superiore io prendere amd, perchè ok il portafoglio, ma i miei soldi a chi mi prende per i fondelli non glieli dò.
Bah io sinceramente se a parità di prezzo una delle vga dovesse andare il 50% in più dell'altra , non ci penso nemmeno mezzo secondo a prendermi quella più prestante , mentre per una differenza minima sicuramente andrei di preferenza . Mentre la tua conclusione mi sa un pò di fanboy :rolleyes:
LordShaitan
29-03-2012, 13:38
Mah IMHO fai prima a prendere una reference e prenderti il WB che più ti accomoda. Spendi anche di meno e credo farai prima. A meno che tu non voglia cercare OC particolarmente spinti per bench session.
Indubbiamente, però dovrei comunque prendere una reference con 4GB (se si può chiamare reference) a quel punto tanto varrebbe prendere una Classified che ha 8+8 pin e 14 fasi, e non posso fare danni non coperti da garanzia montando il waterblock :D
Ovviamente se non costa più di 150 in più della 4GB + wb :)
Hulk9103
29-03-2012, 14:32
Bah io sinceramente se a parità di prezzo una delle vga dovesse andare il 50% in più dell'altra , non ci penso nemmeno mezzo secondo a prendermi quella più prestante , mentre per una differenza minima sicuramente andrei di preferenza . Mentre la tua conclusione mi sa un pò di fanboy :rolleyes:
Si parla di principi, magari tu preferisci essere preso per il c**o, se tu vuoi finanziarli buon per te, io non sono fanboy perchè ripeto è 6 generazione che ho nvidia e solo adex ho preso una amd, quindi lascia stare.
Ripeto se tu vuoi farti prendere per i fondelli buon per te, io non ci stò. Quindi preferisco andare di meno, ma investire i soldi dove ho fiducia e rispetto, fiducia e rispetto non si comprano con i soldi, si devono avere a PRESCINDERE ma ormai in Italia queste cose sono evaporate da un bel pezzo.
UN OT con un pò di flame.
Dopo la patch di bf3, molti utenti nvidia hanno riscontrato problemi, alla faccia degli ottimi driver e supporto nvidia.
Questa è la classica dimostrazioni che tutti coloro che dicono che la nvidia è avanti con i driver è rimasto indietro 5 o 6 anni or sono.
Ciao a tutti :D
LordShaitan
29-03-2012, 15:05
Si parla di principi, magari tu preferisci essere preso per il c**o, se tu vuoi finanziarli buon per te, io non sono fanboy perchè ripeto è 6 generazione che ho nvidia e solo adex ho preso una amd, quindi lascia stare.
Ripeto se tu vuoi farti prendere per i fondelli buon per te, io non ci stò. Quindi preferisco andare di meno, ma investire i soldi dove ho fiducia e rispetto, fiducia e rispetto non si comprano con i soldi, si devono avere a PRESCINDERE ma ormai in Italia queste cose sono evaporate da un bel pezzo.
UN OT con un pò di flame.
Dopo la patch di bf3, molti utenti nvidia hanno riscontrato problemi, alla faccia degli ottimi driver e supporto nvidia.
Questa è la classica dimostrazioni che tutti coloro che dicono che la nvidia è avanti con i driver è rimasto indietro 5 o 6 anni or sono.
Ciao a tutti :D
Basta flame!!
Oltretutto io ho AMD (6990), ho avuto Nvidia e posso dirti che tutto ciò che hai detto è sbagliato :D Ho anche già abbondantemente spiegato perchè, ma hai accuratamente evitato di rispondere ai miei vecchi post, ormai è evidente che vuoi solo flammare e non fare una discussione costruttiva, quindi eviterò di risponderti e invito gli altri utenti a fare altrettanto ;)
Si parla di principi, magari tu preferisci essere preso per il c**o, se tu vuoi finanziarli buon per te, io non sono fanboy perchè ripeto è 6 generazione che ho nvidia e solo adex ho preso una amd, quindi lascia stare.
Ripeto se tu vuoi farti prendere per i fondelli buon per te, io non ci stò. Quindi preferisco andare di meno, ma investire i soldi dove ho fiducia e rispetto, fiducia e rispetto non si comprano con i soldi, si devono avere a PRESCINDERE ma ormai in Italia queste cose sono evaporate da un bel pezzo.
UN OT con un pò di flame.
Dopo la patch di bf3, molti utenti nvidia hanno riscontrato problemi, alla faccia degli ottimi driver e supporto nvidia.
Questa è la classica dimostrazioni che tutti coloro che dicono che la nvidia è avanti con i driver è rimasto indietro 5 o 6 anni or sono.
Ciao a tutti :D
Ma sai cosa me ne frega a me se mi spacciano un cip medio per facia alta , io ho bisogno di una vga , guardo cosa offrono le due rivali in quel determinato periodo e scelgo quella che più mi conviene in base al rapporto prezzo/prestazioni , tutto il resto sono baggianate .
Tralascio la parte finale del tuo post perchè è un chiaro incentivo al flame , sei pregato di smorzarla con questo tuo tipo di atteggiamento.
Hulk9103
29-03-2012, 21:05
Basta flame!!
Oltretutto io ho AMD (6990), ho avuto Nvidia e posso dirti che tutto ciò che hai detto è sbagliato :D Ho anche già abbondantemente spiegato perchè, ma hai accuratamente evitato di rispondere ai miei vecchi post, ormai è evidente che vuoi solo flammare e non fare una discussione costruttiva, quindi eviterò di risponderti e invito gli altri utenti a fare altrettanto ;)
Lo espressamente scritto che era un flame, nato e morto lì.
Il problema è che io non sono qui per darti ragione se non la penso come te, ma per dire la mia purchè come dici tu sia costruttivo, ho espresso le mie idee, le ho motivate e ho scritto alcuni fatti, poi se tu vuoi a tutti i costi che io ti dia ragione ok te la do e buona lì.
Ora ti evidenzio una frase nel quote, è sbagliato cosa? motiva decentemente, perchè arrivare a dire è sbagliato è facile (anche nei post precedenti le tue motivazioni sono un pò illusorie e fantasiose, alcune).
Per concludere non è che m'interessa molto se mi rispondi o meno anzi questa è la classica frase quando evidentemente non si sà cosa aggiungere.
Vabbè allora ti saluto
Hulk9103
29-03-2012, 21:08
Ma sai cosa me ne frega a me se mi spacciano un cip medio per facia alta , io ho bisogno di una vga , guardo cosa offrono le due rivali in quel determinato periodo e scelgo quella che più mi conviene in base al rapporto prezzo/prestazioni , tutto il resto sono baggianate .
Tralascio la parte finale del tuo post perchè è un chiaro incentivo al flame , sei pregato di smorzarla con questo tuo tipo di atteggiamento.
C'è pure scritto un pò di flame, anche se ribadisco non è flame ma la verità, alcuni utenti nvidia hanno avuto problemi a giocare a bf3 dopo la patch e qui chiudo, quindi è un flame REALE.
Tu guarderai solo quello io no, ti ricordo che siamo noi a dargli da mangiare, quindi se permetti con io con i miei criteri di scelti e tu con i tuoi posso decidere chi far mangiare; per me il rispetto e la fedeltà che VOGLIO e PRETENDO da una marca è essenziale.
E smettila con la storia del fanboy, ti ho detto che ho avuto per 6 generazione nvidia -_- è da 4 mesi che ho la 6950, prima solo nvidia.
LordShaitan
29-03-2012, 23:37
Lo espressamente scritto che era un flame, nato e morto lì.
Il problema è che io non sono qui per darti ragione se non la penso come te, ma per dire la mia purchè come dici tu sia costruttivo, ho espresso le mie idee, le ho motivate e ho scritto alcuni fatti, poi se tu vuoi a tutti i costi che io ti dia ragione ok te la do e buona lì.
Ora ti evidenzio una frase nel quote, è sbagliato cosa? motiva decentemente, perchè arrivare a dire è sbagliato è facile (anche nei post precedenti le tue motivazioni sono un pò illusorie e fantasiose, alcune).
Per concludere non è che m'interessa molto se mi rispondi o meno anzi questa è la classica frase quando evidentemente non si sà cosa aggiungere.
Vabbè allora ti saluto
Innanzitutto, non è che dici di fare un flame sei autorizzato a farlo, non lo devi fare e basta.
Hai ragione su una cosa comunque: non so più cosa aggiungere, ho già detto praticamente tutto ma tu non hai risposto alle mie obiezioni, hai solo continuato a ripetere che Nvidia non ti da rispetto.
Comunque visto che non ho detto niente di fantasioso o illusorio, ma solo fatti, mi autoquoto i precedenti post, in cui cerco di chiarire il fatto che entrambe le case fanno i loro interessi seguendo le leggi di mercato, e che i driver AMD in multi-gpu sono ben esenti da problemi, anzi ne hanno decisamente di più di quelli Nvidia (ci ho rimesso 200€ per rivendere la seconda 6990, quando avevo il 3-Way di 480 invece non ho avuto problemi). Ci tengo a sottolineare che anche AMD ha i suoi lati positivi, ad esempio la gestione del multimonitor è fatta decisamente meglio di Nvidia, inoltre di solito mette più RAM nelle sue schede, che alle alte risoluzioni aiuta: insomma sono entrambe valide ed entrambe puntano al profittova a gusti ma i tuoi discorsi proprio non ci stanno.
Ecco i miei quote:
Comunque devo dirti che stai facendo una questione di principio assurda.
A te cosa importa se il chip dentro la 680 e di fascia media, alta, bassa o microscopica? :rolleyes:
L'importante sono le prestazioni finali e il costo.
Nvidia ha messo a 50$ in MENO di amd (prezzi ufficiali al lancio) una scheda che va in media leggermente di più, con bassi consumi e silenziosa.
Cosa dovevano fare per non farti sentire preso per i fondelli? Rilasciare con 2 mesi di ritardo una scheda con GK100 che va il 30% in più della 7970, guadagnandoci di meno (a loro costa di più produrla), aumentando il ritardo rispetto ad amd e dovendo spendere altri soldi in ricerca e sviluppo per la prossima generazione?
Hanno aspettato la mossa di amd e visto che con GK104 riuscivano a tenere botta hanno usato quello (che era già pronto), così hanno già pronta anche la prossima generazione senza spendere altri soldi.
Amd semplicemente non poteva fare questo ragionamento, ma essendo la prima ad uscire ne ha approfittato alzando i prezzi, come vedi nessuno è santo.
Ti ricordo anche le slide sulle fantastiche prestazioni rilasciate per mesi e mesi da AMD su Bulldozer, con utenti che non compravano Sandy Bridge in attesa della super cpu di amd, slide che si sono rivelate illusorie.
Concludendo: entrambe le aziende vogliono i nostri soldi e ci prenderebbero (o prendono) per i fondelli per averli, prendiamo il prodotto che ci piace di più senza questioni morali inutili ;)
Io ho avuto molti più problemi con Ati: ho preso due 6990 (1200€) per scoprire che c'erano dei problemi con la maggior parte dei titoli in DX11 e andava solo una scheda su due. Inoltre anche AMD fa rebrand selvaggi e prese in giro del genere, entrambe puntano al guadagno.
Hulk9103
30-03-2012, 00:05
Innanzitutto, non è che dici di fare un flame sei autorizzato a farlo, non lo devi fare e basta.
Hai ragione su una cosa comunque: non so più cosa aggiungere, ho già detto praticamente tutto e tu non hai risposto alle mie obiezioni, hai solo continuato a ripetere che Nvidia non ti da rispetto.
Comunque visto che non ho detto niente di fantasioso o illusorio, ma solo fatti, mi autoquoto i precedenti post, in cui cerco di chiarire il fatto che entrambe le case fanno i loro interessi seguendo le leggi di mercato, e che i driver AMD in multi-gpu sono ben esenti da problemi, anzi ne hanno decisamente di più di quelli Nvidia (ci ho rimesso 200€ per rivendere la seconda 6990, quando avevo il 3-Way di 480 invece non ho avuto problemi):
Si ok con questo? Io mi sono sempre trovato male con nvidia, lato hardware non software, lascio perdere i dettagli.
Tu mi hai solo detto che anche Amd fà rebrand, ok dammi il rebrand e ne parliamo, non è che puoi dire il panettiere sotto casa fà rebrand, cioè non ha un fine questa tua affermazione.
Bhe il discorso del prezzo non è un cosa malvagia, perchè tutte le persone al mondo che hanno la possibilità di mettere un prodotto per primi sul mercato gonfiano il prezzi, direi che nvidia avrebbe fatto giustamente la stessa cosa.
Guarda che Nvidia poteva far cartello, mettere la 680 a 50 dollari in più e faceva la sua bella figura giusto?
Potrei chiederti mille perchè su tutto quello che mi hai detto, dato che hai lasciato ogni singola frase a metà senza troppe spiegazione e dando molte cose per scontato.
LordShaitan
30-03-2012, 00:58
Si ok con questo? Io mi sono sempre trovato male con nvidia, lato hardware non software, lascio perdere i dettagli.
Tu mi hai solo detto che anche Amd fà rebrand, ok dammi il rebrand e ne parliamo, non è che puoi dire il panettiere sotto casa fà rebrand, cioè non ha un fine questa tua affermazione.
Bhe il discorso del prezzo non è un cosa malvagia, perchè tutte le persone al mondo che hanno la possibilità di mettere un prodotto per primi sul mercato gonfiano il prezzi, direi che nvidia avrebbe fatto giustamente la stessa cosa.
Guarda che Nvidia poteva far cartello, mettere la 680 a 50 dollari in più e faceva la sua bella figura giusto?
Potrei chiederti mille perchè su tutto quello che mi hai detto, dato che hai lasciato ogni singola frase a metà senza troppe spiegazione e dando molte cose per scontato.
Cioè, tu puoi dire che ti sei sempre trovato male ma lasci perdere i dettagli e non spieghi nulla, mentre io devo dare i minimi particolari di ogni affermazione? LOL :D
Ok allora, sui rebrand (solo un esempio):
http://www.techpowerup.com/132459/AMD-Rebranding-HD-5770-and-HD-5750-to-HD-6700-Series.html
http://www.tomshw.it/cont/news/amd-radeon-hd-6770-e-6750-hd-5700-con-il-lifting/31068/1.html
Sul prezzo alto di AMD, certo che ha fatto bene, così come Nvidia ha fatto bene a fare la 680 con GK104, è proprio quello che stavo cercando di dirti: le aziende seguono i loro interessi, compresa AMD. Praticamente mi stai dando ragione.
Se hai altri mille perchè chiedi pure, a me sembra di essere stato chiaro, ma se hai dubbi vedrò di rispondere esaurientemente.
Però davvero, non mi sembra proprio che tu abbia argomentazioni valide, io la chiuderei qui.
Lo espressamente scritto che era un flame, nato e morto lì.
:doh: non so se "prendermela" di più per l'errore grammaticale o per il (non) senso della frase...
io la chiuderei qui.
... faccio mia quest'ultima parte... :O
Hulk9103
30-03-2012, 13:23
Cioè, tu puoi dire che ti sei sempre trovato male ma lasci perdere i dettagli e non spieghi nulla, mentre io devo dare i minimi particolari di ogni affermazione? LOL :D
Ok allora, sui rebrand (solo un esempio):
http://www.techpowerup.com/132459/AMD-Rebranding-HD-5770-and-HD-5750-to-HD-6700-Series.html
http://www.tomshw.it/cont/news/amd-radeon-hd-6770-e-6750-hd-5700-con-il-lifting/31068/1.html
Sul prezzo alto di AMD, certo che ha fatto bene, così come Nvidia ha fatto bene a fare la 680 con GK104, è proprio quello che stavo cercando di dirti: le aziende seguono i loro interessi, compresa AMD. Praticamente mi stai dando ragione.
Se hai altri mille perchè chiedi pure, a me sembra di essere stato chiaro, ma se hai dubbi vedrò di rispondere esaurientemente.
Però davvero, non mi sembra proprio che tu abbia argomentazioni valide, io la chiuderei qui.
Si infatti chiudiamola qua tanto trovo inutile continuare a risponderti, più di quanto tu lo trovi con me.
Mi dici cose opposte prendendo fatti totalmente diversi, i paragoni si fanno prendendo in causa gli stessi eventi, no una cosa di amd e un'altra diversa da nvidia.
E' 4 post che mi ripeti la stessa cosa, tu hai avuto problemi con amd (da quel che ho capito 2x6990) io con tutte le generazioni che ho avuto di nvidia (8600,7900,275....) sarà una caso? si certo sicuramente.
Solo che credo sia più facile avere problemi con un cfx del genere che con un gpu singola, ma saranno punti di vista.
:doh: non so se "prendermela" di più per l'errore grammaticale o per il (non) senso della frase...
... faccio mia quest'ultima parte... :O
Non voglio essere arrogante ma queste cose da professore le ho sempre odiate.
Cioè correggimi l'errore, trollami e finita lì no?
Madonna mia sempre una tale seriosità su questo forum, tutti irascibili, guai a dire che nvidia non mi piace.
Vabbè vi saluto.
OldSchoolShoter
30-03-2012, 13:42
Hulk leggendo i tuoi commenti invece anche io ho l'impressione che sei palesemente un fan ati, non ho capito se ti rode il fatto che nvidia sia superiore alla tua scheda o altro, io posso solo dire che non ho avuto alcun problema col supporto Nvidia e nemmeno con BF, quindi le tue affermazioni a riguardo lasciano il tempo che trovano.
ciao. :cool:
Madonna mia sempre una tale seriosità su questo forum, tutti irascibili, guai a dire che nvidia non mi piace.
(e pensare che ho amd da 4 generazioni! :asd: )
Vabbè vi saluto.
http://www.calshop.biz/smiles/hands49.gif
LordShaitan
30-03-2012, 14:10
(e pensare che ho amd da 4 generazioni! :asd: )
http://www.calshop.biz/smiles/hands49.gif
E pure io ho AMD da un anno :asd:
Quoto il ciao ed evito di rispondere :)
Hulk9103
30-03-2012, 14:27
Hulk leggendo i tuoi commenti invece anche io ho l'impressione che sei palesemente un fan ati, non ho capito se ti rode il fatto che nvidia sia superiore alla tua scheda o altro, io posso solo dire che non ho avuto alcun problema col supporto Nvidia e nemmeno con BF, quindi le tue affermazioni a riguardo lasciano il tempo che trovano.
ciao. :cool:
Voglio chiudere sto discorso definitivamente, una domanda sola in caps:
COSA NON HAI CAPITO DI: HO NVIDIA DA ALMENO 5-6 GENERAZIONI?
Ho preso una 6950 da qualche mese, controlla i miei post di vendita e vedrai che ho solo nvidia in vendita (per l'esattezza 2, delle 4-5 nvidia che ho in casa tutt'ora montate su vari pc, più altre rovinate).
Capoccia dura proprio eh?
Ribadisco anche il concetto che non ho mai detto che AMD è santa, ma ho solo detto che al momento a parità di politica, di prodotti sul mercato, una amd la preferisco ad nvidia (che poi tutta questa superiorità sulla 7970 è tutta da chiarire sotto 10000 punti).
Specifico che PREFERIRE, non significa essere FANBOY, perchè se nvidia avesse fatto una politica giusta (secondo me) e mettendo sul mercato una gpu valida (come lo era la 580 nei confronti della 6970) stai tranquillo che avrei sicuramente comprato nvidia.
Quindi evitiamo di mettermi parole in bocca che non ho mai detto, perchè qua è facile dire "se non sei fanboy nvidia, sei sicuramente fanboy amd" e viceversa.
Quoto i due saluti sopra sperando che in un futuro post possa uscire qualcosa di migliore :D
Alla prossima
Mi devo ricredere, la gtx 680 è davvero un'ottima VGA...
^Klaudio^
07-04-2012, 02:09
Potrei sapere che monitor usate per i test a 2560x1600? Grazie
mistero1982
20-05-2012, 09:03
Scusate se qualcuno mi illumina ma non capisco....... Nei test mi sembra che la 680, nei titoli che contano, rimane sempre dietro la 7970..... E poi battlefield dove é :confused:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.