PDA

View Full Version : Overclock importanti per le schede Sapphire della famiglia Radeon HD 7970


Redazione di Hardware Upg
02-01-2012, 08:30
Link alla notizia: http://www.hwupgrade.it/news/skvideo/overclock-importanti-per-le-schede-sapphire-della-famiglia-radeon-hd-7970_40051.html

La futura gamma di schede video Radeon HD 7970 di Sapphire lascia intendere quanto elevati siano i margini di overclock delle nuove GPU AMD a 28 nanometri

Click sul link per visualizzare la notizia.

corgiov
02-01-2012, 08:55
Mi pare che non sia indicata né la Bus Width (ipotizzo sempre 256 bit), né la Bandwidth. Ipotizzo che ci sarà il supporto pieno alla nuova interfaccia PCIe 3.0
Se non erro, però, saranno supportate le DirectX 11.1 per una piena compatibilità con Windows 8 (così com’è successo con Windows 7. Forse, però, ci sarà una differenza: avendo già indicato quali sono le possibili novità, NVIDIA questa volta potrebbe farsi trovare preparata.

dado1979
02-01-2012, 08:59
Il memory bus è a 384 bit.

iorfader
02-01-2012, 09:13
si vabbè però amd ha rotto le valvole con ste schede video, si sforzasse una buona volta a fare qualcosa di serio. ma vi pare normale che va solo 10 fps avanti alla 580? e nemmeno sempre...diciamo nel 60% dei giochi altrimenti o va quasi uguale o viene superata.... a me ste cose danno fastidio. uno dai 28nm si aspetta chissà che, e poi se ne escono con schede con clock disumani che si, vanno d+, ma che comparate all'immenso salto generazionale tecnologico non vanno per niente. questi devi tornare a mietere grano che fanno prima, cosa si aspettano quelli dell'amd? che nvidia tiri fuori una scheda video che faccia 10 fps + della 580?:mbe: questi se le cercano proprio le batoste

boboviz
02-01-2012, 09:19
si vabbè però amd ha rotto le valvole con ste schede video, si sforzasse una buona volta a fare qualcosa di serio. ma vi pare normale che va solo 10 fps avanti alla 580?

Mi sa che qualcuno, qui, si è perso qualche recensione.
E comunque, la bontà di una scheda video, non si misura solo ed esclusivamente dagli fps....

iorfader
02-01-2012, 09:23
Mi sa che qualcuno, qui, si è perso qualche recensione.
E comunque, la bontà di una scheda video, non si misura solo ed esclusivamente dagli fps....

io ho visto la recensione di hwupgrade....i grafici sono ancora li... non è che vada chissà quanto d+

Stig89
02-01-2012, 09:40
io ho visto la recensione di hwupgrade....i grafici sono ancora li... non è che vada chissà quanto d+
Bella la recensione di HWU :rotfl:

Pier2204
02-01-2012, 09:41
si vabbè però amd ha rotto le valvole con ste schede video, si sforzasse una buona volta a fare qualcosa di serio. ma vi pare normale che va solo 10 fps avanti alla 580? e nemmeno sempre...diciamo nel 60% dei giochi altrimenti o va quasi uguale o viene superata.... a me ste cose danno fastidio. uno dai 28nm si aspetta chissà che, e poi se ne escono con schede con clock disumani che si, vanno d+, ma che comparate all'immenso salto generazionale tecnologico non vanno per niente. questi devi tornare a mietere grano che fanno prima, cosa si aspettano quelli dell'amd? che nvidia tiri fuori una scheda video che faccia 10 fps + della 580?:mbe: questi se le cercano proprio le batoste

300 post per non capire, quando è stato spiegato in tutte le salse con millemila contradittori .. va be.

A parte i driver che sono ancora acerbi, sebbene su queste non hanno la stessa importanza delle precedenti versioni, poi hanno scelto una via abbastanza conservativa per la reference oggetto di test, ergo quando uscirà nvidia con la sua 680 avranno gia posizionato e spinto la serie 7xxx più in alto, stranamente osservando altri test sparsi per il mondo la differenza è ben più marcata, infine un occhio di riguardo ai consumi, perchè in futuro prossimo le versioni MOBILE devono consumare poco e se si comincia gia dalle top di gamma si è a metà dell'opera.

Per me hanno fatto una scheda favolosa, in ogni caso che un gioco mi faccia 120 FPS quando l'occhio umano ne vede 30 FPS mi interessa poco e non giudico la bontà della scheda solo da questo..

iorfader
02-01-2012, 09:44
300 post per non capire, quando è stato spiegato in tutte le salse con millemila contradittori .. va be.

A parte i driver che sono ancora acerbi, sebbene su queste non hanno la stessa importanza delle precedenti versioni, poi hanno scelto una via abbastanza conservativa per la reference oggetto di test, ergo quando uscirà nvidia con la sua 680 avranno gia posizionato e spinto la serie 7xxx più in alto, stranamente osservando altri test sparsi per il mondo la differenza è ben più marcata, infine un occhio di riguardo ai consumi, perchè in futuro prossimo le versioni MOBILE devono consumare poco e se si comincia gia dalle top di gamma si è a metà dell'opera.

Per me hanno fatto una cheda favolosa, in ogni caso che un gioco mi faccia 120 FPS quando l'occhio umano ne vede 30 FPS mi interessa poco e non giudico la bontà della scheda solo da questo..

ma scusate la recensione di hwupgrade che ha? linkatemene altre almeno..

riguardo al fattore fps, ragioni male...perchè + la scheda macina fps, + tempo ti durerà

Bongio2
02-01-2012, 09:45
Si vede che non paghi le bollette, questa scheda è molto interessante perchè i 10fps in più li fa con consumi molto inferiori, sopratutto in idle (quando usi il pc per altro oltre che giocarci)...

nico88_bt
02-01-2012, 09:54
si sa quando nvidia presenterà le nuove schede?

bonzoxxx
02-01-2012, 09:55
a me questa scheda piace, poi ragazzi parliamoci chiari, io ho una 5870 e mi gira tutto a 1080p, ma che volete di+ ? voglio dire apparte la bontà del processo a 28nm, basta alzare il clock della GPU a 1100 e il gioco + fatto.

gege886
02-01-2012, 10:04
grande amd, la scheda mi piace sempre di piu, anche se aspetto che recuperi maggiore competitività su lato prezzo.

kellone
02-01-2012, 10:17
Alcuni commenti fanno davvero sorridere....

10fps in più con consumi nettamente calati a qualcuno non bastano.....

Pensate ad una coppia di 7970 in CF, consumi in idle ridicoli e potenza in full spaventosa.

Certo i prezzi devono calare, o meglio.... prima devono arrivare agli shop le schede.

Ma questa bestiola sarà mia.

roccia1234
02-01-2012, 10:17
A parte le solite diatribe e flames... ma avete visto la frequenza della versione atomic??

1335mhz sulla gpu, 410mhz in più della frequenza base, ossia il 44% in più di frequenza :eek: :eek:

Queste schede potrebbero raggiungere senza troppi problemi le prestazioni della hd6990, e scusate se è poco... :D

Pier2204
02-01-2012, 10:18
si sa quando nvidia presenterà le nuove schede?

Osservando una road map non ufficiale, Kepler nella serie GK110, (quella che riguarda le future GTX 580/570) si va oltre l'estate 2012, il tutto con il beneficio del dubbio.

Non c'è ancora una data ufficiale.

iorfader
02-01-2012, 10:20
A parte le solite diatribe e flames... ma avete visto la frequenza della versione atomic??

1335mhz sulla gpu, 410mhz in più della frequenza base, ossia il 44% in più di frequenza :eek: :eek:

Queste schede potrebbero raggiungere senza troppi problemi le prestazioni della hd6990, e scusate se è poco... :D

il mio non è un flame, e sicuramente questa scheda è interessante, specialmente questa atomic....però dovete capire che non tutti stanno attenti ai consumi e cercano solo potenza bruta

buziobello
02-01-2012, 10:23
non tutti stanno attenti ai consumi


non saranno tutti, ma il 99%... L'1% che se ne frega dei consumi può permettersi di comprare Nvidia probabilmente...

Occupy AMD!!!

Pier2204
02-01-2012, 10:34
Mi piacerebbe vedere una recensione della ATOMIC RX per vedere a che livello arriva, secondo me potrebbe avvicinarsi molto a una HD6990, ma con consumi nettamente inferiori.

Il prezzo purtroppo non sarà il suo forte...

Alex83
02-01-2012, 10:35
300 post per non capire, quando è stato spiegato in tutte le salse con millemila contradittori .. va be.

A parte i driver che sono ancora acerbi, sebbene su queste non hanno la stessa importanza delle precedenti versioni, poi hanno scelto una via abbastanza conservativa per la reference oggetto di test, ergo quando uscirà nvidia con la sua 680 avranno gia posizionato e spinto la serie 7xxx più in alto, stranamente osservando altri test sparsi per il mondo la differenza è ben più marcata, infine un occhio di riguardo ai consumi, perchè in futuro prossimo le versioni MOBILE devono consumare poco e se si comincia gia dalle top di gamma si è a metà dell'opera.

Per me hanno fatto una scheda favolosa, in ogni caso che un gioco mi faccia 120 FPS quando l'occhio umano ne vede 30 FPS mi interessa poco e non giudico la bontà della scheda solo da questo..

I driver sono ancor acerbi (come sempre all'uscita delle vga) e le frequenze vanno ancora riviste. Poi parleremo della bontà del prodotto.
Nel frattempo, ti posso garantire, così come te lo può garantire il tuo oculista che, non solo l'occhio umano percepisce la differenza tra 30 e 120fps ma, addiritturra i più allenati percepiscono differenze di 10 frame sopra ai 100 totali.
E si, la prima cosa che mi aspetto da una vga top di gamma sono proprio gli fps, visto il target e il prezzo. Chi compra vga da 600eu non lo fa per il colore del dissy!

Buon anno! :)

p.s. ci sono in giro discussioni vecchie più di una decade che spiegano come e perchè l'occhio umano percepisce la differenza di fps.

kellone
02-01-2012, 10:47
Io sono convinto che la Sapphire reference sarà come sempre freschissima ed in grado di occare tranquillamente un buon 10% in più senza colpo ferire.

demos88
02-01-2012, 10:58
E ancora con i soliti commenti sui 10 fps che poi non significano un bega di niente, perchè se fossero 10 fps su 30, sono ben il 33% in più....Comunque la 7970 da sola ha dimostrato di superare la gtx580 per un buon margine, con consumi nettamente inferiori e costa 50 dollari in più (nei listini ufficiali) ovvero nemmeno 40 euro.
Quando poi vedo overclock di fabbrica del 40%... beh...
Ma poi, anche se fosse vero che il margine di guadagno sulla gtx580 non è ampissimo, fra 3 mesi, quando forse usciranno le gtx6, si troveranno a competere con delle HD7 che hanno ormai passato il botto iniziale del prezzo e le gtx costeranno verosimilmente un centinaio di euro in più, se non sarà la nvidia a garantire un ampio margine sulle HD7 (quindi almeno un 30-40% in più delle gtx5), non so chi veramente si troverà in difficoltà fra i due marchi...

Le compagnie di schede video usano le schede super top di gamma per "marcare" il mercato dal punto di vista del marketing più che delle vendite dirette. Ovviamente chi vuole il super del super se le compra, ma la compagnia non vive sicuramente di quello, ma dell'indotto, ovvero del fatto che l'utenza sbava sulle top di gamma e compra i modelli inferiori. Se poi andiamo nella fascia consumer e prosumer dove anche il consumo ha il suo valore (ce l'ha eccome!), allora le carte in tavola cambiano.

Pier2204
02-01-2012, 11:02
I driver sono ancor acerbi (come sempre all'uscita delle vga) e le frequenze vanno ancora riviste. Poi parleremo della bontà del prodotto.
Nel frattempo, ti posso garantire, così come te lo può garantire il tuo oculista che, non solo l'occhio umano percepisce la differenza tra 30 e 120fps ma, addiritturra i più allenati percepiscono differenze di 10 frame sopra ai 100 totali.
E si, la prima cosa che mi aspetto da una vga top di gamma sono proprio gli fps, visto il target e il prezzo. Chi compra vga da 600eu non lo fa per il colore del dissy!

Buon anno! :)

p.s. ci sono in giro discussioni vecchie più di una decade che spiegano come e perchè l'occhio umano percepisce la differenza di fps.

si ok, o letto varie discussioni riferite al caso, sta di fatto che nella media generale 30 fps è quello che l'occhio umano percepisce come movimento continuo senza micro-interruzioni, al di sotto si vedono movimenti a scatti. Sopra è tutto grasso che cola, in sostanza una buona scheda che si posiziona come media generale a 60 FPS sfido chiunque a trovare movimenti discontinui.
Per quanto mi riguarda non essendo più giovanissimo, per me 30 fps è già grasso che cola :D in particolare a distanze inferiori ai 70cm :asd:

Ad ogni buon modo non è il caso della scheda in oggetto, visto che è attualmente è la single gpu più potente del mercato.

Mparlav
02-01-2012, 11:03
Per garantire 1335Mhz di clock gpu, vuole dire che la scheda ha dei grossi margini rispetto ai 925Mhz della reference, e non solo tirandola per qualche bench, ma stabile per il daily.

La Toxic 3G e la VaporX mi sembrano le più equilibrate: dissipatore custom, magari ulteriormente migliorato rispetto al passato, e lo sfizio di poter tirare da sè i 1200-1300Mhz, senza doversi svenare rispetto ai modelli Atomic.

al135
02-01-2012, 11:27
si ok, o letto varie discussioni riferite al caso, sta di fatto che nella media generale 30 fps è quello che l'occhio umano percepisce come movimento continuo senza micro-interruzioni, al di sotto si vedono movimenti a scatti. Sopra è tutto grasso che cola, in sostanza una buona scheda che si posiziona come media generale a 60 FPS sfido chiunque a trovare movimenti discontinui.
Per quanto mi riguarda non essendo più giovanissimo, per me 30 fps è già grasso che cola :D in particolare a distanze inferiori ai 70cm :asd:

Ad ogni buon modo non è il caso della scheda in oggetto, visto che è attualmente è la single gpu più potente del mercato.

ancora co sta storia dei 30 fps dell'occhio umano?
tu gioca a uno sparatutto a 30 fps e poi fattelo a 120.
la differenza non è minima, E' ABISSALE.
ed è stato dimostrato e ampiamente trattato proprio il fatto della percezione delle immagini dell'occhio. non è affatto 30 ma è di molto superiore.
gioco da una vita e i miei occhi sforzano anche se solo scendo sotto le 50 immagini al secondo.
tenere fps alti significa avere una fludità necessaria per ottenere tempi di reazione , riflessi, ottimali.
tornando in topic, questa scheda va a risoluzioni 1080 dal 20 al 40% piu veloce di una 580. (leggi altre recensioni non questa di hw che è , purtroppo come al solito ultimamente, poco attendibile.)
inoltre, si nota come il collo di bottiglia possa esser rappresentato dalla frequenza della gpu. infatti con piccoli incrementi di frequenza sono risultati importanti aumenti di performance anche nell'ordine di un aggiuntivo 15-30 %. e aggiungo, questa sembra proprio overcloccarsi e salire facilmente.
se costasse un pelino meno l'avrei gia messa in sostituzione alla mia 6970.

iorfader
02-01-2012, 11:29
si ok, o letto varie discussioni riferite al caso, sta di fatto che nella media generale 30 fps è quello che l'occhio umano percepisce come movimento continuo senza micro-interruzioni, al di sotto si vedono movimenti a scatti. Sopra è tutto grasso che cola, in sostanza una buona scheda che si posiziona come media generale a 60 FPS sfido chiunque a trovare movimenti discontinui.
Per quanto mi riguarda non essendo più giovanissimo, per me 30 fps è già grasso che cola :D in particolare a distanze inferiori ai 70cm :asd:

Ad ogni buon modo non è il caso della scheda in oggetto, visto che è attualmente è la single gpu più potente del mercato.

a casa hai un tv da 200hz? se si non puoi dire certe cose. quindi avendole dette non ce l'hai e non puoi capire. in aggiunta quello che hai detto non mi rsulta affatto, perchè sono 60 gli fps che l'occhio umano percepisce come fluido, i 30 si usano per i film, guardati la formula uno, o una partita di calcio a 60fps poi vediamo

kellone
02-01-2012, 11:43
se costasse un pelino meno l'avrei gia messa in sostituzione alla mia 6970.

Ma perchè, sono già usciti dei listini negli shop "abituali"?
Vado a vedere subito.

al135
02-01-2012, 11:46
Ma perchè, sono già usciti dei listini negli shop "abituali"?
Vado a vedere subito.

no ,dicono dal 9 gennaio...poi non so se qualcuno gia ne sia provvisto in qualche modo...

FroZen
02-01-2012, 11:49
Il fatto è che stanno spostande le esigenze sempre più in alto: ocn monitor a 120hz bisogna avere lameno uno SLI/CF per avere sempre dai 120fps in su......quando prima ne bastava una top su un monitor @60Hz ora bisogna raddoppiare....comunque questi 120HZ/fps (che non è la stessa cosa....) vorrei proprio vederli.....che in BF3 mi asfaltino per colpa del mio 60Hz???? eheheheheheh (domanda retorica...)

kellone
02-01-2012, 11:50
no ,dicono dal 9 gennaio...poi non so se qualcuno gia ne sia provvisto in qualche modo...

Ma scusa, allora che "pelino in meno" dovrebbe costare se non sappiamo neppure il listino?

Io ho considerato di recuperare 100 euro circa dalla mia 6870, il resto ce lo metto di tasca.

FroZen
02-01-2012, 11:53
Costerà come la 580 3GB, forse qualche decino in più per l'effetto bimbominchia "costa di più quindi và di più" :)

oclla
02-01-2012, 11:57
si vabbè però amd ha rotto le valvole con ste schede video, si sforzasse una buona volta a fare qualcosa di serio. ma vi pare normale che va solo 10 fps avanti alla 580? e nemmeno sempre...diciamo nel 60% dei giochi altrimenti o va quasi uguale o viene superata.... a me ste cose danno fastidio. uno dai 28nm si aspetta chissà che, e poi se ne escono con schede con clock disumani che si, vanno d+, ma che comparate all'immenso salto generazionale tecnologico non vanno per niente. questi devi tornare a mietere grano che fanno prima, cosa si aspettano quelli dell'amd? che nvidia tiri fuori una scheda video che faccia 10 fps + della 580?:mbe: questi se le cercano proprio le batoste

Solo una nota sull' immenso salto generazionale tecnologico dai 40 ai 28 nm:
L'unica cosa che questo comporta è l'avere transistor e quindi circuiti più piccoli. E di conseguenza più veloci, che scaldano e consumano meno.

Lo stesso chip, prodotto con le due diverse tecnologie andrà esattamente nello stesso modo (parlando di fps). E' successo con il g92 nvidia.

Per aumentare la potenza elaborativa bisogna agire sull'architettura e sulle strutture di elaborazione. Lavoro che in questo caso è stato comunque fatto. E piuttosto bene.

al135
02-01-2012, 12:01
Costerà come la 580 3GB, forse qualche decino in più per l'effetto bimbominchia "costa di più quindi và di più" :)

la 580 3gb effettivamente sara' uno specchio per le allodole, mentre questa, con anche lievi incrementi di clock ha dimostrato sensibili guadagni di performance. a 1125 va sensibilmente di piu (da 10 a 20%)
http://www.legitreviews.com/article/1805/15/
si nota quindi che la frequenza della gpu faccia da collo di bottiglia.
quindi sara' ancora piu interessante vedere come andra a 1335 ;)
imho la toxic 3g per me è un best buy

FroZen
02-01-2012, 12:07
Io una AMD con quella ventola non la prenderai mai.....sono semrpe state rumorose quelle ventole....

FroZen
02-01-2012, 12:11
Le 580 3GB hanno senso sdi esistere oslo in SLI e su sistemi con 2560 di risoluzione....i prezzi caleranno di sicuro......i prossimi mesi saranno quelli buoni per chi ne ha già una di farsi la sorellina altriemnti rimarranno sullo scaffale al prezzo attuale.....

SimonePP
02-01-2012, 12:15
300 post per non capire, quando è stato spiegato in tutte le salse con millemila contradittori .. va be.

A parte i driver che sono ancora acerbi, sebbene su queste non hanno la stessa importanza delle precedenti versioni, poi hanno scelto una via abbastanza conservativa per la reference oggetto di test, ergo quando uscirà nvidia con la sua 680 avranno gia posizionato e spinto la serie 7xxx più in alto, stranamente osservando altri test sparsi per il mondo la differenza è ben più marcata, infine un occhio di riguardo ai consumi, perchè in futuro prossimo le versioni MOBILE devono consumare poco e se si comincia gia dalle top di gamma si è a metà dell'opera.

Per me hanno fatto una scheda favolosa, in ogni caso che un gioco mi faccia 120 FPS quando l'occhio umano ne vede 30 FPS mi interessa poco e non giudico la bontà della scheda solo da questo..

Ah beh per fortuna ci sei te che ne sai a pacchi xD LOOOOOOOL

l'occhio umano vede 30fps? ma stai bene? intanto il discorso degli fps è sempre stato che ne bastavano 60 perchè tanto il refresh del monitor era di 60hz. Ma caro mio è da più di qualche anno che son usciti i monitor 120hz, ergo i 120fps son necessari. E da possessore ti posso assicurare che si vede enormemente la differenza tra 60 e 120.

@Iorfader: hai detto una minchiata anche tu! i 200hz delle TV non sono 200hz effettivi.

"si ok, o letto varie discussioni riferite al caso, sta di fatto che nella media generale 30 fps è quello che l'occhio umano percepisce come movimento continuo senza micro-interruzioni, al di sotto si vedono movimenti a scatti. Sopra è tutto grasso che cola, in sostanza una buona scheda che si posiziona come media generale a 60 FPS sfido chiunque a trovare movimenti discontinui.
Per quanto mi riguarda non essendo più giovanissimo, per me 30 fps è già grasso che cola in particolare a distanze inferiori ai 70cm

Ad ogni buon modo non è il caso della scheda in oggetto, visto che è attualmente è la single gpu più potente del mercato."

Guarda lascia stare che le stai dicendo grosse. Non è assolutamente tutto grasso che cola. Una scheda del genere si prende esclusivamente per gaming, non per vedere i film a 30fps. Giocare ad un gioco FPS e fare 60fps o 120fps è tutta un'altra cosa per quanto riguarda la fluidità dell'immagine (se si ha un 120hz), non parliamone tra 30 e 120.

Pier2204
02-01-2012, 12:21
ancora co sta storia dei 30 fps dell'occhio umano?
tu gioca a uno sparatutto a 30 fps e poi fattelo a 120.
cut....

a casa hai un tv da 200hz? se si non puoi dire certe cose. quindi avendole dette non ce l'hai e non puoi capire. in aggiunta quello che hai detto non mi rsulta affatto, perchè sono 60 gli fps che l'occhio umano percepisce come fluido, i 30 si usano per i film, guardati la formula uno, o una partita di calcio a 60fps poi vediamo

:doh:

va bene, ok, meglio 200 FPS...va tutto fluido..ci siamo capiti, prendete 2 HD7970 in CF e andate a 200.. :D

A me basta che sul simulatore mi fa 60 mi basta e mi avanza...

SimonePP
02-01-2012, 12:25
:doh:

va bene, ok, meglio 200 FPS...va tutto fluido..ci siamo capiti, prendete 2 HD7970 in CF e andate a 200.. :D

A me basta che sul simulatore mi fa 60 mi basta e mi avanza...

200hz non esistono (quelli delle TV non sono 200hz effettivi), il massimo è 120hz per ora!

l'unico che sa di cosa sta parlando è al135, ha perfettamente ragione!

Pier2204
02-01-2012, 12:38
Ah beh per fortuna ci sei te che ne sai a pacchi xD LOOOOOOOL

l'occhio umano vede 30fps? ma stai bene? intanto il discorso degli fps è sempre stato che ne bastavano 60 perchè tanto il refresh del monitor era di 60hz. Ma caro mio è da più di qualche anno che son usciti i monitor 120hz, ergo i 120fps son necessari. E da possessore ti posso assicurare che si vede enormemente la differenza tra 60 e 120.

@Iorfader: hai detto una minchiata anche tu! i 200hz delle TV non sono 200hz effettivi.

"si ok, o letto varie discussioni riferite al caso, sta di fatto che nella media generale 30 fps è quello che l'occhio umano percepisce come movimento continuo senza micro-interruzioni, al di sotto si vedono movimenti a scatti. Sopra è tutto grasso che cola, in sostanza una buona scheda che si posiziona come media generale a 60 FPS sfido chiunque a trovare movimenti discontinui.
Per quanto mi riguarda non essendo più giovanissimo, per me 30 fps è già grasso che cola in particolare a distanze inferiori ai 70cm

Ad ogni buon modo non è il caso della scheda in oggetto, visto che è attualmente è la single gpu più potente del mercato."

Guarda lascia stare che le stai dicendo grosse. Non è assolutamente tutto grasso che cola. Una scheda del genere si prende esclusivamente per gaming, non per vedere i film a 30fps. Giocare ad un gioco FPS e fare 60fps o 120fps è tutta un'altra cosa per quanto riguarda la fluidità dell'immagine (se si ha un 120hz), non parliamone tra 30 e 120.

Questa è l'ultima volta che rispondo a sta cosa che ha sollevato un putiferio, poi non rispondo più che mi sono stufato e siamo palesemente OT.

Ho detto che l'occhio umano percepisce i 30 fps come movimento continuo, non percepisce il passaggio da un frame a un'altro, altrimenti non farebbero film che hanno 30 frame al secondo... E' CHIARO IL CONCETTO?

Al di sopra di questo la differenza non è così percettibile se non ad un occhio attento, non in misura uguale a passare da 30 a 20 fps, in quel caso si vedono chiaramente i movimenti a scatti..

Tutto in risposta a iorfader che diceva che la scheda in oggetto non è quel salto prestazionale che permette di avere chissà quali performance..

Per me va bene così, dopo 2 anni di onorata carriera della mia 5870 sto decidendo di passare a questa, e visto che ci vedevo benissimo anche con la HD5870 non vedo perchè non dovrei vedere meglio con una HD7970..

Poi se tu hai un monitor a 120 ghz e vuoi 120 fps ti regolerai di conseguenza, ma a me non fa molta differenza.

egounix
02-01-2012, 12:39
a casa hai un tv da 200hz? se si non puoi dire certe cose. quindi avendole dette non ce l'hai e non puoi capire. in aggiunta quello che hai detto non mi rsulta affatto, perchè sono 60 gli fps che l'occhio umano percepisce come fluido, i 30 si usano per i film, guardati la formula uno, o una partita di calcio a 60fps poi vediamo

ah ior!
segui il thread della 7970, ne vale la pena ;)
se vuoi le rece e i test privati vai lì
la rece di hw non fa testo

sniperspa
02-01-2012, 12:48
La faccenda si fa interessante :D

SimonePP
02-01-2012, 12:48
Questa è l'ultima volta che rispondo a sta cosa che ha sollevato un putiferio, poi non rispondo più che mi sono stufato e siamo palesemente OT.

Ho detto che l'occhio umano percepisce i 30 fps come movimento continuo, non percepisce il passaggio da un frame a un'altro, altrimenti non farebbero film che hanno 30 frame al secondo... E' CHIARO IL CONCETTO?

Al di sopra di questo la differenza non è così percettibile se non ad un occhio attento, non in misura uguale a passare da 30 a 20 fps, in quel caso si vedono chiaramente i movimenti a scatti..

Tutto in risposta a iorfader che diceva che la scheda in oggetto non è quel salto prestazionale che permette di avere chissà quali performance..

Per me va bene così, dopo 2 anni di onorata carriera della mia 5870 sto decidendo di passare a questa, e visto che ci vedevo benissimo anche con la HD5870 non vedo perchè non dovrei vedere meglio con una HD7970..

Poi se tu hai un monitor a 120 ghz e vuoi 120 fps ti regolerai di conseguenza, ma a me non fa molta differenza.

Non si sta parlando di film ma di giochi dato che è una scheda video top di gamma, E' CHIARO IL CONCETTO?

Non puoi andare nel thread dove si parla della gpu top di gamma e dire che oltre i 30fps non si nota la differenza altrimenti tutti si metteranno come me e al135 a dirti che non capisci nulla!

in gaming la differenza tra 30 e 120fps non è abissale, è di più! xD

leonardo73
02-01-2012, 13:12
Non si sta parlando di film ma di giochi

esatto è questo il punto fondamentale.
è chiaro che parliamo sempre di un inganno dell'occhio che però è in grado di percepire (a seconda della persona) un fluidità ben maggiore di quella rappresentata dai 25-30fps, ma il punto è che nei videogiochi i fotogrammi sono delle sequenze di immagini messe in fila, molto differenti dai fotogrammi dei film.

@Pier2204: fai un fermo immagine di un gioco e di un film per capire la differenza.


in gaming la differenza tra 30 e 120fps non è abissale, è di più! xD

chiaramente poi dipende dal gioco: in un fps sicuramente si, in un point and click direi di no :)

poi va considerata l'ottimizzazione del motore grafico che ci sono giochi che scattano anche a 60fps fissi mentre altri sono più che giocabili a 40-50 con scene in movimento paragonabili (per quanto si possano paragonare).

chiaramente da possessore di un 60Hz me ne faccio poco di 120fps visto che il tearing lo trovo insopportabile; questo però non significa che avere una scheda potente non possa servire anche in queste condizioni perchè magari (accoppiata con una buona cpu) ti tiene gli fps minimi molto alti e questo è comunque un bene.

SimonePP
02-01-2012, 13:21
esatto è questo il punto fondamentale.
è chiaro che parliamo sempre di un inganno dell'occhio che però è in grado di percepire (a seconda della persona) un fluidità ben maggiore di quella rappresentata dai 25-30fps, ma il punto è che nei videogiochi i fotogrammi sono delle sequenze di immagini messe in fila, molto differenti dai fotogrammi dei film.

@Pier2204: fai un fermo immagine di un gioco e di un film per capire la differenza.



chiaramente poi dipende dal gioco: in un fps sicuramente si, in un point and click direi di no :)

poi va considerata l'ottimizzazione del motore grafico che ci sono giochi che scattano anche a 60fps fissi mentre altri sono più che giocabili a 40-50 con scene in movimento paragonabili (per quanto si possano paragonare).

chiaramente da possessore di un 60Hz me ne faccio poco di 120fps visto che il tearing lo trovo insopportabile; questo però non significa che avere una scheda potente non possa servire anche in queste condizioni perchè magari (accoppiata con una buona cpu) ti tiene gli fps minimi molto alti e questo è comunque un bene.

quoto. i fotogrammi di un film e quelli di un gioco sono diversi.

Leonardo, è ovvio che parlassi di giochi come gli FPS e non di RTS e via dicendo, non ho comprato un 120hz per giocare a Empire Earth xD

Questi discorsi sui 30/60/120fps/hz sono discorsi triti e ritriti e non capisco come si possa scrivere sempre le stesse sciocchezze.

leonardo73
02-01-2012, 13:26
Leonardo, è ovvio che parlassi di giochi come gli FPS e non di RTS e via dicendo, non ho comprato un 120hz per giocare a Empire Earth xD


si si mi era perfettamente chiaro, mi stavo sempre riferendo a Pier2204 per completezza di informazione ;)

diciamo che avrei dovuto scrivere:

@Pier2204: chiaramente poi dipende dal gioco ...

al135
02-01-2012, 13:34
piu il gioco è frenetico e veloce piu hai bisogno di frame al secondo per capirci qualcosa :D
a campo minato o civilization non serve :D

SimonePP
02-01-2012, 13:34
si si mi era perfettamente chiaro, mi stavo sempre riferendo a Pier2204 per completezza di informazione ;)

diciamo che avrei dovuto scrivere:

@Pier2204: chiaramente poi dipende dal gioco ...

hihi :)

p.s. per tornare nel discorso l'unico modo per giudicare l'operato di AMD bisogna aspettare la versione Nvidia, è l'unico modo per capire se dal passaggio produttivo da 45 a 28nm si poteva far meglio in prestazioni/consumi/OC/scalabilità ecc. ecc.

Per ora dico che la 7970 mi pare una buona scheda ma secondo me si poteva ottenere di meglio.

leonardo73
02-01-2012, 13:50
per tornare nel discorso l'unico modo per giudicare l'operato di AMD bisogna aspettare la versione Nvidia

eh si ma intanto amd vende :)
se mi dovessi rifare il pc ora sicuramente aspetterei la commercializzazione della 7970 (o forse della 7950), ma non aspetterei fino a giugno per vedere che fa nvidia.

sul si poteva fare di meglio, non essendo un programmatore hardware, non mi esprimo; però avere il 20% di prestazioni in più (con questi margini per l'oc) rispetto alla 580 con consumi inferiori non mi sembra affatto male.

dado1979
02-01-2012, 14:04
Non puoi andare nel thread dove si parla della gpu top di gamma e dire che oltre i 30fps non si nota la differenza altrimenti tutti si metteranno come me e al135 a dirti che non capisci nulla!

in gaming la differenza tra 30 e 120fps non è abissale, è di più! xD
Quasi tutti per favore... io non mi permetterei mai di dire una cosa del genere...

Bongio2
02-01-2012, 14:18
Ancora questa storia...
Per non andare a scatti è vero che bastano 30fps, ma devono essere i minimi ed il più possibile omogenei, quindi una scheda che fa 120fps di media (o peggio ancora massimi) non è detto che appaia fluida se in certi istanti ha 200fps ed in altri crolli a 20fps...

roccia1234
02-01-2012, 14:24
il mio non è un flame, e sicuramente questa scheda è interessante, specialmente questa atomic....però dovete capire che non tutti stanno attenti ai consumi e cercano solo potenza bruta

Appunto, parlando di potenza bruta la atomic sarà lì lì con la HD6990, che è al momento la scheda più veloce, ma è dual gpu, mentre la 7970 è single, con tutti i vantaggi che ne conseguono. Se sapphire farà anche un buon dissy, sarà pure molto più fresca e silenziosa della reference. Ovviamente il prezzo sarà (purtroppo) pompato verso l'alto.

Per garantire 1335Mhz di clock gpu, vuole dire che la scheda ha dei grossi margini rispetto ai 925Mhz della reference, e non solo tirandola per qualche bench, ma stabile per il daily.

La Toxic 3G e la VaporX mi sembrano le più equilibrate: dissipatore custom, magari ulteriormente migliorato rispetto al passato, e lo sfizio di poter tirare da sè i 1200-1300Mhz, senza doversi svenare rispetto ai modelli Atomic.

Appunto, per questo è interessantissimo. Non tanto per i 1335 mhz in se (che già sono tantissimi rispetto ai 925mhz reference), più per il fatto che, per forza di cose, questa frequenza non sarà il limite superiore della gpu, ma quasi certamente potrà salire ancora*, anche se non si sa di quanto (magari di soli 50mhz). Comunque quasi sicuramente sarà overvoltata.

*I produttori per forza di cose devono mantenersi entro frequenze "di sicurezza" dato che ogni gpu fa storia a se e per evitare di dover controllare la stabilità di ogni scheda. Non possono stare li a spremere fino all'ultimo mhz.

Io una AMD con quella ventola non la prenderai mai.....sono semrpe state rumorose quelle ventole....

Concordo... personalmente ne prenderei una non reference con dissy migliorato (o cambierei il dissy a quella reference) per rumore ma, soprattutto, per le temperature.

Drizzt
02-01-2012, 14:32
Vabbe', in ogni caso nVidia slittera' tutti i propri progetti di un anno, quindi o queste di AMD o nulla :-D

SimonePP
02-01-2012, 14:34
eh si ma intanto amd vende :)
se mi dovessi rifare il pc ora sicuramente aspetterei la commercializzazione della 7970 (o forse della 7950), ma non aspetterei fino a giugno per vedere che fa nvidia.

sul si poteva fare di meglio, non essendo un programmatore hardware, non mi esprimo; però avere il 20% di prestazioni in più (con questi margini per l'oc) rispetto alla 580 con consumi inferiori non mi sembra affatto male.

ho detto che è buona (in una scala da 1 a 10 buono significa 8, quindi non sto dicendo che non siano piuttosto positive le prestazioni) infatti! Lo so anche io che intanto AMD vende xD

Anzi son felice che venda dopo la figura di m**a fatta col le loro CPU, uscite 10 mesi dopo (quindi non 4/6 mesi, tra quanto usciranno le Nvidia in teoria) con risultati imbarazzanti, almeno mettono via un pò di soldini da investire! :)

ionet
02-01-2012, 14:47
se queste voci risultano vere,il 22 dicembre scorso amd ha messo a disposizione tecnicamente una 7950 quasi in idle:eek: :D

con tutte le 36 cu attive,clock superiori ai 13xx mhz,e driver piu' maturi,anche kepler rischia di prendere legnate:ciapet:

corgiov
02-01-2012, 14:54
Pensate ad una coppia di 7970 in CF, consumi in idle ridicoli e potenza in full spaventosa.

.O in Quad CrossifreX ...

roccia1234
02-01-2012, 15:33
se queste voci risultano vere,il 22 dicembre scorso amd ha messo a disposizione tecnicamente una 7950 quasi in idle:eek: :D

con tutte le 36 cu attive,clock superiori ai 13xx mhz,e driver piu' maturi,anche kepler rischia di prendere legnate:ciapet:

Bisogna vedere per cosa le hanno riservate. Magari le rese iniziali dei 28 nm sono talmente basse da costringere amd a fare chip da 36 cu e disabilitarne 4 per avere una percentuale decente di chip funzionanti.

Altrimenti amd potrebbe abilitare 36 cu sulla dual gpu top di gamma e abbassare la frequenza (quindi il voltaggio) delle gpu per contenere consumi e temperature mantenendo però le stesse prestazioni della 7970 per ogni chip (però non so quanto influiscano in questo senso i 4 cu addizionali, anche se a frequenza minore... staremo a vedere).
Certo, sarebbe bello se si potesse sbloccare via bios le 4 cu dormienti (che su 36 non sono neanche poche) :oink: .

Per i drivers, con questa architettura le schede amd dovrebbero essere meno driver-dipendenti delle precedenti, quindi un (eventuale) aumento di prestazioni dato dai driver maturi potrebbe essere molto ridotto.

Pier2204
02-01-2012, 16:14
esatto è questo il punto fondamentale.
è chiaro che parliamo sempre di un inganno dell'occhio che però è in grado di percepire (a seconda della persona) un fluidità ben maggiore di quella rappresentata dai 25-30fps, ma il punto è che nei videogiochi i fotogrammi sono delle sequenze di immagini messe in fila, molto differenti dai fotogrammi dei film.

@Pier2204: fai un fermo immagine di un gioco e di un film per capire la differenza.



chiaramente poi dipende dal gioco: in un fps sicuramente si, in un point and click direi di no :)

poi va considerata l'ottimizzazione del motore grafico che ci sono giochi che scattano anche a 60fps fissi mentre altri sono più che giocabili a 40-50 con scene in movimento paragonabili (per quanto si possano paragonare).

chiaramente da possessore di un 60Hz me ne faccio poco di 120fps visto che il tearing lo trovo insopportabile; questo però non significa che avere una scheda potente non possa servire anche in queste condizioni perchè magari (accoppiata con una buona cpu) ti tiene gli fps minimi molto alti e questo è comunque un bene.

Ti rispondo volentieri perchè hai capito bene a cosa mi riferisco e in particolare sei una persona educata.

Il succo del discorso parte da una presunzione di salti miracolistici di una nuova generazioni di schede rispetto alla precedente della stessa famiglia e stesso segmento.
Restando nel segmento delle GPU reference il salto rispetto alla HD6970 è comunque notevole, un po meno rispetto la concorrente Nvidia GTX580, ammettendo che i test di HWU siano gli unici veritieri, siamo conunque a un 10% in più sempre reference a consumi paragonabili in Full e nettamente inferiori in idle.

In base a questa considerazione mi sono espresso per dire che comunque, qualunque gioco SUPERPRODUZIONE odierno, (Skyrim..battlefield..) non ha certo problemi di fps per aspettarsi chissà quali problemi anche in full HD da questa scheda.

Aggiungiamo che questi dati sono ottenuti mantenendo un margine di OC notevole come viene evidenziato nel thread, mi sembra che si voglia sparare contro a prescindere.

Posso capire che su BD non siano andati bene è le critiche sono giuste, ma quando fanno una scheda del genere e non va bene lo stesso , ... o siete tutti con monitor da 30 pollici a 5000 X 2500 a 200 Mhz, oppure il sospetto di essere un po funboy nvidia mi viene..

Tu pensa, sto pensando di prendere questa scheda per collegarla a 3 monitor con uno dei giochi più pesanti del pianeta, Flight Simulator, peggiore di qualsiasi fps o gdr, dici che devo contare gli fps :D

battute a parte, per me l'unica cosa che questa scheda non mi piace è il prezzo di lancio, poi bisognerà vedere in negozio come viene piazzata, purtroppo oggi è in perfetta solitudine e possono fare anche questo prezzo.

kellone
02-01-2012, 16:19
l'unica cosa che questa scheda non mi piace è il prezzo di lancio, poi bisognerà vedere in negozio come viene piazzata, purtroppo oggi è in perfetta solitudine e possono fare anche questo prezzo.

Appunto, aspettiamo di vederla nei listini.

Se non esce a prezzo buono spero che faccia calare almeno la GTX580.... alla peggio ripiego su quella, anche se so che poi non lo farò.

Mi intriga troppo la faccenda del consumo in idle.

Italia 1
02-01-2012, 16:33
Ho letto le prime due pagine piene di commenti superficiali ed ho deciso di scrivere pure la mia:

1: chi si interessa di consumi, NON compra una scheda TOP di gamma
2: chi si interessa di consumi, NON compra Nvidia (semplicemente perchè consuma di piu a parità di prestazioni AL MOMENTO)
3: chi cerca le prestazioni NON guarda i consumi
4: AMD ha fatto una scheda favolosa, forse piu di quello che mi aspettavo
5: l'OC di questa scheda e le eventuali CU disabilitate potrebbero benissimo riservare belle sorprese (magari, come scritto nell'articolo, potrebbero venir abilitate nella 7990 o in varie, ipotetiche 7xx5 come risposta alla serie 6 Nvidia)
7: di recensioni della serie 7 AMD ce ne sono a migliaia, basta mettere "AMD 7970" su google. Non essendo ancora in vendita, le risposte sono SOLO recensioni

OT: perchè quando scrivo la risposta, ottengo un carattere ad occhio "Courier 8 pt" per scrivere ?

Wolfhask
02-01-2012, 18:50
Atomic WC ..... se lo dico a uno poco pratico gli vien da sdraiarsi dalle risate

kellone
02-01-2012, 19:00
1: chi si interessa di consumi, NON compra una scheda TOP di gamma
3: chi cerca le prestazioni NON guarda i consumi
4: AMD ha fatto una scheda favolosa, forse piu di quello che mi aspettavo

Quotando il punto 4 posso dirti che mi interessano molto i consumi e se in idle fa quello che promette sono disposto a spendere in full per quelle prestazioni.

5: l'OC di questa scheda e le eventuali CU disabilitate potrebbero benissimo riservare belle sorprese (magari, come scritto nell'articolo, potrebbero venir abilitate nella 7990 o in varie, ipotetiche 7xx5 come risposta alla serie 6 Nvidia)

Magari.
Sto solo aspettando di che morte devo morire a livello pecuniario....

Italia 1
02-01-2012, 19:10
Ho saltato dal 5 al 7.. il 6 l'ho lasciato per strada :)

ironman72
02-01-2012, 19:57
Ho letto le prime due pagine piene di commenti superficiali ed ho deciso di scrivere pure la mia:

1: chi si interessa di consumi, NON compra una scheda TOP di gamma
2: chi si interessa di consumi, NON compra Nvidia (semplicemente perchè consuma di piu a parità di prestazioni AL MOMENTO)
3: chi cerca le prestazioni NON guarda i consumi
4: AMD ha fatto una scheda favolosa, forse piu di quello che mi aspettavo
5: l'OC di questa scheda e le eventuali CU disabilitate potrebbero benissimo riservare belle sorprese (magari, come scritto nell'articolo, potrebbero venir abilitate nella 7990 o in varie, ipotetiche 7xx5 come risposta alla serie 6 Nvidia)
7: di recensioni della serie 7 AMD ce ne sono a migliaia, basta mettere "AMD 7970" su google. Non essendo ancora in vendita, le risposte sono SOLO recensioni

OT: perchè quando scrivo la risposta, ottengo un carattere ad occhio "Courier 8 pt" per scrivere ?

Quoto i primi 4 punti, aggiungendo pero' io aspetto Nvidia a 28nm per dire se e' veramente favolosa..(per ora mi godo una gtx580 dcu2)

TecnologY
02-01-2012, 21:29
Atomic WC ..... se lo dico a uno poco pratico gli vien da sdraiarsi dalle risate
What's your graphic card?
Nu cesso atomico tradotto :D

solo per sta roba dovrebbero venderla scontata di 100€

amagriva
02-01-2012, 22:06
ma perchè le rece di hwupgrade sembrano sempre aggiustate per le verdone?

sniperspa
03-01-2012, 01:36
ma perchè le rece di hwupgrade sembrano sempre aggiustate per le verdone?

penso per il numero abbastanza limitato di giochi che testano

qiplayer
03-01-2012, 06:18
Con le dx 11 abbiamo perso 1/3 degli fps, questa scheda vista così non è la fine del mondo. Che ne facciano di base la versione spinta e non voglio sborsare 5/600 euro l'una.
Vorrei aggiungere due schermi. Al momento con due 6870 e dx 11 con crysis 2 a risoluzione ultra non ho fps giocabili, Circa sui 30-35. Prima con dx 10 avevo 99 fps si non avevo le texture in alta definizione. Ma tutte le schede amd hanno perso con le dx11 circa quanto stanno guadagnando con le 7xxx se non parecchio di più.

L'importante è che migliorino in dx11 e con la tesselation in modo drastico. Altrimenti tantovale mettere 3 6950 in cf.
Parlo per chi vuole il 3d o tre monitor, io vorrei aggiungere 2 schermi e per avere una ottima grafica ci vogliono al momento ca 2x6990 e stimo avrei 60-80 fps. Parlo della grafica al top;)

Poi il ventilatore è assurdo che faccia tutto quel casino, inutile portare la scheda a 1200 ma avere un elicottero da parte. Secondo me il rumore sarà accettabile sul design di referenza a 1-1100 mhz. Di più no. (Ma spero di si.)

Al momento il best buy sono due 6870 doppie(powercolor/club3d), per 800 euro hai la potenza di 3 6970. Permettendo che i giochi supportano bene il crossfire.

Vado fuori tema, non so se vi cimentate con raffreddamento ad acqua, guardando le mie 6870 ho pensato seriamente che si potrebbe far passare il liquido all'interno dei tubi del raffreddamento ad aria.
Con una piccola modifica di base si potrebbe avere una scheda ibrida alla quale basta collegare i tubi ;) sembrano fatti apposta.

Tornando alla scheda, io aspettavo la 7990. Ma 900 euri per aumentare del 50% le prestazioni rispetto alle mie due 6870 oc è molto, troppo costoso. Si l'aumento sarà di più nei giochi che usano molta ram, ma in genere vedendo la 7970 non mi aspetto così tanto di più.

La valutazione deve tener conto di 3d, schermi più grandi e grafica migliore. Al momento non mi sembra eccelga.
Speravo, nella mia non conoscenza che dai 40 ai 28 la prestazione aumentasse di un buon 40-50%, con meno consumi, non col 5-10% in meno ma col 30-40% in meno. Andró alla ricerca di altre recensioni...

qiplayer
03-01-2012, 06:34
In fondo a questo articolo
http://strider1974.blogspot.com/2011/03/amd-radeon-6990-vs-nvidia-gtx-590-do-we.html

Gli fps con hd6990 e gtx590, con uno schermo.
In alcuni casi siamo lontani dai 120hz,
Non so se con due schermi in più gli fps si dimezzano, comunque i dx11 hanno cambiato un pó di cose.

Fatti due calcoli per 3 schermi per grafica al max ci vorranno 2 7970 se non di più


Poi magari mi sbaglio non sono un esperto in materia

kellone
03-01-2012, 09:57
Al momento il best buy sono due 6870 doppie(powercolor/club3d), per 800 euro hai la potenza di 3 6970. Permettendo che i giochi supportano bene il crossfire.

Si l'aumento sarà di più nei giochi che usano molta ram, ma in genere vedendo la 7970 non mi aspetto così tanto di più.

Speravo, nella mia non conoscenza che dai 40 ai 28 la prestazione aumentasse di un buon 40-50%, con meno consumi, non col 5-10% in meno ma col 30-40% in meno. Andró alla ricerca di altre recensioni...

Due 6870 in CF oltre a tutti i problemi che crea il CF consumano un botto anche in idle.

Temo che i giochi aumenteranno di molto l'uso della VRAM, quantomeno per l'attività dei modder, vedi Skyirmm.

Io prima di trarre conclusioni errate aspetterei dei driver maturi.

Nexial
03-01-2012, 11:30
si vabbè però amd ha rotto le valvole con ste schede video, si sforzasse una buona volta a fare qualcosa di serio. ma vi pare normale che va solo 10 fps avanti alla 580? e nemmeno sempre...diciamo nel 60% dei giochi altrimenti o va quasi uguale o viene superata.... a me ste cose danno fastidio. uno dai 28nm si aspetta chissà che, e poi se ne escono con schede con clock disumani che si, vanno d+, ma che comparate all'immenso salto generazionale tecnologico non vanno per niente. questi devi tornare a mietere grano che fanno prima, cosa si aspettano quelli dell'amd? che nvidia tiri fuori una scheda video che faccia 10 fps + della 580?:mbe: questi se le cercano proprio le batoste

Ehm suppongo che come già fatto notare da altri utenti le varie recensioni di HD7970 sui vari siti tecnologici te le sei allegramente saltate. Primo che dal lato FPS non è assolutamente come dici tu. La HD7970 non solo supera la GTX580 ma in certi test supera la dual GTX590. Poi che ci siano test dove la scheda nVidia risulta superiore è assolutamente normale in quanto, storicamente parlando, si sa che ci son giochi con motori grafici ottimizzati per nVidia dove è pressochè impossibile ottenere +FPS di una scheda nVidia di pari livello (e solo ci mancherebbe). Detto ciò la HD7970 non solo da + FPS ma, se ti leggi bene le recensioni troverai che ha anche tutto un corredo di altre features e miglioramenti molto molto interessanti.

ironman72
03-01-2012, 11:45
Ehm suppongo che come già fatto notare da altri utenti le varie recensioni di HD7970 sui vari siti tecnologici te le sei allegramente saltate. Primo che dal lato FPS non è assolutamente come dici tu. La HD7970 non solo supera la GTX580 ma in certi test supera la dual GTX590. Poi che ci siano test dove la scheda nVidia risulta superiore è assolutamente normale in quanto, storicamente parlando, si sa che ci son giochi con motori grafici ottimizzati per nVidia dove è pressochè impossibile ottenere +FPS di una scheda nVidia di pari livello (e solo ci mancherebbe). Detto ciò la HD7970 non solo da + FPS ma, se ti leggi bene le recensioni troverai che ha anche tutto un corredo di altre features e miglioramenti molto molto interessanti.

Normalissimo vada di piu' della concorrenza guai non fosse cosi... solo che la concorrenza e' una serie indietro..
Il vero confronto va fatto con Kepler..
o.t.
tutti a parlare di consumi e consumi sapreste quantificare l'impatto in €?
fine o.t.

Nexial
03-01-2012, 12:14
Ma non capisco questo OT mostruoso che si è generato su consumi ed FPS, in quanto la HD7970 è:

1 - La scheda single GPU con + FPS di tutte
2 - Il livello di consumo è ottimo e di sicuro molto + basso della concorrenza (specialmente in idle).

Detto ciò, chi sta attento ai consumi con sta scheda perfetto perchè consuma poco. Chi vuole il massimo degli FPS perfetto perchè sta scehda è il massimo disponibile al momento.

Aggiungendo che:
1 - Ha 4 CU disabilitate
2 - Ha tanta RAM per garantire compatibilità anche con giochi futuri a risoluzioni elevate
3 - Driver immaturi con un buon margine di miglioramento
4 - Hanno colmato lo svantaggio principale che avevano rispetto le GTX ovvero le performance del tassellation
5 - Ha varie altre migliorie architetturali
6 - Risulta mooooolto overclockabbile anche ad aria e senza dover esagerare con overvolt
7 - L'aumento di prezzo rispetto ad una GTX580 è molto contenuto (a quei livelli di prezzi praticamente trascurabile)

Non capisco proprio perchè tanto fomento. Se (come arrivati a sto punto sembra ovvio) sti dati venissero confermati è innegabile che è la scheda regina e che considerando i piani di nVidia di uscire con Kepler intorno a metà anno, con eventuali disponibilità effettive intorno a settembre, questa rischia di essere per i verdi un'altra batosta tipo la serie HD5xxx. E intendiamoci, simpatizzo per AMD ma questo non mi fa piacere. Se la HD7970 esce a prezzi così altini è proprio perchè AMD sa che, a meno che nVidia non faccia qualche sorpresa dell'ultimo momento, esattamente come la serie HD5xxx non avrà concorrenza "seria" per un bel pezzo. Nel frattempo potrà affinare i processi produttivi etc etc e quando alla fine nVidia uscirà con le GTX6xx AMD potrà giocare la carta o di qualche piccola miglioria (+ clock default + 4CU abilitati) o quella del ribasso dei prezzi (cosa entrati in regime fattibilissima) per schiacciare la concorrenza. Senza considerare che 6 mesi (minimo) di vantaggio gli danno tutto il tempo di star già lavorando sulla serie HD8xxx. Tutto ciò comporta uno svantaggio per noi utenti visto che AMD potrà fare i prezzi come le pare. Vedasi HD5850 e HD5870 che a distanza di un anno circa dalla uscita costavano lo stesso o anche di +.

Nexial
03-01-2012, 12:15
Atomic WC ..... se lo dico a uno poco pratico gli vien da sdraiarsi dalle risate

Rotolo....

leonardo73
03-01-2012, 14:50
Normalissimo vada di piu' della concorrenza guai non fosse cosi... solo che la concorrenza e' una serie indietro..
Il vero confronto va fatto con Kepler..


e quindi non si fanno confronti fino a che non esce la soluzione nvidia? :)

magari so pazzo io, ma il confronto che mi interessa è quello che da come risultato la scheda migliore per fascia di prezzo in questo momento.

roccia1234
03-01-2012, 14:55
Normalissimo vada di piu' della concorrenza guai non fosse cosi... solo che la concorrenza e' una serie indietro..
Il vero confronto va fatto con Kepler..
o.t.
tutti a parlare di consumi e consumi sapreste quantificare l'impatto in €?
fine o.t.

Basandosi su questa pagina:
http://www.tomshw.it/cont/articolo/7970-consumi-temperatura-e-rumorosita/35098/18.html
rispetto alla 7970, in idle:
6970 -> 5 w in più
gtx590 -> 57w in più

Ora, ipotizzando di avere il pc acceso per 12 ore al giorno (volutamente esagerato), sempre in idle, sulla bolletta bimestrale la differenza sarà, o meglio, una 7970 ci farà risparmiare (il prezzo al kwh che ho usato è 0,20€/kwh... ho fatto una media dato che varia in base alla fascia, al contratto, all'orario, ecc ecc. Per avere un'idea penso vada bene):

6970: 5(w)*12(h/gg)*62(gg)*0.00020(€/wh) = 0.744€
gtx590: 57(w)*12(h/gg)*62(gg)*0.00020(€/wh) = 8.48 €

Il risparmio è ridicolo rispetto alla 6970, sensibile rispetto alla gtx590 (8,48€ non ti mandano in bancarotta ma non sono neanche spicci).

Se invece, nelle 12 ore di accensione, 8 fossero in full load e 4 di idle:

6970: 5(w)*4(h/gg)*62(gg)*0.00020(€/wh) + (-)40(w)*8(h/gg)*62(gg)*0.00020(€/wh) = -3.22 €
(la 7970 farebbe spendere 3,224 € in più, dato che in full consuma di più)

gtx590: 57(w)*4(h/gg)*62(gg)*0.00020(€/wh) + 103(w)*8(h/gg)*62(gg)*0.00020(€/wh)= 18,69 €

Ovviamente sono tutti calcoli basati su situazioni ipotetiche.

ironman72
03-01-2012, 15:02
e quindi non si fanno confronti fino a che non esce la soluzione nvidia? :)

magari so pazzo io, ma il confronto che mi interessa è quello che da come risultato la scheda migliore per fascia di prezzo in questo momento.

Io ( e mi pare di essere stato chiaro) parlavo di prestazioni, non di fascia di prezzo.
Attualmente si la 7970 offre il max a 550 euro o giu' di li..
Io comunque aspetto kepler e poi decidero'.. se aspettare Maxwell :D

leonardo73
03-01-2012, 15:06
Io ( e mi pare di essere stato chiaro) parlavo di prestazioni, non di fascia di prezzo.
Attualmente si la 7970 offre il max a 550 euro o giu' di li..
Io comunque aspetto kepler e poi decidero'.. se aspettare Maxwell :D

i confronti si fanno per fascia di prezzo altrimenti non dicono nulla.

poi chiaro che ognuno è libero di fare quello che vuole, ci mancherebbe, ma se dovessi rifarmi il pc ora prenderei una 7970 (o la gemellina) e questo perchè non ha senso per me aspettare, visto che se sono un fomentato nulla mi vieta di godermi la scheda e rivendere dopo sei mesi per comprare altro, no?

ironman72
03-01-2012, 15:11
Basandosi su questa pagina:
http://www.tomshw.it/cont/articolo/7970-consumi-temperatura-e-rumorosita/35098/18.html
rispetto alla 7970, in idle:
6970 -> 5 w in più
gtx590 -> 57w in più

Ora, ipotizzando di avere il pc acceso per 12 ore al giorno (volutamente esagerato), sempre in idle, sulla bolletta bimestrale la differenza sarà, o meglio, una 7970 ci farà risparmiare (il prezzo al kwh che ho usato è 0,20€/kwh... ho fatto una media dato che varia in base alla fascia, al contratto, all'orario, ecc ecc. Per avere un'idea penso vada bene):

6970: 5(w)*12(h/gg)*62(gg)*0.00020(€/wh) = 0.744€
gtx590: 57(w)*12(h/gg)*62(gg)*0.00020(€/wh) = 8.48 €

Il risparmio è ridicolo rispetto alla 6970, sensibile rispetto alla gtx590 (8,48€ non ti mandano in bancarotta ma non sono neanche spicci).

Se invece, nelle 12 ore di accensione, 8 fossero in full load e 4 di idle:

6970: 5(w)*4(h/gg)*62(gg)*0.00020(€/wh) + (-)40(w)*8(h/gg)*62(gg)*0.00020(€/wh) = -3.22 €
(la 7970 farebbe spendere 3,224 € in più, dato che in full consuma di più)

gtx590: 57(w)*4(h/gg)*62(gg)*0.00020(€/wh) + 103(w)*8(h/gg)*62(gg)*0.00020(€/wh)= 18,69 €

Ovviamente sono tutti calcoli basati su situazioni ipotetiche.

Grazie!!! Esauriente spiegazione..che mi porta ad una personalissima e ripeto personalissima conclusione:
alla fine sono tutte seghe mentali, poiche' usare il pc per 12 ore filate ogni giorno non e' da persone normali, dato che si spera la gente lavori, e credo che queste schede siano utilizzate prettamente per il gaming, poi allo stato attuale non esiste un gioco che porti in full una delle schede top attuali.
Ripeto onde evitare commenti inutili che e' un mio pensiero.
Per me invece i parametri importanti oltre le prestazioni sono il silenzio e le temperature, che la mia gtx580dcu2 soddisfano in pieno.

ironman72
03-01-2012, 15:16
i confronti si fanno per fascia di prezzo altrimenti non dicono nulla.

poi chiaro che ognuno è libero di fare quello che vuole, ci mancherebbe, ma se dovessi rifarmi il pc ora prenderei una 7970 (o la gemellina) e questo perchè non ha senso per me aspettare, visto che se sono un fomentato nulla mi vieta di godermi la scheda e rivendere dopo sei mesi per comprare altro, no?

Certo hai ragione,ma avento una 580 dcu2 , per me non avrebbe senso prendere una 7970 adesso, ma forse una ipotetica 780 o quello che sara' tra qualche tempo!

Nexial
03-01-2012, 15:31
Certo hai ragione,ma avento una 580 dcu2 , per me non avrebbe senso prendere una 7970 adesso, ma forse una ipotetica 780 o quello che sara' tra qualche tempo!

Certo un già possessore di scheda grafica HD69xx o GTX57x-59x non ha BISOGNO di cambiare VGA. Ciò non toglie che al giorno di oggi e per i prossimi 6 mesi il topo del top per giocare sarà la HD7970 e se in più ci regala consumi bassi non vedo proprio perchè non allietarsene.

qiplayer
03-01-2012, 16:02
facendo due calcoli tra i 40 nm e 28, avendo a disposizione la stessa superficie per una gpu, se i transistor sono a 28 nanometri occupano il 30% meno spazio che quelli a 40nm.

100/40*28= 70-> 30% di spazio risparmiato.

Se si utilizza lo stesso volume per farci stare più transistor ce ne stanno 42% in più: 100/70*100=142

Non ho ora sottomano se la 7970 è del 40% più performante della 6970, ma non credo, e sicuramente ci sono moltissimi altri fattori da calcolare.

Architetturalmente su due piedi non ci è stato un alto in avanti così enorme.
Non come per esempio intel lo ha fatto con i processori sandy bridge.

La differenza nei sandy bridge si vede nel prezzo, a performance del 10% inferiori costava un terzo all'uscita, rispetto ai processori top di gamma.

Nexial
03-01-2012, 17:38
facendo due calcoli tra i 40 nm e 28, avendo a disposizione la stessa superficie per una gpu, se i transistor sono a 28 nanometri occupano il 30% meno spazio che quelli a 40nm.

100/40*28= 70-> 30% di spazio risparmiato.

Se si utilizza lo stesso volume per farci stare più transistor ce ne stanno 42% in più: 100/70*100=142

Non ho ora sottomano se la 7970 è del 40% più performante della 6970, ma non credo, e sicuramente ci sono moltissimi altri fattori da calcolare.

Architetturalmente su due piedi non ci è stato un alto in avanti così enorme.
Non come per esempio intel lo ha fatto con i processori sandy bridge.

La differenza nei sandy bridge si vede nel prezzo, a performance del 10% inferiori costava un terzo all'uscita, rispetto ai processori top di gamma.

Scusa ma cosa stai dicendo?

Allora giusto per citare qualche altra fonte, che come già detto per qualche ragione in questa web le nVidia hanno sempre punti % in più (non voglio dire che ci sia malafede, però è vero):

http://www.hardware-revolution.com/10-facts-radeon-hd-7970-review/
http://www.anandtech.com/show/5261/amd-radeon-hd-7970-review/28
http://www.guru3d.com/article/amd-radeon-hd-7970-review/25
http://www.tomshardware.com/reviews/radeon-hd-7970-benchmark-tahiti-gcn,3104-18.html

Riassumendo la HD7970 è fra il 20% ed il 40% più veloce (in termini di frame rate) non della 6970 ma della GTX580 (detto in altre parole si ha un miglioramento in framerate rispetto alla 6970 del 40% e più dipendendo dalla risoluzione).

Consuma molto di meno di qualunque altra scheda top di gamma ed in Idle è un fenomeno.

Sta a dei driver praticamente beta e sarà anche vero che con questa nuova architettura i driver incidono di meno ma essendo nuovi nuovi vedrai che i primi aumenti di performance saranno sensibili.

Queste prime versioni reference funzionano con 4 di 36 CU disabilitate e con una frequenza molto più bassa di quella a cui possono funzionare (come dimostra questo stesso articolo).

Riassumendo tutti i punti:
Abilitando i 4CU ed ad una frequenza neanche tanto estrema come la top di questo articolo ma diciamo anche solo a 1100 MHz (dai 975 di default). E dagli non dico tanto tanto ma un 2% di performance in più passando da driver beta a driver maturi il risultato sarebbe:

Attualmente HD7970 = GTX 580 + 25% (media)
13% frequenza
12% CU disabilitati
2% drivers maturi
= 1.25 x 1.13 x 1.12 x 1.02 = 1.61

Cioè che sommando i precedenti punti la HD7970 risulterebbe mediamente il 61% più veloce della GTX580

Ammettiamo anche non applicare tutti i miglioramento ma anche solo il 50% più performante che la GTX 580 ti sembra poco?

E tutto questo avendo anche consumi più bassi, DirectX 11.1 e varie altre migliorie architetturali?

E quanto costa di più di GTX580? Poco, molto poco di più.

Insomma dai è abbastanza facile. Chi vuole farsi il computer per gamer oggi come oggi e per i prossimi 6 mesi si deve comprare una HD7970 (e non mi venite con la GTX590 perchè anche se in certe situazioni può avere più FPS sappiamo tutti che per un vantaggio così contenuto è molto più affidabile una single GPU senza considerare che costa abbastanza meno)