View Full Version : La prima Radeon HD 4870 overcloccata è di Diamond
Redazione di Hardware Upg
30-06-2008, 09:29
Link alla notizia: http://www.hwupgrade.it/news/skvideo/la-prima-radeon-hd-4870-overcloccata-di-diamond_25808.html
Frequenze sensibilmente più elevate di quelle da specifica, soprattutto per la memoria, per la prima scheda video Radeon HD 4870 overcloccata di serie
Click sul link per visualizzare la notizia.
MarkManson
30-06-2008, 09:35
Bene bene....Spero che ati riesca a fare le schede di una volta quando dopo anni spodestò nvidia....perchè il mercato ora come ora dovrebbe premiare un'azienda che cerca di rinnovarsi continuamente...
Olderrimo
30-06-2008, 09:38
bench? :stordita:
monsterman
30-06-2008, 09:38
come solo per il mercato americano e non vendibile separatamente dal pc !
E' un'ingiustizia... bah tanto vale overclockarsela da sé allora senza star lì ad aspettare
li aspettiamo tutti i bench!
campioni del mondo
30-06-2008, 09:42
poca gloria a spodestare nvidia solo per via del prezzo... vorrei vedere una bella rece di 4870 vs 280gtx
ma oltre alle frenquenze maggiorate ha anche il voltaggi maggiorati???se la risposta è no questa scheda è inutile, tanto vale comprarne una normale e cloccarsela da soli.
poca gloria a spodestare nvidia solo per via del prezzo... vorrei vedere una bella rece di 4870 vs 280gtx
AMD vince nel rapporto prezzo/prestazioni....è nvidia che sta facendo una pessima figura a proporre le sue schede (gtx260/280) a prezzi completamente fuori mercato, sono anni che ci mangia su sta roba...grazie ad AMD finalmente un pò di giustizia...imho.
gianni1879
30-06-2008, 09:55
poca gloria a spodestare nvidia solo per via del prezzo... vorrei vedere una bella rece di 4870 vs 280gtx
vorrei vedere una bella recensione HD4870X2 vs GTX280, poi ci facciamo due risate...
confronti una VGA da 220/230€ contro una da 500€ :rolleyes:
gianni1879
30-06-2008, 09:56
ma oltre alle frenquenze maggiorate ha anche il voltaggi maggiorati???se la risposta è no questa scheda è inutile, tanto vale comprarne una normale e cloccarsela da soli.
non penso sia overvoltata.....
sta scheda segue il trend delle vga oc di fabbrica
vorrei vedere una bella recensione HD4870X2 vs GTX280, poi ci facciamo due risate...
confronti una VGA da 220/230€ contro una da 500€ :rolleyes:
e la vga da 220/230 è ancora senza driver. ;)
Mr_Paulus
30-06-2008, 09:57
poca gloria a spodestare nvidia solo per via del prezzo... vorrei vedere una bella rece di 4870 vs 280gtx
ma lo vogliamo capire che sarà r700 a confrontarsi con la gtx280 e non rv770??
ma oltre alle frenquenze maggiorate ha anche il voltaggi maggiorati???se la risposta è no questa scheda è inutile, tanto vale comprarne una normale e cloccarsela da soli.
Io direi invece che se i voltaggi fossero quelli di default sarebbe un'ottima notizia: significherebbe che la scheda sale bene in frequenza senza richiedere tensioni assurde e quindi senza aumentare troppo il calore generato.
sfoneloki
30-06-2008, 09:59
Pienamente daccordo con Mafio.
Io attendo solo che arrivino subito le versioni DDR5 con sistema Vapour-X con qualche ottimizzazione in termini di risparmio energetico.
Se si vuole il TOP mi sà che bisogna spostarsi sul fronte Nvidia, però francamente con i requisiti di alimentazione che si trovano li vedo per la fascia Entusiast.
Mercuri0
30-06-2008, 09:59
poca gloria a spodestare nvidia solo per via del prezzo... vorrei vedere una bella rece di 4870 vs 280gtx
nVidia è stata spodestata non sul prezzo, ma sul costo. ;)
Dici che AMD o nVidia stessa non sarebbero capaci già ora di fare una GPU ancora più veloce raffreddata ad azoto liquido e dal prezzo di 2000€? Che gloria ci sarebbe in questo?
E' possibile l'overvolt da sw con le hd48x0?
PhoEniX-VooDoo
30-06-2008, 10:01
li aspettiamo tutti i bench!
si ma di questo passo se non li pubblica HWU (hanno scritto di non aver avuto tempo per includere anche quelli della 4870 nel ultima review..) asptterete in eterno?
...no perchè i bench sono usciti da alcuni giorni su moltissimi siti eh...
> http://www.8dimensional.com/ (raccolta)
sta scheda mi ganza parecchio... è tempo di cambiare la mia 9600 gt per prendere una 4870 :D
Io direi invece che se i voltaggi sono quelli di default sarebbe un'ottima notizia, significherebbe che la scheda sale bene in frequenza senza richiedere tensioni assurde e quindi senza aumentare troppo il calore generato.
su un'altro forum c'è chi ha tirato le memorie a 4.8ghz...io sinceramente una vga del genere la comprerei solo se avesse i voltaggi maggiorati, altrimenti reference board e vmod casalinga spendendo molto meno.
Pienamente daccordo con Mafio.
Io attendo solo che arrivino subito le versioni DDR5 con sistema Vapour-X con qualche ottimizzazione in termini di risparmio energetico.
Se si vuole il TOP mi sà che bisogna spostarsi sul fronte Nvidia, però francamente con i requisiti di alimentazione che si trovano li vedo per la fascia Entusiast.
il top è comunque ati...con 2 4870 si fa nettamente più forte che con una gtx280 e si spende pure meno...
illidan2000
30-06-2008, 10:09
cmq una 4870x2 andrebbe come una gtx280, visto che una 4870 va come una 9800+ e una gtx va il doppio di una 9800+ (come una gx2). a quel punto nVidia abbassa i prezzi, e conviene prendere cmq la gtx per consumi, rumorosità, calore, spazio nel case
gianni1879
30-06-2008, 10:09
su un'altro forum c'è chi ha tirato le memorie a 4.8ghz...io sinceramente una vga del genere la comprerei solo se avesse i voltaggi maggiorati, altrimenti reference board e vmod casalinga spendendo molto meno.
il top è comunque ati...con 2 4870 si fa nettamente più forte che con una gtx280 e si spende pure meno...
basta aspettare R700 per avere il top ;)
cmq una 4870x2 andrebbe come una gtx280. a quel punto nVidia abbassa i prezzi, e conviene prendere cmq la gtx per consumi, rumorosità, calore, spazio nel case
una 4870x2 andrebbe moooolto ma moooooolto di più rispetto a una gtx280...
gianni1879
30-06-2008, 10:10
cmq una 4870x2 andrebbe come una gtx280. a quel punto nVidia abbassa i prezzi, e conviene prendere cmq la gtx per consumi, rumorosità, calore, spazio nel case
e da quando??
se un CF di HD4850 (tot 280€) batte già la gtx280 figuriamoci R700, che si vocifera interessanti novità rispetto a r680.
poi come fa una HD4870 ad andare come una 9800gtx+, quando quest'ultima è solo il 10% più veloce di una 9800gtx? dato che una 9800gtx va come una HD4850 (+-), mentre una HD4870 va in media il 30% più veloce della HD4850, qualcosa non conta nei tuoi conti....
campioni del mondo...
che senso ha confrontare una scheda da 230 euro con una che costa il doppio?
confronteremo una scheda da 400 euro con gtx280, quando amd la rilascerà...
Mercuri0
30-06-2008, 10:14
visto che una 4870 va come una 9800+
Proprio no. La 4870 va più veloce di una GTX260.
Penso che molta gente si sita confondendo per il prezzo basso delle Radeon: suggerisco di guardare le review.
cmq una 4870x2 andrebbe come una gtx280, visto che una 4870 va come una 9800+ e una gtx va il doppio di una 9800+ (come una gx2). a quel punto nVidia abbassa i prezzi, e conviene prendere cmq la gtx per consumi, rumorosità, calore, spazio nel case
la 4850 va più forte della 9800gtx :asd:
nickfede
30-06-2008, 10:18
cmq una 4870x2 andrebbe come una gtx280, visto che una 4870 va come una 9800+ e una gtx va il doppio di una 9800+ (come una gx2). a quel punto nVidia abbassa i prezzi, e conviene prendere cmq la gtx per consumi, rumorosità, calore, spazio nel case
.....vai avanti tu a farti spennare da NVidia.........io mi chiedo cosa ci si guadagna a fare commenti da fanboy come questi.....
.....vediamo cosa inventerete quando uscirà R700 e i bench saranno impietosi per la serie GTX............e quando poi NVidia abbandonerà il megachippone per la soluzione multiGpu di Ati.......
poca gloria a spodestare nvidia solo per via del prezzo... vorrei vedere una bella rece di 4870 vs 280gtx
Non sono assolutamente d'accordo. Non è da tutti poter proporre schede performanti a prezzi stracciati. Altrimenti altri produttori avrebbero scelto questa via. Se conti poi che AMD/ATI non naviga esattamente i ottime acque dal punto di vista finanziario direi che non può permettersi di vendere sotto costo, come invece potrebbe fare Intel per provare a buttare fuori dal mercato cpu AMD.
Infine vorrei sapere perché ci si lamenta se qualcuno produce una buona scheda e la vende a 200 $ (o 300 nel caso della 4870). Vi pesano i soldi in tasca?
DakmorNoland
30-06-2008, 10:23
4870 512MB vs 280GTX 1GB ;)
http://techreport.com/r.x/radeon-hd-4870/grid.gif
http://images.hardwarecanucks.com/image/skymtl/GPU/PALIT-HD4870/PALITHD4870-68.jpg
http://techreport.com/r.x/radeon-hd-4870/crysis-1920-high.gif
http://techreport.com/r.x/radeon-hd-4870/assassinscreed.gif
Mi sa che gli ingegneri Nvidia dovranno darsi parecchio da fare perchè a parte in Crysis la 4870 stravince su una scheda che costa 250€ in più! :eek:
illidan2000
30-06-2008, 10:27
.....vai avanti tu a farti spennare da NVidia.........io mi chiedo cosa ci si guadagna a fare commenti da fanboy come questi.....
.....vediamo cosa inventerete quando uscirà R700 e i bench saranno impietosi per la serie GTX............e quando poi NVidia abbandonerà il megachippone per la soluzione multiGpu di Ati.......
nn ho detto che voglio comprare la gtx280 subito. ma quando i prezzi saranno onesti sì
@darmororland: può essere che i test che hai postato sono gli unici sporadici casi di parte nei quali una 4870 va meglio di una gtx280...
nn prendetemi per fanboy, prima della 8800 avevo una x1800xt
goldorak
30-06-2008, 10:28
poca gloria a spodestare nvidia solo per via del prezzo... vorrei vedere una bella rece di 4870 vs 280gtx
Cioe' spiegami un attimo, vorresti vedere una scheda che costa 250 € dare delle battoste ad una che ne costa il doppio ? 500 e rotti € ?
Magari intendevi un paragone con la GTX260 che di € ne costa comunque 400 e rotti. Ma anche li non ce' sorpresa per chi ha gia' letto le recensioni sul web.
kliffoth
30-06-2008, 10:28
vorrei vedere una bella recensione HD4870X2 vs GTX280, poi ci facciamo due risate...
confronti una VGA da 220/230€ contro una da 500€ :rolleyes:
Io non capisco perche' prima di parlare non si pensa: ATI ha dichiarato che innovera' solo in fascia media e si affidera' al CrossFire in fascia alta.
Questo significa che la rivale della GTX280 NON e' la 4870, bensi' la 4870x2 (uscita prevista: 8 luglio)
Ora siano quali siano i motivi aziendali o tecnologici, non sta a noi indagare (da un lato ATI ha tecnologie piu' innovative, dall'altro ha avuto problemi a macinare poligoni).
Si trova in rete la tabella riassuntiva dei competitors secondo ATI, e l 4850 addirittura ha superato quanto previsto.
Infine il CrossFire scala meglio di SLI, (dato certo), quindi la scelta di ATI ha pure un senso.
Non dimentichiamo che poi non tutti usano risoluzioni a 16.000x9.000, e che l'approccio scelto da ATI permette agli utenti di avere tutte le features in codifica video etc etc anche su modelli di fascia media, lasciando ai patiti la scelta di spedere di piu' per una cheda piu' veloce.
DakmorNoland
30-06-2008, 10:33
Non dimentichiamo che poi non tutti usano risoluzioni a 16.000x9.000, e che l'approccio scelto da ATI permette agli utenti di avere tutte le features in codifica video etc etc anche su modelli di fascia media, lasciando ai patiti la scelta di spedere di piu' per una cheda piu' veloce.
Guarda che le AMD rendono meglio proprio a risoluzioni alte e con i filtri attivi! Altro che fascia media! Hanno prezzi da fascia media ma prestazioni da fascia alta! Basta che dai un'occhiata ai grafici che ho postato qui sopra dove se la gioca alla pari con la 280GTX! Addirittura è alla pari con DMC 4 gioco notoriamente a vantaggio di Nvidia!
gianni1879
30-06-2008, 10:33
Io non capisco perche' prima di parlare non si pensa: ATI ha dichiarato che innovera' solo in fascia media e si affidera' al CrossFire in fascia alta.
Questo significa che la rivale della GTX280 NON e' la 4870, bensi' la 4870x2 (uscita prevista: 8 luglio)
Ora siano quali siano i motivi aziendali o tecnologici, non sta a noi indagare (da un lato ATI ha tecnologie piu' innovative, dall'altro ha avuto problemi a macinare poligoni).
Si trova in rete la tabella riassuntiva dei competitors secondo ATI, e l 4850 addirittura ha superato quanto previsto.
Infine il CrossFire scala meglio di SLI, (dato certo), quindi la scelta di ATI ha pure un senso.
Non dimentichiamo che poi non tutti usano risoluzioni a 16.000x9.000, e che l'approccio scelto da ATI permette agli utenti di avere tutte le features in codifica video etc etc anche su modelli di fascia media, lasciando ai patiti la scelta di spedere di piu' per una cheda piu' veloce.
ma chi ha mai detto mai che la 4870 è la rivale della gtx280??? ( hai sbagliato a quotare, o non ho capito se sostenevi a sto punto il mio discorso.... :boh: )
Romeosardo
30-06-2008, 10:34
Ragazzi il trend è questo, non è più possibile vendere schede video a 6-700 euro con la concorrenza mustruosa di console che hanno giochi bellissimi ed esclusivi, così come andrà piano piano a decadere le modalità sli o crossfire (mettere 2-3 o addiruttura 4 schede in parallelo che consumano quanto una stufetta elettrica e fanno lo stesso casino di un fon per capelli! personalmente non conosco una sola persona che abbia adottato soluzioni sli!) Adesso è possibile aquistare ottime e velocissime schede video a meno di 300 euro.. ben venga la concorrenza, le soluzioni razionali ed il vero progresso!
kliffoth
30-06-2008, 10:46
ma chi ha mai detto mai che la 4870 è la rivale della gtx280??? (mi sa che tu devi leggere ciò che uno scrive oppure hai sbagliato a quotare, o non ho capito se sostenevi a sto punto il mio discorso.... :boh: )
Cavolo ho sbagliato QUOTE!!!!!
Comunque io non supporto nessuno, ne' ATI ne' nVida, e quando ho 2 soldi in tasca vedo che c'e' in giro (ho avuto schede di entrambi)...ma stavolta ATI sbanca.
Il problema credo, da un punto di vista commerciale per ATI, non e' il nuovo chip nVidia, ma l'immensa base di ottime 8800 gia' installate, che tuttosommato credo un altro annetto se lo faranno tranquillamente
Dopo aver visto i consumi della HD 4870:
http://www.pcgameshardware.de/aid,648637/Test/Benchmark/RV770-Test_Radeon_HD_4800_im_Technik-Check/&menu=browser&image_id=844258&article_id=648637&page=1&show=original
http://en.expreview.com/2008/06/24/first-review-hd-4870-and-hd-4850/5/
In questi 2 siti hanno usato il Furmark.
Ed il funzionamento o meno del Powerplay in full load, è ininfluente
sono curioso di vedere i consumi della HD4870 X2, a questo punto :-)
Nota sulla scheda Diamond: ha la particolarità del bios sbloccato per salire fino a 950/1200.
Se si potrà rimediare il bios, nulla vieta il flash su qualsiasi HD 4870, a proprio rischio, ovviamente
gianni1879
30-06-2008, 10:53
Cavolo ho sbagliato QUOTE!!!!!
Comunque io non supporto nessuno, ne' ATI ne' nVida, e quando ho 2 soldi in tasca vedo che c'e' in giro (ho avuto schede di entrambi)...ma stavolta ATI sbanca.
Il problema credo, da un punto di vista commerciale per ATI, non e' il nuovo chip nVidia, ma l'immensa base di ottime 8800 gia' installate, che tuttosommato credo un altro annetto se lo faranno tranquillamente
ok ;)
MacCarron
30-06-2008, 10:56
Dopo aver visto i consumi della HD 4870:
http://www.pcgameshardware.de/aid,648637/Test/Benchmark/RV770-Test_Radeon_HD_4800_im_Technik-Check/&menu=browser&image_id=844258&article_id=648637&page=1&show=original
http://en.expreview.com/2008/06/24/first-review-hd-4870-and-hd-4850/5/
In questi 2 siti hanno usato il Furmark.
Ed il funzionamento o meno del Powerplay in full load, è ininfluente
sono curioso di vedere i consumi della HD4870 X2, a questo punto :-)
Nota sulla scheda Diamond: ha la particolarità del bios sbloccato per salire fino a 950/1200.
Se si potrà rimediare il bios, nulla vieta il flash su qualsiasi HD 4870, a proprio rischio, ovviamente
Porca vacca si risparmieranno bei soldoni sulle schede ma a fine anno ti ritornano tutti in bolletta e con gli interessi :doh:
kliffoth
30-06-2008, 10:56
Guarda che le AMD rendono meglio proprio a risoluzioni alte e con i filtri attivi! Altro che fascia media! Hanno prezzi da fascia media ma prestazioni da fascia alta! Basta che dai un'occhiata ai grafici che ho postato qui sopra dove se la gioca alla pari con la 280GTX! Addirittura è alla pari con DMC 4 gioco notoriamente a vantaggio di Nvidia!
Si si, hai ragione (anzi e' impressionante come abbiano risolto il problema con l'AA della passata generazione!), infatti per risoluzioni inferiori oramai va bene tutto, ma mi premeva dire come, anche tralasciando il top, a scelta di ATI permette di avere tutte quelle features non necessariamente ludiche gia' in fascia media, e poi il prezzo e' incredibile davvero.
In sostanza credo che l'uso del CF permette di investire anche in qualita' di immagine e funzioni varie, lasciando i poligoni al CF.
Che poi macinino da paura anche in singolo e' tutto grasso che cola!
Comunque non dimentichiamo che nonostante la resa pessima, la serie 2x00 era molto molto innovativa a livello di architettura ...forse l'esperienza ha giovato.
Speriamo anche con le CPU si possa tornare a scegliere tra 2 produttori (in fondo l'architettura del Phenom e' piu' innovativa)...ma la vedo dura: intel sta lavorando bene
kliffoth
30-06-2008, 11:04
Porca vacca si risparmieranno bei soldoni sulle schede ma a fine anno ti ritornano tutti in bolletta e con gli interessi :doh:
...oddio, la differenza in fondo e' di poco piu' di 20 W in idle.
Comunque io infatti prenderei la semplice 4850 (che ancora rientra in consumi umani), tanto non giocherei mai a risoluzioni altissime, sia per mancanza di denaro e sia per il fatto che tra il mio viso e il monitor sulla scrivania non ci sono tanti metri e mi piace abbracciare tutto lo schermo senza farmi bruciare dalle lampade
shadowlord88
30-06-2008, 11:19
ma alla fine ste gddr5 non vanno molto di piu delle vecchie mi pare... a 900 mhz ci arrivano anche le gdd3 della 8800gt... certo che sono in "quad" ma, scusate l'ignoranza, è solo questa la differenza ?
Diciamo che oggi la HD4850 è la scelta migliore, imho, e la HD 4870 non vale la spesa aggiuntiva.
Ma io aspetterei che incominci davvero la guerra dei prezzi tra Amd ed Nvidia, prima di muovermi, specie con l'attuale situazione dei mercati.
Proprio la vicinanza prestazionale di queste gpu renderà lo scontro tra Amd ed Nvidia più acceso. A noi va' bene, ma non è un caso che in borsa entrambi i titoli li stanno massacrando da un mese a questa parte.
ma alla fine ste gddr5 non vanno molto di piu delle vecchie mi pare... a 900 mhz ci arrivano anche le gdd3 della 8800gt... certo che sono in "quad" ma, scusate l'ignoranza, è solo questa la differenza ?
se ti sembrano pochi 2ghz di frequenza effettiva in +........ senza contare che il limite delle gddr5 ancora non si è capito bene di quanto sia..... un noto sito di test/bench parlava di 6/7ghz teorici....
Bull's eye
30-06-2008, 11:22
ma alla fine ste gddr5 non vanno molto di piu delle vecchie mi pare... a 900 mhz ci arrivano anche le gdd3 della 8800gt... certo che sono in "quad" ma, scusate l'ignoranza, è solo questa la differenza ?
si è solo questa la differenza mentre le gddr3 sono reali 1800mhz(900x2)
queste sono reali a 3600mhz(900x4) scusa se è poco e da questi orerclock da fab possiamo già vedere 4400mhz:fagiano:
shadowlord88
30-06-2008, 11:29
scusate mi sono espresso male... anche per me, da buon gamer, è un traguardo fantastico, ma pensavo fosse un passo avanti sulle frequenze non sui controller... disinformazione mia... allora per avere un GB di ddr5 non costera' un occhio in piu !!!
campioni del mondo
30-06-2008, 11:39
[QUOTE]nVidia è stata spodestata non sul prezzo, ma sul costo.
Dici che AMD o nVidia stessa non sarebbero capaci già ora di fare una GPU ancora più veloce raffreddata ad azoto liquido e dal prezzo di 2000€? Che gloria ci sarebbe in questo?[\QUOTE]
non vedo molta differenza tra i 450 euro di una 280gtx ai 400 di una 4870x2 quando e' uscita, mentre vedo differenze abissali in prestazioni e meno problemi nei driver come al soloiuto, e te lo dice uno che ha cambiato almeno 10 vga ati ed era convinto che ati fosse il non plus ultra fino a qualche tempo fa. pure chi ha comprato una 8800ultra due anni fa ha speso una cifra ma la sta ancora usando e forse non vede il motivo per cambiarla.
non facciamoci fregare dai punteggi di 3d mark e test integrati nei giochi, dove ati ampiamente ci marcia perche progetta vga solo per fare punteggioni.
lancia un collin mcrae dirt a ris max e vedi la differenza in fps
campioni del mondo
30-06-2008, 11:40
volevo dire 3870x2 scusate
Le GDDR5 non costano poco, e penso che ora preferiscano vendere due Hd4870 con 512Mb, invece che una sola con 1Gb :-)
Man mano che salirà la produzione, aumenteranno le schede con 1Gb.
Nel frattempo, c'è pur sempre la HD4850 1Gb che costa 50 euro in più della 512Mb: peccato che non abbia trovato una sola recensione :-(
kliffoth
30-06-2008, 11:46
io anche ho avuto vga di entrambi e non ho avuto alcun problema (il singolo titolo non fa testo)
Invece appoggio appieno il fatto di guardare l'uso reale e non i bench.
Ci sono recensioni in tal senso??
(PS se non ricordo male anche nVida baro' clamorosamente con una driver release proprio per superare un bench...se non erro era una serie 5)
Mr_Paulus
30-06-2008, 11:47
Dopo aver visto i consumi della HD 4870:
http://www.pcgameshardware.de/aid,648637/Test/Benchmark/RV770-Test_Radeon_HD_4800_im_Technik-Check/&menu=browser&image_id=844258&article_id=648637&page=1&show=original
http://en.expreview.com/2008/06/24/first-review-hd-4870-and-hd-4850/5/
In questi 2 siti hanno usato il Furmark.
Ed il funzionamento o meno del Powerplay in full load, è ininfluente
sono curioso di vedere i consumi della HD4870 X2, a questo punto :-)
Nota sulla scheda Diamond: ha la particolarità del bios sbloccato per salire fino a 950/1200.
Se si potrà rimediare il bios, nulla vieta il flash su qualsiasi HD 4870, a proprio rischio, ovviamente
o beh..in full la differenza è di 4 w con la 280 mentre il dato in idle è da lasciar perdere visto che non funge il powerplay..ergo aspettiamo drivers e r700 prima di parlare ;)
Mr_Paulus
30-06-2008, 11:53
non vedo molta differenza tra i 450 euro di una 280gtx ai 400 di una 4870x2 quando e' uscita, mentre vedo differenze abissali in prestazioni e meno problemi nei driver come al soloiuto, e te lo dice uno che ha cambiato almeno 10 vga ati ed era convinto che ati fosse il non plus ultra fino a qualche tempo fa. pure chi ha comprato una 8800ultra due anni fa ha speso una cifra ma la sta ancora usando e forse non vede il motivo per cambiarla.
non facciamoci fregare dai punteggi di 3d mark e test integrati nei giochi, dove ati ampiamente ci marcia perche progetta vga solo per fare punteggioni.
lancia un collin mcrae dirt a ris max e vedi la differenza in fps
adesso la 3870x2 costa 250€ e comunque stai confrontando schede di generazioni diverse..
ma scusa, ok per il 3dmerd ma se non confrontiamo le prestazioni nei giochi cosa confrontiamo? il punteggio di vista per far girare aero????:asd: ma non diciamo fesserie per favore
ottima notizia!!
cmq mi stupisco di certi commenti, cioè certa gente si arrampica proprio sugli specchi quindo sa benissimo che la loro cara nvidia in questa generazione è stata letteralmente smerdata..... oltre al fatto che continua a proporre un'architettura vecchia! a differenza di amd :rolleyes:
Se Nvidia ha problemi di resa produttiva dei GT200, sostanzialmente, non è che ci riguardi più di tanto.
Sono le mutue prestazioni a stabilire il prezzo di vendita, e lo sa bene anche Amd quando fece uscire la 2900XT prima e la HD3870 poi.
La GTX 260 dovrà essere venduta non agli attuali 270-300 euro, ma a 200-230 euro, che ad Nvidia piaccia o no.
Le discrete gpu di queste fascia sono una piccola nicchia di mercato: chissenefrega se ci rimettono.
Tanto i soldi si fanno dal video integrato e dalle "schedine" da 30-40 euro. In queste, vendere + 0 - 5$ fa' la vera differenza sui bilanci.
Mr_Paulus
30-06-2008, 12:03
Se Nvidia ha problemi di resa produttiva dei GT200, sostanzialmente, non è che ci riguardi più di tanto.
Sono le mutue prestazioni a stabilire il prezzo di vendita, e lo sa bene anche Amd quando fece uscire la 2900XT prima e la HD3870 poi.
La GTX 260 dovrà essere venduta non agli attuali 270-300 euro, ma a 200-230 euro, che ad Nvidia piaccia o no.
Le discrete gpu di queste fascia sono una piccola nicchia di mercato: chissenefrega se ci rimettono.
Tanto i soldi si fanno dal video integrato e dalle "schedine" da 30-40 euro. In queste, vendere + 0 - 5$ fa' la vera differenza sui bilanci.
beh..leggendo il forum viene da pensare che potrebbe anche lasciarli così i prezzi, tanto ci sono i vari aficionados che comprano comunque :asd:
xMr_Paulos: come ho detto.
Il consumo in full load non è influenzato dal Powerplay, e non dipende dai driver. Si chiama "full load" per questo motivo :-)
gianni1879
30-06-2008, 12:04
volevo dire 3870x2 scusate
gtx280 al debutto erano 550 eurozzi! adesso la si trova a 500, se per te 150euro sono pochi... e cmq parlare di generazioni passate non capisco il senso. parliamo della hd4870 che si trova a 220/230 euro già adesso che in media è poco più lenta della gtx280 di nemmeno 10%, in realtà ancora meno
Mr_Paulus
30-06-2008, 12:08
xMr_Paulos: come ho detto.
Il consumo in full load non è influenzato dal Powerplay, e non dipende dai driver. Si chiama "full load" per questo motivo :-)
http://www.hwupgrade.it/forum/showthread.php?t=1770935&page=39
se invece guardi qua c'è un grafico che dice che anche in full ci possono essere dei piccoli miglioramenti grazie al powerplay ;)
e comunque io parlavo di miglioramenti in idle
desmacker
30-06-2008, 12:09
nn ho detto che voglio comprare la gtx280 subito. ma quando i prezzi saranno onesti sì
@darmororland: può essere che i test che hai postato sono gli unici sporadici casi di parte nei quali una 4870 va meglio di una gtx280...
nn prendetemi per fanboy, prima della 8800 avevo una x1800xt
Normalmente la gtx280 è circa 10% più veloce dell'HD4870,ma da quì a dire che la HD4870 è veloce come la 9800gtx+ o lo considero un'errore di battitura o significa non essere informati sulle effettive prestazioni dell'HD4870.
yossarian
30-06-2008, 12:12
[QUOTE]nVidia è stata spodestata non sul prezzo, ma sul costo.
Dici che AMD o nVidia stessa non sarebbero capaci già ora di fare una GPU ancora più veloce raffreddata ad azoto liquido e dal prezzo di 2000€? Che gloria ci sarebbe in questo?[\QUOTE]
non vedo molta differenza tra i 450 euro di una 280gtx ai 400 di una 4870x2 quando e' uscita, mentre vedo differenze abissali in prestazioni e meno problemi nei driver come al soloiuto, e te lo dice uno che ha cambiato almeno 10 vga ati ed era convinto che ati fosse il non plus ultra fino a qualche tempo fa. pure chi ha comprato una 8800ultra due anni fa ha speso una cifra ma la sta ancora usando e forse non vede il motivo per cambiarla.
non facciamoci fregare dai punteggi di 3d mark e test integrati nei giochi, dove ati ampiamente ci marcia perche progetta vga solo per fare punteggioni.
lancia un collin mcrae dirt a ris max e vedi la differenza in fps
intendi tipo la path dx10.1 di assassin creed?
Se il Powerplay spegne o riduce il vgpu di alcuni Sp non impegnati, vuol dire che l'applicativo non è in full load, e non è la condizione più gravosa.
E' un po' come mandare un solo Prime95 su un dual core.
Con i giochi funziona il Powerplay, pacifico, ma se per dirne una, voglio programmare la gpu e sfruttare tutti gli SP, necessito di sapere se il dissipatore o l'alimentatore ce la fa', e non schiatta di colpo :-)
Mr_Paulus
30-06-2008, 12:19
Se il Powerplay spegne o riduce il vgpu di alcuni Sp non impegnati, vuol dire che l'applicativo non è in full load, e non è la condizione più gravosa.
E' un po' come mandare un solo Prime95 su un dual core.
Con i giochi funziona il Powerplay, pacifico, ma se per dirne una, voglio programmare la gpu e sfruttare tutti gli SP, necessito di sapere se il dissipatore o l'alimentatore ce la fa', e non schiatta di colpo :-)
bo..qui bisognerebbe chiedere a yossarian, comunque può capitare che durante un gioco, in certi istanti, certe parti della gpu non vengano utilizzate e quindi vengano spente o ridotte di frequenza..(sempre se il powerplay può farlo ovviamente).comunque se il consumo in full è calcolato come sulle cpu amd possiamo essere abbastanza sicuri che non verrà mai raggiunto ;)
yossarian
30-06-2008, 12:23
Se Nvidia ha problemi di resa produttiva dei GT200, sostanzialmente, non è che ci riguardi più di tanto.
Sono le mutue prestazioni a stabilire il prezzo di vendita, e lo sa bene anche Amd quando fece uscire la 2900XT prima e la HD3870 poi.
La GTX 260 dovrà essere venduta non agli attuali 270-300 euro, ma a 200-230 euro, che ad Nvidia piaccia o no.
Le discrete gpu di queste fascia sono una piccola nicchia di mercato: chissenefrega se ci rimettono.
Tanto i soldi si fanno dal video integrato e dalle "schedine" da 30-40 euro. In queste, vendere + 0 - 5$ fa' la vera differenza sui bilanci.
e a quanto dovrebbe vendere gli altri scarti della 280 (quelli che usciranno ancora più "castrati della 260)? Tieni conto che la linea di produzione è unica per tutti i chip e i costi sono piuttosto elevati.
Il TDP delle HD4850 e HD4870 è 110W e 157W, se è per questo.
La HD3870 è 105W.
A me non sembra che tra HD4850 e HD3870 ci siano solo 5W.
Diciamo che questa volta il consumo reale è assai vicino a quello dichiarato, e non era così con le 2900XT e Hd3870 X2, per esempio.
yossarian
30-06-2008, 12:35
Se il Powerplay spegne o riduce il vgpu di alcuni Sp non impegnati, vuol dire che l'applicativo non è in full load, e non è la condizione più gravosa.
E' un po' come mandare un solo Prime95 su un dual core.
Con i giochi funziona il Powerplay, pacifico, ma se per dirne una, voglio programmare la gpu e sfruttare tutti gli SP, necessito di sapere se il dissipatore o l'alimentatore ce la fa', e non schiatta di colpo :-)
è corretto; il powerplay spegne o riduce la tensione di quei circuiti che non sono impegnati nell'elaborazione, quindi quando si è in full tutti i circuiti sono attivi ed al massimo della tensione. Nella realtà è difficile stabilire se, ad esempio, facendo girare crysis (o qualunque altro titolo) si sia effettivamente in full load e tutti i circuiti siano effettivamente coinvolti nell'elaborazione. Ovvio che se il clock gating non è gestito al meglio può succedere che alcuni circuiti non coinvolti nell'elaborazione siano, invece, attivi. Questo senza entrare nel merito di cosa cambia se il clock gating è gestito per blocchi o per singolo transistor
Mr_Paulus
30-06-2008, 12:36
calcoliamo anche che hanno aggiunto 300M di transistors senza cambiare il processo produttivo, non si poteva sperare che il consumo non aumentasse.
poi io comunque dico di aspettare che escano i drivers col supporto al powerplay per vedere come migliorano i consumi in idle, per il consumo in load se ci saranno miglioramenti bene, altrimenti amen, comunque non è che la sv è tutto il giorno in full, per la bolletta contano molto di più i consumi in idle (almeno per me, visto che tengo il pc tutto il giorno attaccato a internet, ma che gioco se va bene un'oretta al giorno)
x yossarian: lo so' che la linea di produzione è unica.
Ma so' anche che il prodotto, che piaccia o no, deve essere venduto.
Che sia con bassi margini di guadagno, a costo o sottocosto, è un loro problema.
Le GT200 sono qualche decina di migliaia di gpu al mese, un numero estremamente basso rispetto alle altre gpu. Posso farlo.
poca gloria a spodestare nvidia solo per via del prezzo... vorrei vedere una bella rece di 4870 vs 280gtxSi dovrebbe ragionare per fasce di prezzo veramente.
yossarian
30-06-2008, 13:35
x yossarian: lo so' che la linea di produzione è unica.
Ma so' anche che il prodotto, che piaccia o no, deve essere venduto.
Che sia con bassi margini di guadagno, a costo o sottocosto, è un loro problema.
Le GT200 sono qualche decina di migliaia di gpu al mese, un numero estremamente basso rispetto alle altre gpu. Posso farlo.
le gpu prodotte, basate su GT2x0, compresi gli scarti (finora non commercializzati, anche perchè si andrebbero a sovrapporre a gpu basate su G9x come prestazioni) sono sensibilmente di più e bisogna ammortizzarne il costo. Per farlo è necessario affinare il porcesso produttivo epr aumentare le rese e, in un secondo tempo, passare a 55 nm (che nVidia sta testando adesso con la GTX+). Inoltre, se nVidia non rivede qualcosa a livello di architettura, sarà costretta a produrre chip sempre più grandi e costosi (come sta di fatto avvenendo)
Foglia Morta
30-06-2008, 13:49
le gpu prodotte, basate su GT2x0, compresi gli scarti (finora non commercializzati, anche perchè si andrebbero a sovrapporre a gpu basate su G9x come prestazioni) sono sensibilmente di più e bisogna ammortizzarne il costo. Per farlo è necessario affinare il porcesso produttivo epr aumentare le rese e, in un secondo tempo, passare a 55 nm (che nVidia sta testando adesso con la GTX+)
Secondo me non gli conviene un GT200 a 55nm con solamente frequenze più alte.
Più banda passante di così ( 512bit di bus , 2200 Mhz GDDR3 ) non ne può avere, e quindi l'aumento delle frequenze sarebbe utile fino a un certo punto.
La X2 non ce la puoi fare ugualmente cause die size e bus 512bit e quindi pcb da costi altissimi.
E IMHO le prestazioni non sarebbero tali da battere R700 ( che è ancora da vedere ma più o meno si può immaginare ) in maniera evidente.
Poi il CEO di nVidia aveva detto che il G92 (e G92b ) sarebbero rimasti sul mercato altri 6-8-12 mesi. IMHO a Febbraio/Marzo esce una nuova gpu , stavolta con un nuovo memory controller e quindi GDDR5 .
yossarian
30-06-2008, 13:59
Secondo me non gli conviene un GT200 a 55nm con solamente frequenze più alte.
Più banda passante di così ( 512bit di bus , 2200 Mhz GDDR3 ) non ne può avere, e quindi l'aumento delle frequenze sarebbe utile fino a un certo punto.
La X2 non ce la puoi fare ugualmente cause die size e bus 512bit e quindi pcb da costi altissimi.
E IMHO le prestazioni non sarebbero tali da battere R700 ( che è ancora da vedere ma più o meno si può immaginare ) in maniera evidente.
Poi il CEO di nVidia aveva detto che il G92 (e G92b ) sarebbero rimasti sul mercato altri 6-8-12 mesi. IMHO a Febbraio/Marzo esce una nuova gpu , stavolta con un nuovo memory controller e quindi GDDR5 .
una volta ottimizzate le rese a 55nm (e per questo serve la GTX+), il passaggio ad un processo produttivo inferiore può servire, più che per le prestazioni (una gtx280 a 55 nm non ha comunque speranze di competere con r700, e se si dovessero iniziare ad introdurre alcune feature delle dx10.1 il divario crescerebbe ancora), per ridurre i costi di produzione e rendere i chip della serie GT200 più appetibili senza essere costretti a vendere in perdita.
E' probabile che la nuova gpu che sostituirà G92 sarà, presumibilmente, un derivato di GT200, magari a 55 nm (è per questo che non si sono sbilanciati sui tempi di immissione sul mercato del nuovo chip). Non credo che, nel frattempo, rivedano l'architettura di GT200 e del suo MC, perchè questo comporterebbe una revisione, su tutta la serie, di buona parte dell'architettura della GPU
riuzasan
30-06-2008, 14:01
nn ho detto che voglio comprare la gtx280 subito. ma quando i prezzi saranno onesti sì
@darmororland: può essere che i test che hai postato sono gli unici sporadici casi di parte nei quali una 4870 va meglio di una gtx280...
nn prendetemi per fanboy, prima della 8800 avevo una x1800xt
Scusa ma hai postato una boiata assurda paragonando una 4870 ad una 9800 ... e comenti pure i risultati di benchamark veri ???
Io mi nasconderei in un tombino o mi scuserei per le inesatte e faziose cose postate.
La notizia è un pelo incompleta.....
"Diamond's custom firmware unlocks the GPU and memory clocks so that they could be raised to 950MHz for the GPU and stunning 1,200MHz (4.8GHz effectively) for the memory."
O_o
il bios è sbloccato e consente di portare a 950MHz il core, (overclock di oltre il 25%) e la memoria a 1200Mhz (overclock di oltre il 30%)
Sticazzi!!!!!!!! Magari servirà un cooler serio o il liquido... ma che siano previste frequenze del genere è strabiliante!!!!!
praticamente aumentate del 30% le prestazioni della 4870!!!!!!!!!!!!!!
La notizia è un pelo incompleta.....
"Diamond's custom firmware unlocks the GPU and memory clocks so that they could be raised to 950MHz for the GPU and stunning 1,200MHz (4.8GHz effectively) for the memory."
O_o
il bios è sbloccato e consente di portare a 950MHz il core, (overclock di oltre il 25%) e la memoria a 1200Mhz (overclock di oltre il 30%)
Sticazzi!!!!!!!! Magari servirà un cooler serio o il liquido... ma che siano previste frequenze del genere è strabiliante!!!!!
praticamente aumentate del 30% le prestazioni della 4870!!!!!!!!!!!!!!
Ommioddio!!!!!!!!!
E a liquido si guadagnerà pure qualcosa:eek: :eek:
Io mi immagino R700 a 1GHz/5GHz:sofico: :sofico:
Se poi si overvolta... :p:p
[QUOTE]nVidia è stata spodestata non sul prezzo, ma sul costo.
Dici che AMD o nVidia stessa non sarebbero capaci già ora di fare una GPU ancora più veloce raffreddata ad azoto liquido e dal prezzo di 2000€? Che gloria ci sarebbe in questo?[\QUOTE]
non vedo molta differenza tra i 450 euro di una 280gtx ai 400 di una 4870x2 quando e' uscita, mentre vedo differenze abissali in prestazioni e meno problemi nei driver come al soloiuto, e te lo dice uno che ha cambiato almeno 10 vga ati ed era convinto che ati fosse il non plus ultra fino a qualche tempo fa. pure chi ha comprato una 8800ultra due anni fa ha speso una cifra ma la sta ancora usando e forse non vede il motivo per cambiarla.
non facciamoci fregare dai punteggi di 3d mark e test integrati nei giochi, dove ati ampiamente ci marcia perche progetta vga solo per fare punteggioni.
lancia un collin mcrae dirt a ris max e vedi la differenza in fps
La GTX280 a 450 l'hai vista solo te mi sa:asd:
La 3870x2 è una scheda di una generazione fa, come fai a confrontarla con una di ultima generazione (e comunque si difende ancora benissimo)
A me pare che al momento sia nvidia che cerca di rubare nel 3dmark:Prrr:
La maggior parte dei giochi sono sponsorizzati nvidia e i test integrati sfruttano il motore del gioco, quindi l'unica ad essere avvantaggiata è nvidia
:Prrr:
yossarian
30-06-2008, 14:43
La notizia è un pelo incompleta.....
"Diamond's custom firmware unlocks the GPU and memory clocks so that they could be raised to 950MHz for the GPU and stunning 1,200MHz (4.8GHz effectively) for the memory."
O_o
il bios è sbloccato e consente di portare a 950MHz il core, (overclock di oltre il 25%) e la memoria a 1200Mhz (overclock di oltre il 30%)
Sticazzi!!!!!!!! Magari servirà un cooler serio o il liquido... ma che siano previste frequenze del genere è strabiliante!!!!!
praticamente aumentate del 30% le prestazioni della 4870!!!!!!!!!!!!!!
Ommioddio!!!!!!!!!
E a liquido si guadagnerà pure qualcosa:eek: :eek:
Io mi immagino R700 a 1GHz/5GHz:sofico: :sofico:
Se poi si overvolta... :p:p
attenzione alle pratiche fai da te di O/C o, ancora peggio, di o/c con overvolt. Diamond ha sempre proposto vga con componenti di qualità elevata e non è detto che tutti i chip reggano quelle frequenze senza problemi (tenendo conto che questa è ancora la prima rev. in commercio di RV770)
Foglia Morta
30-06-2008, 14:58
una volta ottimizzate le rese a 55nm (e per questo serve la GTX+), il passaggio ad un processo produttivo inferiore può servire, più che per le prestazioni (una gtx280 a 55 nm non ha comunque speranze di competere con r700, e se si dovessero iniziare ad introdurre alcune feature delle dx10.1 il divario crescerebbe ancora), per ridurre i costi di produzione e rendere i chip della serie GT200 più appetibili senza essere costretti a vendere in perdita.
E' probabile che la nuova gpu che sostituirà G92 sarà, presumibilmente, un derivato di GT200, magari a 55 nm (è per questo che non si sono sbilanciati sui tempi di immissione sul mercato del nuovo chip). Non credo che, nel frattempo, rivedano l'architettura di GT200 e del suo MC, perchè questo comporterebbe una revisione, su tutta la serie, di buona parte dell'architettura della GPU
è realistico questo però non voglio crederci perchè già la banda passante che ha ora è utilizzata meno efficientemente rispetto a quanto fa RV770 , se poi non aumenta di tantissimo allora imho sarebbe una mezza catastrofe.
384bit di bus , 2200Mhz di GDDR3 ( non penso ce ne saranno di più veloci ) per una scheda da 250 dollari IMHO sarebbe un flop annunciato ( sto dando per scontato che nel primo trimestre ATi sostituirà RV770 con qualcosa di più potente a 45 o 40nm ).
Il bios sbloccato per poter raggiungere i 950/1200, non significa affatto che le Diamond facciano quei clock stabili.
Semplicemente, ora si è limitati ai 790Mhz dei CCC.
Con la Diamond o forniscono una loro utility per l'overclock, o sbloccano i driver.
Per sapere quanto salgono, ci vuole una review ;-)
D'altronde, le HD4850 per fare i 950Mhz hanno bisogno di 1.48V, e 1.4V per i 900, a fronte degli 1.2V default.
Per fare i 1000, 1.52V e ghiaccio secco :D
ma questa "Diamond" e' la stessa mitica diamond che realizzo' la diamond monster 3d con 3dfx? Io vorrei stringere la mano a chi progetto' quella scheda :)
Ehssì, stessa azienda... tempi lontani... Forse tu ricorda ancora quando la Hercules faceva la Kyro II !
thesaggio
01-07-2008, 07:36
Nel settore CPU intel per ora è ancora nettamente sopra AMD.
Nel settore schede video, IMHO, già oggi (non tra poco) ATI/AMD ha sorpassato Nvidia, con un rapporto prezzo-prestazioni pazzesco (conosco tantissimi amici che ultimamente hanno fatto il passaggio da nvidia ad ati).
Una scheda video non si può più valutare solo ed esclusivamente sul lato "prestazionale" (quella che "va più forte"), soprattutto ora che si sfornano modelli nuovi ogni mese dopo la netta ripresa del duo ATI/AMD (che porta da una forte svalutazione della scheda video nel giro di breve tempo: è finita l'era e l'epoca delle varie 8800gts), ma va giudicata nel complesso, considerando tutti i fattori possibili [prestazioni, prezzo, convenienza, consumi, relazione effettivo guandagno in percentuale delle prestazioni/spesa in più da sostenere, reale sfruttamento della scheda, (cosa che, può sembrare strano, ma in tanti non prendono neppure in considerazione, vedi specifiche del monitor... ...) etc etc].
Ed in questa valutazione globale del prodotto, AMD/ATI oggi surclassa NVIDIA.
Ad oggi l'unica scheda video nvidia "conveniente" sembra essere ancora la 8800gt.
poca gloria a spodestare nvidia solo per via del prezzo... vorrei vedere una bella rece di 4870 vs 280gtx
le schede si valutano su fasce di prezzo...
gianni1879
01-07-2008, 08:10
attenzione alle pratiche fai da te di O/C o, ancora peggio, di o/c con overvolt. Diamond ha sempre proposto vga con componenti di qualità elevata e non è detto che tutti i chip reggano quelle frequenze senza problemi (tenendo conto che questa è ancora la prima rev. in commercio di RV770)
ci saranno delle revisioni successive??
stesso PP?
yossarian
01-07-2008, 10:35
ci saranno delle revisioni successive??
stesso PP?
ovviamente :)
gianni1879
01-07-2008, 11:13
ovviamente :)
ok :) quindi anche con lo stesso processo produttivo?
Autunno?
yossarian
01-07-2008, 11:16
ok :) quindi anche con lo stesso processo produttivo?
si
Autunno?
per la prossima revisione? No, molto prima.
Foglia Morta
01-07-2008, 11:21
per la prossima revisione? No, molto prima.
ma di solito le revisioni non servono solamente per migliorare le rese produttive ?
DakmorNoland
01-07-2008, 11:38
Cmq pare che questa sia "Super RV770", appunto con bios particolare e sistema a liquido per il raffreddamento. Sarà presentato in futuro anche da Asus, Sapphire, e altre. Pare sia creato apposta per l'overclock e raggiunga come è già stato detto frequenze incredibili per staccare definitivamente la 280GTX! :sofico:
Tuttavia può essere che siano dei chip scelti da AMD e non quelli normali che utilizzano per la 4870, quindi io eviterei di tentare di flashare il bios, perchè potrebbe cimire la scheda...Sono curioso piuttosto di vedere a che prezzo presenteranno tale soluzione! Credo cmq sarà minore del prezzo di una 280GTX. Immagino sui 300-350€ e probabilmente avrà anche 1GB di memoria.
gianni1879
01-07-2008, 11:45
Cmq pare che questa sia "Super RV770", appunto con bios particolare e sistema a liquido per il raffreddamento. Sarà presentato in futuro anche da Asus, Sapphire, e altre. Pare sia creato apposta per l'overclock e raggiunga come è già stato detto frequenze incredibili per staccare definitivamente la 280GTX! :sofico:
Tuttavia può essere che siano dei chip scelti da AMD e non quelli normali che utilizzano per la 4870, quindi io eviterei di tentare di flashare il bios, perchè potrebbe cimire la scheda...Sono curioso piuttosto di vedere a che prezzo presenteranno tale soluzione! Credo cmq sarà minore del prezzo di una 280GTX. Immagino sui 300-350€ e probabilmente avrà anche 1GB di memoria.
per 300/350€ se le possono tenere, la hd4870 liscia costa 220/230€ e ho dubbi che siano chip selezionati, potrebbe anche esserlo per carita ma una differenza di prezzo così elevata sarebbe un pò troppo, anche se cè da dire il raffreddamento a liquido e magari il giga di ram
DakmorNoland
01-07-2008, 12:07
per 300/350€ se le possono tenere, la hd4870 liscia costa 220/230€ e ho dubbi che siano chip selezionati, potrebbe anche esserlo per carita ma una differenza di prezzo così elevata sarebbe un pò troppo, anche se cè da dire il raffreddamento a liquido e magari il giga di ram
Io sono d'accordo con te, la gente si fissa troppo sugli overclock, ma io ho sperimentato di persona, alla fine ad esempio la differenza tra la 4870 e la 280GTX non si sente nemmeno quando giochi, la si vede solo nei grafici, quindi la 280 non la prenderei mai!
Lo stesso vale per questa soluzione che anche se superasse la 280 avrebbe cmq un incremento di cui io non mi accorgerei, e in più consumi elevati. Solo che alla fine anche questa 4870 OC va fatta perchè c'è molta gente che compra solo guardando grafici e quale linea è più lunga! :asd: Quindi AMD è obbligata se vuole vendere anche fra gli enthusiast a fare questo esercizio di stile.
gianni1879
01-07-2008, 12:47
Io sono d'accordo con te, la gente si fissa troppo sugli overclock, ma io ho sperimentato di persona, alla fine ad esempio la differenza tra la 4870 e la 280GTX non si sente nemmeno quando giochi, la si vede solo nei grafici, quindi la 280 non la prenderei mai!
Lo stesso vale per questa soluzione che anche se superasse la 280 avrebbe cmq un incremento di cui io non mi accorgerei, e in più consumi elevati. Solo che alla fine anche questa 4870 OC va fatta perchè c'è molta gente che compra solo guardando grafici e quale linea è più lunga! :asd: Quindi AMD è obbligata se vuole vendere anche fra gli enthusiast a fare questo esercizio di stile.
beh ovviamente la gente acquista in base alla proprie possibilità ed esigenze, non a caso persone hanno preso la gtx280 al lancio al folle prezzo di 550€
Se le varie versioni OC di rv770 non costassero molto in più potrei pure farci un pensierino, anche in virtù del raffreddamento particolare, ma ovviamente se la differenza è troppa piglio una normale, WB e si risolve tranquillamente il problema, poi per il bios sbloccato le soluzioni non tarderanno ad arrivare, magari avranno ram prodotte da Samsung più spinte, ma non credo sia un grosso problema tanto con tutta quella banda passante l'incremento credo che sia proprio quasi nullo, diverso il discorso della hd4850 che è pesantemente limitata dalla banda passante
yossarian
01-07-2008, 13:09
ma di solito le revisioni non servono solamente per migliorare le rese produttive ?
non solo; anche per migliorare la "qualità" dei chip prodotti (il che significa anche frequenze più alte di funzionamento). Affinare un processo produttivo significa anche testare i limiti dello stesso e dell'architettura del chip, in previsione di uno shrink
Mr_Paulus
01-07-2008, 13:12
non solo; anche per migliorare la "qualità" dei chip prodotti (il che significa anche frequenze più alte di funzionamento). Affinare un processo produttivo significa anche testare i limiti dello stesso e dell'architettura del chip, in previsione di uno shrink
e magari anche per la riduzione dei consumi?
yossarian
01-07-2008, 13:22
e magari anche per la riduzione dei consumi?
nel caso sia possibile ottimizzare il funzionamento di alcuni circuiti (ad esempio riducendo le dimensioni di linee di trasmissione e controllo). In un chip complesso, solitamente si progettano le parti più importanti ai fini dell'elaborazione, mentre per le altre (tipo l'interfaccia con le metallizzazioni) ci si affida a delle "librerie" standard. Questo porta ad un livello di ottimizzazione non particolarmente elevato dell'architettura nel suo complesso che introduce, in alcuni casi, anche delle ridondanze.
Mr_Paulus
01-07-2008, 13:26
nel caso sia possibile ottimizzare il funzionamento di alcuni circuiti (ad esempio riducendo le dimensioni di linee di trasmissione e controllo). In un chip complesso, solitamente si progettano le parti più importanti ai fini dell'elaborazione, mentre per le altre (tipo l'interfaccia con le metallizzazioni) ci si affida a delle "librerie" standard. Questo porta ad un livello di ottimizzazione non particolarmente elevato dell'architettura nel suo complesso che introduce, in alcuni casi, anche delle ridondanze.
interessante, questo non lo sapevo :)
quindi magari con i vari stepping si possono riorganizzare tutti quei componenti standardizzati nella prima versione del chip
leoneazzurro
01-07-2008, 13:36
nel caso sia possibile ottimizzare il funzionamento di alcuni circuiti (ad esempio riducendo le dimensioni di linee di trasmissione e controllo). In un chip complesso, solitamente si progettano le parti più importanti ai fini dell'elaborazione, mentre per le altre (tipo l'interfaccia con le metallizzazioni) ci si affida a delle "librerie" standard. Questo porta ad un livello di ottimizzazione non particolarmente elevato dell'architettura nel suo complesso che introduce, in alcuni casi, anche delle ridondanze.
Che cosa c'è di vero a proposito del "Super RV770"?
http://www.tgdaily.com/html_tmp/content-view-38194-135.html
solo speculazioni?
yossarian
01-07-2008, 14:19
Che cosa c'è di vero a proposito del "Super RV770"?
http://www.tgdaily.com/html_tmp/content-view-38194-135.html
solo speculazioni?
sono solo i chip migliori che possono reggere frequenze e tensioni di funzionamento più elevate. Un'operazione non dissimile da quella che ha portato alla 7800GTX 512 MB
Faranno anche un'X2 con questi chip super selezionati?
gianni1879
01-07-2008, 14:28
sono solo i chip migliori che possono reggere frequenze e tensioni di funzionamento più elevate. Un'operazione non dissimile da quella che ha portato alla 7800GTX 512 MB
però in questo caso è un'operazione fatta dai partner di Amd/Ati (Ati non ha annunciato nulla di ufficiale, ha dato solo liberà per i vari modelli rispetto alla reference board), mentre nel caso di Nvidia era un modello della propria gamma, cmq se non ricordo male la 7800gtx512 era overvoltata, in questo caso parlo del super rv770 sarà lo steso oppure solo chip selezionati, oppure entrambe le cose? :D
DakmorNoland
01-07-2008, 14:30
però in questo caso è un'operazione fatta dai partner di Amd/Ati, mentre nel caso di Nvidia era un modello della propria gamma, cmq se non ricordo male la 7800gtx512 era overvoltata, in questo caso parlo del super rv770 sarà lo steso oppure solo chip selezionati, oppure entrambe le cose? :D
Mah secondo me l'unica cosa che conta è vedere a che prezzo le fanno! Il resto penso siano fatti loro! :D Cmq anch'io penso siano GPU selezionate.
Star trek
02-07-2008, 16:50
poca gloria a spodestare nvidia solo per via del prezzo... vorrei vedere una bella rece di 4870 vs 280gtx
Ma che paragoni fai? :mbe:
Ma la vedi le differenze di prezzo che ci sono tra le due? Siamos eri per favore.La GTX280 se ti va bene la paghi 600€ è cioè almeno il doppio di una qualsiasi console.La 4870 con 250€ la trovi.
Ma che paragoni fai? :mbe:
Ma la vedi le differenze di prezzo che ci sono tra le due? Siamos eri per favore.La GTX280 se ti va bene la paghi 600€ è cioè almeno il doppio di una qualsiasi console.La 4870 con 250€ la trovi.Poi si è corretto (anche se comunque la HD4870X2 non è ancora uscita perciò è dura fare paragoni)
Star trek
02-07-2008, 22:55
Poi si è corretto (anche se comunque la HD4870X2 non è ancora uscita perciò è dura fare paragoni)
Ok non l'ho vista la correzione.Ad ogni modo io credo credo che 250€ si possano spendere....ma 600 per me sono troppi per un GPU...Anche perchè sto prezzo mi sa un pò gonfiato anche dalla discorso del supporto per la fisica...
Ragazzi sapete dirmi quando esce allora la 4870X2?
Grazie
CoolBits
17-07-2008, 12:42
Ragazzi sapete dirmi quando esce allora la 4870X2?
Grazie
pare a fine agosto....ma date ufficiali non ce ne sono
Cavolo...
Devo hupgradare il pc ma il mio amico che mi fa il lavoro a settembre va negli states e volevo montare la suddetta scheda..
Nessuno ha qualche data?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.