View Full Version : [IN CHIUSURA] Aspettando RV670
Pagine :
1
2
3
4
5
6
7
8
9
10
11
12
13
[
14]
15
16
17
HackaB321
14-11-2007, 12:10
a me pare la black box, ovvero EP2 + Portal + TF2 ;)
:sperem:
ciauz
Certo hai ragione sembra la black box (non solo ep2)
hdmi:
http://www.expreview.com/img/news/071114/3850_1.jpg
ma 775/2.4 non sono le freq default?
775/2250, ma a quanto sembra tutti i partner di ATI hanno optato per 775/2400...comunque prevedo anche 800+/2400 per alcune serie, considerato che AMD ha dato carta bianca e già si parla di HD3850 con clock più alti sulla gpu.
:)
halduemilauno
14-11-2007, 12:12
news
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4200&Itemid=34
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4197&Itemid=34
ok è confermato per domani.
Comunque non trovo giusto che nvidia abbia alzato le frequenze della GT per sorpassare la 3870, e adesso ATI se ne stia li con le mani in mano con una scheda video della madonna che facendo un po di overclck sorpasserebbe pure la gt e la gtx......Speriamo che facciano qualche versione overclockata di fabbrica che vada di + della 8800 gt amp!!!!!!( oppure che le scede video che gli hanno fatto testare erano versioni downclockate!!!!!!:D )
Già, che cattivi quelli dell'nvidia vero? :asd:
Ma poi che un oc della 3870 la porti ai livelli della gtx credo sia impossibile...
mamma mia che risate...non ce la faccio + :sbonk:
questo lo metterei in prima pagina...
775/2250, ma a quanto sembra tutti i partner di ATI hanno optato per 775/2400...comunque prevedo anche 800+/2400 per alcune serie, considerato che AMD ha dato carta bianca e già si parla di HD3850 con clock più alti sulla gpu.
:)
davvero? ho sempre e solo letto 2400 per le ram....è per la gpu invece che leggevo anche di 825Mhz come frequenza stock
Vedi che non hai capito!
Io ho considerato il DELTA-WATT dei due sistemi, MA NON FULL contro IDLE, bensì FULL con HD2900XT contro FULL con 3870, e IDLE con HD2900XT contro IDLE con 3870.
Questo mi da due differenze di WATT (FULL e IDLE) che sono attribuibili SOLO alla differenza di scheda, dato che è l'unico componente che varia.
Il valore in sé rappresenta solo "il miglioramento", ma non ci da ancora il consumo della scheda incongnita (nel nostro caso la 3870), che però si potrà ricavare avendo a disposizione una misurazione del consumo di HD2900XT, e solo quella (e in questo caso è AMD stessa che ce la da, affermando il suo TDP sia 215W).
Il paragone con la 8800GT avviene in modo simile (NVIDIA ha affermato il suo TDP sia 105W/110W).
Ciao.
In questo caso ancora peggio, visto che, come ha detto Belin e ti ho anche mostrato io con il grafico di X-bitLabs, le HD2900XT non consumano 215W in full load, ed in realtà non consumano nemmeno 200W. Prova ne sia il fatto che si riesca a far funzionare le HD2900XT anche con solo un molex attaccato all'alimentatore, anzichè entrambi.
I 120W che tu hai citato erano calcolati secondo il "metodo" di cui parlavo io, comunque (anche perchè 215-85 non fanno 120).
Il TDP è una cosa, il consumo reale (perchè è di quello che stiamo discutendo qui) è un'altra. Anche perchè i rapporti tra TDP e consumo reale variano di scheda in scheda (a seconda di quanto siano tirati i clocks, ad esempio): prova ne sia il fatto che a fronte di un TDP inferiore di quasi 40W per la GT vs la GTS, nella realtà consumi solo 25-30W in meno.
MiKeLezZ
14-11-2007, 12:14
news
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4200&Itemid=34
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4197&Itemid=34Meno male che le VGA ATI dovevano esser tutte lunghe uguali :rolleyes:
Certo hai ragione sembra la black box (non solo ep2)
ASUS bundle includes Company of Heroes and Call of Juarez.
:)
halduemilauno
14-11-2007, 12:19
ASUS bundle includes Company of Heroes and Call of Juarez.
:)
ma gireranno? son dx10 eh.
:boh:
gianni1879
14-11-2007, 12:20
no come revision dovrebbe essere al 100% un G0, la week L727 se non erro vuol dire 27esima del 2007 ma lo stepping? cioè il resto della sigla (che è B001)?
si volevo dire G0 ;) (stavo scrivendo nel thread del E21xx)
si il resto è B001
L727 come dici giustamente sappresenta la settimana di produzione
...avete visto nella home che verrà commercializzata anche una 8800gt a 256MB?? vabbè era prevedibile...ora la vedo ancora + dura per la 3800 perchè non penso che uno compri una 3850 a 160€ quando una 8800gt costa 179...boh voi che ne pensate?? ovviamente poi dipende dalle proprie esigenze se sono necessari o meno i 512MB...
davide155
14-11-2007, 12:22
Meno male che le VGA ATI dovevano esser tutte lunghe uguali :rolleyes:
Infatti quella più lunga è la 2900xt che è una scheda video vecchia ormai.
Quelle nuove sono identiche :rolleyes:
davvero? ho sempre e solo letto 2400 per le ram....è per la gpu invece che leggevo anche di 825Mhz come frequenza stock
775/2250, ma quasi tutte saranno 775+/2400 (notare il +)
;)
Meno male che le VGA ATI dovevano esser tutte lunghe uguali :rolleyes:
...non lo scrissi io, ma è la verità. Sul pcb di R600XT c'è in più solo lo spazio per i fori di quella mastodontica ventola delle versioni OEM.
:)
MiKeLezZ
14-11-2007, 12:25
In questo caso ancora peggio, visto che, come ha detto Belin e ti ho anche mostrato io con il grafico di X-bitLabs, le HD2900XT non consumano 215W in full load, ed in realtà non consumano nemmeno 200W. Prova ne sia il fatto che si riesca a far funzionare le HD2900XT anche con solo un molex attaccato all'alimentatore, anzichè entrambi.
I 120W che tu hai citato erano calcolati secondo il "metodo" di cui parlavo io, comunque (anche perchè 215-85 non fanno 120).
Il TDP è una cosa, il consumo reale (perchè è di quello che stiamo discutendo qui) è un'altra. Anche perchè i rapporti tra TDP e consumo reale variano di scheda in scheda (a seconda di quanto siano tirati i clocks, ad esempio): prova ne sia il fatto che a fronte di un TDP inferiore di quasi 40W per la GT vs la GTS, nella realtà consumi solo 25-30W in meno.Forse lo fai apposta a contraddirmi?
Non importa se la scheda consumi in realtà 209W oppure 65W, io PER ENTRAMBE ho successivamente preso i TDP DICHIARATI (NON DA ME, MA DAL !PRODUTTORE! ), che sono -ENTRAMBI- superiori a quello che poi sarà nella realtà.
Il confronto rimane PARITETICO!
AMD ha dichiarato 215W
NVIDIA ha dichiarato 110W
L'unica approssimazione a cui sono andato incontro è il considerare che la differenza fra valore dichiarato e valore reale sia comparabile fra schede NVIDIA e ATI (e lo è, tra parentesi pari a circa il 20%).
Non dico sia preciso. Ma neppure "campato in aria", o peggio, il confronto sia impossibile da fare.
Se preferite, io STIMO che in LOAD la 3870 consumerà 12W in più della 8800GT.
halduemilauno
14-11-2007, 12:27
a supporto di quanto diceva MikelezZ.
http://forums.vr-zone.com/showthread.php?t=203987
;)
davide155
14-11-2007, 12:33
a supporto di quanto diceva MikelezZ.
http://forums.vr-zone.com/showthread.php?t=203987
;)
FPS minimi da 10 sono diventati 25 :eek:
Che sia un lavoro egregio di nvidia oppure un offuscamento di alune features del motore grafico che alleggeriscono la scena ma perdono di qualità????? :mbe:
Restless
14-11-2007, 12:39
FPS minimi da 10 sono diventati 25 :eek:
Che sia un lavoro egregio di nvidia oppure un offuscamento di alune features del motore grafico che alleggeriscono la scena ma perdono di qualità????? :mbe:
E' molto probabile, è già successo. Ci sono però anche delle ottimizzazioni e correzione di qualche bug, a quanto pare.
davide155
14-11-2007, 12:45
E' molto probabile, è già successo. Ci sono però anche delle ottimizzazioni e correzione di qualche bug, a quanto pare.
E' la parola ottimizzazione che mi fa paura........
Con le precedenti versioni si aveva 5 fps di media in più a discapito però della qulità dell'acqua :muro:
Se permettete io la qualità me la gestisco da solo. Se voglio andare a 1 fps ma avere la grafica iper realistica lo faccio da solo.
Non voglio che qualcuno me lo imponga.
Speriamo che non abbiano ancora peggiorato la qualità per avere 2-3fps in più :rolleyes:
Continuo ad aspettare le nuove ati......son proprio curioso di vedere come renderizzano qualitativamente crysis
Hyunkel01
14-11-2007, 12:55
needdo pesantemente benchmark :afraid:
Knighhell
14-11-2007, 12:55
FPS minimi da 10 sono diventati 25 :eek:
Che sia un lavoro egregio di nvidia oppure un offuscamento di alune features del motore grafico che alleggeriscono la scena ma perdono di qualità????? :mbe:
Nvidia una volta ha rilasciato dei driver fatti ad hoc per il 3dmark , volontariamente per falsare il risultato.
Se trovo l'articolo lo posto.
Cmq stranamente i driver beta per crysis , aumentavano gli fps , ma la grafica era penosa
3DMark79
14-11-2007, 13:00
Sta avvenendo una battaglia davvero allucinante da parte dei due scheramenti "ATI VS Nvidia" come non si era mai visto prima...ed Nvidia per cercare di sottrarre clienti alla controparte prima dell'uscita di quest'ultima; spremendo come un limone i suoi driver cercando di dare il massimo nei Big Match dei Bechmark che si apprestano a breve termine.
Dai ATI ottimizza qualcosa anche tu con i 7.11 che noi attendiamo intrepidi questo verdetto!:Perfido:
L'unica cosa che non mi è chiara è:
domani oltre alla presentazione delle schede sarà possibile acquistarle ?
MiKeLezZ
14-11-2007, 13:04
E' la parola ottimizzazione che mi fa paura........
Con le precedenti versioni si aveva 5 fps di media in più a discapito però della qulità dell'acqua :muro:
Se permettete io la qualità me la gestisco da solo. Se voglio andare a 1 fps ma avere la grafica iper realistica lo faccio da solo.
Non voglio che qualcuno me lo imponga.
Speriamo che non abbiano ancora peggiorato la qualità per avere 2-3fps in più :rolleyes:
Continuo ad aspettare le nuove ati......son proprio curioso di vedere come renderizzano qualitativamente crysis
Ricapitoliamo:
- Le HD2900XT prestazionalmente fanno pena e si aspettano per 6 mesi driver miracolosi
- Dopo pochi giorni dall'uscita della demo di Crysis escono dei nuovi driver per NVIDIA con scritto "è stato fixato il bug dell'acqua" e ci si lamenta perchè si guadagnano 3-8 FPS e si da la colpa a fantomatiche perdite di qualità (pur se nvidia ha detto era un bug)
Strano.
Nvidia una volta ha rilasciato dei driver fatti ad hoc per il 3dmark , volontariamente per falsare il risultato.
Se trovo l'articolo lo posto.
Cmq stranamente i driver beta per crysis , aumentavano gli fps , ma la grafica era penosaGli ultimi driver beta per Crysis sono i 169.09 e risolvono il bug dell'acqua. La grafica non è mai stata penosa, e non lo è ora.
Veramente anche ATI è famosa per i cheat, soprattutto al 3DMARK, come da sua stessa ammissione:
according to ATI Technologies, the company simply shuffled instructions to take advantage of their architecture. ATI states that these were exactly the sort of optimizations that work in games to improve frame rates without reducing image quality and as such, were a realistic approach to a benchmark intended to measure in-game performance. However, ATI recognized that these can be used by some people to call into question the legitimacy of the benchmark results, and so they would remove them from their driver as soon as is physically possible.
http://www.extremetech.com/article2/0,1697,1191535,00.asp
http://www.warp2search.net/ati-cheating-with-anistropic-filtering-s18001.html
http://www.xbitlabs.com/news/video/display/20030526040035.html
E ancor prima è stata famosa per Quake 3:
http://techreport.com/articles.x/3089/1
Quindi, evitiamo.
halduemilauno
14-11-2007, 13:05
aggiornamentino.
http://www.iax-tech.com/video/3850/01.htm
;)
Sta avvenendo una battaglia davvero allucinante da parte dei due scheramenti "ATI VS Nvidia" come non si era mai visto prima...ed Nvidia per cercare di sottrarre clienti alla controparte prima dell'uscita di quest'ultima; spremendo come un limone i suoi driver cercando di dare il massimo nei Big Match dei Bechmark che si apprestano a breve termine.
Dai ATI ottimizza qualcosa anche tu con i 7.11 che noi attendiamo intrepidi questo verdetto!:Perfido:
io spero proprio di no, anche perché leggi qui sotto
Ricapitoliamo:
- Le HD2900XT prestazionalmente fanno pena e si aspettano per 6 mesi driver miracolosi
- Dopo pochi giorni dall'uscita della demo di Crysis escono dei nuovi driver per NVIDIA con scritto "è stato fixato il bug dell'acqua" e ci si lamenta perchè si guadagnano 3-8 FPS e si da la colpa a fantomatiche perdite di qualità (pur se nvidia ha detto era un bug)
Strano.
Gli ultimi driver beta per Crysis sono i 169.09 e risolvono il bug dell'acqua. La grafica non è mai stata penosa, e non lo è ora.
Veramente anche ATI è famosa per i cheat, soprattutto al 3DMARK, come da sua stessa ammissione:
according to ATI Technologies, the company simply shuffled instructions to take advantage of their architecture. ATI states that these were exactly the sort of optimizations that work in games to improve frame rates without reducing image quality and as such, were a realistic approach to a benchmark intended to measure in-game performance. However, ATI recognized that these can be used by some people to call into question the legitimacy of the benchmark results, and so they would remove them from their driver as soon as is physically possible.
http://www.extremetech.com/article2/0,1697,1191535,00.asp
http://www.warp2search.net/ati-cheating-with-anistropic-filtering-s18001.html
http://www.xbitlabs.com/news/video/display/20030526040035.html
E ancor prima è stata famosa per Quake 3:
http://techreport.com/articles.x/3089/1
Quindi, evitiamo.
concordo e ricordo,
ma i nuovi driver Nvidiosi per Crysis sono ancora scadenti in quanto a qualità
Forse lo fai apposta a contraddirmi?
Non importa se la scheda consumi in realtà 209W oppure 65W, io PER ENTRAMBE ho successivamente preso i TDP DICHIARATI (NON DA ME, MA DAL !PRODUTTORE! ), che sono -ENTRAMBI- superiori a quello che poi sarà nella realtà.
Il confronto rimane PARITETICO!
AMD ha dichiarato 215W
NVIDIA ha dichiarato 110W
L'unica approssimazione a cui sono andato incontro è il considerare che la differenza fra valore dichiarato e valore reale sia comparabile fra schede NVIDIA e ATI (e lo è, tra parentesi pari a circa il 20%).---> non lo è: ti ho già dimostrato come sia diverso persino tra 2 schede dello stesso produttore (inoltre cambia pure il modo in cui il TDP viene calcolato, tra produttore e produttore)
Non dico sia preciso. Ma neppure "campato in aria", o peggio, il confronto sia impossibile da fare.
Tu hai scritto all'inizio:
Questo significa che la 3870 consuma 55W in meno in Idle e 87W in meno in Load rispetto la HD2900XT.
Sappiamo che la HD2900XT era data per 210W in Load (e lo possiamo confermare), quindi sia in Idle che in Load le 3870, a dispetto di quanto detto, dovrebbero comunque consumare un pochino di più rispetto le 8800GT (TDP di 210W-87W=123W contro 110W, stando larghi sono quindi circa 10W di differenza), e probabilmente questo consumo sarà paragonabile a quello della 8800GTS con 128 sp, di prossima uscita (che chiaramente come prestazioni giocherà in un altro campionato).
E quello ho commentato.
A parte la prima frase, che è corretta, il resto non è coerentissimo, visto che parti dal presupposto (strasbagliato) che il consumo in full load della HD2900XT sia identico al suo TDP. Non è così. Punto. Non mi pare che ci sia molto da discutere a riguardo, visto che tutti i dati confermano quello che diciamo io e belin.
E non è così in nessuna scheda, ed il rapporto varia da scheda a scheda e da produttore a produttore (vedi Intel/AMD).
Il consumo massimo della HD2900XT misurata in quelle foto sarà tra i 160 ed i 180W. Detto questo, a quel punto dovresti sottrarre a 180W o a 160 gli 87W di cui parli. ;)
http://xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif
Partendo da questi dati, che non sono la Bibbia, ma almeno sono più accurati dei test di un tizio qualunque, si può avere un'idea dei consumi di 8800GT e HD3870. Il full load di questo grafico è stato ottenuto con il 3DMark06, proprio come in quelle foto. Sottrai 80-90W ai valori della HD2900XT, e 25-30W (questa è la differenza che è saltata fuori dalle recensioni) alla 8800GTS ed otterrai rispettivamente i consumi in load delle 2 schede. Come potrai notare, i valori sono del tutto paragonabili. :)
a supporto di quanto diceva MikelezZ.
http://forums.vr-zone.com/showthread.php?t=203987
;)
Veramente qui parlavamo dei valori in Very High. Da una prova di un utente del forum di HWU, in very high l'aumento è stato di 0.5fps (un altro addirittura perdeva 2.4 fps con una Ultra, rispetto ai 169.xx precedenti). :)
Sulla GTX un sito ha registrato un miglioramento di 3fps rispetto ai 163.75WHQL, che però andavano peggio rispetto ai 169.04.
MiKeLezZ
14-11-2007, 13:22
Come potrai notare, i valori sono del tutto paragonabili. :) Va bene. Allora è aperta la scommessa:
Secondo A.L.M. la 3870 consuma in LOAD quanto la 8800GT.
Secondo MiKeLezZ la 3870 consuma in LOAD 12W più della 8800GT.
Ti metto in lista per domani. Se fossimo al baretto ci potevamo giocare l'aperitivo...
Veramente qui parlavamo dei valori in Very High. Da una prova di un utente del forum di HWU, in very high l'aumento è stato di 0.5fps. :)Ah, una semplice release di driver (che corregge il bug dell'acqua che secondo alcuni serviva a far andare la 8800GT più della 3870) a distanza di giorni prende 3-10 FPS, ma siccome lo fa con impostazioni in "High" e non "Very High", non conta più un cazzo :D
Athlon 64 3000+
14-11-2007, 13:26
Quindi è domani che verranno presentate le HD 3850 e 3870.
Spero che escano anche i catalist 7.11 ufficiali perchè ho voglia di provare un nuovo driver per la mia hd 2900xt.
L'unica cosa che non mi è chiara è:
domani oltre alla presentazione delle schede sarà possibile acquistarle ?
Penso che questo interessi di più delle varie guerre intestine trite e ritrite.
Io non so risponderti, penso che la disponibilità sia il fissata per il 19, domani solo review, ho sentito che i prezzi dovrebbero scendere abbastanza in fretta, nel giro di 2-3 settimane dalla disponibilità.
Va bene. Allora è aperta la scommessa:
Secondo A.L.M. la 3870 consuma in LOAD quanto la 8800GT.
Secondo MiKeLezZ la 3870 consuma in LOAD 12W più della 8800GT.
Ti metto in lista per domani. Se fossimo al baretto ci potevamo giocare l'aperitivo...
Take it easy.
Ansioso di avere ragione? Se ti va ti posso già dire ora: bravo, hai ragione. Basta chiedere. :)
Secondo me saranno paragonabili, se non lo saranno, pace.
A me non verrà niente in tasca, e credo nemmeno a te. Quando usciranno le schede la gente valuterà e prenderà quella che più li soddisfa.
L'unica cosa che mi premeva puntualizzare è che fare calcoli alla kaiser imho serve a poco, se non a creare flame sui thread, soprattutto se è già chiaro da che parte stai. :mano:
P.S.: io non scommetto mai su niente. :)
MiKeLezZ
14-11-2007, 13:49
Take it easy.
Ansioso di avere ragione? Se ti va ti posso già dire ora: bravo, hai ragione. Basta chiedere. :)
Secondo me saranno paragonabili, se non lo saranno, pace.
A me non verrà niente in tasca, e credo nemmeno a te. Quando usciranno le schede la gente valuterà e prenderà quella che più li soddisfa.
L'unica cosa che mi premeva puntualizzare è che fare calcoli alla kaiser imho serve a poco, se non a creare flame sui thread, soprattutto se è già chiaro da che parte stai. :mano:
P.S.: io non scommetto mai su niente. :)Per il discorso sulla tua puntualizzazione, potremo saperlo solo domani se fosse giusta o a sproposito, non credi? ;-)
halduemilauno
14-11-2007, 13:52
Mi piacerebbe vederli sotto Vista x64, i benchmark, per sfatare qualche mito ;)
L'offload del carico sulla CPU nell'esecuzione di HD Video ce l'hanno ambedue (l'UVD di ATi è più completo). Quello che manca nell'uscita HDMI di nvidia è la veicolazione dell'audio, che quindi deve uscire altrove, quindi se la tua idea è di attaccare il monitor alla scheda con il solo cavo HDMI puoi farlo solo con la ATi, ma se l'idea è quella solo di fare un sistema che faccia questo prenditi una HD2400PRO che fa la stessa cosa e altrettanto bene (ovviamente quest'ultimo discorso vale solo se non ci devi anche giocare) :>
Il tuo ragionamento non torna per un motivo semplicissimo. AMD dichiara un TDP di 215W per la 2900XT e di 105W per la 3870, quindi o sono tutti buoni o non è buono nessuno, non puoi sottrarre un TDP ad un consumo reale, è una somma pere+mele.
Con 40.000 schede consegnate, come abbiano fatto a venderne 100.000, di cui 50.000 negli USA è un vero mistero :asd:
semplice perchè non sono state 40.000 le schede consegnate.
TecnoWorld8
14-11-2007, 13:54
vedendo i primi bench qui postati, mi pare che le 3870 alla fine siano parecchio più lente della GT :( ovviamente due in CF vanno parecchio di più, ma con la nuova GTS alle porte, mi sa che questa andrà poco meno di due 3870 in CF, con molti problemi in meno...dato che il CF è sempre problematico.
voi che ne pensate?
halduemilauno
14-11-2007, 13:56
vedendo i primi bench qui postati, mi pare che le 3870 alla fine siano parecchio più lente della GT :( ovviamente due in CF vanno parecchio di più, ma con la nuova GTS alle porte, mi sa che questa andrà poco meno di due 3870 in CF, con molti problemi in meno...dato che il CF è sempre problematico.
voi che ne pensate?
se ne era parlato ieri. che è cambiato?
;)
TecnoWorld8
14-11-2007, 13:58
se ne era parlato ieri. che è cambiato?
;)
sono usciti dei bench di RV670 (postati da te...)...in cui si vede che in WIC per esempio il CF è totalmente inefficiente. e che comunque è parecchio più lenta delle GT :(
halduemilauno
14-11-2007, 14:05
sono usciti dei bench di RV670 (postati da te...)...in cui si vede che in WIC per esempio il CF è totalmente inefficiente. e che comunque è parecchio più lenta delle GT :(
guarda che in cf in wic è la 3850. ma certo uno basta che si fa due conti e l'esito è li. cmq su questo argomento ho detto la mia anche + diffusamente nell'altro thread e continuo a consigliarti un cambio radicale.
;)
vedendo i primi bench qui postati, mi pare che le 3870 alla fine siano parecchio più lente della GT :( ovviamente due in CF vanno parecchio di più, ma con la nuova GTS alle porte, mi sa che questa andrà poco meno di due 3870 in CF, con molti problemi in meno...dato che il CF è sempre problematico.
voi che ne pensate?
Che una scheda singola che va più o meno come due in cf sia preferibile, oltretutto 2 in crossfire costano di più.
halduemilauno
14-11-2007, 14:07
Che una scheda singola che va più o meno come due in cf sia preferibile, oltretutto 2 crossfire costano di più.
e aggiungiamo consumo, rumore, calore.
;)
voi che ne pensate?
che ho fatto bene a buttarmi sulla 8800 :asd:
no vabbe a parte gli scherzi, aspettiamo oramai un paio di giorni e sapremo tutto con certezza
paolox86
14-11-2007, 14:17
Soprattutto vediamo se è vero che verranno vendute a 199 € (3870)... E giudichiamo i vari rapporti prezzo/prestazioni...
Fonte?
Questa è la mia: http://www.tgdaily.com/content/view/34818/118/
Ecco perchè nessuno le trova ;)
Fonte?
Questa è la mia: http://www.tgdaily.com/content/view/34818/118/
ma non lo sai che lui lavora in nVidia? :asd:
si scherza Hal :D
bYeZ!
halduemilauno
14-11-2007, 14:24
ma non lo sai che lui lavora in nVidia? :asd:
si scherza Hal :D
bYeZ!
d'accordo diciamo che si scherza.
;)
3DMark79
14-11-2007, 14:26
Certo che guardando queste immagini di Crysis la qualità della HD3870 e nettamente migliore!
HD3870
http://img66.imageshack.us/img66/7974/3870crysisze7.th.jpg (http://img66.imageshack.us/my.php?image=3870crysisze7.jpg)
8800GT
http://img103.imageshack.us/img103/5628/8800crysisdx0.th.jpg (http://img103.imageshack.us/my.php?image=8800crysisdx0.jpg)
Altra mini-recensione con foto hi-res.
http://64.233.179.104/translate_c?hl=en&langpair=zh%7Cen&u=http://forum.coolaler.com/showthread.php%3Ft%3D166283
I test sono svolti con questo testbed:
CPU: E6850 @ 500X8 = 4G
RAM: DDR-1000 CL5 RAM: DDR-1000 CL5
POWER:Seasonic S12 II 500W POWER: Seasonic S12 II 500W
VGA ATI3870 VGA ATI3870
Driver 8.43 Driver 8.43
At room temperature about 24 to 25 degrees.
Cose che si potrebbero desumere: con l'AA attivato queste schede sembrano andare davvero bene (anzi vanno meglio, in proporzione, che con l'AA disattivato). Purtroppo i settaggi sono poco chiari. L'unico che sembra attendibile è Company of Heroes col test integrato, ma bisognerebbe capire se è DX9 o DX10.
Le prestazioni in termini di calore sembrano dovute al cooler, perchè il chip scalda non poco. Se si forza la ventola al 25% (di fabbrica la regolazione sembra dinamica) le temperature in load salgono come quelle della GT. Con la ventola al 100% sembrano andare vanno meglio che le 8800GT con la ventola al 100%. Morale: per capirci qualcosa su calore/consumi si attendono le rece ufficiali. :)
Certo che guardando queste immagini la qualità della HD3870 e nettamente migliore!
HD3870
http://img205.imageshack.us/img205/2699/3870crysisii5.jpg (http://imageshack.us)
8800GT
http://img103.imageshack.us/img103/5628/8800crysisdx0.th.jpg (http://img103.imageshack.us/my.php?image=8800crysisdx0.jpg)
La qualità della HD3870 non è nettamente migliore...semplicemente per quell'immagine sono stati usati i driver Nvidia con bug\cheat
Certo che guardando queste immagini di Crysis la qualità della HD3870 e nettamente migliore!
HD3870
http://img205.imageshack.us/img205/2699/3870crysisii5.jpg (http://imageshack.us)
8800GT
http://img103.imageshack.us/img103/5628/8800crysisdx0.th.jpg (http://img103.imageshack.us/my.php?image=8800crysisdx0.jpg)
Vabbè è a distanza diversa, si vede chiaramente, questa comparazione è un po' una bufala ;)
d'accordo diciamo che si scherza.
;)
se ci lavorassi io ti iNVIDIerei :)
andrei a lavorare in ATi pure come spazzino :asd:
bYeZ!
+Lonewolf+
14-11-2007, 14:33
Ricapitoliamo:
- Le HD2900XT prestazionalmente fanno pena e si aspettano per 6 mesi driver miracolosi
- Dopo pochi giorni dall'uscita della demo di Crysis escono dei nuovi driver per NVIDIA con scritto "è stato fixato il bug dell'acqua" e ci si lamenta perchè si guadagnano 3-8 FPS e si da la colpa a fantomatiche perdite di qualità (pur se nvidia ha detto era un bug)
Strano.
Gli ultimi driver beta per Crysis sono i 169.09 e risolvono il bug dell'acqua. La grafica non è mai stata penosa, e non lo è ora.
Veramente anche ATI è famosa per i cheat, soprattutto al 3DMARK, come da sua stessa ammissione:
according to ATI Technologies, the company simply shuffled instructions to take advantage of their architecture. ATI states that these were exactly the sort of optimizations that work in games to improve frame rates without reducing image quality and as such, were a realistic approach to a benchmark intended to measure in-game performance. However, ATI recognized that these can be used by some people to call into question the legitimacy of the benchmark results, and so they would remove them from their driver as soon as is physically possible.
http://www.extremetech.com/article2/0,1697,1191535,00.asp
http://www.warp2search.net/ati-cheating-with-anistropic-filtering-s18001.html
http://www.xbitlabs.com/news/video/display/20030526040035.html
E ancor prima è stata famosa per Quake 3:
http://techreport.com/articles.x/3089/1
Quindi, evitiamo.
punto primo nn m pare faccia pena
punto secondo, fantomatiche??
sei talmente sfacciatamente fanboy che inizi a divertirmi :asd:
anche se la 8800gt dovesse andare + forte, cosa praticamente certa, sappi che io nn sto mettendo in dubbio quello, quando mi dici cose tipo" ci divertiamo lone" eccetera, sappi che mi sto divertendo io il triplo a vedere come stai prndendo a cuore la faccenda di nvidia vs ati, mostrando chiaramente la tua tifoseria, spesso riportando informazioni confuse...:D
3DMark79
14-11-2007, 14:34
La qualità della HD3870 non è nettamente migliore...semplicemente per quell'immagine sono stati usati i driver Nvidia con bug\cheat
Scusami ma non sono gli ultimi driver usciti?:confused:
Scusami ma non sono gli ultimi driver usciti?:confused:
no, gli ultimi sono i 169.09 rilasciati ieri
bYeZ!
Darkgift
14-11-2007, 14:38
r680 = 2 x rv670 su stesso pcb : a Febbario sul mercato
http://www.atizone.it/news/reader.php?objid=6108
MiKeLezZ
14-11-2007, 14:39
Certo che guardando queste immagini di Crysis la qualità della HD3870 e nettamente migliore!
HD3870
http://img66.imageshack.us/img66/7974/3870crysisze7.th.jpg (http://img66.imageshack.us/my.php?image=3870crysisze7.jpg)
8800GT
http://img103.imageshack.us/img103/5628/8800crysisdx0.th.jpg (http://img103.imageshack.us/my.php?image=8800crysisdx0.jpg)Una è riferita al frame 59 (quella più "nebulosa", proprio perchè posta più in alto dove le nuvole), l'altra è riferita al frame 89.
+Lonewolf+
14-11-2007, 14:42
Una è riferita al frame 59 (quella più "nebulosa", proprio perchè posta più in alto dove le nuvole), l'altra è riferita al frame 89.
Mi chiedo se vi divertite :rolleyes:
tu ti diverti??
nn so quante ne sto leggendo:asd:
io mi diverto, si:) rilassati
Infatti, sono 2 frame totalmente diversi...
Quando si notano le ottimizzazioni, sono solo nei riflessi dell' acqua e sui vetri.
Tony_Montana91
14-11-2007, 14:43
Ma domani escono le nuove schede video?
3DMark79
14-11-2007, 14:43
no, gli ultimi sono i 169.09 rilasciati ieri
bYeZ!
Ho capito...sfornano driver giorno dopo giorno!:Prrr:
Una è riferita al frame 59 (quella più "nebulosa", proprio perchè posta più in alto dove le nuvole), l'altra è riferita al frame 89.
Mi chiedo se vi divertite :rolleyes:
Non credo sia colpa degli utenti se un sito posta due frame diversi come comparazione
3DMark79
14-11-2007, 14:49
Una è riferita al frame 59 (quella più "nebulosa", proprio perchè posta più in alto dove le nuvole), l'altra è riferita al frame 89.
Mi chiedo se vi divertite :rolleyes:
Però perchè non lo spiengano...che traggono in inganno chi guarda?
E poi "jp77" dice che è un problema di driver buggati N-vidia tu ne dici un'altra...
Insieme a +Lonewolf+ mi sa che tutti ci stiamo proprio divertendo!:ciapet:
halduemilauno
14-11-2007, 14:51
Non credo sia colpa degli utenti se un sito posta due frame diversi come comparazione
ma la diversità di frame salta evidente agli occhi.
3DMark79
14-11-2007, 14:51
Non credo sia colpa degli utenti se un sito posta due frame diversi come comparazione
Mi hai bruciato sul tempo!:D
MiKeLezZ
14-11-2007, 14:52
Non credo sia colpa degli utenti se un sito posta due frame diversi come comparazioneChe sia una comparazione lo dite voi!E poi "jp77" dice che è un problema di driver buggati N-vidia tu ne dici un'altra...:jp77 non ci ha fatto caso.
+Lonewolf+
14-11-2007, 14:54
Non credo sia colpa degli utenti se un sito posta due frame diversi come comparazione
si, questo è vero... è il modo in cui vengono criticati dalla "tifoseria" che è esilarante:asd:
Che sia una comparazione lo dite voi!
Ah no? Cosa sono 2 immagini messe li a caso per mostrare crysis, guarda caso nella stessa, quasi identica, scena?
Vorrei sapere cosa sono ora, son curioso.
+Lonewolf+
14-11-2007, 14:57
Che sia una comparazione lo dite voi
ti prego falla finita, sto per rovesciarmi dalla sedia!!
non sto scherzando!
Spart@cus
14-11-2007, 14:58
una domanda questa nuova scheda video hd3870 va meglio della x2900xt ancora non l'ho capito.
Certo che guardando queste immagini di Crysis la qualità della HD3870 e nettamente migliore!
HD3870
http://img66.imageshack.us/img66/7974/3870crysisze7.th.jpg (http://img66.imageshack.us/my.php?image=3870crysisze7.jpg)
8800GT
http://img103.imageshack.us/img103/5628/8800crysisdx0.th.jpg (http://img103.imageshack.us/my.php?image=8800crysisdx0.jpg)
La qualità della HD3870 non è nettamente migliore...semplicemente per quell'immagine sono stati usati i driver Nvidia con bug\cheat
Esatto .
MiKeLezZ
14-11-2007, 15:00
Ah no? Cosa sono 2 immagini messe li a caso per mostrare crysis, guarda caso della stessa, quasi identica, scena?
Vorrei sapere cosa sono ora, son curioso.In ordine dalla più alla meno importante:
- Mostrano i FPS (cosa che viene sottolineata nel corpo dell'articolo)
- Mostrano che non è una recensione-fake
- Mostrano che il gioco gira bene su entrambe le schede
- Fanno figura
Non solo la differente scena, ma il numero del frame più la scrittina on-game su uno di essi mostra senza dubbio alcuno che non vi fosse alcuna velleità di confronto.
Esatto .Le due immagini sono diverse in quanto prese in momenti diversi, quella più "nitida" è successiva, e posta a una altezza da terra inferiore.
una domanda questa nuova scheda video hd3870 va meglio della x2900xt ancora non l'ho capito.
Da quello che ho capito un 10% sopra la hd2900xt, ma domani dovrebbe esserci la review, quindi fidati di Corsini ;)
halduemilauno
14-11-2007, 15:03
Esatto .
ma come esatto? ma non lo vedi le nuvole? sono in avvicinamento ed una è stata presa prima dell'altra. non vedi anche il terreno sottostante.
:boh:
io pensavo che veramente stavate scherzando.
Altra mini-recensione con foto hi-res.
http://64.233.179.104/translate_c?hl=en&langpair=zh%7Cen&u=http://forum.coolaler.com/showthread.php%3Ft%3D166283
I test sono svolti con questo testbed:
Cose che si potrebbero desumere: con l'AA attivato queste schede sembrano andare davvero bene (anzi vanno meglio, in proporzione, che con l'AA disattivato). Purtroppo i settaggi sono poco chiari. L'unico che sembra attendibile è Company of Heroes col test integrato, ma bisognerebbe capire se è DX9 o DX10.
Le prestazioni in termini di calore sembrano dovute al cooler, perchè il chip scalda non poco. Se si forza la ventola al 25% (di fabbrica la regolazione sembra dinamica) le temperature in load salgono come quelle della GT. Con la ventola al 100% sembrano andare vanno meglio che le 8800GT con la ventola al 100%. Morale: per capirci qualcosa su calore/consumi si attendono le rece ufficiali. :)
In Crysis non si riesce a capire che dettagli abbiano usato. Sembrano medi-alti...
MiKeLezZ
14-11-2007, 15:04
io pensavo che veramente stavate scherzando.:(
occhio ragazzi che se si continua su questo "crinale" qualcuno si passa da sospeso il "giorno della verità", tanto ciascuno la vede a modo proprio, e' testo sprecato ;)
halduemilauno
14-11-2007, 15:05
una domanda questa nuova scheda video hd3870 va meglio della x2900xt ancora non l'ho capito.
amd ha detto a pari clock simili prestazioni. i clock sono simili una 742 l'altra 777. non so se ha specificato se riguarda anche la ram. cmq domani il web sarà invaso da rece.
Altra mini-recensione con foto hi-res.
http://64.233.179.104/translate_c?hl=en&langpair=zh%7Cen&u=http://forum.coolaler.com/showthread.php%3Ft%3D166283
I test sono svolti con questo testbed:
Cose che si potrebbero desumere: con l'AA attivato queste schede sembrano andare davvero bene (anzi vanno meglio, in proporzione, che con l'AA disattivato). Purtroppo i settaggi sono poco chiari. L'unico che sembra attendibile è Company of Heroes col test integrato, ma bisognerebbe capire se è DX9 o DX10.
Le prestazioni in termini di calore sembrano dovute al cooler, perchè il chip scalda non poco. Se si forza la ventola al 25% (di fabbrica la regolazione sembra dinamica) le temperature in load salgono come quelle della GT. Con la ventola al 100% sembrano andare vanno meglio che le 8800GT con la ventola al 100%. Morale: per capirci qualcosa su calore/consumi si attendono le rece ufficiali. :)
Troppe foto in HD . Ci sto mettendo la vita a caricare la pagina . E meno male che ho la 4Mbit, immagino col 56k è da suicidio .
+Lonewolf+
14-11-2007, 15:06
Da quello che ho capito un 10% sopra la hd2900xt, ma domani dovrebbe esserci la review, quindi fidati di Corsini ;)
in linea di massima un 10% ma singolare il graficon in cui una 3850 andava meglio del 15% rispetto ad una 2900 in UT3...nonostante le frequenze infeiriori e COD4 in cui a risoluzioni elevatissime con filtri la media era salita di ben 5fps...qualche ottimizzazione architetturale c'è stata evidentemente, siamo tutti fiduciosi...
tutti meno uno:sofico:
halduemilauno
14-11-2007, 15:07
:(
non tu. loro.
;)
HackaB321
14-11-2007, 15:08
Questo gran parac..o :ciapet: sembra abbia la scheda con un giorno di anticipo.
http://forums.overclockers.co.uk/showthread.php?t=17803403
Stanno tutti aspettando dei suoi test. Mah guardiamo che ne esce :D
3DMark79
14-11-2007, 15:08
In ordine dalla più alla meno importante:
- Mostrano i FPS (cosa che viene sottolineata nel corpo dell'articolo)
- Mostrano che non è una recensione-fake
- Mostrano che il gioco gira bene su entrambe le schede
- Fanno figura
Non solo la differente scena, ma il numero del frame più la scrittina on-game su uno di essi mostra senza dubbio alcuno che non vi fosse alcuna velleità di confronto.
Le due immagini sono diverse in quanto prese in momenti diversi, quella più "nitida" è successiva, e posta a una altezza da terra inferiore.
Cmq a parte gli scherzi, siamo qui in questo grande forum per parlare del più del meno e per confrontarci, se qualcuno magari sa qualcosa che un'altro non sa viene spiegato.Che sia chiaro non stiamo qui a litigare!;)
PS: +Lonewolf+ alzati da terra!:sbonk:
Fine OT.
- Mostrano i FPS (cosa che viene sottolineata nel corpo dell'articolo)
- Mostrano che non è una recensione-fake
- Mostrano che il gioco gira bene su entrambe le schede
- Fanno figura
- E le mostrano per fare un confronto
- Una rcensione di un confronto hd3870-8800GT
- Direi, 15 fps non mi sembrano abbiano codesta velleità, potevano prendere un momento con numeri "migliori"
- Ah sì? 2 immagini identiche (quasi) in un sito fanno figura? Quante volte hai visto hwupgrade mettere 2 scene quasi identiche se non, appunto, quando deve valutare la qualità?
appleroof
14-11-2007, 15:10
Che sia una comparazione lo dite voi!
il problema è che solo un occhio attento o interessato (nel senso di essere obiettivi) si accorge che non è una comparazione. La prima cosa che ti salta in mente aprendo quelle immagini, oltre al commento "la qualità Ati sembra essere migliore" automaticamente fanno presumere che sia lo stesso fotogramma. Io stesso non mi sono reso conto subito che erano 2 fotogrammi diversi, solo che (quanto è importante il punto di vista :asd: ) ho subito pensato ad un fake, e il fatto che dinox rilanciasse la cosa nuda e cruda sinceramente....
Ai limiti del truffaldino.
x.vegeth.x
14-11-2007, 15:13
mi sono perso...escono il 19 insieme a phenom oppure il 15 (domani)?
appleroof
14-11-2007, 15:15
QFE
questa mi manca :stordita: , cosa vuol dire?
3DMark79
14-11-2007, 15:15
il problema è che solo un occhio attento o interessato (nel senso di essere obiettivi) si accorge che non è una comparazione. La prima cosa che ti salta in mente aprendo quelle immagini, oltre al commento "la qualità Ati sembra essere migliore" automaticamente fanno presumere che sia lo stesso fotogramma. Io stesso non mi sono reso conto subito che erano 2 fotogrammi diversi, solo che (quanto è importante il punto di vista :asd: ) ho subito pensato ad un fake, e il fatto che dinox rilanciasse la cosa nuda e cruda sinceramente....
Ai limiti del truffaldino.
Infatti!Per evitare ciò la migliore soluzione e avere 2 PC con installate le due schede con 2 monitor identici messi in luce alla medesima scena!:(
MiKeLezZ
14-11-2007, 15:15
Quindi mi state dicendo che il sito voleva fregare gli incauti lettori facendo credere che le 3870 avessero una qualità maggiore delle 8800GT ?
il problema è che solo un occhio attento o interessato (nel senso di essere obiettivi) si accorge che non è una comparazione. La prima cosa che ti salta in mente aprendo quelle immagini, oltre al commento "la qualità Ati sembra essere migliore" automaticamente fanno presumere che sia lo stesso fotogramma. Io stesso non mi sono reso conto subito che erano 2 fotogrammi diversi, solo che (quanto è importante il punto di vista :asd: ) ho subito pensato ad un fake, e il fatto che dinox rilanciasse la cosa nuda e cruda sinceramente....
Ai limiti del truffaldino.
Cavalcava l'onda lunga delle ottimizzazioni nvidia a scapito della qualità, secondo me.
E sempre secondo me, voleva essere una comparazione. Truffaldina per l'appunto.
davide155
14-11-2007, 15:18
mi sono perso...escono il 19 insieme a phenom oppure il 15 (domani)?
tomorrow
halduemilauno
14-11-2007, 15:19
Infatti!Per evitare ciò la migliore soluzione e avere 2 PC con installate le due schede con 2 monitor identici messi in luce alla medesima scena!:(
ma scusa il problema lo hai sollevato tu e non ti sei accorto che erano diversi i frame?
appleroof
14-11-2007, 15:19
Quindi mi state dicendo che il sito voleva fregare gli incauti lettori facendo credere che le 3870 avessero una qualità maggiore delle 8800GT ?
io non dico questo, dico solo che la primissima cosa che ti balena in mente, così come è messa l'intera vicenda (quindi shot, grafici e commento insieme) è che l'immagine di Ati è superlativa, quella Nvidia fà pietà. Poi solo se ti soffermi un attimo in più ti accorgi che sono 2 frame diversi, il lettore di passaggio, o non esperto, di certo sulle prime non se ne rende conto.
E non credo di sbagliare, poi....
Cavalcava l'onda lunga delle ottimizzazioni nvidia a scapito della qualità, secondo me.
E sempre secondo me, voleva essere una comparazione. Truffaldina per l'appunto.
esatto, ma la cosa che mi stupisce ripeto, non è la prova del singolo utente (qualunque fanboy potrebbe farla, lascia il tempo che trova), ma il rilancio nudo e crudo di dinox...
halduemilauno
14-11-2007, 15:20
Quindi mi state dicendo che il sito voleva fregare gli incauti lettori facendo credere che le 3870 avessero una qualità maggiore delle 8800GT ?
con qualcuno c'è riuscito.
;)
3DMark79
14-11-2007, 15:20
Quindi mi state dicendo che il sito voleva fregare gli incauti lettori facendo credere che le 3870 avessero una qualità maggiore delle 8800GT ?
A questo punto potrebbe anche essere di si.
appleroof
14-11-2007, 15:23
QFE
questa mi manca :stordita: , cosa vuol dire?
dai rispondi....sono troppo curioso :)
Altra mini-recensione con foto hi-res.
http://64.233.179.104/translate_c?hl=en&langpair=zh%7Cen&u=http://forum.coolaler.com/showthread.php%3Ft%3D166283
Le temp viste mi preoccupano e non poco. Spero che domani ci siano chiarimenti. Magari è un problema di sw che visualizza temperature sballate (spero), perchè con la ventola al 25% arrivare a oltre 100° non mi garba.
Ma perchè ci si sta impuntando su cose sciocchezze del genere?
questa scheda sarà un aggiornamento dell 2900xt decisamente migliore come rapporto prezzo/prestazioni/consumi; lo dice ati, lo dice nvidia che altrimenti nn si sarebbe ammazzata x fare uscire una scheda come la 8800gt 2 settimane prima con un prezzo simile a quello delle hd38xx con il risultato di nn averne a sufficienza in stock.
rimane solo da vedere a che punto sarà ottimizzata e competitiva in ambiente dx10.
OT
At mikelezz: ti prego evita di correggere un canadese su ciò che riguarda il petrolio e soprattutto le centrali idro/elettriche (sono il primo paese al mondo x quelle e le utilizzano x il 60%)... rischi di fare brutte figure ;)
x.vegeth.x
14-11-2007, 15:26
tomorrow
Il 15. Il 19 viene presentata la piattaforma Spider, in cui queste schede entrano.
bene....credevo fossero per il 19. speriamo si facciano onore
Ma quind domani disponibili?
MiKeLezZ
14-11-2007, 15:28
A questo punto potrebbe anche essere di si.Vista la facilità con cui trapelano notizie false e tendenziose è stata allora una fortuna che ci siamo stati noi pronti a correggere!
taleboldi
14-11-2007, 15:29
Ma sono pci-e 1 o 2?
azz nella foga questa me la sono persa ...
ma posso montare una scheda pci-e 2 su una mobo con pci-e 1 ???
Ma quind domani disponibili?
Probabilmente da domani ci sarà la presentazione, e poi dal 19 le vendite ovunque.
Comunque basta aspettare meno di 12h per avere delle certezze .
azz nella foga questa me la sono persa ...
ma posso montare una scheda pci-e 2 su una mobo con pci-e 1 ???
Interfaccia PCI Express 2.0 - Retrocompatibilità con PCI Express 1.0
Leggi anche qui: http://it.wikipedia.org/wiki/PCI_Express_2.0
MiKeLezZ
14-11-2007, 15:33
OT
At mikelezz: ti prego evita di correggere un canadese su ciò che riguarda il petrolio e soprattutto le centrali idro/elettriche (sono il primo paese al mondo x quelle e le utilizzano x il 60%)... rischi di fare brutte figure ;)Sicuro non la facciano loro (o te! visto che loro non mi pare abbiano recriminato)?
Questa è attualità :-)
http://img228.imageshack.us/img228/3864/dsc00639hq4.jpg
E delle centrali io non ho parlato. ;-)
Chiusa parentesi.
Le temp viste mi preoccupano e non poco. Spero che domani ci siano chiarimenti. Magari è un problema di sw che visualizza temperature sballate (spero), perchè con la ventola al 25% arrivare a oltre 100° non mi garba.
La ventola al 25% l'hanno forzata loro con un programmino per controllare le ventole. Normalmente non accade, a meno che tu non voglia, proprio perchè di fabbrica le ventole girano a più di quella velocità. Prova ad esempio a fermare la ventola sopra la cpu e vedi a che temp arriva (anzi non provarci, che se ti si fonde la cpu te la prendi con me... :D ).
dai rispondi....sono troppo curioso :)
QFE=quoted for emphasis (se è quello che penso).
La ventola al 25% l'hanno forzata loro con un programmino per controllare le ventole. Normalmente non accade, a meno che tu non voglia, proprio perchè di fabbrica le ventole girano a più di quella velocità. Prova ad esempio a fermare la ventola sopra la cpu e vedi a che temp arriva (anzi non provarci, che se ti si fonde la cpu te la prendi con me... :D ).
Ma le rumorosità espresse in dB sono prese con la ventola che funziona al 100% ?
azz nella foga questa me la sono persa ...
ma posso montare una scheda pci-e 2 su una mobo con pci-e 1 ???
Sì, ma quello che non capisco è la questione alimentazione, pci-e 1 non eroga 75W? Pci-e 2 non ne eroga il doppio? QUindi su pci-e 2 va senza molex e sull'1 col molex?
Ma le rumorosità espresse in dB sono prese con la ventola che funziona al 100% ?
Perchè qualcuno ha fatto misurazioni del genere su una HD3800?
Normalmente dipende. Se la ventola è programmata di default per andare fino al max dei giri in load sì. Altrimenti no.
Su Overclockers.co.uk un ragazzo che ha una HIS HD3870 scrive:
The card sits at an Idle temp of 52degrees, around 7-8 off my HD2900pro and it is completely silent
Lo stesso tizio dice che anche durante un 3DMark06 era completamente silenziosa.
A note from the test would have to be that the card at no point was audible.
Ovviamente questo non dà alcuna certezza. :)
Sì, ma quello che non capisco è la questione alimentazione, pci-e 1 non eroga 75W? Pci-e 2 non ne eroga il doppio? QUindi su pci-e 2 va senza molex e sull'1 col molex?
Sì è così.
Sì, ma quello che non capisco è la questione alimentazione, pci-e 1 non eroga 75W? Pci-e 2 non ne eroga il doppio? QUindi su pci-e va senza molex e sull'1 col molex?
sulle mobo pci-e 2.0 dovrebbe andare anche senza molex...
sulle mobo pci-e 2.0 dovrebbe andare anche senza molex...
Ottima info, sempre puntuale ;)
3DMark79
14-11-2007, 15:49
sulle mobo pci-e 2.0 dovrebbe andare anche senza molex...
Infatti non c'è altra spiegazione.Erogando di più la 2.0 non ne avrà bisogno ma l'hanno dovuta implementare per la 1.0 anche se a me sempre proprio inutile questo cambio.
bhè scusate ma mi sembra la scoperta dell' acqua calda :D
E' logico che su pcie2 non serva l'alimentazione aggiuntiva, se la sk consuma meno di 150W...
Gigabyte HD3870.
http://img111.imageshack.us/img111/8905/attachmentnd6.jpg
sulle mobo pci-e 2.0 dovrebbe andare anche senza molex...
in teoria si anche se nn abbiamo la certezza ancora
chi si vuole divertire con un'ipotesi di prestazioni/costi/consumi in ambito CF? :rolleyes:
Sicuro non la facciano loro (o te! visto che loro non mi pare abbiano recriminato)?
Questa è attualità :-)
tranquillo che io non la faccio.
- se uno ti dice che vanno avanti con centrali idroelettriche è vero.
non ha senso rispondergli che producono + degli emirati arabi (infatti la maggior parte di ciò che producono lo esportano).
non ti rispondono magari xchè stanno dormendo (forse) e comunque sei tu che sei andato a contestare.
chiudo qui questo ot dato che siamo tutti così permalosi.;)
+Lonewolf+
14-11-2007, 15:59
Gigabyte HD3870.
http://img111.imageshack.us/img111/8905/attachmentnd6.jpg
nwn2???
hanno deciso di far figuracce???
paolox86
14-11-2007, 16:03
Non mi piacciono le pubblicità dei giochi sui dissi delle schede...
Guardate questo furbo:
319 $??? Quando saranno al massimo sui 239????
Gigabyte HD3870.
http://img111.imageshack.us/img111/8905/attachmentnd6.jpg
Da quel che ho visto tutte le case come Asus, Gigabyte, HIS, ecc forniscono un gioco all'interno .
Ottimo .
Quello che pensavo io, è il gioco che su hd2900xt mi ha dato più problemi...
halduemilauno
14-11-2007, 16:05
la prima.
http://www.legionhardware.com/document.php?id=703&p=0
non vi anticipo nulla.
;)
Non mi piacciono le pubblicità dei giochi sui dissi delle schede...
Guardate questo furbo:
319 $??? Quando saranno al massimo sui 239????
I soliti furbacchioni .
Tempo fa avevo visto un QX9650 versione ES venduto a oltre $2000 .
Non mi piacciono le pubblicità dei giochi sui dissi delle schede...
Guardate questo furbo:
319 $??? Quando saranno al massimo sui 239????
niente link ebay
paolox86
14-11-2007, 16:08
niente link ebay
Ops... scusa non sapevo... :ave: :)
halduemilauno
14-11-2007, 16:09
http://www.legionhardware.com/Bench/ATI_Radeon_HD_3870_vs_Nvidia_GeForce_8800_GT/Crysis.png
http://www.legionhardware.com/Bench/ATI_Radeon_HD_3870_vs_Nvidia_GeForce_8800_GT/Power.png
http://www.legionhardware.com/Bench/ATI_Radeon_HD_3870_vs_Nvidia_GeForce_8800_GT/Temps.png
;)
Va bene. Allora è aperta la scommessa:
Secondo A.L.M. la 3870 consuma in LOAD quanto la 8800GT.
Secondo MiKeLezZ la 3870 consuma in LOAD 12W più della 8800GT.
Ti metto in lista per domani. Se fossimo al baretto ci potevamo giocare l'aperitivo...
Ah, una semplice release di driver (che corregge il bug dell'acqua che secondo alcuni serviva a far andare la 8800GT più della 3870) a distanza di giorni prende 3-10 FPS, ma siccome lo fa con impostazioni in "High" e non "Very High", non conta più un cazzo :D
Forse ho fatto male a non scommettere... :asd:
http://img135.imageshack.us/img135/5562/powertt5.png
Per il discorso sulla tua puntualizzazione, potremo saperlo solo domani se fosse giusta o a sproposito, non credi? ;-)
Direi che la mia puntualizzazione era giusta, non credi? ;)
appleroof
14-11-2007, 16:11
la prima.
http://www.legionhardware.com/document.php?id=703&p=0
non vi anticipo nulla.
;)
praticamente và come una 2900xt, da quei test....solo in wic in dx10 con aa4x la stacca, ma rimanendo cmq sotto la soglia di giocabilità...
mi astengo dal commentare questi primissimi bench (che cmq si commentano da soli) per non venire fucilato da qualcuno...
quanto a consumi e calore, non ci sono miracoli rispetto alla 8800gt, anzi, le temp sono le stesse
la prima.
http://www.legionhardware.com/document.php?id=703&p=0
non vi anticipo nulla.
;)
:( . In media è un 22% più lenta . Peccato non ci sia anche la 3850 nei test.
Le differenze prestazionali con una 2900XT sono monime di positivo ha che:
- consuma di meno
- costa molto meno
Sta prima review indubbiamente la stronca, e meno male che doveva scaldare poco, scalda di meno la hd2900xt.
halduemilauno
14-11-2007, 16:18
praticamente và come una 2900xt, da quei test....solo in wic in dx10 con aa4x la stacca, ma rimanendo cmq sotto la soglia di giocabilità...
mi astengo dal commentare questi primissimi bench (che cmq si commentano da soli) per non venire fucilato da qualcuno...
quanto a consumi e calore, non ci sono miracoli rispetto alla 8800gt, anzi, le temp sono le stesse
mi associo.
;)
ps potete aprire il thread ufficiale e chiudere questo. se volete.
male molto male,sono cazzi per ati..
+Lonewolf+
14-11-2007, 16:19
la prima.
http://www.legionhardware.com/document.php?id=703&p=0
non vi anticipo nulla.
;)
mi sorge una domanda....
ma la 2900 non andava + veloce della gtx in bioshock dx9???? ne sono sicuro, lo dicevano tutti, e ho visto parecchie rece...:confused:
paolox86
14-11-2007, 16:19
scheda da 170 € ... se venduta sui 220 è di nuovo un Ati-flop....
appleroof
14-11-2007, 16:21
Sta prima review indubbiamente la stronca, e meno male che doveva scaldare poco, scalda di meno la hd2900xt.
a parziale discapito si legge però che le temp della 2900xt sono ottenute sacrificando il silenzio, cosa che la 3870 non soffre, ma lo scopo principale di una vga è far giocare, non scaldare/consumare poco...:rolleyes:
+Lonewolf+
14-11-2007, 16:22
finita di leggere...strano l'aumento in wic...che abbiano ottimizzato le dx10???
Kharonte85
14-11-2007, 16:22
la prima.
http://www.legionhardware.com/document.php?id=703&p=0
non vi anticipo nulla.
;)
Tutto come previsto, nessuna sorpresa (anche se a dire il vero mi aspettavo un consumo inferiore [viste le prestazioni] e un dissipatore piu' efficiente)...
nvidia sta affossando ati purtroppo. non c'è piu concorrenza.
http://www.legionhardware.com/Bench/ATI_Radeon_HD_3870_vs_Nvidia_GeForce_8800_GT/Table.png
MiKeLezZ
14-11-2007, 16:24
Forse ho fatto male a non scommettere... :asd:
Direi che la mia puntualizzazione era giusta, non credi? ;)Dalla prima recensione sembra tu abbia ragione. Anche se è la prima recensione in cui vedo la 8800GT consumare quanto la 8800GTS. Da altre parti ci sono distacchi di parecchi Watt.
Per fortuna mi posso consolare su LoneWolf :asd: :asd:
Dove sei, tesoro? :asd:
WIC è un mistero come dalla beta siano riuscito a farlo diventar epiù pesante...
+Lonewolf+
14-11-2007, 16:25
Tutto come previsto, nessuna sorpresa (anche se a dire il vero mi aspettavo un consumo inferiore [viste le prestazioni] e un dissipatore piu' efficiente)...
idem, immaginavo cose simili, anche se vedo strani aumenti architetturalmente ingiustificati...se avrò l'opportunità di fare il cambio a costo zero farò test accurati
SUPERALEX
14-11-2007, 16:26
ma perchè con la 2900xt hanno usato i 7.9 mentre con la 3870 i 7.9?
Io mi chiedo, 250.000 preorder e 150.000 in più entro natale, su quali basi? Bho magari altre review diranno altro.
+Lonewolf+
14-11-2007, 16:26
Dalla prima recensione sembra tu abbia ragione
Per fortuna mi posso consolare su LoneWolf :asd: :asd:
Dove sei, tesoro? :asd:
consolare???
io mica ho detto che andava + forte della 8800gt? sei tu che stai facendo l'arrogante da prima della presentazione...
però ti assicuro che sei stato divertentissimo con certe uscite, in cui la prendevii sul personale, come se la scheda la avessi costruita tu:asd::asd:
adesso che sai che è + performante farai una festa??:sbonk:
appleroof
14-11-2007, 16:27
Io mi chiedo, 250.000 preorder e 150.000 in più entro natale, su quali basi? Bho magari altre review diranno altro.
la speranza è l'ultima a morire...:D
cmq aspettiamo ulteriori conferme/smentite
halduemilauno
14-11-2007, 16:28
Tutto come previsto, nessuna sorpresa (anche se a dire il vero mi aspettavo un consumo inferiore [viste le prestazioni] e un dissipatore piu' efficiente)...
su 5 posizioni tranne due che è terza è sempre quarta o quinta. e quindi anche la gts ne esce bene molto bene.
;)
HackaB321
14-11-2007, 16:30
mi sorge una domanda....
ma la 2900 non andava + veloce della gtx in bioshock dx9???? ne sono sicuro, lo dicevano tutti, e ho visto parecchie rece...:confused:
più della gts senza aa di sicuro. Un pò strano quel risultato :wtf:
La collocassero a 179 3870 e 149 la 3850 potrebbero dire la loro come appetibilità.
Il problema è che 8800gt 256 penso che a questo punto andrà meglio anche di 3870.
Superpelo
14-11-2007, 16:31
nvidia sta affossando ati purtroppo. non c'è piu concorrenza.
http://www.legionhardware.com/Bench/ATI_Radeon_HD_3870_vs_Nvidia_GeForce_8800_GT/Table.png
quoto peccato
+Lonewolf+
14-11-2007, 16:32
più della gts senza aa di sicuro. Un pò strano quel risultato :wtf:
infatti...aspettiamo altre rece quali xbitlabs o hwupgrade
La collocassero a 179 3870 e 149 la 3850 potrebbero dire la loro come appetibilità.
Il problema è che 8800gt 256 penso che a questo punto andrà meglio anche di 3870.
Si, molto probabilmente anche la GT da 256 andrà meglio e costerà meno (prezzo previsto €179 ).
gianni1879
14-11-2007, 16:35
se le cose continueranno in questa maniera ati farebbe meglio a licenziare ed assumere nuovi ingegneri.progettisti!
quoto peccato
Purtroppo senza competitor nvidia fa i prezzi che vuole, temo per la nuova architettura.
la speranza è l'ultima a morire...:D
cmq aspettiamo ulteriori conferme/smentite
Bioshock dx9 è molto strano come risultato, è una flebile speranza, non so voi ma non voglio il monopolio.
la prima.
http://www.legionhardware.com/document.php?id=703&p=0
non vi anticipo nulla.
;)
:doh:
GT tutta la vita, il distacco è spesso esagerato :rolleyes:
TecnoWorld8
14-11-2007, 16:39
io temo per la nuova GTS, che dovrebbe uscire il 3 dicembre. dato che già una GT da 220€ è + veloce di qualunque scheda della concorrenza, quanto costerà la GTS? e uscirà veramente, ora? fffffff.
se le cose continueranno in questa maniera ati farebbe meglio a licenziare ed assumere nuovi ingegneri.progettisti!
*
Quel che pensavo anch'io . Forse era meglio che ATi e AMD non si unificassero.
Comunque da un shop italiano ho visto che vendono la:
3850 265Mb -> €198
3870 512Mb -> €247
Spero che siano prezzi preorder, perchè saranno in pochi a prenderle a quel prezzo .
io temo per la nuova GTS, che dovrebbe uscire il 3 dicembre. dato che già una GT da 220€ è + veloce di qualunque scheda della concorrenza, quanto costerà la GTS? e uscirà veramente, ora? fffffff.
La GTS costerà sui 300 circa.
Comunque o AMD si inventa qualcosa o a questo passo sprofonderà .
roccodifilippo
14-11-2007, 16:42
.....e mo?
Non va bene. non va bene e non va bene.......22% è tanto, mi pare che all'Amd si stiano arrendendo :cry: :cry: , non è un granchè confronto a R600, mi sembra la minestra scaldata (anzi raffreddata).
Comunque allora credo che l'iniziale sconto del 12% sulla 8800gt debba arrivare almeno al 20%, e ci arriverà.
Tuttavia resta da vedere se il distacco tra un crossfire di 3870 e uno SLi di 8800 conservi il 22% di differenze ed io penso di no....voi che credete?
Sulla gt a 256 mb sarà strano che vada meglio della 3870
non mi apre il link, ci sono altre review in giro?
MonsterMash
14-11-2007, 16:43
Ma per quando è prevista la dual rv670?
halduemilauno
14-11-2007, 16:44
io temo per la nuova GTS, che dovrebbe uscire il 3 dicembre. dato che già una GT da 220€ è + veloce di qualunque scheda della concorrenza, quanto costerà la GTS? e uscirà veramente, ora? fffffff.
si esce lo stesso. essa deve rispondere a un'altra logica di mercato.
;)
Ma per quando è prevista la dual rv670?
Gennaio/Febbraio...
Gabriyzf
14-11-2007, 16:45
a dimostrazione che le dx10.1 se le possono tenere loro
male molto male,sono cazzi per ati..
Io non direi...
Certo allo stesso prezzo di una GT non ne vale la pena, ma ATi può scendere più di NVidia col prezzo per via dei costi minori. A 50€ meno della concorrente la HD3870 sarebbe un'ottima alternativa. Senza contare i contratti con Dell/Alienware e Apple, che per il bilancio servono più dei grafici con le prestazioni.
ATi sette o otto anni fa non era affatto leader in prestazioni (a differenza di NVidia o 3Dfx), ma proprio grazie ai grossi contratti OEM era diventato il più importante produttore mondiale di schede video per quantità.
Per il discorso prestazioni mi sa che fino a quando AMD-ATi non sarà un'unione stabile (e quindi avranno risolto i problemi interni, e secondo me molte aziende della Silicon Valley quanto a controllo dei costi/spese di R&D sono veramente ridicole), schede ottime sotto ogni punto di vista saranno difficili da vedersi. Se ne riparlerà con R700. :)
TecnoWorld8
14-11-2007, 16:47
si esce lo stesso. essa deve rispondere a un'altra logica di mercato.
;)
la logica di chi vuol spendere un po' di più per avere il top? :) speriamo!
magari però ci fosse ancora la logica dei 600€ per una scheda iperpotente (tipo due volte la GT), anche senza concorrenza...
Io non direi...
Certo allo stesso prezzo di una GT non ne vale la pena, ma ATi può scendere più di NVidia col prezzo per via dei costi minori. A 50€ meno della concorrente la HD3870 sarebbe un'ottima alternativa. Senza contare i contratti con Dell/Alienware e Apple, che per il bilancio servono più dei grafici con le prestazioni.
ATi sette o otto anni fa non era affatto leader in prestazioni (a differenza di NVidia o 3Dfx), ma proprio grazie ai grossi contratti OEM era diventato il più importante produttore mondiale di schede video per quantità.
Per il discorso prestazioni mi sa che fino a quando AMD-ATi non sarà un'unione stabile (e quindi avranno risolto i problemi interni, e secondo me molte aziende della Silicon Valley quanto a controllo dei costi/spese di R&D sono veramente ridicole), schede ottime sotto ogni punto di vista saranno difficili da vedersi. Se ne riparlerà con R700. :)
si sicuramente di venderle le venderà proprio per quello che hai detto tù,però a livello di immagine è innegabile che ci ha perso...
halduemilauno
14-11-2007, 16:50
Io non direi...
Certo allo stesso prezzo di una GT non ne vale la pena, ma ATi può scendere più di NVidia col prezzo per via dei costi minori. A 50€ meno della concorrente la HD3870 sarebbe un'ottima alternativa. Senza contare i contratti con Dell/Alienware e Apple, che per il bilancio servono più dei grafici con le prestazioni.
ATi sette o otto anni fa non era affatto leader in prestazioni (a differenza di NVidia o 3Dfx), ma proprio grazie ai grossi contratti OEM era diventato il più importante produttore mondiale di schede video per quantità.
Per il discorso prestazioni mi sa che fino a quando AMD-ATi non sarà un'unione stabile (e quindi avranno risolto i problemi interni, e secondo me molte aziende della Silicon Valley quanto a controllo dei costi/spese di R&D sono veramente ridicole), schede ottime sotto ogni punto di vista saranno difficili da vedersi. Se ne riparlerà con R700. :)
deve fare i conti con la 8800gt256 che costerà gia meno e nvidia si può permettere di abbassare ancora se vuole quel prezzo. e dove i 256 in meno non pesano...
e pensate nei confronti della 3850.
paolox86
14-11-2007, 16:50
*
Quel che pensavo anch'io . Forse era meglio che ATi e AMD non si unificassero.
Comunque da un shop italiano ho visto che vendono la:
3850 265Mb -> €198
3870 512Mb -> €247
Spero che siano prezzi preorder, perchè saranno in pochi a prenderle a quel prezzo .
Se tengono questi prezzi sono pazzi!!! 170-180 euro e la compro (forse), 1 euro in più e non ne faccio di niente....:mbe:
a dimostrazione che le dx10.1 se le possono tenere loro
:ciapet: sono delle api ma se il sotrware non le usa non ti cambia niente , ma pensavo lo sapessi.
Stessa cosa vale per un'archittettura hardware, se non scrivi software ad hoc non lo sfrutterai mai.
MiKeLezZ
14-11-2007, 16:52
io mica ho detto che andava + forte della 8800gt? sei tu che stai facendo l'arrogante da prima della presentazione...Correva il giorno 1 Novembre...
http://www.hwupgrade.it/forum/showpost.php?p=19418278&postcount=365
Se la HD2900XT è stato un flop non mi aspetterei miracoli dalla 3870:
Quindi avevo ragione io come al solito, il divario può arrivare al 20% (sempre a favore di 8800GT). Almeno, a quanto pare, costerà poco, il che male non fa.http://www.hwupgrade.it/forum/showpost.php?p=19430681&postcount=441
la tua certezza che andrà di meno è irritante...inoltre la tua aroganza incornicia bene il fatto che ti stai rivelando un fanboy...
Ora ci sta solo questo problemino con A.L.M.
Ti do l'1 a 0, ma non riesco proprio a capire, da Legion:
8800GT - 254W
8800GTS - 251W
8800GTS - 296W
Da AnandTech
8800GT - 209W
8800GTX - 274W
Lo so, sembra una scusa infantile, ma ci sta abbiano riportato male il dato...
Io non direi...
Certo allo stesso prezzo di una GT non ne vale la pena, ma ATi può scendere più di NVidia col prezzo per via dei costi minori.Veramente all'uscita di 8800GT NVIDIA lasciò trapelare che la versione da 512MB sarebbe potuta scendere fino a 199$, in tempo per Natale... Ma a vedere questa prima recensione ci credo già molto meno :D
.....e mo?
Se vuoi le prestazioni ti butti su una 8800GT, sempre che la si trovi. :)
Alla fine non si potevano fare i salti mortali, R600 è quello che è, dunque in ATi farebbero meglio a guardare avanti alla prossima generazione, ma soprattutto a:
- fare più accordi con le software house
- puntare maggiormente sul mercato notebook (in forte crescita)
- non legare troppo il segmento vga a quello cpu (altrimenti si faranno trascinare dagli errori di AMD), almeno per il momento.
paolox86
14-11-2007, 16:53
Io non direi...
Certo allo stesso prezzo di una GT non ne vale la pena, ma ATi può scendere più di NVidia col prezzo per via dei costi minori. A 50€ meno della concorrente la HD3870 sarebbe un'ottima alternativa. Senza contare i contratti con Dell/Alienware e Apple, che per il bilancio servono più dei grafici con le prestazioni.
ATi sette o otto anni fa non era affatto leader in prestazioni (a differenza di NVidia o 3Dfx), ma proprio grazie ai grossi contratti OEM era diventato il più importante produttore mondiale di schede video per quantità.
Per il discorso prestazioni mi sa che fino a quando AMD-ATi non sarà un'unione stabile (e quindi avranno risolto i problemi interni, e secondo me molte aziende della Silicon Valley quanto a controllo dei costi/spese di R&D sono veramente ridicole), schede ottime sotto ogni punto di vista saranno difficili da vedersi. Se ne riparlerà con R700. :)
Se Ati/Amd fa cilecca con i Phenom e con r700 saranno davvero finiti e addio concorrenza...
halduemilauno
14-11-2007, 16:54
Se vuoi le prestazioni ti butti su una 8800GT, sempre che la si trovi. :)
Alla fine non si potevano fare i salti mortali, R600 è quello che è, dunque in ATi farebbero meglio a guardare avanti alla prossima generazione, ma soprattutto a:
- fare più accordi con le software house
- puntare maggiormente sul mercato notebook (in forte crescita)
- non legare troppo il segmento vga a quello cpu (altrimenti si faranno trascinare dagli errori di AMD), almeno per il momento.
mmm
TecnoWorld8
14-11-2007, 16:54
Se Ati/Amd fa cilecca con i Phenom e con r700 saranno davvero finiti e addio concorrenza...
se capiterà una cosa del genere, temo che non passeranno indenni il nuovo anno :( sarebbe una cosa terribile per il mercato, davvero terribile.
jventure
14-11-2007, 16:55
i loghi nuovi sono carini però ... fanno la loro figura ... alemeno quelli :( :cry:
http://www.fudzilla.com/images/stories/2007/November/General%20News/ati_newlogos.jpg
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4199&Itemid=34
leoneazzurro
14-11-2007, 16:55
Hmm... test piutosto strano
Catalyst 7.9 per la HD 3870? (e 7.10 per la 2900XT)
E Vista 64 come sistema operativo?
(la GT sarà sicuramente comunque più performante, OK, ma le scelte fatte in termini di sistema mi paiono quantomeno strane..)
3DMark79
14-11-2007, 16:56
Se tutto va bene siamo rovinati!Adesso non si sa più dove sbattere la testa!:muro:
Ati la concorrenza dov'è!!!
Ora ci sta solo questo problemino con A.L.M.
Ti do l'1 a 0, ma non riesco proprio a capire, da Legion:
8800GT - 254W
8800GTS - 251W
8800GTS - 296W
Da AnandTech
8800GT - 209W
8800GTX - 274W
Lo so, sembra una scusa infantile, ma ci sta abbiano riportato male il dato...
Ti brucia proprio eh? :asd:
Guarda, anche le misurazioni del tizio convergono verso quei risultati, come dicevo.
Al massimo consumo in load GT= consumo in load HD3870, watt più, watt meno.
In idle (cioè la maggior parte del tempo d'uso d'un pc) comunque non sembra esserci storia, ossia, seppur non di moltissimo, la HD3870 consuma meno.
Come ho più volte detto, in R600 il problema era il bus a 512bit, un vero vampiro di corrente. Eliminato quello e adottato un miglior processo produttivo, tutto si è risolto. :)
Veramente all'uscita di 8800GT NVIDIA lasciò trapelare che la versione da 512MB sarebbe potuta scendere fino a 199$, in tempo per Natale... Ma a vedere questa prima recensione ci credo già molto meno :D
Volendo possono pure farle costare 100€, dipende da quanto ci guadagnano... :asd:
Dalla sua ATi ha costi sicuramente inferiori del 10-20% (grazie ai 55nm) e forse yield migliori (anche quelli contribuiscono al prezzo, o meglio ai costi).
Marko#88
14-11-2007, 16:58
vista la rece...beh, a sto punto dovrà costare abbastanza meno della gt per essere davvero competitiva...:)
paolox86
14-11-2007, 16:59
i loghi nuovi sono carini però ... fanno la loro figura ... alemeno quelli :( :cry:
http://www.fudzilla.com/images/stories/2007/November/General%20News/ati_newlogos.jpg
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4199&Itemid=34
con questi purtroppo non si vende... Penso a quei poveracci (tra cui uno che conosco) che hanno ordinato la 3870 a 230-240 €...
Hmm... test piutosto strano
Catalyst 7.9 per la HD 3870? (e 7.10 per la 2900XT)
E Vista 64 come sistema operativo?
(la GT sarà sicuramente comunque più performante, OK, ma le scelte fatte in termini di sistema mi paiono quantomeno strane..)
Anche per me il test è strano, staremo a vedere.
i loghi nuovi sono carini però ... fanno la loro figura ... alemeno quelli :( :cry:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4199&Itemid=34
Sì, carini.... ma chissenfrega in fondo. Anche se sugli adesivi ci fosse Platinette nuda/o, sarei comunque disposto a comprare da ATi, basta che la scheda video faccia BENE il suo lavoro (e sia comunque migliore di nVidia!):O
Sì, carini.... ma chissenfrega in fondo. Anche se sugli adesivi ci fosse Platinette nuda/o, sarei comunque disposto a comprare da ATi, basta che la scheda video faccia BENE il suo lavoro (e sia comunque migliore di nVidia!):O
A tutto c'è un limite :D
3DMark79
14-11-2007, 17:04
Sì, carini.... ma chissenfrega in fondo. Anche se sugli adesivi ci fosse Platinette nuda/o, sarei comunque disposto a comprare da ATi, basta che la scheda video faccia BENE il suo lavoro (e sia comunque migliore di nVidia!):O
Mi sa che sta diventando un'UTOPIA!
ATI adesso deve necessariamente ridurre ulteriormente il prezzo.
Da questa situazione, comunque, chi ci perde, sono gli utenti Nvidia :(
Anche per me il test è strano, staremo a vedere.
Siamo in tre, aspetto quelli hwup o qualcun'altro più serio . Anche se non si può aspettarsi un miracolo .
3DMark79
14-11-2007, 17:09
Ma poi non capisco non si diceva che scaldava poco!?!:confused: :mc:
leoneazzurro
14-11-2007, 17:11
Siamo in tre, aspetto quelli hwup o qualcun'altro più serio . Anche se non si può aspettarsi un miracolo .
No, infatti. Sicuramente la 8800 GT sarà più veloce. Ma non capisco il metodo di test, che utilizza drivers non pensati per la nuova scheda (se non erro il supporto è stato inserito nei 7.10) quando poi si utilizza per la 2900XT il set "corretto", e la scelta di Vista 64 (che non è esattamente l'OS più diffuso qui in giro).
halduemilauno
14-11-2007, 17:12
Da questa situazione, comunque, chi ci perde, sono gli utenti Nvidia :(
almeno loro forse le pagheranno di + ma ottengono. gli altri??? questo per continuare a parlare per blocchi come fai tu.
MiKeLezZ
14-11-2007, 17:12
in R600 il problema era il bus a 512bit, un vero vampiro di corrente. Eliminato quello e adottato un miglior processo produttivo, tutto si è risolto. :)ah certo, invece se nvidia elimina il bus a 320bit e adotta un miglior processo produttivo vede aumentare di 3W il consumo (8800GT vs 8800GTS)
c'è qualcosa che non va... secondo me è un test "arlecchino", con dati presi un po' qua e un po' la, in fretta... può dare l'idea, ma manca di coesione
fra l'altro è crashato tutto l'ambaradan e sono rimasto a metà :asd:
A tutto c'è un limite :D
Per noi affamati di hardware, no! :O
Ma poi non capisco non si diceva che scaldava poco!?!:confused: :mc:
Consuma di meno , ma il problema è che avranno utilizzato o un dissipatore pessimo o gli altri erano più penformanti .
3DMark79
14-11-2007, 17:15
No, infatti. Sicuramente la 8800 GT sarà più veloce. Ma non capisco il metodo di test, che utilizza drivers non pensati per la nuova scheda (se non erro il supporto è stato inserito nei 7.10) quando poi si utilizza per la 2900XT il set "corretto", e la scelta di Vista 64 (che non è esattamente l'OS più diffuso qui in giro).
Spero che ci penserete voi Leoneazzurro a fare una recensione come si deve! ;)
folken84
14-11-2007, 17:16
azz ennesima delusione, si sperava che almeno scaldasse poco, ma nemmeno quello! :cry:
prima di prendere la decisione definitiva, complice anche l'assenza di 8800gt, voglio vedere come si comporta con i 7.11.. cavoli i 7.10 sono usciti 20 giorni fa! Non riesco a capire perchè nella rece abbiano usato i 7.9 :boh:
almeno loro forse le pagheranno di + ma ottengono. gli altri??? questo per continuare a parlare per blocchi come fai tu.
Ohh ho toccato il nervo dolente. Io parlo per blocchi? Ma per favore, ma che risposta infantile è questa? Vedremo dove collocheranno le nuove GTS, inizio a pensare che tu sia realmente un dipendente Nvidia.
appleroof
14-11-2007, 17:21
vista la rece...beh, a sto punto dovrà costare abbastanza meno della gt per essere davvero competitiva...:)
di questo passo gli toccherà vendere le top a 100€....peccato andranno come la fascia bassa della concorrenza :sbonk:
no dai, seriamente, aspettiamo rece....con i driver giusti :D (arifacce? vedremo)
ah certo, invece se nvidia elimina il bus a 320bit e adotta un miglior processo produttivo vede aumentare di 3W il consumo (8800GT vs 8800GTS)
c'è qualcosa che non va... secondo me è un test "arlecchino", con dati presi un po' qua e un po' la, in fretta... può dare l'idea, ma manca di coesione
fra l'altro è crashato tutto l'ambaradan e sono rimasto a metà :asd:
Sinceramente non ho nemmeno letto se la GT provata fosse una versione OC (core a 700mhz). Perchè in quel caso i valori in load potrebbero pure essere veritieri.
di questo passo gli toccherà vendere le top a 100€....peccato andranno come la fascia bassa della concorrenza :sbonk:
Mi sa che la concorrenza di schede di fascia bassa ne venderebbe ben poche, a quel punto... Non so quanta gente comprerà più le 8600GTS OC quando può comprarsi una HD3850 512MB a 170-180€. Ormai quelle (le ATi verranno sostituite a brevecon RV635) rischiano di rimanere invendute, se non scenderanno sotto i 100€. ;)
Viste le performance, credo proprio che in ATi puntino a fare cassa il più possibile con le HD3850, ecco spiegati i volumi alti. Non credo andranno tanto peggio, ma consumeranno e scalderanno ancora meno. Se in effetti oggi uno vuole spendere meno di 200€, saranno una scelta obbligata (una scheda di tale potenza a 256MB è comunque inutile, visto che molti giochi già oggi occupano più di 256MB di framebuffer).
halduemilauno
14-11-2007, 17:28
Da questa situazione, comunque, chi ci perde, sono gli utenti Nvidia :(
Ohh ho toccato il nervo dolente. Io parlo per blocchi? Ma per favore, ma che risposta infantile è questa? Vedremo dove collocheranno le nuove GTS, inizio a pensare che tu sia realmente un dipendente Nvidia.
ma scusa ma che termini usi? se ti vuoi riferire alla nuova gts perchè dici gli utenti nvidia? non è più semplice e giusto dire:
"accidenti con questo/questi risultati ora la gts probabilmente costerà di più. e magari il supposto sconto per la gt non lo si vedrà"
capisci ora? per tutti. tutti quelli che o avevano pensato sin dall'inizio o ci stanno pensando ora alla luce di questi risultati. no gli utenti nvidia ma perchè queste classificazioni? siamo utenti e basta.
"infantile" "dipendente" i soliti stereotipi quando non si hanno argomentazioni valide. "nervo dolente" ma nervo dolente de che?????
<^MORFEO^>
14-11-2007, 17:30
Comunque io non farei molto affidamento su quella recensione... Ok e sono certo che non andrà come la 8800GT ma sono anche convinto che non possa andare così di meno nei suoi confronti!
Sarebbe allora assurdo per ATI anche solo immetterla sul mercato...per cosa poi? Per farci un'altra brutta figura???:mbe:
Marko#88
14-11-2007, 17:31
di questo passo gli toccherà vendere le top a 100€....peccato andranno come la fascia bassa della concorrenza :sbonk:
no dai, seriamente, aspettiamo rece....con i driver giusti :D (arifacce? vedremo)
certo certo, aspettiamo altre rce...io il mio commento l'ho fatto avendo in mente quella di legion, se poi si rivelerà diversa sarò prontissimo a rimangiarmi le mie parole...;)
appleroof
14-11-2007, 17:33
Mi sa che la concorrenza di schede di fascia bassa ne venderebbe ben poche, a quel punto... Non so quanta gente comprerà più le 8600GTS OC quando può comprarsi una HD3850 512MB a 170-180€. Ormai quelle (le ATi verranno sostituite a brevecon RV635) rischiano di rimanere invendute, se non scenderanno sotto i 100€. ;)
Viste le performance, credo proprio che in ATi puntino a fare cassa il più possibile con le HD3850, ecco spiegati i volumi alti. Non credo andranno tanto peggio, ma consumeranno e scalderanno ancora meno. Se in effetti oggi uno vuole spendere meno di 200€, saranno una scelta obbligata (una scheda di tale potenza a 256MB è comunque inutile, visto che molti giochi già oggi occupano più di 256MB di framebuffer).
Era una battuta :stordita:
spero che Ati torni a fare vga buone (sempre in attesa di conferme/smentite) perchè il 2007 è meglio che se lo scordi
p.s.: manda pure tuo fratello a prendere una 8800gt :)
Gli ultimi driver beta per Crysis sono i 169.09 e risolvono il bug dell'acqua. La grafica non è mai stata penosa, e non lo è ora.
secondo me non era un bug...ma visto che è stato scoperto il trucchetto sono costretti ora a dire che sia un bug...e soprattutto sono stati costretti a ripristinare... :D
ma scusa ma che termini usi? se ti vuoi riferire alla nuova gts perchè dici gli utenti nvidia? non è più semplice e giusto dire:
"accidenti con questo/questi risultati ora la gts probabilmente costerà di più. e magari il supposto sconto per la gt non lo si vedrà"
capisci ora? per tutti. tutti quelli che o avevano pensato sin dall'inizio o ci stanno pensando ora alla luce di questi risultati. no gli utenti nvidia ma perchè queste classificazioni? siamo utenti e basta.
"infantile" "dipendente" i soliti stereotipi quando non si hanno argomentazioni valide. "nervo dolente" ma nervo dolente de che?????
Ma le mie argomentazioni sono validissime, se queste schede AMD si confermano così, 8800GTS del 3 dicembre sarà ceduta a maggior importo da parte di Nvidia.
Io non sono un utente, sono un utente nvidia, come vedi, quando avrò e se avro amd sarò amd, dov'è il problema, è come se uno mi chiedesse che macchina ho e io rispondessi... eh io sono un automobilista :D
Era una battuta :stordita:
spero che Ati torni a fare vga buone (sempre in attesa di conferme/smentite) perchè il 2007 è meglio che se lo scordi
p.s.: manda pure tuo fratello a prendere una 8800gt :)
OT
Lo so. Solo che sto ancora aspettando che quei xxxxx di computercittàhw ( :asd: ) mi rispondano per dirmi quando gli arrivano le GT...
Piuttosto che aspettare le dual slot gli faccio prendere un case super areato tipo Antec Nine Hundred, così le temp si mantengono decenti (almeno spero :stordita: ). Magari poi ti chiedo qualche consiglio in PM, se necessario. :)
/OT
MiKeLezZ
14-11-2007, 17:41
AHI AHI AHI
Ricordate che vi ho parlato di "recensione Arlecchino"?
Guardate un po' che ho trovato cercando notizie su questa 8800GT Inno3D:
http://www.techspot.com/review/74-inno3d-geforce8800gt/page9.html
Molto strano
halduemilauno
14-11-2007, 17:42
cmq questo gia aveva capito tutto.
http://www.xtremesystems.org/forums/showpost.php?p=2554671&postcount=1065
le sue prime impressioni non lasciano adito a dubbi.
;)
secondo me non era un bug...ma visto che è stato scoperto il trucchetto sono costretti ora a dire che sia un bug...e soprattutto sono stati costretti a ripristinare... :D
Ma i 169.09 hanno le stesse, se non migliori performance, quindi può darsi che sia un bug.
AHI AHI AHI
Ricordate che vi ho parlato di "recensione Arlecchino"?
Guardate un po' che ho trovato cercando notizie su questa 8800GT Inno3D:
http://www.techspot.com/review/74-inno3d-geforce8800gt/page9.html
Stessa tabella, stessi dati, qualcuno ha fatto un bel copia-incolla... probabilmente aggiungendovi i risultati della 3870 (che magari è andato a comprare oggi).
In ogni caso trovo tutto mooolto strano... direi di aspettare ;-)
Visto? Come dicevo. E' del tutto probabile che una 8800GT in versione OC consumi più di una GTS in versione stock in load (per via dei clocks tiratissimi). ;)
http://img134.imageshack.us/img134/5549/atinewlogosiu4.jpg
Marko#88
14-11-2007, 17:46
OT
Lo so. Solo che sto ancora aspettando che quei xxxxx di computercittàhw ( :asd: ) mi rispondano per dirmi quando gli arrivano le GT...
Piuttosto che aspettare le dual slot gli faccio prendere un case super areato tipo Antec Nine Hundred, così le temp si mantengono decenti (almeno spero :stordita: ). Magari poi ti chiedo qualche consiglio in PM, se necessario. :)
/OT
OT
il nine hundred è un'ottima scelta, ce l'ho e come areazione è pauroso senza essere troppo casinaro...;)
se vuoi info chiedi pure, magari in pm...:)
/OT
MiKeLezZ
14-11-2007, 17:46
Visto? Come dicevo. E' del tutto probabile che una 8800GT in versione OC consumi più di una GTS in versione stock in load (per via dei clocks tiratissimi). ;)Se hanno usato la OC si spiega anche il divario prestazionale così elevato.
Ma ci son cose molto più curiose da notare :D
<^MORFEO^>
14-11-2007, 17:49
cmq questo gia aveva capito tutto.
http://www.xtremesystems.org/forums/showpost.php?p=2554671&postcount=1065
le sue prime impressioni non lasciano adito a dubbi.
;)
:(
E' inferiore anche alla 2900XT.... Male! :mad:
halduemilauno
14-11-2007, 17:51
Ma le mie argomentazioni sono validissime, se queste schede AMD si confermano così, 8800GTS del 3 dicembre sarà ceduta a maggior importo da parte di Nvidia.
Io non sono un utente, sono un utente nvidia, come vedi, quando avrò e se avro amd sarò amd, dov'è il problema, è come se uno mi chiedesse che macchina ho e io rispondessi... eh io sono un automobilista :D
:mc:
la faccio finita qui e cosi.
HackaB321
14-11-2007, 17:52
Visto? Come dicevo. E' del tutto probabile che una 8800GT in versione OC consumi più di una GTS in versione stock in load (per via dei clocks tiratissimi). ;)
Scusa non ho capito: la recensione di legionhw sul confronto 3870/gt mette contro una 3870 stock con una GT overcloccata?
:mc:
la faccio finita qui e cosi.
"i soliti stereotipi quando non si hanno argomentazioni valide"
HackaB321
14-11-2007, 17:58
:(
E' inferiore anche alla 2900XT.... Male! :mad:
Anche questo è abbastanza incomprensibile dato che a parte la banda è in tutto e per tutto >=. Forse i drivers diversi
halduemilauno
14-11-2007, 17:59
"i soliti stereotipi quando non si hanno argomentazioni valide"
cosa dovevo fare continuare a polemizzare? sei un'utente nvidia ma a chi vuoi darla a bere hai avuto la 2900xt fino a ieri e la difendevi a spada tratta. utente nvidia.
Scusa non ho capito: la recensione di legionhw sul confronto 3870/gt mette contro una 3870 stock con una GT overcloccata?
Boh, nella recensione "gemella" (in effetti ci sono tante, troppe somiglianze) la Inno3D provata era la versione OC. E dato che dicono di aver paragonato la HD3870 con una Inno3D 8800GT...
Era piuttosto per capire come mai la GT consumi più di una GTS. :)
Anche questo è abbastanza incomprensibile dato che a parte la banda è in tutto e per tutto >=. Forse i drivers diversi
E' una review, aspettiamo altre conferme, ci sono elementi che potrebbero essere meno negativi.
Mah: perché usare driver meno efficienti?
In ogni caso, si sapeva che sarebbe stata di minore impatto rispetto alla GT.
Credo che oramai aspetterò il 3 Dicembre e prenderò una disumana GTS.
Con la 3870 (200euro) ne avrei approfittato per prendermi un sano Phenom da 2.6GHz (270 euro), una scheda madre che supportasse HT3/PCI 2.0 (150 euro, della Sapphire *_*) e anche il CF (chissà che non diventi pazzo un giorno di questi).
Peccato.
Non sarò così ben pronto a credere che i driver facciano miracoli, ma forse forse si può almeno sperare che il divario venga diminuito del 5% (sono molto ottimista, sia ben chiaro).
Monopolio! Arriviamo!
Cazzo.
sei un'utente
Chicca della giornata.
:D
Hal, perfavore. °_°
cosa dovevo fare continuare a polemizzare? sei un'utente nvidia ma a chi vuoi darla a bere hai avuto la 2900xt fino a ieri e la difendevi a spada tratta. utente nvidia.
La linea sottile di chi valuta e chi patteggia è stata tracciata con questa sparata, avere nvidia o ati non mi impedisce di essere obiettivo, tu riesci a fare lo stesso?...
Ora torniamo nel topic per favore.
se capiterà una cosa del genere, temo che non passeranno indenni il nuovo anno :( sarebbe una cosa terribile per il mercato, davvero terribile.
Guarda che un marchio del genere non si perderà mai nel nulla. Se ci fossero problemi per AMD-ATi sicuramente verrebbe comprata da un fondo di private equity (e da un certo punto di vista sarebbe meglio, imho). ;)
Guarda che un marchio del genere non si perderà mai nel nulla. Se ci fossero problemi per AMD-ATi sicuramente verrebbe comprata da un fondo di private equity (e da un certo punto di vista sarebbe meglio, imho). ;)
sto cominciando a pensare che ATi si sia fatta comprare da AMD proprio per non cadere nel baratro. Si aspettavano di certo che R600 non sarebbe stato competivo, AMD ha colto l'occasione per darle manforte e in cambio ottenere dei chipset "proprietari" per le sue CPU
bYeZ!
paolo.guidx
14-11-2007, 18:16
Guarda che un marchio del genere non si perderà mai nel nulla. Se ci fossero problemi per AMD-ATi sicuramente verrebbe comprata da un fondo di private equity (e da un certo punto di vista sarebbe meglio, imho). ;)
Mmh... certo, certo. Te consideri che siccome Ati ora come ora lancia una scheda peggio dell'altra sarà oggetto di vendita da parte di AMD. Ma non consideri che al momento AMD non se la passa bene nemmeno con i processori, visto che dalle prime review questi phenom non sono tanto più fenomenali dei core2quad....... Quindi l'ipotesi che il 2008 sia un bagno di sangue per AMD è moooooolto condivisibile. Se non certa........ E non credo che molti investitori comprino aziende prossime al fallimento.....
Vabbè, io sono un utente INTEL-nVidia.....;)
paolox86
14-11-2007, 18:18
Mah: perché usare driver meno efficienti?
In ogni caso, si sapeva che sarebbe stata di minore impatto rispetto alla GT.
Credo che oramai aspetterò il 3 Dicembre e prenderò una disumana GTS.
Con la 3870 (200euro) ne avrei approfittato per prendermi un sano Phenom da 2.6GHz (270 euro), una scheda madre che supportasse HT3/PCI 2.0 (150 euro, della Sapphire *_*) e anche il CF (chissà che non diventi pazzo un giorno di questi).
Peccato.
Non sarò così ben pronto a credere che i driver facciano miracoli, ma forse forse si può almeno sperare che il divario venga diminuito del 5% (sono molto ottimista, sia ben chiaro).
Monopolio! Arriviamo!
Cazzo.
Chicca della giornata.
:D
Hal, perfavore. °_°
Più che altro se l'architettura è la stessa di r600 è normale che non si discosti di molto dalla 2900xt (anche se speravo in qualche ottimizzazione).. Speriamo almeno che gestisca meglio l'aa.
paolox86
14-11-2007, 18:20
Mmh... certo, certo. Te consideri che siccome Ati ora come ora lancia una scheda peggio dell'altra sarà oggetto di vendita da parte di AMD. Ma non consideri che al momento AMD non se la passa bene nemmeno con i processori, visto che dalle prime review questi phenom non sono tanto più fenomenali dei core2quad....... Quindi l'ipotesi che il 2008 sia un bagno di sangue per AMD è moooooolto condivisibile. Se non certa........ E non credo che molti investitori comprino aziende prossime al fallimento.....
Vabbè, io sono un utente INTEL-nVidia.....;)
E se fosse veramente così, come dicevo prima, r700 sarà una delle ultime spiaggie per risollevarsi e dove almeno deve tirare fuori una fascia performance e mainstream con i fiocchi
E non dimentichiamoci che in questa generazione Ati non ha mai tirato (anzi, non è proprio riuscita) fuori una scheda della fascia "enthusiast".. grave, molto grave. forse non per le casse ma per la fama...
leoneazzurro
14-11-2007, 18:22
Spero che ci penserete voi Leoneazzurro a fare una recensione come si deve! ;)
Beh, io non faccio parte dello staff, per cui queste cose dovresti chiederle al Bordin ;)
Guarda che un marchio del genere non si perderà mai nel nulla. Se ci fossero problemi per AMD-ATi sicuramente verrebbe comprata da un fondo di private equity (e da un certo punto di vista sarebbe meglio, imho). ;)
Io vedrei bene una acquisizione da parte di Samsung, un azienda con una grande disponibilità economica che potrebbe investire molti soldi in AMD.
Beh, io non faccio parte dello staff
E aggiungerei purtroppo :)
bYeZ!
Darkgift
14-11-2007, 18:26
la prima.
http://www.legionhardware.com/document.php?id=703&p=0
non vi anticipo nulla.
;)
Test piu fasullo non si poteva fare.
ES:
La 2900 XT sotto in TUTTI i test alla 8800gts..........balle spaziali :sofico: :D :ciapet:
Niente contro chi ha postato la prima rece....ma questa non è una rece.....è una pubblicita ;)
rv670 gia solo sulla carta dovrebbe andare meglio della 2900 xt....qui sembra che ati abbia fatto un passo indietro.....dai su...qui si esagera....
MiKeLezZ
14-11-2007, 18:28
Io vedrei bene una acquisizione da parte di Samsung, un azienda con una grande disponibilità economica che potrebbe investire molti soldi in AMD.Che se la compri IBM, così si fa i server in casa e usa le GPU come trampolino di lancio per i super-server in floating.
Fra l'altro non so se avete letto la news (chiaramente non postata su hwupgrade) che vuole AMD in trattativa per la vendita di una sua fabbrica (la fab30) a TSMC... alla faccia di chi prospettava un futuro in cui costruisse i chip ATI in casa. Certo per ora sono solo indiscrezioni. Ma non mi sembra stappino bottiglie di champagne. Con questi 3870 forse a Natale non ci saranno neppure i panettoni.
roccodifilippo
14-11-2007, 18:29
Test piu fasullo non si poteva fare.
La 2900 XT sotto in TUTTI i test alla 8800gts..........balle spaziali :sofico: :D :ciapet:
Niente contro chi ha postato la prima rece....ma questa non è una rece.....è una pubblicita ;)
E VAIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII
+Lonewolf+
14-11-2007, 18:30
Correva il giorno 1 Novembre...
sai leggere??? ho detto FONTE? non la hd3870 va + forte della 8800gt...
certo che sei tocco forte...il bello è che vuoi pure avere ragione, pensando di spuntarla sempre e cmq....
Effettivamente a me questa recensione di legionhardware appare un po' strana, specie per la scelta dei driver.
Stranissima poi la temp in full load della HD3870: con un dissy dual slot fatico davvero a crederlo.
Però sono andato sul sito Inno3d ed ho notato che loro a listino hanno un solo modello di 8800GT, che è cloccato a 600/1500/1800.
Non hanno modelli OC in commercio, come per esempio Zotac che ha la 600 e la AMP a 700Mhz.
D'altronde anche su Legionhardware, alle conclusioni, parlano di una 8800GT a 600 Mhz, non 700.
Ok la malafede, ma pensare che abbiano settato a 700 e fatto i test lo trovo esagerato.
Aspettiamo i prossimi 2gg: ci saranno una marea di recensioni a spulciare questa scheda, oltre ad ovviamente quella di Hwupgrade.
Per i prezzi, ahimè, bisogna attendere. Meglio aspettare un paio di settimane, come sempre, soprattutto per il fatto che siamo "pericolosamente" vicini a Natale (pessimo periodo per gli acquisti)
Mmh... certo, certo. Te consideri che siccome Ati ora come ora lancia una scheda peggio dell'altra sarà oggetto di vendita da parte di AMD. Ma non consideri che al momento AMD non se la passa bene nemmeno con i processori, visto che dalle prime review questi phenom non sono tanto più fenomenali dei core2quad....... Quindi l'ipotesi che il 2008 sia un bagno di sangue per AMD è moooooolto condivisibile. Se non certa........ E non credo che molti investitori comprino aziende prossime al fallimento.....
Vabbè, io sono un utente INTEL-nVidia.....;)
Fidati. E' il mestiere dei fondi di private equity. ;)
Tra l'altro andare poco bene è una cosa (vedi Fiat), essere prossimi al fallimento è un'altra.
I fondi di private equity cercano aziende da ottimizzare, per rivenderle rimesse in sesto dopo 3-5 anni, e ci lucrano di solito tra il 18% ed il 25% all'anno.
Certo ci potrebbe essere una mezza strage di dipendenti o di costi, ma io continuo a pensare (e qui parlo da economista, non da appassionato di hw) che molte società di IT hanno un sacco di ottimizzazioni da fare, in termini di costi. Specie in USA fanno degli sprechi assurdi (benefits, viaggi, caxxate varie, perdite di tempo incredibili).
leoneazzurro
14-11-2007, 18:34
Boonii...
comunque la 8800 GT che sembra essere stata utilizzata potrebbe essere una versione OC di fabbrica che è il 10% più veloce della versione stock, secondo i test di techspot e se quella è lrealmente a versione usata. Direi di attendere altre recensioni e poi emettere dei giudizi. Certo è comunque che ben difficilmente la HD 3870 andrà a "pareggiare " con la GT. Ma a seconda del prezzo di lancio potrebbe non essere male.
Anche se molto probabilmente ATI più sulla HD3850 512 Mbyte che sulla HD 3870.
Darkgift
14-11-2007, 18:41
Boonii...
comunque la 8800 GT che sembra essere stata utilizzata potrebbe essere una versione OC di fabbrica che è il 10% più veloce della versione stock, secondo i test di techspot e se quella è lrealmente a versione usata. Direi di attendere altre recensioni e poi emettere dei giudizi. Certo è comunque che ben difficilmente la HD 3870 andrà a "pareggiare " con la GT. Ma a seconda del prezzo di lancio potrebbe non essere male.
Anche se molto probabilmente ATI più sulla HD3850 512 Mbyte che sulla HD 3870.
Non la pareggia ma gli sta col fiato sul collo...
Ragazzi siamo obiettivi....fino ad oggi abbiamo visto centinaia di test....in quasi tutti ATI qualche test lo porta a casa......soprattutto la 2900XT se la batte bene a default con una 8800 gts (320 o 640 )....qui sembra che esista solo Nvidia......voglio ammettere che ati quest'anno ha toppato(e sti phenom forse non avranno niente del nome che portano forse)......ma da qui ad esagerare con i numeri ce ne passa.
legion farebbe bene ad aprire una succursale Nvidia
devo acquistare una scheda video e la mia scelta era ricaduta sulla 8800gt,ma visto che non è disponibile penso che acquisterò la ati 3850.Ho visto che in alcuni shop sarà disp dal 16/11 nella versione da 512 e 256mb.Me la consigliate?Sono disponibili benchmark fatti al 3dmark o non si sa niente?
MonsterMash
14-11-2007, 18:42
Io avrei anche voluto vedere come se la cava in OC, dato il processo produttivo all'avanguardia.
roccodifilippo
14-11-2007, 18:42
Fidati. E' il mestiere dei fondi di private equity. ;)
Tra l'altro andare poco bene è una cosa (vedi Fiat), essere prossimi al fallimento è un'altra.
I fondi di private equity cercano aziende da ottimizzare, per rivenderle rimesse in sesto dopo 3-5 anni, e ci lucrano di solito tra il 18% ed il 25% all'anno.
Certo ci potrebbe essere una mezza strage di dipendenti o di costi, ma io continuo a pensare (e qui parlo da economista, non da appassionato di hw) che molte società di IT hanno un sacco di ottimizzazioni da fare, in termini di costi. Specie in USA fanno degli sprechi assurdi (benefits, viaggi, caxxate varie, perdite di tempo incredibili).
Ho investito tutti i miei risparmi in Amd ad Aprile e fra qualche giorno mi gioco pure la borsa di studio (per il 100 e lode all'esame).....guarda che nell'hi-tech ci vogliono soldi, tantissimi soldi, se si esce per troppo fuori dal giro non si rientra più (sempre che Ibm o Samsung non facciano qualcosa).....comunque all'Amd tutti stanno promettendo il pareggio del bilancio per la trimestrale di Gennaio. Se non accade il primo a saltare è Hector Ruiz....poi io ed il mio nuovo pc che non mi comprerò mai :cry:
Spero come voi per la buona fortuna di Amd........;)
devo acquistare una scheda video e la mia scelta era ricaduta sulla 8800gt,ma visto che non è disponibile penso che acquisterò la ati 3850.Ho visto che in alcuni shop sarà disp dal 16/11 nella versione da 512 e 256mb.Me la consigliate?Sono disponibili benchmark fatti al 3dmark o non si sa niente?
che ca**o te ne fai del 3Dmark? i test che contano sono quelli sui giochi. Domani sui siti di mezzo mondo usciranno recensioni su HD 3850/3870, e ti potrai fare un'idea
bYeZ!
MiKeLezZ
14-11-2007, 18:42
Anche se molto probabilmente ATI più sulla HD3850 512 Mbyte che sulla HD 3870.Certo che se già la 3870 (che qua la prezzano da medio-bassa, ma sarebbe fascia alta) mi fa solo 15 FPS (AVG.) a Crysis in DX10 e 1280x1024 (NO AA, NO AF), ci vuole una buona dose di coraggio per il ripiegone sulla 3850... O un disinteresse ai nuovi giochi.
beh dai, mancano poco più di 12 ore e sapremo la verità.
IMHO se dovesse andare come anticipato sarebbe una fortissima delusione, non tanto perchè dovevo prendere o hd3870 o la 8800GT ma soprattutto per la fama del brand ATI... ormai non più la stessa dei tempi delle radeon 9000. Salto alla prossima generazione, ma ati deve sapere che non le concederò nulla: o presenta una vga migliore della controparte nvidia oppure tornerò ad nvidia (come successe ai tempi delle geforce 6600 / radeon x700). Già quando ho preso la x1950xt (che era alla pari della corrispondente nvidia) ho scelto ATI... la prossima volta potrò scegliere nvidia... :)
che ca**o te ne fai del 3Dmark? i test che contano sono quelli sui giochi. Domani sui siti di mezzo mondo usciranno recensioni su HD 3850/3870, e ti potrai fare un'idea
bYeZ!
diciamo che con il 3dmark potevo avere una idea di quello che poteva fare visto che è un bench molto utilzzato.Ho letto poco sopra che una 3870 fa 15 fps a Crysis a risoluzioni basse quindi la 3850 mi sa che sarà uno schifo
leoneazzurro
14-11-2007, 18:46
Certo che se già la 3870 (che qua la prezzano da medio-bassa, ma sarebbe fascia alta) mi fa solo 15 FPS (AVG.) a Crysis in DX10 e 1280x1024 (NO AA, NO AF), ci vuole una buona dose di coraggio per il ripiegone sulla 3850... O un disinteresse ai nuovi giochi.
Non tutti sono "enthusiasts", soprattutto quando l'alternativa è giocare discretamente a 1024x768 oppure a 1280x1024 e ci sono 50 Euro di differenza.
Alla fine si vendono molte più schede da 150€ che non da 220€, e si vendono molte più schede da 220€ che non da 300+ €.
Quindi anche se non logico da un punto di vista di immagine, potrebbe essere logico da un punto di vista economico.
appleroof
14-11-2007, 18:46
http://img134.imageshack.us/img134/5549/atinewlogosiu4.jpg
pesantuccio... :D
che ca**o te ne fai del 3Dmark? i test che contano sono quelli sui giochi. Domani sui siti di mezzo mondo usciranno recensioni su HD 3850/3870, e ti potrai fare un'idea
bYeZ!
quoto
Certo che se già la 3870 (che qua la prezzano da medio-bassa, ma sarebbe fascia alta) mi fa solo 15 FPS (AVG.) a Crysis in DX10 e 1280x1024 (NO AA, NO AF), ci vuole una buona dose di coraggio per il ripiegone sulla 3850... O un disinteresse ai nuovi giochi.
quoto, anche se crysis è un po' 1 gioco a parte e con quei dettagli fatica anche con le 8800.
Più che altro bisognerà vedere con altri giochi se il ripiegone si può fare e quanto si perde. Crysis in very high è ingiocabile con hd3850 quanto lo è con hd3870 e con le 8800(GT/GTS/GTX/ULTRA).
Sulla recensione di Legion Hardware su cui molti sbavano ed altri smadonnano, nutro questi dubbi:
1) Catalyst utilizzati per HD3870 i 7.9; no comment, soprattutto quando si sa che i primi Catalyst con supporto RV670 sono i 7.10 e che, seppur di non molto, sono i migliori driver ATI in questo momento. Sul cd nelle scatole che driver ci sono? i 7.9? impossibile...ci sarà sicuramente una versione beta.
2) Prestazioni troppo basse per HD2900XT. Va ben che non è un fulmine di guerra, però...
3) La 8800GT provata, guardando rapidamente consumi e prestazioni, dovrebbe avere clock gpu @ 650 Mhz. Dovrebbe.
Infine una considerazione: HD3870 ottiene rispetto a HD2900 XT prestazioni con AA attivo percentualmente migliori che senza AA. Qualche ottimizzazione c'è stata. Comunque è superiore di quel 10% di cui si parlava, quindi inferiore a 8800GT. Personalmente aspetto recensioni migliori per capire di quanto.
:)
Un appunto: cadono le braccia a leggere certi commenti e passa la voglia di aprire thread ufficiali per aiutare gli altri e farsi due discorsi in pace. Siete padroni di quello che scrivete, rileggete i vostri post e non lamentatevi se poi vi etichettano "di parte" (non ho messo soggetti, ognuno si sentirà o meno chiamato in causa...)
AsusP7131Dual
14-11-2007, 18:48
Io trovo molto strano che non abbiano usato i Driver giusti che sono forniti con la scheda ad esempio... Come trovo molto strano che questa recensione di Legion Hardware
http://www.legionhardware.com/document.php?id=703&p=0
Sia praticamente identica a questa di techspot già linkata nelle pagine addietro...
http://www.techspot.com/review/74-inno3d-geforce8800gt/
Stesso sistema di test, stesse risoluzioni, stessi giochi, stessa impostazione delle pagine con gli stessi giochi raggruppati nelle stesse pagine, mooooooooooolto spesso stessi valori misurati... Un po' troppe come coincidenze!
Io non sono gamer e me ne strafotto di chi va meglio e perchè ma mi paiono troppe le coincidenze! :mbe:
Edit: Se fosse fake hanno anche sbagliato a copiare!
Ad esempio basta prendere i test di Quake Wars DX9!
Legion Hardware:
http://www.legionhardware.com/Bench/ATI_Radeon_HD_3870_vs_Nvidia_GeForce_8800_GT/QW.png
TechSpot:
http://www.techspot.com/articles-info/74/bench/QW.png
Per Legion Hardware la 8800 GT fa a seconda delle risoluzioni 77.9, 66.1 e 53.9 FPS, che per techspot sono i valori IDENTICI ma della 8800 GTS 640 MB!!! e invece in quello specifico test di TechSpot la 8800 GT liscia fa registrare valori ben più bassi...
Personalmente non ho più dubbi! Fake!
Ho investito tutti i miei risparmi in Amd ad Aprile e fra qualche giorno mi gioco pure la borsa di studio (per il 100 e lode all'esame).....guarda che nell'hi-tech ci vogliono soldi, tantissimi soldi, se si esce per troppo fuori dal giro non si rientra più (sempre che Ibm o Samsung non facciano qualcosa).....comunque all'Amd tutti stanno promettendo il pareggio del bilancio per la trimestrale di Gennaio. Se non accade il primo a saltare è Hector Ruiz....poi io ed il mio nuovo pc che non mi comprerò mai :cry:
Spero come voi per la buona fortuna di Amd........;)
Ma stai parlando sul serio? Mai investire senza diversificare, il rischio è troppo grande per un piccolo investitore. :nonsifa:
I soldi te li prestano (specie in USA, anche troppo facilmente... :asd: ) se non li hai. L'importante è avere una linea d'azione chiara e decisa. Tra l'altro in USA le grandi imprese non possono fallire. ;)
Piuttosto per le tue azioni ora non è il momento di vendere, imho, sono abbastanza basse rispetto ad aprile, no?
Non appena ti accorgi che recuperano il valore iniziale vendile subito (anche se pensi che potresti guadagnarci), investire in una sola azienda è un rischio troppo forte.
Fine OT finanziario.
gianni1879
14-11-2007, 18:54
cmq aspettiamo magari domani un pò di test seri anche da parte di HWUP, è inutile gridare allo scandalo, la cosa certa che sarà un pò sotto la 8800GT e che andrà un pò meglio della HD2900XT con minori consumi, per il resto attendiamo e poi bacchetteremo AMD/ATI se sarà necessario.
Che R600 non sia stato il massimo delle prestazione ci può anche stare al primo giro, ma questo dovrebbe essere una buona evoluzione, se così non fosse... aspettiamo R700 e G100 per giocare a Crysis al max dettaglio :D
Io trovo molto strano che non abbiano usato i Driver giusti che sono forniti con la scheda ad esempio... Come trovo molto strano che questa recensione di Legion Hardware
http://www.legionhardware.com/document.php?id=703&p=0
Sia praticamente identica a questa di techspot già linkata nelle pagine addietro...
http://www.techspot.com/review/74-inno3d-geforce8800gt/
Stesso sistema di test, stesse risoluzioni, stessi giochi, stessa impostazione delle pagine con gli stessi giochi raggruppati nelle stesse pagine, mooooooooooolto spesso stessi valori misurati... Un po' troppe come coincidenze!
Io non sono gamer e me ne strafotto di chi va meglio e perchè ma mi paiono troppe le coincidenze! :mbe:
aggiungo anche l'autore è lo stesso :O
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.