View Full Version : GeForce GTX 200 a 55 nm: le immagini della GPU
Redazione di Hardware Upg
13-10-2008, 10:28
Link alla notizia: http://www.hwupgrade.it/news/skvideo/geforce-gtx-200-a-55-nm-le-immagini-della-gpu_26806.html
GT206, questo il nome in codice dell'evoluzione a 55 nanometri delle soluzioni GeForce GTX 200 attese al debutto per Novembre
Click sul link per visualizzare la notizia.
Però che "tocco delicato"chi ha smontato il coldplate: è scheggiato in modo indecente :-)
Crimson Skies
13-10-2008, 10:41
Bene. A qaunto pare si sta facendo chiarezza. E cmq Nvidia sta facendo passi avanti che la porteranno ad essere di nuovo leader...Ati avrà di nuovo gatte da pelare...
Stech1987
13-10-2008, 10:48
@Crimson Skies: Prima di dire che ATI avrà gatte da pelare, io darei un'occhiata al rapporto prezzo-prestazioni-consumi... Magari hai ragione, ma non ci scommetterei...
Wilfrick
13-10-2008, 10:50
Ma..... chi ha fatto queste foto? Normale sarebbe un confronto con i centesimi americani, strano sarebbe con gli euro....... ma con 5 rubli??? ahahahahahaha! siamo già al sorpasso di russia vs usa? la crisi americana è proprio forte! :D
gianni1879
13-10-2008, 10:52
Però che "tocco delicato"chi ha smontato il coldplate: è scheggiato in modo indecente :-)
ha infatti stavo notando la stessa cosa....
kliffoth
13-10-2008, 10:54
Bene. A qaunto pare si sta facendo chiarezza. E cmq Nvidia sta facendo passi avanti che la porteranno ad essere di nuovo leader...Ati avrà di nuovo gatte da pelare...
...e poi di nuovo nVidia avra' gatte da pelare....e poi di nuovo AMD, e poi nVidia, e poi AMD, e poi nVidia...e poi forse Larrabee
hai detto una ovvieta', lo sai?
saltuariamente uno esce con prodotto buono che pero' non e' in eterno il migliore, puo' reggere piu' o meno a lungo ma prima o poi viene superato.
Si chiama progresso: purtroppo non sono in grado di spiegare una cosa ovvia se non ricorrendo ad altre cose altrettanto ovvie
PS vorrei ricordare un po' a tutti i fan dei pcb delle schede video, che qualche anno fa, mentre al solito i "rossi" e i "verdi" si accapigliavano nei forum, le 2 societa' avevano fatto beatamente cartello (hanno patteggiato poco tempo fa, dividendo fraternamente una multa da pagare)
La speranza è che calino i prezzi, ma non ci conterei.... Piuttosto aumentano le specifiche ma i prezzi!!!! Sono troppo furbi
cOREvENICE
13-10-2008, 11:06
Però che "tocco delicato"chi ha smontato il coldplate: è scheggiato in modo indecente :-)
tanto la rivende sul mercatino e chi se ne accorge :rotfl:
Ginger79
13-10-2008, 11:09
Beh c'è poco da fare commenti pessimisti. La situazione è chiara: se già l'attuale GTX260 (216) è superiore del 10% rispetto alla 4870 un ulteriore incremento del clock, a parità di consumi, porterà queste "nuove" soluzioni (parlo solo della 270) ad essere circa il 20% più veloci rispetto al diretto concorrente. Il tutto con la possibilità di un assestamento del prezzo verso i 200€ (così ha fatto capire Nvidia).... ergo Best Buy !
La GTX290 non farà altro che avvicinarsi alla 4870 X2 consumando però la metà.
La GX2 ovviamente sarà prestazionalmente su un altro pianeta rispetto a tutte le schede attualmente in commercio ma anche il prezzo (ahimè) non sarà da meno a fronte tuttavia di consumi (si dice) inferiori alla 4870 X2.
Non male come futuro direi.
kliffoth
13-10-2008, 11:19
Beh c'è poco da fare commenti pessimisti. La situazione è chiara: se già l'attuale GTX260 (216) è superiore del 10% rispetto alla 4870 un ulteriore incremento del clock, a parità di consumi, porterà queste "nuove" soluzioni (parlo solo della 270) ad essere circa il 20% più veloci rispetto al diretto concorrente. Il tutto con la possibilità di un assestamento del prezzo verso i 200€ (così ha fatto capire Nvidia).... ergo Best Buy !
La nuova GTX260 (216) e' gia' oggi inferiore alla 4870 1GB (recensione su anandtech -che ha dato un best buy - e, mi pare, su guru 3d).
E comunque gira gira siamo la' piu' o meno (non credo 5-6 frames siano essenziali)
Queste ritorneranno sopra e poi di nuovo sotto...leggi il mio precedente post, magari
Sul rapporto prestazioni/consumo, nonostante i 65nm vs 55nm, le GT200 non hanno nulla da invidiare alle RV770.
Uno dei tanti test:
http://www.techreport.com/articles.x/15651/11
Con i 55nm possono solo migliorare da questo punto di vista.
Sui prezzi, staremo a vedere.
Per il resto, non posso che quotare kliffoth.
Drakogian
13-10-2008, 11:35
Beh c'è poco da fare commenti pessimisti. La situazione è chiara: se già l'attuale GTX260 (216) è superiore del 10% rispetto alla 4870 un ulteriore incremento del clock, a parità di consumi, porterà queste "nuove" soluzioni (parlo solo della 270) ad essere circa il 20% più veloci rispetto al diretto concorrente. Il tutto con la possibilità di un assestamento del prezzo verso i 200€ (così ha fatto capire Nvidia).... ergo Best Buy !
...cut...
... e nel frattempo ATI sta a guardare... ???
Severnaya
13-10-2008, 11:49
sarà la diretta concorrente della 4870X2 solo se sarà nella stessa fascia di prezzo altrimenti ciccia
Kharonte85
13-10-2008, 11:55
Ottimo, il passaggio a 55nm non fara' che bene a queste schede e a noi consumatori...c'è da dire che al momento l'unica cosa che taglia fuori le schede nvidia dall'essere veramente competitive è solo il prezzo quindi ancora una voltala battaglia si svolgera' tutta li' (non è improbabile che nell'immediato per contrastare queste nuove uscite AMD abbassi i prezzi) non ci resta che stare alla finestra :D
uazzamerican
13-10-2008, 12:26
Posso esternare un attimo?
Mi sono rotto le scatole di vedere sempre e solo DUE e dico DUE case che si dividono un mercato del genere... Gia ne ho abbastanza sul fronte CPU...
Ma poi scusate, quale razza di progresso VERO ci si può aspettare da due case che fanno cartello??
La tecnologia la tirano fuori con il contagocce e quando pare a loro, nella peggior maniera.
Solo la diversificazione dell' offerta (reale diversificazione, non la stessa banana cotta in modo diverso) può portare ad uno sforzo verso nuovi schemi, progetti, approcci (vedi il Kyro).
Ora come ora ci prendono solo per i fondelli (a noi figli dei tempi della 3dfx ovviamente, agli altri basta avere 8Gbyte di ram).
Fine dell' esternazione.
Severnaya
13-10-2008, 12:34
grande uazzamerican
ti quoto in toto
+Benito+
13-10-2008, 12:45
sono pignonzi quella monetina?
MiKeLezZ
13-10-2008, 12:54
Ma..... chi ha fatto queste foto? Normale sarebbe un confronto con i centesimi americani, strano sarebbe con gli euro....... ma con 5 rubli??? ahahahahahaha! siamo già al sorpasso di russia vs usa? la crisi americana è proprio forte! :Dmha, veramente no, i russi danno la biada a tutti
in questo caso han dato la biada ai taiwanesi (solitamente i primi ad avere i sample delle fonderie di umc e tsmc)
Phantom II
13-10-2008, 12:59
Però che "tocco delicato"chi ha smontato il coldplate: è scheggiato in modo indecente :-)
Non sarebbe male se anche sulle gpu fosse installato il coperchio metallico che ormai si usa su tutte le cpu.
gianni1879
13-10-2008, 13:10
... e nel frattempo ATI sta a guardare... ???
certo sono tutti in Vacanza a godersi le ferie....
CoolBits
13-10-2008, 13:25
Non sarebbe male se anche sulle gpu fosse installato il coperchio metallico che ormai si usa su tutte le cpu.
infatti su quella scheda c'era ;) è togliendolo che probabilmente hanno fatto il danno :cry:
Crimson Skies
13-10-2008, 13:26
Uazzamerican ha detto il vero. Però c'è da considerare che la Intel ha fatto sempre ottimi processori. anche quando sembrava indietro rispetto ad AMD in realtà stava aspettando che ci fosse veramente la possibilità di tirar fuori un buon prodotto. Certo più concorrenza farebbe bene ai consumantori ma non è in dubbio che Intel sia 1000 volte meglio di AMD che ha fatto sempre CPU da schifo.
Pensate alla compatibilità con programmi, windows ecc. Dai chi metterebbe in dubbio la capacità di Intel!!
Per le VGA è diverso. Nvidia ha sempre fatto un ottimo lavoro meglio di ATI. Ci sono stare soluzioni ATI da paura come la serie 9700/9800 e queste nuove serie 4xxx. Però le volte che Nvidia ha centrato il bersaglio sono state molte di più. Anche se voi vi lamentate che hanno rimarchiato le schede ecc vi dirò che ho avuto una 8800 GTX e poi ho preso un 9800 GTX. Anche se la secondo ha meno banda passante (ma di poco se si prende una versione OC da fabbrica) e un po meno RAM (768 vs 512) vi dirò che la 9800 va meglio della 8800 perchè cmq è un passo in avanti e non un semplice "Cambio il nome".
Mica sono così stronzi o coglioni come li volete dipingere. Dai su siete sempre troppo cattivi.
Per finire il post voglio dire solo che l'unica cosa su cui avete 10000000% ragione è che Nvidia fa prezzi un pò più alti di ATI con prestazioni pressochè uguali e vi dirò che sta cosa mi rode pure a me. Ma alla fine mi son sempre trovato bene con Nvidia e non lascerò la squadra solo per un pò di € in più...
Ecco ci risiamo. Prima si butta sul mercato una gpu con nuova architettura. Poi dopo qualche mese si passa ad un processo produttivo più raffinato della stessa. Quindi chi aveva comprato la prima versione si ritrova dopo poco tempo a mordersi le mani perchè la nuova conusma meno è un po più performante e magari costa anche meno. Se non la smettono di fare così prima o poi i videogiocatori passerano alle console. l'xbox360 si trova a 170 euro. Meno del prezzo di una scheda video.
Severnaya
13-10-2008, 13:29
"ma non è in dubbio che Intel sia 1000 volte meglio di AMD che ha fatto sempre CPU da schifo."
ocazzo :rotfl:
oddio che stolti siamo stati a comprare cpu AMD!
Hail hail to Intel! ! ! (cit.)
Crimson Skies
13-10-2008, 13:31
E mi sa di si.
SwatMaster
13-10-2008, 13:33
Spero che in un momento di crisi come questo, sia il rilancio competitivo di nVidia. Glielo auguro, dato il periodaccio che sta passando. :)
Crimson Skies
13-10-2008, 13:33
Basterebbe che abbassassero i prezzi.
kliffoth
13-10-2008, 13:34
Uazzamerican ha detto il vero. Però c'è da considerare che la Intel ha fatto sempre ottimi processori. anche quando sembrava indietro rispetto ad AMD in realtà stava aspettando che ci fosse veramente la possibilità di tirar fuori un buon prodotto. Certo più concorrenza farebbe bene ai consumantori ma non è in dubbio che Intel sia 1000 volte meglio di AMD che ha fatto sempre CPU da schifo.
Ma scherzi o cosa???
Dove sei stato negli ultimi 15 anni??
Se escludiamo il Core, tra l'altro sivluppato da un team israeliano, AMD e'sempre stata mediamente avanti ad intel.
Fin dai tempi dei compatibili!!!
guarda l'AM486.
Poi i k5 e i k6 erano buoni e migliori delle controparti, e con il k7 AMD stravinse e si ebbe la situazione che c'e' ora tra intel AMD (con la prima chiaramente migliore)
Discorso diverso che il marketing AMD sia pietoso e che gli utenti pensino che siano esistiti solo gli Athlon...ma anche le accuse di concorrenza sleale per intel qualcosa dicono.
Poi che scrivi??? una azienda fa finta di essere indietro (tirando fuori processori stufetta...il prestocotto su tutti...che possiedo purtroppo) e preferisce "ungere" i distributori?
Spero fossi ironico, perche' prima di affermare con tanta sicurezza, ci si dovrebbe documentare un minimo.
POST INCREDIBILE (ma di solito la sicumera si associa all'ignoranza)
Ps per le GPU: le volte che hanno centrato i bersagli sono piu' o meno le stesse (dimentichi la 8500 ATI, la ATI Rage 128...)
PPS: la serie 4xxx non e' un prodotto da paura come lo fu la 9700: e' il rifacimento ben riuscito della serie 2xxx e non ha l'impatto che hanno avuto la 9700 (AMD) o la 8800 (nVidia). Sempbra piu' di quello che e' perche' non se lo aspettava nessuno (Huang in testa)
..oddio..si Intel d'accordo..ma 1000 volte meglio? sicuro?
Il k6-2 è stato il primo procio ad integrare un set d'istruzioni proprietario alternativo all' x86 (mmx a parte ovviamente) , nonche il primo (forse l'unico?) a portare il socket 7 a 100mhz (certo scaldava un pochino...).
Poi AMD ha iniziato a produrre chipset proprietari (con sessioni video decisamente migliori di Intel) sempre a prezzi tutto sommato umani, magari i processori attuali sono un 10%(forse 20%?) meno potenti della controparte ma costano decisamente meno (e hanno costretto intel a smetterla di "stuprare" i nostri portafogli) e ultimamente hanno anche un occhio di riguardo per la questione consumi (lo stesso dicasi per ATI con la serie 4000, quanti anni erano che non vedevate una scheda video decente senza alimentazione aggiuntiva?).
Ho avuto k6-2, duron, sempron64, e athlon x2, nessuno di questi ha dato problemi di compatibilità (per carità..magari non me ne sono mai accorto) e tutti sono costati sensibilmente meno di Intel.
Probabilmente sul trono rimane Intel ma AMD credo sia un concorrente più che degno, a maggior ragione se teniamo conto che poco più di 10 anni fa stava nel pantano a fare concorrenza ai vari cyrix (o ciryx?boh..)
che costavano poco ma funzionavano pochissimo.
Se invece vogliamo pagare salato ma avere il top di gamma del settore enthusiasthighendsuper e sfoggiare benchmark di lusso questo è un altro discorso,
ciao
gianni1879
13-10-2008, 14:07
E mi sa di si.
mi sa che tu eri uno di quelli che compravi intel anche ai tempi dei fornetti prescott.....
kliffoth
13-10-2008, 14:21
.
uazzamerican
13-10-2008, 15:01
Io volevo dire tutt'altra cosa...
Non sarebbe male se anche sulle gpu fosse installato il coperchio metallico che ormai si usa su tutte le cpu.
lo è già da un pezzo, non su tutte ovviamente
Crimson Skies
13-10-2008, 15:21
I prescott a mio avviso non erano poi tutte ste stufette. Poi mi sa che io di cose ne conosco e mi documento prima di comprare qualcosa. E poi AMD cmq come CPU non è che sia stata mai avanti rispetto ad Intel. Sarà pure che gli AMD costano meno però sono anche meno potenti degli Intel. Gli attuali sono veramente pietosi. I phenom sono una vera porcheria mal copiata da Intel.
Che poi il Core sia stato sviluppato dagli israeliani non mi sembra o cmq non credo che perchè siano stati loro significa che sia stato una buona CPU.
La Amd può aver fatto qualche buona CPU forse. Cmq per i costi c'erano anche i Celeron che non erano certo il top ma erano i concorrenti della fascia medio.bassa e cmq non erano malvagi come li si è sempre dipinti.
Poi per le VGA si è vista la siera 2xxx quelli si che era termosifosi e che scaldavano. Ma leggete o vi inventate le cose. La serie 4xxx è stato il momento in cui finalmente ATI ha fatto una cosa buona.
La seria 8500 non ricordo fosse sto gran che. Ho menzionato 9700/9800 perchè erano buone schede ma già se scendiamo alle 9200 facevano schifo veramente. Quindi poco sarcascmo e non sono un ignorante come dite voi. E se lo sono forse per la documentazione voi lo siete per l'educazione.
In campo video, ci sono 3 produttori a dividersi il mercato ed Intel ha quasi la metà del mercato (e probabilmente nel Q3 avrà raggiunto il 50% del mercato globale).
Per ora ha fatto soli video integrati e non discrete, ed è una fortuna, per noi.
Il primo tentativo con i740 gli è andata male.
Quando tra fine 2009 ed il 2010 farò il suo secondo tentativo (Larrabee) spero che faccia altrettanto schifo, altrimenti, ringrazieremo la vera concorrenza che abbiamo avuto nel 2007 e nel 2008, e si spera anche per tutto il 2009.
Crimson Skies
13-10-2008, 15:33
Immagina se invece sto Larrabee sarà un successo? Cmq c'è poco di che preoccuparsi. Certo ha il mercato delle integrate, per la maggior parte su laptop ma dubito che nel segmento di Nvidia/ATI possa avere qualche vera chance....
I prescott a mio avviso non erano poi tutte ste stufette. Poi mi sa che io di cose ne conosco e mi documento prima di comprare qualcosa. E poi AMD cmq come CPU non è che sia stata mai avanti rispetto ad Intel. Sarà pure che gli AMD costano meno però sono anche meno potenti degli Intel. Gli attuali sono veramente pietosi. I phenom sono una vera porcheria mal copiata da Intel.
Che poi il Core sia stato sviluppato dagli israeliani non mi sembra o cmq non credo che perchè siano stati loro significa che sia stato una buona CPU.
La Amd può aver fatto qualche buona CPU forse. Cmq per i costi c'erano anche i Celeron che non erano certo il top ma erano i concorrenti della fascia medio.bassa e cmq non erano malvagi come li si è sempre dipinti.
Poi per le VGA si è vista la siera 2xxx quelli si che era termosifosi e che scaldavano. Ma leggete o vi inventate le cose. La serie 4xxx è stato il momento in cui finalmente ATI ha fatto una cosa buona.
La seria 8500 non ricordo fosse sto gran che. Ho menzionato 9700/9800 perchè erano buone schede ma già se scendiamo alle 9200 facevano schifo veramente. Quindi poco sarcascmo e non sono un ignorante come dite voi. E se lo sono forse per la documentazione voi lo siete per l'educazione.
Guarda, credo che la serie amd athlon è sempre stata meglio della controparte intel (fino alla uscita dei conroe) quindi a mio avviso ti sei documentato poco ;) non sono un fanboy di nessuna delle due e se leggi in firma ora possiedo intel, ma negare l'evidenza...
In campo IT i risultati sono strettamente legati agli investimenti.
Tu non puoi neanche immaginare quanta gente in questo periodo stia lasciando sia Ati che Nvidia allettati per lavorare allo sviluppo driver d'Intel.
Intel sta' investendo su Larrabee MOLTO più di quanto facciano Ati ed Nvidia messi insieme.
Potrà non avere esperienza sui driver e sull'architettura delle gpu di fascia alta, ma ha i soldi per andare sul "mercato" e comprarseli, ed è quello che sta' facendo.
Nulla di strano: è già accaduto in passato.
Per esempio, come credete che Ati sia riuscita a metter su driver Opengl finalmente all'altezza, dopo anni di buio completo?
"Pescando" da 3dlabs ...
Mercuri0
13-10-2008, 15:55
Beh c'è poco da fare commenti pessimisti
[..]
Non male come futuro direi.
Perché, sei azionista nVidia? :mbe:
Allora dovresti giudicare coi criteri degli azionisti... o almeno dei progettisti, che non c'entrano veramente una cippa con "l'analisi" - per così dire - che hai fatto. (ovviamente, non ci penso minimamente di entrare nel merito :D )
Piccolo OT:
un tipo con la 4870x2 mi chiese "e quando uscirà la risposta ATI?" quasi come che se ATI tirasse fuori nuove schede che vanno più veloci delle nVidia, la sua andrebbe più veloce automaticamente. ( che fu la mia risposta :rolleyes: )
Stessa cosa per i fanboy nVidia: il fatto che faccia uscire schede più veloci, non vuol dire che quelle che avete nel case andranno di più! La scheda va ricomprata. (e non ci sono sconti per i fanboy che io sappia).
E' una banalità, no? Eppure, secondo me, a molti sfugge ;)
kliffoth
13-10-2008, 16:10
I prescott a mio avviso non erano poi tutte ste stufette. Poi mi sa che io di cose ne conosco e mi documento prima di comprare qualcosa. E poi AMD cmq come CPU non è che sia stata mai avanti rispetto ad Intel. Sarà pure che gli AMD costano meno però sono anche meno potenti degli Intel. Gli attuali sono veramente pietosi. I phenom sono una vera porcheria mal copiata da Intel.
Che poi il Core sia stato sviluppato dagli israeliani non mi sembra o cmq non credo che perchè siano stati loro significa che sia stato una buona CPU.
La Amd può aver fatto qualche buona CPU forse. Cmq per i costi c'erano anche i Celeron che non erano certo il top ma erano i concorrenti della fascia medio.bassa e cmq non erano malvagi come li si è sempre dipinti.
Poi per le VGA si è vista la siera 2xxx quelli si che era termosifosi e che scaldavano. Ma leggete o vi inventate le cose. La serie 4xxx è stato il momento in cui finalmente ATI ha fatto una cosa buona.
La seria 8500 non ricordo fosse sto gran che. Ho menzionato 9700/9800 perchè erano buone schede ma già se scendiamo alle 9200 facevano schifo veramente. Quindi poco sarcascmo e non sono un ignorante come dite voi. E se lo sono forse per la documentazione voi lo siete per l'educazione.
Con ordine.
Innanzitutto se uno non e' sicuro di una cosa non lo dice come se fosse verita' usando un tono da messia: a mio avviso il tuo atteggiamento era sbagliato. Non e' grave che tu abbia detto cose non giuste (neanche io sono sempre informato, anzi!): siamo apposta in un forum per discutere, ma si scrive con piu' umilta', come hai fatto in questo secondo post.
In questo modo si puo' dialogare e possiamo imparare gli uni dagli altri
I Prescott sono stufette: io ho uno schifosissimo Pentium D 920, core Presler derivato dal Prescott, e ti posso dire che incide sulla boletta.
Gli AMD non solo costavano meno, ma erano anche piu' veloci, in genere e quasi sempre rispetto agli intel (non si deve guardare la sola velocita' nominale in frequenza perche' le architetture sono diverse e quindi i Mhz inconfrontabili...comunque fai un giro in wikipedia o google).
All'epoca del Pentium IV intel riusci' a riprendere il primato (Northwood) solo grazie ad un funzionamento al limite delle specifiche che causava un consumo assurdo...e di nuovo poco incremento di velocita' rispetto a quello di assorbimento...sufficiente pero', dopo tanto, a superare un Athlon.
Le "copie" AMD le faceva all'epoca dei compatibili (AM386, AM486, e pagando regolare licenza) che comunque erano piu' veloci degli originali intel e venivano meno (ricordo il tentativo di intel di bloccare, credo am386, con cause legali al fine di non perdere troppo mercato)
Successivamente AMD non ha copiato molto: i controller di memoria integrato che ora ha Nehaleml, AMD lo aveva all'epoca degli Athlon; introdusse le SSE, inizio' a sviluppare suoi chipset (che tra l'altro sono eccellenti)...
Il Phenom non e' bellisimo, e' vero, ma di nuovo non e' una copia: e' un quad nativo con tutto quello che cio' comporta come novita'.
Certo i Phenom se anche costano meno (ma manco tanto) non convengono comunque per via dei consumi alti.
AMD aveva i Duron da contrapporre ai Celeron...ma non so molto di piu' in questo settore.
Ti ricordo poi che piu' o meno velatamente, dietro ad AMD c'e' IBM, ovvero il piu' importante colosso mondiale della ricerca
Per le VGA purtroppo e' vero: dalla serie 2xxx sono derivate sia la serie 3xxx (che infatti riduceva costi e consumi ma andava come una 2900), sia la serie 4xxx, che ha ottimizzato alla grande, e che, ripeto, nessuno si aspettava riuscisse tanto bene (lo ha detto Huang, il CEO nVidia).
Tuttavia la serie 4xxx (che tra i suoi difetti ha un consumo un poco alto) non ebbe l'impatto che ebbero le 9700 (AMD) e le 8800 (nVidia) rispetto alla concorrenza: non a caso entrambe le schede sopra citate hanno retto un paio d'anni senza problemi.
La serie 4xxx e' stato un buon rientro in competizione, ma non un evento epocale.
Per la cronaca pare che R800 sara' un progetto nuovo.
PS che sia israeliano o meno importa poco: il CORE e' stato grande ma nato "esternamente" ad intel
Qualcuno mi sembra molto schierato, dal canto mio non volevo dare dell'ignorante a nessuno (ne per educazione ne per documentazione) volevo solo dire che solo un concorrente serio fa scendere i prezzi a un colosso...poi se vogliamo giudicare i prodotti a uno a uno....possiamo discutere per mesi.
anche a me i celeron non dispiacevano (alcuni si facevano andare a doppia frequenza senza problemi e senza ventolame aggiunto) ma forse dobbiamo il loro ingresso sul mercato anche alla presenza seria e costante di AMD....
Se AMD facesse schifo....Intel non si curerebbe nemmeno delle sue scelte.
Cmq non avere pregiudizi su nessuno ci può aiutare a mettere hardware migliore nei nostri PC a prezzi sempre più bassi, magari fossimo liberi di fare altrettanto anche con il software; un oligopolio (o un duopolio) è pur sempre meno spietato di un monopolio...
Per concludere...se Intel verrà a rompere le uova nel paniere a AMD/ATI e Nvidia ben venga, speriamo risorgano anche matrox e compagnia bella...i prezzi caleranno:)
ah..dimenticavo...
Pare che il pentium non sia stato chiamato 586, perchè qualcuno sentenziò che il copyright sui numeri è illegale...e di conseguenza anche AMD avrebbe potuto chiamare i suoi processori 586....
yossarian
13-10-2008, 16:21
I prescott a mio avviso non erano poi tutte ste stufette. Poi mi sa che io di cose ne conosco e mi documento prima di comprare qualcosa. E poi AMD cmq come CPU non è che sia stata mai avanti rispetto ad Intel.
no, infatti con i suoi oltre 30 stadi doveva lavorare a frequenze altissime per cercare di avvicinare le prestazioni degli athlon; con lo svantaggio che un cache miss faceva perdere una quaresima di cicli di clock e una bolla ci metteva mezza giornata ad uscire dalla pipeline. :D
La Amd può aver fatto qualche buona CPU forse. Cmq per i costi c'erano anche i Celeron che non erano certo il top ma erano i concorrenti della fascia medio.bassa e cmq non erano malvagi come li si è sempre dipinti.
forse qualcuna si e per un po' (un bel po') è stata anche davanti ad Intel a livello prestazionale
Poi per le VGA si è vista la siera 2xxx quelli si che era termosifosi e che scaldavano. Ma leggete o vi inventate le cose.
qualche link a riguardo?
La serie 4xxx è stato il momento in cui finalmente ATI ha fatto una cosa buona.
e la serie R3x0? E la R5x0?
La seria 8500 non ricordo fosse sto gran che. Ho menzionato 9700/9800 perchè erano buone schede ma già se scendiamo alle 9200 facevano schifo veramente.
la 9200 era basata sull'architettura di R200 e non su quella di R300, quindi non aveva niente a che fare con le 9600/9700/9800. E comunque era un chip entry level come quelli che equipaggiavano le 5200 che, però, facevano parte della serie 5 di nVIDIA :D
Quindi poco sarcascmo e non sono un ignorante come dite voi. E se lo sono forse per la documentazione voi lo siete per l'educazione.
se ritieni di essere ignorante per "documentazione", forse non dovresti fare affermazioni che suonano come verità assolute
Ginger79
13-10-2008, 16:23
Perché, sei azionista nVidia? :mbe:
Allora dovresti giudicare coi criteri degli azionisti... o almeno dei progettisti, che non c'entrano veramente una cippa con "l'analisi" - per così dire - che hai fatto. (ovviamente, non ci penso minimamente di entrare nel merito :D )
Piccolo OT:
un tipo con la 4870x2 mi chiese "e quando uscirà la risposta ATI?" quasi come che se ATI tirasse fuori nuove schede che vanno più veloci delle nVidia, la sua andrebbe più veloce automaticamente. (che fu la mia risposta :rolleyes:)
Stessa cosa per i fanboy nVidia: il fatto che faccia uscire schede più veloci, non vuol dire che quelle che avete nel case andranno di più! La scheda va ricomprata. (e non ci sono sconti per i fanboy che io sappia).
E' una banalità, no? Eppure, secondo me, a molti sfugge ;)
E' ??? :eek: :confused:
P.s. Se qualcuno ha capito il senso di questo discorso mi faccia un fischio. Terribile. :D :D
Normalmente non scrivo e solo leggo, però effettivamente il signor Crimson Skies mi ha stuzzicato a sufficienza :=)
premetto che sono stato possessore di AMD come di Intel di nVidia come di ATI a seconda della generazione e che sono un professionale dell'informatica da quasi 20 anni, quindi il mio non è un parere da fan boy... è che veramente quello che leggo è troppo forte
Prescott non stufette? Ma dico se dici che leggi e leggi ti sei letto le temperature che tiravano? Intel dovrebbe ringraziare che a nessuno degli investigatori sugli incendi dolosi gli sia mai venuta l'idea di verificare che processore avesse il computer di casa...
AMD non è mai stata avanti? Ma dico ma stai scherzando? dal K7 in poi Intel ed AMD si sono alternate continuamente alla testa. Il K7 Thunderbird era dceisamente + performante del equivalente Intel, non parliamo dei primi 64 bit dove i processori AMD64 3000+ 3200+ 3500+ (core whinchester per intenderci) utilizzando le API 64bit di INTEL risultavano più veloci degli stessi Intel (quella generazione Intel ha veramente pianto sangue con AMD)... insomma sei veramente mal informato, giusto negli ultimi 18 mesi (circa) la situazione è stata tenuta saldamente sotto controllo da Intel prima c'è stata una alternanza continua e personalmente per come si è mossa AMD ultimamente penso che non manchi molto tempo ad un altro ribaltamento di fronti
Phenom porcheria copiata da Intel? Ma stai scherzando? Prima di tutto che NON sono una porcheria visto che questi step B3 sono performanti poco meno di un Intel (con ordini circa del 10% a paritá di clock) però costano decisamente meno. Secondo proprio sul piano tecnologico sono decisamente molto più avanti in quanto il quad Intel altro non è che due die dual core "impiantati" nello stesso chip con un bus di comunicazione dedicato. Al contrario AMD è stata la prima fra le due case a produrre un die unico con 4 core dentro cosa che ancora adesso Intel, con i quad core che smercia attualmente, non offre. Tu dirai e che mi frega a me? Ed io ti dirò questa si chiama innovazione ed AMD spesso è stata più coraggiosa di Intel
Il tema Core israeliani era ovviamente giusto per informarti che questo progetto che gli sta andando tanto bene e che gli ha regalato questi circa 18 mesi di predominio non è neanche stato sciluppato interamente da Intel ma lo ha comprato
Celeron? Oddio mi stai paragonando un Celeron ad un qualsiasi processore AMD che non sia un SEMPRON (che giá il nome dovrebbe suggerirti qualcosa)... beh magari vatti a leggere qualche benchmark i Celeron sono i processori piú infimi in commercio in assoluto... per le prestazioni che hanno piú che farteli pagare a stesso rpezzo di un AMD ti dovrebbero pagare per portarteli a casa visto che saranno cagione di bestemmia ripetute e mala sorte per tutta la famiglia... in effetti i Celeron non sono così malvagi come li si ha dipinti ma molto molto di più. Giusto a onor del vero voglio menzionare la unica eccezzione seria di questa famiglia di processori di serie B, il mendocino. Il mendocino è stato l'unico Celeron che veramente valesse la pena giusto perchè per errore di progettazione di Intel risultava troppo overcloccabile e permetteva di avere le quasi stesse prestazioni del Pentium 2 450 mhz (che tempi).
Per la questione ATI ed nVidia si vede di nuovo che non sai di che parli...
La 8500 non era niente di che? Ma dico stai scherzando? La 8500 per il tempo era un vero e proprio fenomeno!!! Polverizzava la sua diretta concorrente GeForce 3 in pressochè tutti i benchmark e non a caso nVidia fece uscire di corsa le GeForce 4 (di cui le titanium erano veramente ottime specialmente la Ti4200 per rapporto qualitá/prezzo). Ma ahime ATI tirò fuori la 9700 e li grandi dolori per nVidia perchè la 9700 pro vinceva su tutti i fronti e quindi ecco la risposta di nVidia la serie FX... un flop fuminante, una architettura pietosa che non fu capace di vincere la generazione precedente di ATI. A seguire la serie 6 e 7 (buone entrambe) però anche li con alternanza con ATI visto che sforò le varie serie x000 e x1000 di nuovo superiori a nVidia. Per fartela breve l'unico vero flop di ATI dai lontani tempi della 8500 è stata la serie HD2000 già le schede HD3000 sono buone schede e le HD4000 seppur ben lontane dal successo della 9700 sono veramente ottime schede, con niente da invidiare a la controparte nVidia e con un costo decisamente inferiore. Infatti se vogliamo andare a fare due conti, frame + frame - il livello di giocabilitá di qualsiasi gioco a la stessa risoluzione e con gli stessi filtri attivi (considerando che la giocabilitá non varia per uno scarto di 5-10 frame al secondo quando ne hai giá 80 e che comunque 20 o 25 frame al secondo son lo stesso visto che il gioco è ingiocabile) offerto dal HD4870 con 1GB e la GTX280 è pressochè lo stesso con l'unica differenza che la prima ti costa un 25-30% in meno (che non è poco). Insomma per fartela breve nVidia non sta così ben messa con ATI come credi e il suo calo smisurato di valore in borsa degli ultimi giorni ne è la dimostrazione palese.
Ultimo commento, non capisco perchè vai a cercare le 9200... ma è un commento serio il tuo? Ma cosa pretendi da una scheda entry level che ti danno per 20 euro??? Ma perchè pensi che la GeForce 6200 sia molto performante? Se vogliamo dirla tutta con l'eccezzione delle schede di fascia alta di nVidia (ovvero dal 9800GTX in su) tutte le altre schede sono dietro la 3850 che nel più dei casi è piú economica
Scusate lo sproloquio però leggere che il prescott non scalda mi ha fatto scaldare :D
MiKeLezZ
13-10-2008, 16:31
Con ordine.Tralasciamo...
PS che sia israeliano o meno importa poco: il CORE e' stato grande ma nato "esternamente" ad intelCos'è, una battuta? CORE è nato dal centro R&S INTEL situato in ISRAELE (HAIFA) come fork del Pentium M, che era l'evoluzione del PIII, che lo era del PII, che lo era del P PRO. A breve avremo anche la summa ultima del vero progetto originale (TINMA), un SoC basato su P-M con GFX integrata.
Esterna... sto gran par de balle.
Ginger79
13-10-2008, 16:31
Normalmente non scrivo e solo leggo...
... per fortuna direi ! Per leggere il commento che hai scritto bisogna prendersi un giorno di ferie :D :D
(Si scherza ovviamente)
kliffoth
13-10-2008, 16:34
qualche link a riguardo?
Yossarian...mi sa che pero' sulla serie 2 ha ragione.
Ci sono tutte le attenuanti del caso: un progetto rivoluzionario e davvero nuovo (che sta pagabdo ora) e soprattutto un cambio di proprieta' (da ATI ad AMD) che ha causato un notevole ritardo sull'uscita del prodotto...
...pero'...
insomma la 2900 e' stata u po' il P IV di AMD/ATI: motlo consumo per la resa e soprattutto rispetto alla cantroparte.
Si segnala inoltre un anomalissimo comportamento con alcuni titoli/driver: a volte la 2900 si portava a livello della controparte, anzi pure meglio, quindi, a parte il fatto che il singolo titolo non e' indicativo, tutti hanno iniziato ad attendere nuovi e buoni driver pensando che forse la nuova architettura soffrisse di problemi di gioventu'...pero' sono usciti driver decenti a fine vita della scheda...e comunque e' andata mediamente sempre sotto la concorrenza
kliffoth
13-10-2008, 16:35
Tralasciamo...
Cos'è, una battuta? CORE è nato dal centro R&S INTEL situato in ISRAELE (HAIFA) come fork del Pentium M, che era l'evoluzione del PIII, che lo era del PII, che lo era del P PRO. A breve avremo anche la summa ultima del vero progetto originale (TINMA), un SoC basato su P-M con GFX integrata.
Esterna... sto gran par de balle.
ops chiedo scusa...pensavo fosse un appalto esterno
Sei sicuro che sia tutto sviluppato internamente comunque???
oh cavolo che fico pensa tu se ogni volta che mi parte la voglia tutti aveste diritto di un giorno di ferie... sarei il + amato dagli italiani altro che scavolini :D
..pensa..che invece di prendere ferie ti leggiamo dall'ufficio...mandando di culo le nostre aziende :)
yossarian
13-10-2008, 16:40
Yossarian...mi sa che pero' sulla serie 2 ha ragione.
Ci sono tutte le attenuanti del caso: un progetto rivoluzionario e davvero nuovo (che sta pagabdo ora) e soprattutto un cambio di proprieta' (da ATI ad AMD) che ha causato un notevole ritardo sull'uscita del prodotto...
...pero'...
insomma la 2900 e' stata u po' il P IV di AMD/ATI: motlo consumo per la resa e soprattutto rispetto alla cantroparte.
Si segnala inoltre un anomalissimo comportamento con alcuni titoli/driver: a volte la 2900 si portava a livello della controparte, anzi pure meglio, quindi, a parte il fatto che il singolo titolo non e' indicativo, tutti hanno iniziato ad attendere nuovi e buoni driver pensando che forse la nuova architettura soffrisse di problemi di gioventu'...pero' sono usciti driver decenti a fine vita della scheda...e comunque e' andata mediamente sempre sotto la concorrenza
si parla delle temperature, non dei consumi o delle prestazioni. Se parliamo di temperature, allora la serie 4xx0, oppure molti chip della serie 8 di nVIDIA, per non parlare della serie 5, hanno anche più problemi della serie 2xxx di ATi (questo a prescindere da quelle che sono le reali temperature a cui un chip può arrivare prima di iniziare ad avere problemi :D )
Avevo atteso dopo le ferie news su queste vga, poi nobn sentendo piu' nulla ho deciso per la vecchia gtx280, domani mi dovrebbe arrivare......che dire...a questo punto spero che queste vga nuove tardino ad uscire il piu' possibile....
MiKeLezZ
13-10-2008, 16:50
Poi per le VGA si è vista la serie 2xxx quelli si che era termosifosi e che scaldavano.
qualche link a riguardo? Oggi siamo in vena di ilarità...
http://www.xbitlabs.com/articles/video/display/gainward-bliss-8800gt_5.html#sect0
http://www.xbitlabs.com/images/video/gainward-bliss-8800gt/bliss8800glh_power.gif
CENTOSESSANTUNO WATT (161!) in load e SETTANTATUE WATT (72!) in idle
Se la HD2900 non è un forno non lo sono neppure quelli targati Ariston e REX montati nelle cucine
Perdipiù con prestazioni equivalenti a una HD3870, ed entrambe bastonate a sangue (roba che si mettono in ginocchio e chiedono pietà) da una banalissima 8800GT (che consuma la metà!!!)
yossarian
13-10-2008, 17:00
Oggi siamo in vena di ilarità...
http://www.xbitlabs.com/articles/video/display/gainward-bliss-8800gt_5.html#sect0
http://www.xbitlabs.com/images/video/gainward-bliss-8800gt/bliss8800glh_power.gif
CENTOSESSANTUNO WATT (161!) in load e SETTANTATUE WATT (72!) in idle
Se la HD2900 non è un forno non lo sono neppure quelli targati Ariston e REX montati nelle cucine
Perdipiù con prestazioni equivalenti a una HD3870, ed entrambe bastonate a sangue (roba che si mettono in ginocchio e chiedono pietà) da una banalissima 8800GT (che consuma la metà!!!)
hai presente la differenza tra temperature e consumi? Le temperature sono quelle che si misurano in gradi, i consumi in watt :sofico:
MiKeLezZ
13-10-2008, 17:01
ops chiedo scusa...pensavo fosse un appalto esterno
Sei sicuro che sia tutto sviluppato internamente comunque???
Vedi te:
http://www.intel.com/jobs/Israel/Sites/haifa.htm
hai presente la differenza tra temperature e consumi? Le temperature sono quelle che si misurano in gradi, i consumi in watt :sofico:Mai studiato fisica tecnica all'Università? Forse è d'uopo un ripasso
yossarian
13-10-2008, 17:05
Mai studiato fisica tecnica all'Università? Forse è d'uopo un ripasso
:rotfl: :rotfl: :rotfl: :rotfl:
quindi 280GTX scalda più di HD2900?
kliffoth
13-10-2008, 17:15
:rotfl: :rotfl: :rotfl: :rotfl:
quindi 280GTX scalda più di HD2900?
yoss...io ho molto rispetto per te..pero' a parte che non trovo un grafico con le temperature...ma se tanto entra tanto esce... credo
sniperspa
13-10-2008, 17:19
@MiKeLezZ
Guarda che se parliamo di serie hd2xxx dobbiamo tener conto di tutte le schede che fanno parte della serie non solo della 2900xt....
Ad esempio la 2600xt ha circa gli stessi consumi della 8600gts e come prestazioni siamo la....
ps.per fortuna che c'è ank qualcuno che scrive sapendo di quello che parla perchè a leggere certi commenti cado in depressione....:D
yossarian
13-10-2008, 17:21
yoss...io ho molto rispetto per te..pero' a parte che non trovo un grafico con le temperature...ma se tanto entra tanto esce... credo
si per quanto riguarda i consumi; ma non si può fare un discorso semplicistico del tipo: a tanti watt dissipati corrispondono tanti gradi. Questo sarebbe valido a parità di architettura, di tipologia e di estensioni delle interfacce tra core e layer di metallizzazioni, di processo produttivo, di frequenze di funzionamento, di accorgimenti atti a ridurre le correnti parassite. Non si parla di un semplice conduttore, ma di qualcosa di molto più complesso. All'interno di un chip ci sono circuiti che scaldano molto più di altri per svariati motivi (anche a causa delle geometrie interne). Quando si fa uno shrink si deve tener conto di tanti fattori e spesso si ricorre ad un aggiustamento del rapporto tra lunghezza e larghezza del canale source-drain per ottimizzare i consumi senza rischiare di veder andare alle stelle i valori del current leakage
blackshard
13-10-2008, 17:28
I prescott a mio avviso non erano poi tutte ste stufette.
Ah no, erano degli asciugacapelli allora... vallo a dire a quello a cui la settimana scorsa ho cambiato il dissipatore con un arctic cooler pro 7 PWM. 20 euro di dissipatore con base in rame e heatpipe per tenere a bada un prescott da 3.06 Ghz A DEFAULT!
Poi mi sa che io di cose ne conosco e mi documento prima di comprare qualcosa.
Ti documenti male allora.
E poi AMD cmq come CPU non è che sia stata mai avanti rispetto ad Intel.
Ecco, ti documenti molto male. I K7 erano una spanna sopra i Pentium III, il periodo P4 è da dimenticare per Intel, a parte gli ottimi northwood poi rovinati nei prescott per riprendere la corsa al megahertz.
Sarà pure che gli AMD costano meno però sono anche meno potenti degli Intel. Gli attuali sono veramente pietosi. I phenom sono una vera porcheria mal copiata da Intel.
Saranno che i core sono invece molto buoni?
Che poi i phenom siano copiati da intel, questa è un'altra farneticazione bella e buona, visto che
1) K10 (sai cos'è K10, vero?) ha un design quad-core monolitico, gli intel no
2) K10 ha il memory controller integrato, gli intel no
3) K10 si interfaccia con il chipset e con altri processori K10 con un bus punto-punto flessibile, aperto ed efficiente, gli intel no.
Guarda un po', con la nuova infornata di nehalem intel introdurrà queste tre cosine che le hanno fatto prendere tante batoste in ambito server e in ambito desktop ai tempi dei K8, contro i soliti P4.
E poi, il primo dual core monolitico è AMD. Il primo quad core monolitico è AMD.
Che poi il Core sia stato sviluppato dagli israeliani non mi sembra o cmq non credo che perchè siano stati loro significa che sia stato una buona CPU.
Vedi che le cose non le sai e faresti meglio a tacere? Secondo te da dove viene il nome in codice "Nehalem"? Ma anche dothan, yonah e merom (sai cosa sono, vero?) secondo te che lingua parlano?
La Amd può aver fatto qualche buona CPU forse. Cmq per i costi c'erano anche i Celeron che non erano certo il top ma erano i concorrenti della fascia medio.bassa e cmq non erano malvagi come li si è sempre dipinti.
I celeron sono sempre state le cpu intel castrate sotto qualche aspetto.
Se intel ha proposto architetture pessime con i P4, allora i celeron P4 erano dei veri cessi.
Se intel ha proposto delle architetture ottime come Core, allora i celeron Core sono dei buoni processori.
Quelli che dici non significa un benemerito razzo.
Poi per le VGA si è vista la siera 2xxx quelli si che era termosifosi e che scaldavano. Ma leggete o vi inventate le cose. La serie 4xxx è stato il momento in cui finalmente ATI ha fatto una cosa buona.
Forse parli delle hd2900, riferendoti alle 2xxx. Quelle erano dei termosifoni e dalle prestazioni non eclatanti, ma penso che chiunque con un po' di senno ne sarà ben d'accordo. Ma le hd38xx hanno fatto calare i prezzi delle 8800 dai 400 euro minimi intorno ai 250 euro e anche meno. Questo dovrebbe farti ben capire che le hd38xx erano già una cosa buona.
La seria 8500 non ricordo fosse sto gran che.
Ricordi male. Le 8500 era il modello di punta di ati e concorreva alla grande con le geffo3 Ti500.
Ho menzionato 9700/9800 perchè erano buone schede ma già se scendiamo alle 9200 facevano schifo veramente.
Ecco, altre farneticazioni... A parte il fatto che le 9200 non erano R300 ma erano delle RV270, quindi PS 1.4 e VS1.1, che senso ha confrontare la fascia altissima con la fascia bassa?
E' come dire che le Geforce 8800 erano delle ottime schede ma le 8400 erano delle merde pazzesche. Ti rendi almeno conto che le 8400 sono state fatte apposta per essere delle merde per essere vendute a quelli che se ne infischiano dei videogiochi?
E tralaltro la controproposta alle 9200 sono state le fantastiche geforce 4 MX, cioè delle geforce 2 rimarchiate (si, hai letto bene, schede di due generazioni prima rimarchiate!) e le magiche geforce FX 5200 che andavano peggio delle integrate di passata generazione.
Quindi poco sarcascmo e non sono un ignorante come dite voi.
Infatti ti hanno trattato bene... e non sto facendo ironia, dico sul serio!
E se lo sono forse per la documentazione voi lo siete per l'educazione.
Sarà, ma di certo ti devi essere messo con impegno per tirare fuori certe castronerie...
MiKeLezZ
13-10-2008, 17:32
si per quanto riguarda i consumi; ma non si può fare un discorso semplicistico del tipo: a tanti watt dissipati corrispondono tanti gradi. Questo sarebbe valido a parità di architettura, di tipologia e di estensioni delle interfacce tra core e layer di metallizzazioni, di processo produttivo, di frequenze di funzionamento, di accorgimenti atti a ridurre le correnti parassite
yoss...io ho molto rispetto per te..pero' a parte che non trovo un grafico con le temperature...ma se tanto entra tanto esce... credo
Mi sembra di vedere dei deficit a riguardo
Il calore viene misurato in calorie (cal).
La temperatura è semplicemente una proprietà, e non una unitù di misura, e dipende, appunto, dal calore (o dai watt, o dai joule, o dai cavalli vapore, o dai btu, da ciò che volete).
La caloria è la quantità di energia necessaria a far crescere di 1°c 1g di h20 (acqua) originariamente alla temperatura di 14,5°c e alla pressione di 1 atm (condizioni ambientali standard)
1 caloria equivale a 4,184 Joule (J)
1 Watt equivale a 1 Joule ogni secondo
I CENTOSESSANTUNO WATT (161!!!) di quella schifezza di HD 2900 PRO equivalgono a 38 calorie, oppure 0,15BTU, che vengono sparati ogni secondo dentro al case.
Questo indipendentemente da tutte le varie parole inutili (processi produttivi, leakage, parassiti, volpi del bengala, camici bianchi, ispettore gadget).
Meno Watt. Meno calore (-ie).
yossarian
13-10-2008, 17:37
Mi sembra di vedere dei deficit a riguardo
Il calore viene misurato in calorie (cal).
La temperatura è semplicemente una proprietà, e non una unitù di misura, e dipende, appunto, dal calore (o dai watt, o dai joule, o dai cavalli vapore, o dai btu, da ciò che volete).
La caloria è la quantità di energia necessaria a far crescere di 1°c 1g di h20 (acqua) originariamente alla temperatura di 14,5°c e alla pressione di 1 atm (condizioni ambientali standard)
1 caloria equivale a 4,184 Joule (J)
1 Watt equivale a 1 Joule ogni secondo
I CENTOSESSANTUNO WATT (161!!!) di quella schifezza di HD 2900 PRO equivalgono a 38 calorie, oppure 0,15BTU, che vengono sparati ogni secondo dentro al case.
Questo indipendentemente da tutte le varie parole inutili (processi produttivi, leakage, parassiti, volpi del bengala, camici bianchi, ispettore gadget).
Meno Watt. Meno calore (-ie).
quindi una 280 GTX scalda più di una hd2900? Ripeto la domanda, al di là di tutte le parole inutili (BTU, watt, joule, ecc) :D
Nonchè scalda molto di più di una hd4870? E anche una 260 scalda più di una 4870?
http://forum.beyond3d.com/showthread.php?t=50025
kliffoth
13-10-2008, 17:38
Mi sembra di vedere dei deficit a riguardo
Il calore viene misurato in calorie (cal).
La temperatura è semplicemente una proprietà, e non una unitù di misura, che dipende, appunto, dal calore (o dai watt, o dai joule, o dai cavalli vapore, o dai btu, da ciò che volete).
La caloria è la quantità di energia necessaria a far crescere di 1°c 1g di h20 (acqua) originariamente alla temperatura di 14,5°c e alla pressione di 1 atm (condizioni ambientali standard)
1 caloria equivale a 4,184 Joule (J)
1 Watt equivale a 1 Joule ogni secondo
I CENTOSESSANTUNO WATT (161!!!) di quella schifezza di HD 2900 PRO equivalgono a 38 calorie, oppure 0,15BTU, che vengono sparati ogni secondo dentro al case.
Questo indipendentemente da tutte le varie parole inutili (processi produttivi, leakage, parassiti, volpi del bengala, camici bianchi, ispettore gadget).
io sono avvocato...facevo ad occhio che se la 2900 consumava tanto di piu' in una certa epoca, ad occhio dovesse anche scaldare di piu' di quelle della sua epoca (e siccome i consumi sono mostruosi, allora ho dedotto che non ci potesse essere ottimizzazione cosi buona da contenere il calore che poi si sarebbe tradotto in temperatura)
appleroof
13-10-2008, 17:38
yoss...io ho molto rispetto per te..pero' a parte che non trovo un grafico con le temperature...ma se tanto entra tanto esce... credo
basta cercare da soli :D
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_20.html
cmq su r600 in generale è meglio stendere un velo pietoso e non infierire...
MiKeLezZ
13-10-2008, 17:39
Forse parli delle hd2900, riferendoti alle 2xxx. Quelle erano dei termosifoni e dalle prestazioni non eclatanti, ma penso che chiunque con un po' di senno ne sarà ben d'accordo.ah! è l'unica cosa del tuo ottimo post per cui non devo darti ragione :(
MiKeLezZ
13-10-2008, 17:44
quindi una 280 GTX scalda più di una hd2900? Ripeto la domanda, al di là di tutte le parole inutili (BTU, watt, joule, ecc) :D
http://www.pctuner.net/articoli/schede_video/1054/nVidia-GeForce-GTX280-un-mostro-di-potenza/9.html
Parlano di 45°c e 65°c, temperature davvero basse a quanto pare.
Un gran bel dissipatore quello delle NVIDIA GTX, non c'è che dire.
http://www.pctuner.net/hardware/Schede_Video/nvidia-geforce-gtx280/gtx280_11.jpg
Gigantesco, con 4 heatpipe.
Pensare invece tutti quei poveri clienti di ATI HD4850 REFERENCE che si ritrovano con un dissipatore single slot che è la prima cosa da cambiare, tanto che la stessa ATI ha messo degli hack nei driver Cataclysm per "far andare meno veloce la scheda" (e quindi farla scaldare di meno) altrimenti se ne andava al creatore (con PWM e GPU che si bruciavano dal troppo stress).
Googlare "ATI FurMark", per gli interessati. Ma ora torniamo alla news, se possibile.
yossarian
13-10-2008, 17:44
basta cercare da soli :D
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_20.html
cmq su r600 in generale è meglio stendere un velo pietoso e non infierire...
perfetto: scalda meno di una 8800 ultra e quanto una 8800 GTX.
Quindi se la 2900 è una stufetta lo è anche la 8800 :D
yossarian
13-10-2008, 17:45
http://www.pctuner.net/articoli/schede_video/1054/nVidia-GeForce-GTX280-un-mostro-di-potenza/9.html
Parlano di 45°c e 65°c, temperature davvero basse a quanto pare.
Un gran bel dissipatore quello delle NVIDIA GTX, non c'è che dire.
Pensare invece tutti quei poveri clienti di ATI HD4850 REFERENCE che si ritrovano con un dissipatore single slot che è la prima cosa da cambiare, tanto che la stessa ATI ha messo degli hack nei driver per "far andare meno veloce la scheda" (e quindi farla scaldare di meno) altrimenti se ne andava al creatore (con PWM e GPU che si bruciavano dal troppo stress).
Googlare "FurMark", per gli interessati. Ma ora torniamo alla news, se possibile.
ma come! Parli di joule, BTU, ecc, e poi ti smentisci da solo, postando dati di un chip che consuma di più ma scalda di meno? :D
Si, è meglio tornare alla news :sofico:
appleroof
13-10-2008, 17:51
perfetto: scalda meno di una 8800 ultra e quanto una 8800 GTX.
Quindi se la 2900 è una stufetta lo è anche la 8800 :D
lo è, ma a parità di ventola la 88 è più silenziosa (la 2900xt è un aereo in decollo, come la 4870, tra l'altro); la 88 è a 90nm la 29xt 80nm; infine a prestazioni manco a parlarne
poi se guardi il dato in sè, sì, non credo siano distanti quanto a temp, a parità di settaggio ventola e di case
Phantom II
13-10-2008, 17:53
lo è già da un pezzo, non su tutte ovviamente
Non lo sapevo. Qual'è stata la prima ad avere il "coperchio"?
sniperspa
13-10-2008, 17:58
Parlano di 45°c e 65°c, temperature davvero basse a quanto pare.
Un gran bel dissipatore quello delle NVIDIA GTX, non c'è che dire.
Gigantesco, con 4 heatpipe.
Pensare invece tutti quei poveri clienti di ATI HD4850 REFERENCE che si ritrovano con un dissipatore single slot che è la prima cosa da cambiare, tanto che la stessa ATI ha messo degli hack nei driver Cataclysm per "far andare meno veloce la scheda" (e quindi farla scaldare di meno) altrimenti se ne andava al creatore (con PWM e GPU che si bruciavano dal troppo stress).
possibile.
C'è ank una bella differenza di fascia tra una 4850 e una gtx eh!:sofico:
Cmq in generale tendono ad essere un pò più curate le nvidia da quel lato...e infatti costano pure mediamente di più...
Per la notizia c'è poco da fare...non gliene frega una mazza a nessuno!:asd::ciapet:
yossarian
13-10-2008, 18:01
lo è, ma a parità di ventola la 88 è più silenziosa (la 2900xt è un aereo in decollo, come la 4870, tra l'altro); la 88 è a 90nm la 29xt 80nm; infine a prestazioni manco a parlarne
poi se guardi il dato in sè, sì, non credo siano distanti quanto a temp, a parità di settaggio ventola e di case
la 4870 non è rumorosa con la ventola a default. Inoltre, potrei rigirare la frittata (come vedo fare spesso da altri), dicendo che il dissi della 8800 è pessimo (e se ragionassi in termini semplicistici di watt e °C, sarei motivato dal fatto che, a fronte di consumi molto più bassi, presenta temperature di esercizio per lo meno uguali). Ma non lo faccio perchè non ne ho bisogno. Si parlava di temperature e il grafico che hai postato parla chiaro. In quanto al fatto di essere a 80 o 90 nm, per chi sa qualcosa di pp, è noto il fatto che tra i due la differenza è veramente risibile e il pp, semmai, avrebbe potuto influire più sui consumi che non sulle temperature.
Si potrebbe parlare, riferendosi a RV770 e GT200, delle prestazioni per watt, o meglio ancora per die size, ma non sono questi gli argomenti della discussione e servirebbero solo a spostare l'attenzione su altri fronti, sicuramente più congeniali e favorevoli ad ATi.
Quindi, limitiamo il campo alle temperature e traiamo, in base a quelle le dovute conclusioni:
si è affermato che la 2900 è una stufetta. Bene, lo è pure, e a maggior ragione, la 8800.
Si è affermato che a consumi superiori corrispondano temperaure superiori del chip: il grafico che hai postato e i consumi e le rispettive temperature di 4870 e 280 dimostrano il contrario.
Per me questo è più che sufficiente
gianni1879
13-10-2008, 18:01
C'è ank una bella differenza di fascia tra una 4850 e una gtx eh!:sofico:
Cmq in generale tendono ad essere un pò più curate le nvidia da quel lato...e infatti costano pure mediamente di più...
Per la notizia c'è poco da fare...non gliene frega una mazza a nessuno!:asd::ciapet:
per le Ati basta scegliere le versioni giuste che esistono, non vedo tutto questo gran problema....
MiKeLezZ
13-10-2008, 18:05
Non lo sapevo. Qual'è stata la prima ad avere il "coperchio"?Io mi ricordo 8800GTX. Ma G92 ad esempio non ce l'ha.
sniperspa
13-10-2008, 18:07
per le Ati basta scegliere le versioni giuste che esistono, non vedo tutto questo gran problema....
Appunto!;)
appleroof
13-10-2008, 18:47
la 4870 non è rumorosa con la ventola a default. Inoltre, potrei rigirare la frittata (come vedo fare spesso da altri), dicendo che il dissi della 8800 è pessimo (e se ragionassi in termini semplicistici di watt e °C, sarei motivato dal fatto che, a fronte di consumi molto più bassi, presenta temperature di esercizio per lo meno uguali). Ma non lo faccio perchè non ne ho bisogno. Si parlava di temperature e il grafico che hai postato parla chiaro. In quanto al fatto di essere a 80 o 90 nm, per chi sa qualcosa di pp, è noto il fatto che tra i due la differenza è veramente risibile e il pp, semmai, avrebbe potuto influire più sui consumi che non sulle temperature.
Si potrebbe parlare, riferendosi a RV770 e GT200, delle prestazioni per watt, o meglio ancora per die size, ma non sono questi gli argomenti della discussione e servirebbero solo a spostare l'attenzione su altri fronti, sicuramente più congeniali e favorevoli ad ATi.
Quindi, limitiamo il campo alle temperature e traiamo, in base a quelle le dovute conclusioni:
si è affermato che la 2900 è una stufetta. Bene, lo è pure, e a maggior ragione, la 8800.
Si è affermato che a consumi superiori corrispondano temperaure superiori del chip: il grafico che hai postato e i consumi e le rispettive temperature di 4870 e 280 dimostrano il contrario.
Per me questo è più che sufficiente
yoss come spesso accade, quando ti si tocca Ati parti in difesa, poi non ti lamentare se ti dicono alcune cose :D : con il link di hwupgrade volevo appunto dimostrare che era come dicevi tu, calma :)
il dissi della 4870 (parlo di comprare la scheda e metterla nel case, magari smanettare un attimo con riva, che è già da utenti un pochettino avanzati, ma non arriviamo a flashbios ecc ecc) non è buono perchè ti offre 2 alternative entrambe cattive: o non lo senti ma ti ci fai gli hamburger alla piastra, oppure alzi la velocità e vicino al pc ci stai con le cuffie da operaio
quello della 2900xt era anche peggio, se vogliamo, da questo punto di vista, ma sulla 2900xt come detto non vorrei infierire
il dissi della 8800gtx (fidati) è perfetto: anche all'80% lo senti appena e le temp sono tra i 50° idle a 75° max in full, senza scomodare i libri di ingegneria :D
yossarian
13-10-2008, 19:06
yoss come spesso accade, quando ti si tocca Ati parti in difesa, poi non ti lamentare se ti dicono alcune cose :D : con il link di hwupgrade volevo appunto dimostrare che era come dicevi tu, calma :)
il dissi della 4870 (parlo di comprare la scheda e metterla nel case, magari smanettare un attimo con riva, che è già da utenti un pochettino avanzati, ma non arriviamo a flashbios ecc ecc) non è buono perchè ti offre 2 alternative entrambe cattive: o non lo senti ma ti ci fai gli hamburger alla piastra, oppure alzi la velocità e vicino al pc ci stai con le cuffie da operaio
quello della 2900xt era anche peggio, se vogliamo, da questo punto di vista, ma sulla 2900xt come detto non vorrei infierire
il dissi della 8800gtx (fidati) è perfetto: anche all'80% lo senti appena e le temp sono tra i 50° idle a 75° max in full, senza scomodare i libri di ingegneria :D
apple, lo sai che quanto ho detto non era riferito a te ma a chi ha affermato cose non vere. In quanto alla 4870, conosco il problema relativo alle temperature (anche se è un problema relativo poichè i chip sono progettati per resistere senza danni a temperature ben più elevate di quelle fatte registrare e riportate nei bench; ma ci si riserva sempre un margine molto ampio, poichè bisogna tener conto di tanti fattori incogniti, comprese le pratiche di o/c estremo di tipo fai da te) e alla bassa velocità della ventola. C'è la possibilità, tra l'altro, di settarla non necessariamnete al 70%, tenendo basse le temperature e senza bisogno delle cuffie :D .
Sulla 2900, ripeto, non ho contestato il discorso prestazioni, ma quello relativo alle temperature e il link che hai postato (di cui ti ringrazio, se non altro perchè è servito a dimostrare una teoria che io già conoscevo ma altri, evidentemente, ignorano) dimostra che le cose non possono ridursi all'applicazioni di semplici formule di termodinamica del tutto generiche e che non tengono conto di troppi elementi non trascurabili).
I test sono eseguiti a default e, quindi, le regolazioni delle ventole degli impianti di dissipazione esulano dalla trattazione.
Comunque, la 2900 non era più rumorosa della 1950 che era riposante se confrontata con la FX5800 ultra.(su cui anch'io non infierisco oltre) :D
Infine, ATi (ora AMD) e nVIDIA progettano i chip e danno indicazioni su pcb e dissipatori, ma non li progettano né li fabbricano. Quindi, se vogliamo criticare ATi, facciamolo per ciò che progetta (e possibilmente non a sproposito) e lo stesso dicasi per nVIDIA, oppure Intel (visto che si è parlato anche di cpu)
appleroof
13-10-2008, 19:15
apple, lo sai che quanto ho detto non era riferito a te ma a chi ha affermato cose non vere. In quanto alla 4870, conosco il problema relativo alle temperature (anche se è un problema relativo poichè i chip sono progettati per resistere senza danni a temperature ben più elevate di quelle fatte registrare e riportate nei bench; ma ci si riserva sempre un margine molto ampio, poichè bisogna tener conto di tanti fattori incogniti, comprese le pratiche di o/c estremo di tipo fai da te) e alla bassa velocità della ventola. C'è la possibilità, tra l'altro, di settarla non necessariamnete al 70%, tenendo basse le temperature e senza bisogno delle cuffie :D .
Sulla 2900, ripeto, non ho contestato il discorso prestazioni, ma quello relativo alle temperature e il link che hai postato (di cui ti ringrazio, se non altro perchè è servito a dimostrare una teoria che io già conoscevo ma altri, evidentemente, ignorano) dimostra che le cose non possono ridursi all'applicazioni di semplici formule di termodinamica del tutto generiche e che non tengono conto di troppi elementi non trascurabili).
I test sono eseguiti a default e, quindi, le regolazioni delle ventole degli impianti di dissipazione esulano dalla trattazione.
Comunque, la 2900 non era più rumorosa della 1950 che era riposante se confrontata con la FX5800 ultra.(su cui anch'io non infierisco oltre) :D
:asd: mi diverto troppo a "discutere" con te :D :D
per il resto non discuto che rv770 possa resistere senza problemi oltre i 100°, ma perchè non insistere su dissi migliori (e con un aggravio di spesa minimo, con alcune accortezze)
Infine, ATi (ora AMD) e nVIDIA progettano i chip e danno indicazioni su pcb e dissipatori, ma non li progettano né li fabbricano. Quindi, se vogliamo criticare ATi, facciamolo per ciò che progetta (e possibilmente non a sproposito) e lo stesso dicasi per nVIDIA, oppure Intel (visto che si è parlato anche di cpu)
ecco, quello che mi chiedo è se comunque non abbiano il potere di indirizzare i fornitori di dissipatori in determinate direzioni: prendi Ati (perchè da questo punto di vista è da tempo che le relative vga sono "indietro")...una volta appurato che il dissipatore non è buono (in termini di alternativa rumore/calore smaltito) perchè non "imporre" ai fornitori un dissipatore stile quello della 8800gtx (:D)?
yossarian
13-10-2008, 19:41
:asd: mi diverto troppo a "discutere" con te :D :D
per il resto non discuto che rv770 possa resistere senza problemi oltre i 100°, ma perchè non insistere su dissi migliori (e con un aggravio di spesa minimo, con alcune accortezze)
ecco, quello che mi chiedo è se comunque non abbiano il potere di indirizzare i fornitori di dissipatori in determinate direzioni: prendi Ati (perchè da questo punto di vista è da tempo che le relative vga sono "indietro")...una volta appurato che il dissipatore non è buono (in termini di alternativa rumore/calore smaltito) perchè non "imporre" ai fornitori un dissipatore stile quello della 8800gtx (:D)?
http://techreport.com/articles.x/14990/15
al di là delle chacchiere e delle battute, da queste tabelle risulta che la differenza di temperature e di rumorosità con dissi stock non è tanto diverso tra gpu ATi e nVIDIA.
Qualche grado in più per le prime, qualche db in più per le seconde.
Quindi, il risultato finale ottenuto dai pessimi dissi standard delle ATi non mi pare sia troppo distante da quello degli ottimi dissi standard delle nVIDIA.
Che poi si possa fare di meglio non lo metto in dubbio. Però evitiamo di far diventare luoghi comuni (come quello dei driver) verità conclamate.
http://www.pctuner.net/articoli/schede_video/1054/nVidia-GeForce-GTX280-un-mostro-di-potenza/9.html
Parlano di 45°c e 65°c, temperature davvero basse a quanto pare.
Un gran bel dissipatore quello delle NVIDIA GTX, non c'è che dire.
http://www.pctuner.net/hardware/Schede_Video/nvidia-geforce-gtx280/gtx280_11.jpg
Gigantesco, con 4 heatpipe.
Pensare invece tutti quei poveri clienti di ATI HD4850 REFERENCE che si ritrovano con un dissipatore single slot che è la prima cosa da cambiare, tanto che la stessa ATI ha messo degli hack nei driver Cataclysm per "far andare meno veloce la scheda" (e quindi farla scaldare di meno) altrimenti se ne andava al creatore (con PWM e GPU che si bruciavano dal troppo stress).
Googlare "ATI FurMark", per gli interessati. Ma ora torniamo alla news, se possibile.
Hai avuto possibilità di vederlo dal vivo?
E' stupendo, però a 7 heatpipe non 4...
appleroof
13-10-2008, 20:01
http://techreport.com/articles.x/14990/15
al di là delle chacchiere e delle battute, da queste tabelle risulta che la differenza di temperature e di rumorosità con dissi stock non è tanto diverso tra gpu ATi e nVIDIA.
Qualche grado in più per le prime, qualche db in più per le seconde.
Quindi, il risultato finale ottenuto dai pessimi dissi standard delle ATi non mi pare sia troppo distante da quello degli ottimi dissi standard delle nVIDIA.
Che poi si possa fare di meglio non lo metto in dubbio. Però evitiamo di far diventare luoghi comuni (come quello dei driver) verità conclamate.
la percezione del rumore non è solo decibel, così come mi può andare benissimo che uno la tenga bassa ma abbia 100° nel case (non io)
cmq al di là delle tabelle che dicono davvero poco, al riguardo, ti dico che per la 8800gtx (su una quindicina di schede che ho avuto in vita mia) è il dissipatore standard migliore che abbia mai provato, su quello della 2900xt o della 4870 ti potrei postare un'impressione "sul campo" tra mille che trovi su forum come questi (forse ne troverai una fra dieci che si lamentano del rumore del dissipatore della 8800gtx)
non è luogo comune che i dissipatori Ati (delle ultime ma non solo) sono rumorosi oltremodo, oppure non lo sono facendo si che la scheda scaldi come un forno, è pura realtà, accettala :D
chiudo Ot ;)
http://techreport.com/articles.x/14990/15
Che poi si possa fare di meglio non lo metto in dubbio. Però evitiamo di far diventare luoghi comuni (come quello dei driver) verità conclamate.
Ti do completamente ragione Yoss.I driver ati adesso sono una roccia.
Basta con sti luoghi comuni , se no vi tiro fuori la questione sulla qualita video di nvidia rispetto alle ati e sui driver ottimizzati nvidia sui 3dmark :D :D
chiudo Ot ;)
http://techreport.com/r.x/radeon-hd-4870/noise-load.gif
Meglio ;)
appleroof
13-10-2008, 21:22
Meglio ;)
no, meglio che leggi bene i post, proviamo così
la percezione del rumore non è solo decibel, così come mi può andare benissimo che uno la tenga bassa ma abbia 100° nel case (non io)
cmq al di là delle tabelle che dicono davvero poco, al riguardo, ti dico che per la 8800gtx (su una quindicina di schede che ho avuto in vita mia) è il dissipatore standard migliore che abbia mai provato, su quello della 2900xt o della 4870 ti potrei postare un'impressione "sul campo" tra mille che trovi su forum come questi (forse ne troverai una fra dieci che si lamentano del rumore del dissipatore della 8800gtx)
non è luogo comune che i dissipatori Ati (delle ultime ma non solo) sono rumorosi oltremodo, oppure non lo sono facendo si che la scheda scaldi come un forno, è pura realtà, accettala :D
chiudo Ot ;)
;)
MiKeLezZ
13-10-2008, 21:23
Hai avuto possibilità di vederlo dal vivo?
E' stupendo, però a 7 heatpipe non 4...Figuriamoci! E tutto senza spendere una lira in raffreddamenti alternativi (la robazza Zalman la paghi pure 50 euro, e su una HD4850 diventa quasi necessaria)...
Basta con sti luoghi comuni , se no vi tiro fuori la questione sulla qualita video di nvidia rispetto alle ati e sui driver ottimizzati nvidia sui 3dmark :D :DCome qualità video sia ATI che NVIDIA sono identiche, anche per quanto riguarda UVD e PUREVIDEO (utilizzano entrambi IP di Tensilica, ridicolo quindi affermare la superiorità di uno o l'altro), e i driver ottimizzati (o meglio i cheat) sul 3DMARK ci sono stati sia per NVIDIA, che per ATI (e quest'ultima continua indefessa, basti cercare "FurMark ATI" con Google)...
Se Atene piange, Sparta non ride
Beh.. la questione del FurMark è un po diversa..Li invece di dare prestazioni , le hanno tolte :):).Il 3dmark ormai è morto.Chi lo usa piu?Anche perche adesso con la fisica le nvidia pigliano millemila punti in piu.
Sulla qualita video , è questione di gusti,anche se mi riferivo alla qualita in generale, cioe sulla qualita del segnale in uscita piu che sui film.Comunque il mio discorso non voleva avere risposta dato che era in tono ironico.Era solo per ricordare i soliti luoghi comuni che tutti i schierati qua sfoggiano ogni volta.
Quando senti le solite frasi da gente che magari manco hanno mai avuto un Ati o Nvidia,mi cascano i maroni.
Sarei curioso di vedere però l UVD seconda generazione delle 4800 all opera e magari sapere come funge il 7.1 .Qualcuno ha qualche test in riguardo o l ha provato?
appleroof
13-10-2008, 21:43
Beh.. la questione del FurMark è un po diversa..Li invece di dare prestazioni , le hanno tolte :):).Il 3dmark ormai è morto.Chi lo usa piu?Anche perche adesso con la fisica le nvidia pigliano millemila punti in piu.
Sulla qualita video , è questione di gusti,anche se mi riferivo alla qualita in generale, cioe sulla qualita del segnale in uscita piu che sui film.Comunque il mio discorso non voleva avere risposta dato che era in tono ironico.Era solo per ricordare i soliti luoghi comuni che tutti i schierati qua sfoggiano ogni volta.
Quando senti le solite frasi da gente che magari manco hanno mai avuto un Ati o Nvidia,mi cascano i maroni.
Sarei curioso di vedere però l UVD seconda generazione delle 4800 all opera e magari sapere come funge il 7.1 .Qualcuno ha qualche test in riguardo o l ha provato?
bèccati sto luogo comune http://dailymotion.alice.it/video/x1xzw0_hd-2900xt-in-action (prego sentire in particolare quando parte il 3d)
:)
Figuriamoci! E tutto senza spendere una lira in raffreddamenti alternativi (la robazza Zalman la paghi pure 50 euro, e su una HD4850 diventa quasi necessaria)...
Come qualità video sia ATI che NVIDIA sono identiche, anche per quanto riguarda UVD e PUREVIDEO (utilizzano entrambi IP di Tensilica, ridicolo quindi affermare la superiorità di uno o l'altro), e i driver ottimizzati (o meglio i cheat) sul 3DMARK ci sono stati sia per NVIDIA, che per ATI (e quest'ultima continua indefessa, basti cercare "FurMark ATI" con Google)...
Se Atene piange, Sparta non ride
Il discorso Furmark è un pò diverso visto che AMD a inserito un profilo che rallenta le schede 4800 per evitare che l'ecessiva temperatura (che porta a al blocco o peggio) rovini irreparabilmente la GPU, se non vi fosse stato un rischio concreto AMD non sarebbe intervenuta per rallentare le sue ultime schede.
Athlon 64 3000+
13-10-2008, 21:51
quando ho letto che Yoss fosse di parti Ati sono letteralmente scoppiato a ridere.Mai sentita una cavolata più grossa.
Se volete sapere Yossarian lo seguo da diversi anni a questa parte ed è sempre stato perfettamente imparziale e mai di parte.
Quindi evitamio di dire cavolate.
Se volete sapere(yoss penso che confermerai) nel 2004 disse che l'architettura di NV40 era migliore di quella di R420. Alla faccia di essere di parte Ati.:D
Phantom II
13-10-2008, 21:56
Io mi ricordo 8800GTX. Ma G92 ad esempio non ce l'ha.
Grazie ;)
bèccati sto luogo comune http://dailymotion.alice.it/video/x1xzw0_hd-2900xt-in-action (prego sentire in particolare quando parte il 3d)
:)
hai ragione .. maledetti luoghi comuni :D
http://it.youtube.com/watch?v=Q-YiujI25mU
Pero questa resterà negli annali
http://it.youtube.com/watch?v=eYWaUJakMfg
gianni1879
13-10-2008, 22:06
Figuriamoci! E tutto senza spendere una lira in raffreddamenti alternativi (la robazza Zalman la paghi pure 50 euro, e su una HD4850 diventa quasi necessaria)...
Come qualità video sia ATI che NVIDIA sono identiche, anche per quanto riguarda UVD e PUREVIDEO (utilizzano entrambi IP di Tensilica, ridicolo quindi affermare la superiorità di uno o l'altro), e i driver ottimizzati (o meglio i cheat) sul 3DMARK ci sono stati sia per NVIDIA, che per ATI (e quest'ultima continua indefessa, basti cercare "FurMark ATI" con Google)...
Se Atene piange, Sparta non ride
artic cooling fa ottimi dissipatori economici non bisogna per forza di cose spendere 50€.
Poi ripeto ma se ci sono tantissime vga perchè non scegliere quella con dissy migliore?? :boh:
yossarian
13-10-2008, 22:22
quando ho letto che Yoss fosse di parti Ati sono letteralmente scoppiato a ridere.Mai sentita una cavolata più grossa.
Se volete sapere Yossarian lo seguo da diversi anni a questa parte ed è sempre stato perfettamente imparziale e mai di parte.
Quindi evitamio di dire cavolate.
Se volete sapere(yoss penso che confermerai) nel 2004 disse che l'architettura di NV40 era migliore di quella di R420. Alla faccia di essere di parte Ati.:D
non posso che confermare; e la dimostrazione è che molto dell'architettura di NV40 è ancora presente in GT200 (lo stesso non si può dire di quella di R4x0 e RV770). Questo nonostante i bench dell'epoca, con sm2.0, dessero in massima parte in leggero vantaggio il chip ATi.
MiKeLezZ
13-10-2008, 22:22
vroom vroom
http://it.youtube.com/watch?v=7h3vUEYaLYs&feature=related
per quelli che dicono che "le tesi sono inutili perchè ci sono dei test a confutarle"
avete fatto i test con lo stesso dissipatore?
no, vero?
capite allora perchè una scheda che consuma di più magari scalda meno? anzi, scalda di più. viene misurato meno calore semplicemente perchè il dissipatore è migliore
per quanto sopra, mi trovo d'accordo sia con mikelezz che con blackshard, anche se a volte non sono proprio d'accordo con tutto. comunque, apportando le migliorie architettoniche che hanno permesso ad ati di vincere la sfida prezzo-prestazioni-consumi-temperatura con hd4870/gtx280, nvidia dovrebbe portarsi al passo di ati. stiamo a vedere i prezzi
ciao
Restano pur sempre delle dilettanti rispetto al buon vecchio capostipite :D
http://www.overclockers.ru/images/news/2003/01/29/blower_01.jpg
:D :D
7800GT
8800GTS
HD3870
Ecco le schede che ho avuto negli ultimi 12 mesi.
Indovinate qual è la più silenziosa? ;)
Mi piace la gente che parla senza averle nemmeno provate.
Mister Tarpone
13-10-2008, 23:06
vroom vroom
http://it.youtube.com/watch?v=7h3vUEYaLYs&feature=related
http://www.youtube.com/watch?v=u7qEmlrtwwI&feature=related :ops2:
:sbonk: :sbonk: :sbonk:
:sbonk: :sbonk: :sbonk:
:sbonk: :sbonk: :sbonk:
ladypeche
14-10-2008, 01:39
piu che futuro io lo chiamerei (attimo)si xchè prima uscirà la 290 con clok .....poi la stessa sara la 295 con ......+ se volessero sia invidia che ati potrebbero buttare 1a scheda 2 volte + potente dell ultima fatta ma non xche sono dei gegni (x il fatto che l'hanno già nel loro cassetto )ma xche vogliono farci comprare la stessa cosa x piu volte .gia 1 giorno invidia il giorno dopo ati
oggi + bravo io domani + bella tu .
Comunque sono sicuramente delle belle schede
gianni1879
14-10-2008, 08:20
http://www.youtube.com/watch?v=u7qEmlrtwwI&feature=related :ops2:
:sbonk: :sbonk: :sbonk:
:sbonk: :sbonk: :sbonk:
:sbonk: :sbonk: :sbonk:
vabbè ventola a 100% grazie al piffero...
ma che fate a gara?
Mister Tarpone
14-10-2008, 08:22
ma che fate a gara?
si :asd:
Ati ha diminuito le prestazioni con Furmark perchè non vuole far vedere quanto consumano veramente le loro schede video e che il TDP dichiarato è piuttosto "ottimistico".
Se è importante conoscere il consumo della scheda durante l'uso "quotidiano", lo è altrettanto conoscere quello massimo, esattamente come avviene con le cpu.
Perchè bisogna sempre porsi nell'ipotesi che un domani possa uscire un gioco o un'applicazione di gpgpu che sfrutti veramente le capacità di calcolo della scheda video, che poi è quello che un po' tutti auspicano.
Se la Ati teme che le sue schede "surriscaldino" con Furmark, non è colpa del programma, ma che il dissipatore non è correttamente dimensionato, o il settaggio della ventola è sbagliato.
In questo test, si nota quanto consumano veramente le schede:
http://www.pcgameshardware.de/aid,660007/Test/Benchmark/Leistungsaufnahme_von_Grafikkarten_im_Vergleich/?page=2
c'è una bella differenza.
gianni1879
14-10-2008, 09:13
FurMark è un test un pò esagerato, addirittura porta temp superiori ad AtiTool di diversi gradi durante la sua esecuzione, nessun gioco stressa la vga in questa maniera assurda.
Usarlo solo per il gusto di veder a quanto arriva la vga è un pò masochistico, in ogni caso il problema si potrebbe porre per le vga con dissy reference, in particolare le HD4850, ma tutte le altre questo problema non si pone assolutamente, io con la mia arrivo con questo test (exe rinominato) tra 48/50°, che mi sembrano temp più che accettabili.
Poi dai catalyst 8.10 in poi sarà possibile variare la rotazione della ventola anche da CCC, senza bisogno di programmi esterni, se non vi piacciono le temperature, dato che per la maggior parte dei dissy standard è stato scelto un profilo moolto silenzioso ed ovviamente la vga scalda tantissimo, ma nulla di preoccupante con i normali games, alcuni hanno usato quel test danneggiando la vga senza preoccuparsi di alzare la ventolina a livello di rpm, Ati secondo me è intervenuta proprio per questo motivo e non certo per far vedere meno i propri consumi.
Ma evitare di danneggiare vga inutilmente
netcrusher
14-10-2008, 10:18
Il ragionamento che state tutti facendo non tiene conto di una cosa, noi consumatori, siamo noi a decretare le vittorie ed i fallimenti di hardware e software, dobbiamo ben comprendere il potenziale che possediamo e dire di no a proposte del mercato assolutamente assurde, se Nvidia fino ad oggi monopolizzava il mercato sparando prezzi al limite della realtà era perchè le persone compravano e zitte, ora Ati con prezzi ridicoli offre soluzioni che spaccano, però se Ati comincerà a monopolizzare non si comporterà tanto diversamente da Nvidia quindi dovremo essere noi a non comprare future schede a prezzi da rapina........è solamente colpa nostra, loro fanno comunella facciamola anche noi vediamo chi la spunta........
Nessun gioco o applicazione gpgpu ATTUALE sfrutta la scheda come Furmark, ma non si può escludere per il futuro. Il punto è questo.
Ecco il senso di applicativi come il Furmark.
Modificare il profilo dei driver per abbassare le prestazioni ed il relativo consumo, è solo un patetico tentativo di nascondere il problema.
Se domani esce un'utility per l'encoding video HD che sfrutta sapientemente tutte le SU della RV770 come si spera, che fa' Ati, modifica il profilo dai CCC per evitare che si surriscaldi?
Anch'io pensavo che Prime95 fosse il test definitivo per la cpu, poi ho scoperto Linpack, che è molto più gravoso, non solo per la cpu, ma per chipset e memorie, e la temperatura raggiunta è diversi gradi più elevata. E Linpack non è solo un test.
gianni1879
14-10-2008, 11:17
alzare la ventolina no??
comprare una sk con dissy non standard no?
l'operazione di Ati non è diminuire il consumo, ma proprio le temp con questa applicazione visto che qualcuna è morta, fino a prova contraria ci si gioca, non ci si fa girare furmark tanto per divertimento.
Quando i giochi saranno così pesanti da esser come furmark, cosa leggermente impossibile, la vga non sarà nemmeno adatta a farlo girare.
Ed attualmente il problema non si pone, volete basso rumore tenetevi le temp alte, altrimenti ci sono altre soluzioni.
se uno risparmia e poi si lamenta delle alte temp ma che senso ha?
e ripeto nessun gioco la scalda così tanto, nemmeno AtiTool
Esiste anche IteL Burning test.
Poi quanti riviste/siti utilizzano FurMark per testare l'affidabilità? provato in prima persona e non è nemmeno un test affidabile, dipende le impostazioni i risultati possono anche cambiare
MiKeLezZ
14-10-2008, 11:39
Linpack è usato anche per saggiare le potenzialità CUDA delle VGA NVIDIA, per dire.
Il problema ATI è piuttosto grave poichè non si parla semplicemente di qualche grado in più o in meno, ma evitare che la VGA raggiunga una soglia (neppure così difficile da raggiungere, basta un banale applicativo 3D di pochi MB) sopra la quale è possibile che, per un motivo (GPU) o per l'altro (PWM) se ne vada al creatore.
Ciò fa anche pensare alla veridicità di alcune affermazioni di noti esponenti, come ad esempio "non preoccuparti delle alte temperature, tanto fino a 125°c non succede nulla" ... hmm ...
Ne varrà la pena? Chi più spende, sempre più spesso, meno spende ...
Alzare la ventolina?
C'è il settaggio automatico, non è un problema che dovrebbe riguardare l'utente.
E' necessario un dissy no standard per non surriscaldare?
Vuol dire che non è dimensionato correttamente, perchè infatti il problema si presenta solo sulle RV770.
Continui a non capire il problema. Se l'hw si surriscalda con un sw, non è colpa del sw.
Quest'ultimo sta' facendo il suo dovere di sfruttarlo al meglio delle sue capacità.
E' stato creato per quel preciso scopo.
Poi continui a parlare che non usciranno giochi e magari applicazioni che sfruttano l'hw come Furmark: hai la sfera di cristallo?
Per anni gente accusava Prime95 di essere esagerato nello stressare la cpu, addirittura di "dare errori" su cpu non overcloccate (ma raffreddate da cani) e chi se ne frega, perchè tanto nessuna applicazione reale avrebbe raggiunto quel genere di stress. Sbagliavano.
Nota: l'IntelburnTest è basato proprio sul Linpack a cui accennavo.
yossarian
14-10-2008, 12:02
Ati ha diminuito le prestazioni con Furmark perchè non vuole far vedere quanto consumano veramente le loro schede video e che il TDP dichiarato è piuttosto "ottimistico".
Se è importante conoscere il consumo della scheda durante l'uso "quotidiano", lo è altrettanto conoscere quello massimo, esattamente come avviene con le cpu.
Perchè bisogna sempre porsi nell'ipotesi che un domani possa uscire un gioco o un'applicazione di gpgpu che sfrutti veramente le capacità di calcolo della scheda video, che poi è quello che un po' tutti auspicano.
Se la Ati teme che le sue schede "surriscaldino" con Furmark, non è colpa del programma, ma che il dissipatore non è correttamente dimensionato, o il settaggio della ventola è sbagliato.
In questo test, si nota quanto consumano veramente le schede:
http://www.pcgameshardware.de/aid,660007/Test/Benchmark/Leistungsaufnahme_von_Grafikkarten_im_Vergleich/?page=2
c'è una bella differenza.
vero; anche con la 8800 ultra, ad esempio, c'è una bella differenza. :D
E comunque il consumo è relativo all'intero sistema di test (kompletten pc gemessen)
a volerne trovare, ne trovi quanti ne vuoi e ce n'è per tutti.
http://www.beyond3d.com/content/reviews/42/13
(da notare l'ultima tabella, quella relativa al rumore).
Riassumendo:
le ATi consumano tanto (ma dalle tabelle postate sembrerebbe che anche la nVIDIA consumino tanto; la serie gt200 consuma poco in idle, ma in full load consuma più di RV770)
Le ATi scaldano (ma sembrerebbe anche le nVIDIA, sempre stando ai dati postati da voi)
Le Ati fanno rumore (stesso dicasi per le nVIDIA, vedi i video di 8800 GT e, soprattutto FX5800 Ultra :D ).
I giochi del futuro saranno stressanti quanto furmark? Può darsi, ma non nell'immediato e mi pare che più di qualcuno sosteneva l'inutilità delle dx10.1 su questa generazione di schede perchè quando saranno utilizzate avremo tutti cambiato scheda video. Allora mettiamola così: quando i motori grafici saranno pesanti come furmark, avremo tutti cambiato VGA, quindi, al pari delle dx10.1, non è un parametro di valutazione valido. :D
Infine, quando si parla di difetti, da non dimenticare i chip grafici per portatili che si surriscaldano e si fondono sul serio e non solo con furmark (a causa del packaging scadente e non del dissipatore sottodimensionato, il che è molto peggio).
Se volete continuare questa sterile polemica atta a dimostrare il nulla, accomodatevi pure :sofico:
MiKeLezZ
14-10-2008, 12:09
Francamente mi sfugge il perchè (o meglio, lo so, ma taccio) vengano fatti confronti di VGA NVIDIA datate rispettivamente 2004 (6800) e 2006 (8800 G80) contro VGA ATI datate 2008 (HD4870)
Buon amarcord, per chi ha voglia
Saluti
yossarian
14-10-2008, 12:11
Francamente mi sfugge il perchè (o meglio, lo so, ma taccio) vengano fatti confronti di VGA NVIDIA datate rispettivamente 2004 (6800) e 2006 (8800 ULTRA) contro VGA ATI datate 2008 (HD4870)
Buon amarcord, per chi ha voglia
Saluti
perchè di vga nVIDIA nuove ci sono solo quelle della serie Gt200 (che consumano più delle ATi).
Al contrario, nelle fasce entry e mainstream, ci sono ancora gpu di vecchia generazione, come pure sui portatili (apple, sony, hp, ecc. http://www.hwupgrade.it/news/business/chip-difettosi-di-nvidia-emergono-anche-su-alcuni-desktop-hp_26823.html, ecc.)
Poi, volendo, vi si potrebbe girare la domanda e chiedervi perchè parlate del rumore di vga vecchie (2900)
E soprattutto, mi sfugge il motivo per cui più di qualcuno si affanni tanto a gettare fango su ATi/AMD facendo passare, invece, per perfetto tutto ciò che fa nVIDIA.
gianni1879
14-10-2008, 12:29
Alzare la ventolina?
C'è il settaggio automatico, non è un problema che dovrebbe riguardare l'utente.
E' necessario un dissy no standard per non surriscaldare?
Vuol dire che non è dimensionato correttamente, perchè infatti il problema si presenta solo sulle RV770.
Continui a non capire il problema. Se l'hw si surriscalda con un sw, non è colpa del sw.
Quest'ultimo sta' facendo il suo dovere di sfruttarlo al meglio delle sue capacità.
E' stato creato per quel preciso scopo.
Poi continui a parlare che non usciranno giochi e magari applicazioni che sfruttano l'hw come Furmark: hai la sfera di cristallo?
Per anni gente accusava Prime95 di essere esagerato nello stressare la cpu, addirittura di "dare errori" su cpu non overcloccate (ma raffreddate da cani) e chi se ne frega, perchè tanto nessuna applicazione reale avrebbe raggiunto quel genere di stress. Sbagliavano.
Nota: l'IntelburnTest è basato proprio sul Linpack a cui accennavo.
mi dici chi usa furmark?
hai dimenticato le 8800gt single slot quanto raggiungevano in full? era inadeguato anche quello?
il problema di surriscaldamento lo presenta solo la hd4850 single slot reference e non tutte le altre.
Se preferisci una vga silenziosa, guarda caso la scelta di Ati, Non puoi pretendere di avere ottime temp. guardiamo anche le soluzioni passive
Non capisco poi perchè sE uno conosce i difetti di queste reference deve scegliere proprio queste a tutti i costi? il mercato ha tante soluzioni personalizzate con dissy ottime, perchè questa ostinazione? solo sE ci sono esigenze particolari di solito si va sulla single slot e poi i prezzi, ma li avete visti?, spesso sono allo stesso prezzo o poco più, mica te li fanno pagare 30? in più.
x yossarian: lo so' che il pc completo.
Ma viene riportato anche il consumo di una Mb con video integrato, il conto è presto fatto e ci si può accorgere facilmente delle differenze tra TDP dichiarati e consumi reali e come funziona Furmark.
Ma volendo c'è quest'altro test, con HL2, visto che il Furmark a te non va' bene
http://www.techreport.com/articles.x/15651/11
Al resto del tuo post polemico, manco rispondo.
E' solo perdita di tempo.
leoneazzurro
14-10-2008, 12:54
Stop alle polemiche. Non fatemi ripetere, per piacere.
Athlon 64 3000+
14-10-2008, 13:01
edit.
yossarian
14-10-2008, 13:05
x yossarian: lo so' che il pc completo.
Ma viene riportato anche il consumo di una Mb con video integrato, il conto è presto fatto e ci si può accorgere facilmente delle differenze tra TDP dichiarati e consumi reali e come funziona Furmark.
Ma volendo c'è quest'altro test, con HL2, visto che il Furmark a te non va' bene
http://www.techreport.com/articles.x/15651/11
Al resto del tuo post polemico, manco rispondo.
E' solo perdita di tempo.
vedo una differenza di 107 watt per la 4870, 104 per la 4870x2 e di 69 per la 280 GTX tra i dati postati sull'altra review per il TDP e quelli relativi al consumo dell'intero sistema di questa review.
Vedo che la 4870 (da 1 GB) fa meno rumore della 280 GTX e raggiunge la stessa temperatura. Vedo che la 280 GTX fa rumore quanto una 4870x2, ma raggiunge temperature più alte.
Che altro dovrei vedere?
Infine, quando si parla di difetti, da non dimenticare i chip grafici per portatili che si surriscaldano e si fondono sul serio e non solo con furmark (a causa del packaging scadente e non del dissipatore sottodimensionato, il che è molto peggio).
Si ma, il dissipatore lo scegli ed è voluto, il problema del packaging no
yossarian
14-10-2008, 13:45
Si ma, il dissipatore lo scegli ed è voluto, il problema del packaging no
sui dissipatori si danno indicazioni di massima a chi li realizza; il packaging lo si concorda con la fonderia (in pratica è chi progetta i chip che sceglie il tipo di interfaccia con le metallizzazioni tra quelle presenti nella libreria della fonderia da cui ci si serve).
hai ragione .. maledetti luoghi comuni :D
http://it.youtube.com/watch?v=Q-YiujI25mU
Qui si setta la ventola manualmente, nell'utilizzo reale la ventola dell'8800GT non raggiunge mai soglie di rumore così elevate a differenza della 2900
Pero questa resterà negli annali
http://it.youtube.com/watch?v=eYWaUJakMfg
Qui il problema c'è davvero come sulla 2900 Xt
sui dissipatori si danno indicazioni di massima a chi li realizza; il packaging lo si concorda con la fonderia (in pratica è chi progetta i chip che sceglie il tipo di interfaccia con le metallizzazioni tra quelle presenti nella libreria della fonderia di cui si serve).
Vero, ma per testare il dissipatore e accorgersi della sua inadeguatezza bastavano 24h/48h per testare il packaging e sperimentare i primi cedimenti servono mesi
yossarian
14-10-2008, 14:00
Vero, ma per testare il dissipatore e accorgersi della sua inadeguatezza bastavano 24h/48h per testare il packaging e sperimentare i primi cedimenti servono mesi
Non si tratta di testare i cedimenti ma il raggiungimento di temperature critiche che potrebbero indurre "rotture" (e non si parla dei 90 o 100°C ma molti di più). Per fare questo basta molto meno.
Inoltre, quando si mette un chip in commercio ci si deve accertare che funzioni correttamente e nVIDIA non è nuova a situazioni del genere (è il caso di ricordare le 7800 GTX 512 MB e il MTBF stimato?).
In ogni caso, non c'è motivo alcuno per assolvere nVIDIA se i chip commercializzati sono difettosi. Ed è lei che dovrà occuparsi delle garanzie e dei risarcimenti, non certo TSMC.
x yossarian: rileggiti attentamente i test di pcgameshardware.
Dal genere di risposta che hai dato, non l'hai fatto.
Ci sono tutti i valori che servono che confrontare TDP e consumi reali.
Poi stai comparando la HD4870 con la GTX 280, quando va comparata come prezzo/prestazioni e consumi, con le 260 GTX.
x gianni1879: se nessuno usa Furmark, perchè Ati ha creato un profilo ad hoc di quel genere?
Non ce ne sarebbe ragione.
Se non ci sono rischi di temperatura per la scheda, allora perchè curarsene.
E guarda, io fin dalla prima recensione della HD4850 (ci sono i post a riprova), l'UNICA COSA che ho sempre criticato di quella scheda è proprio il dissipatore single slot, dicendo a tutti di aspettare proprio i dissipatori custom.
Forse perchè, avendo avuto in serie x800XL, x1800XL e x1900AIW so' benissimo quali sono i problemi di quel genere di dissipazione.
Non si tratta di testare i cedimenti ma il raggiungimento di temperature critiche che potrebbero indurre "rotture" (e non si parla dei 90 o 100°C ma molti di più). Per fare questo basta molto meno.
Inoltre, quando si mette un chip in commercio ci si deve accertare che funzioni correttamente e nVIDIA non è nuova a situazioni del genere (è il caso di ricordare le 7800 GTX 512 MB e il MTBF stimato?).
In ogni caso, non c'è motivo alcuno per assolvere nVIDIA se i chip commercializzati sono difettosi. Ed è lei che dovrà occuparsi delle garanzie e dei risarcimenti, non certo TSMC.
Ti assicuro che non intendevo certo difendere NVIDIA su questo punto, e trovo logico sia NVIDIA (e non TSMC o UMC) tramite i suoi partner (HP, Dell, Asus, ecc..) a riparare i problemi delle sue GPU.
Ma non si può non biasimare AMD per aver selezionato un dissipatore inadeguato alle caratteristiche dei suoi ultimi prodotti o dire che basta cambiare dissipatore o aumentare la rotazione della ventola dato che i problemi insorgono con la scheda perfettamente nelle specifiche del produttore.
gianni1879
14-10-2008, 14:37
ho detto quanti lo usano, non che non lo usa nessuno. Ho detto che i problemi ci sono stati ma solo con furmark e solo con la single slot. Ati è cmq andata ai ripari (ma non pe ingannare i consumi, ma per evitare questi eccessivi surriscaldamenti anche della sezione alimentazione, infatti i problemi sono derivati da lì, Non dalla gpu), rompere una vga solo per vedere quanti gradi si fanno, ne che sia il max, pure io ho avuto vga sia single slot che dual, so cosa significa, sia per Ati che Nvdia ( ho avuto una 8800gts 640mb).
Anche a me non piacciono le single slot ma per altri motivi, ti posso assicurare che rv770 almeno nella hd4850 scalda decisamente meno rispetto ad es a r580 (so cosa significa rumorosità con quella vga con quella specie di turbina, ottimo dissy ma tremendamente rumoroso)
yossarian
14-10-2008, 15:05
Ti assicuro che non intendevo certo difendere NVIDIA su questo punto, e trovo logico sia NVIDIA (e non TSMC o UMC) tramite i suoi partner (HP, Dell, Asus, ecc..) a riparare i problemi delle sue GPU.
Ma non si può non biasimare AMD per aver selezionato un dissipatore inadeguato alle caratteristiche dei suoi ultimi prodotti o dire che basta cambiare dissipatore o aumentare la rotazione della ventola dato che i problemi insorgono con la scheda perfettamente nelle specifiche del produttore.
allora siamo d'accordo sul fatto che AMD sia da biasimare per il dissipatore inadeguato della 4850 (che scalda con furmark, oppure diventa rumorosa) e che nVIDIA sia da biasimare per la scelta inadeguata del packaging per almeno alcune serie dei suoi chip.
sniperspa
14-10-2008, 15:07
:eek: :eek:
Ancorra quà discutere sulla rumorosità della 2900xt???:asd::asd::asd:
Ma qualcuno di voi l'ha almeno avuto sta scheda????:muro: :fagiano:
yossarian
14-10-2008, 15:12
x yossarian: rileggiti attentamente i test di pcgameshardware.
Dal genere di risposta che hai dato, non l'hai fatto.
Ci sono tutti i valori che servono che confrontare TDP e consumi reali.
i test li conosco fin troppo bene e il confronto tra tdp e consumi reali mi dice che c'è una differenza di 30 W in più circa tra le ATi e le nVIDIA (ovvero tra quanto dichiarato e i valori reali; non mi pare questo grande scandalo e comunque i consumi delle nVIDIA sono più elevati, indipendentemente dal tdp dichiarato e non può che essere così)
Poi stai comparando la HD4870 con la GTX 280, quando va comparata come prezzo/prestazioni e consumi, con le 260 GTX.
sto comparando la 4870 1 GB che è superiore alla 4870 da 512 MB e, di conseguenza, alla 260; inoltre ho anche fatto una comparazione tra la 4870x2 e la 280 e, dai dati che hai postato, non mi pare che la 280 ne esca benissimo (soprattutto se consideriamo anche le differenze prestazionali); l'unica cosa in cui è in vantaggio sono i consumi ma in quanto a rumore e temperature pare perda il confronto
ho detto quanti lo usano, non che non lo usa nessuno. Ho detto che i problemi ci sono stati ma solo con furmark e solo con la single slot. Ati è cmq andata ai ripari (ma non pe ingannare i consumi, ma per evitare questi eccessivi surriscaldamenti anche della sezione alimentazione, infatti i problemi sono derivati da lì, Non dalla gpu), rompere una vga solo per vedere quanti gradi si fanno, ne che sia il max, pure io ho avuto vga sia single slot che dual, so cosa significa, sia per Ati che Nvdia ( ho avuto una 8800gts 640mb).
Anche a me non piacciono le single slot ma per altri motivi, ti posso assicurare che rv770 almeno nella hd4850 scalda decisamente meno rispetto ad es a r580 (so cosa significa rumorosità con quella vga con quella specie di turbina, ottimo dissy ma tremendamente rumoroso)
Il problema non è solo con il furmark ma anche con Quake War che non è usato certo poco.
Il problema causa rotture sia dei componenti dedicati all'alimentazione sia della GPU.
http://en.expreview.com/img/2008/08/26/numbers.png
Athlon 64 3000+
14-10-2008, 15:15
il Problema della HD 4870 e HD 4850 sono che al momento non hanno ancora attivato il powerplay e il basso regime di rotazione della ventola.
Per esempio basta mettere con la Hd 4850 la ventola al 30% e gia le temperature di abbassano in idle notevolemente.
Altro problema sono gli elevati consumi in idle della 2 soluzioni su RV770 visto che per esempio la HD 4870 consumi in idle quasi come la HD 2900XT proprio perchè non hanno ancora attivato il powerplay quegli ebeti di AMD.
Athlon 64 3000+
14-10-2008, 15:17
:eek: :eek:
Ancorra quà discutere sulla rumorosità della 2900xt???:asd::asd::asd:
Ma qualcuno di voi l'ha almeno avuto sta scheda????:muro: :fagiano:
Io si,era a riposo più silenzione della X1900XT,ma era più casinara quando era sotto sforzo.
Mi stava in idle a 70 gradi e mi è durata poco più di un anno prima che mi si spaccasse.
Mercuri0
14-10-2008, 15:22
x gianni1879: se nessuno usa Furmark, perchè Ati ha creato un profilo ad hoc di quel genere?
Non ce ne sarebbe ragione.
Se non ci sono rischi di temperatura per la scheda, allora perchè curarsene.
Ma per la miseria, il produttore può ben decidere di raffreddare la scheda via driver!!!
Le prestazioni con furmark delle Radeon sono state fissate da AMD a un certo valore: chi avesse bisogno di prestazioni maggiori con furmark, deve cercarsi un'altra scheda.
L'altro problema è che il castramento di furmark via driver lo invalida come test di consumi/temperatura: è quindi il caso di cercarne un altro. (io direi, come sempre dico, scenari reali.)
p.s. Le Radeon funzionano correttamente fino a 105°, fino a 125° soffrono, sopra esplodono.
Mercuri0
14-10-2008, 15:26
allora siamo d'accordo sul fatto che AMD sia da biasimare per il dissipatore inadeguato della 4850 (che scalda con furmark, oppure diventa rumorosa) e che nVIDIA sia da biasimare per la scelta inadeguata del packaging per almeno alcune serie dei suoi chip.
La differenza, a dire il vero, è che nel primo caso è una scelta, nel secondo un errore.
Alla AMD hanno ben pensato (lo sappiamo da interviste ufficialI) che per la maggior parte dei suoi clienti quel dissipatore fosse sufficiente, e hanno regolato la velocità della ventola (e quindi la temperatura) come la maggior parte dei suoi clienti preferisce: silenziosa, nei limiti di tolleranza della GPU.
Chi avesse altre necessità, può
- Comprare una scheda ATI con dissipatore non reference.
- Comprare una scheda nVidia.
Del resto AMD non avrebbe problemi a fare un raffreddamento a liquido, tanto sono tutti costi che finiscono sugli utenti. Utenti che tra una scheda reference con dissipatore scrauso e una non rereference superraffreddata, prendono quella che costa di meno. (e fanno bene, perché a loro di furmark non gliene frega niente)
Ma per la miseria, il produttore può ben decidere di raffreddare la scheda via driver!!!
Le prestazioni con furmark delle Radeon sono state fissate da AMD a un certo valore: chi avesse bisogno di prestazioni maggiori con furmark, deve cercarsi un'altra scheda.
L'altro problema è che il castramento di furmark via driver lo invalida come test di consumi/temperatura: è quindi il caso di cercarne un altro. (io direi, come sempre dico, scenari reali.)
p.s. Le Radeon funzionano correttamente fino a 105°, fino a 125° soffrono, sopra esplodono.
Certo che può, ma ciò non toglie che abbia un problema di dissipazione con le proprie schede.
E se qualcuno sviluppasse un altro benchmark o un gioco con un motore grafico simile a quello del Furmark?
Che succederebbe?
Si dovrebbero aspettare che AMD inserisca nei profili un rallentamento?
E nel frattempo cosa succede?
E chi non aggiorna continuamente i driver?
La strada intrapresa da AMD non è certo una buona soluzione e non è a mio avviso minimamente condivisibile.
Dovrebbe imporre l'abbandono del dissipatore reference
sniperspa
14-10-2008, 15:41
Io si,era a riposo più silenzione della X1900XT,ma era più casinara quando era sotto sforzo.
Mi stava in idle a 70 gradi e mi è durata poco più di un anno prima che mi si spaccasse.
Bè dai...almeno uno :p
Cmq sia io la vedo così:con ati molto spesso si risparmia ma se non si fa qualche ritocco(ad esempio al bios) si rischia di aver qualche problemino soprattutto di temperature con le ultime schede...nvidia la vedo(parere personale) più una marca per l'utente medio che magari non ha voglia di smanettare con bios e non gliene frega di sapere se la gpu sta a 100° o 40°
Sotto un certo aspetto considero le vga nvidia più complete...
il Problema della HD 4870 e HD 4850 sono che al momento non hanno ancora attivato il powerplay e il basso regime di rotazione della ventola.
Per esempio basta mettere con la Hd 4850 la ventola al 30% e gia le temperature di abbassano in idle notevolemente.
Altro problema sono gli elevati consumi in idle della 2 soluzioni su RV770 visto che per esempio la HD 4870 consumi in idle quasi come la HD 2900XT proprio perchè non hanno ancora attivato il powerplay quegli ebeti di AMD.
Ma si sa il perchè di questa mancanza???azzo non è una cosa da poco il mancato powerplay....personalmente se avessi avuto per mano quelle schede avrei cambiato bios per tenere le temperature un pò più basse(o cambiato dissi) e magari avrei creato un buon profilo con frequenze in idle abbassate...per uno che se la passa a fare queste cose risparmia divertendosi per un non appassionato invece c'è solo il rischio di rovinare la vga se è proprio come dite :rolleyes:
Mercuri0
14-10-2008, 15:48
La strada intrapresa da AMD non è certo una buona soluzione e non è a mio avviso minimamente condivisibile.
Dovrebbe imporre l'abbandono del dissipatore reference
Buh, secondo me la maggior parte dei clienti sarà contentissima di avere il dissipatore reference per tutto il ciclo di vita della scheda, e sopratutto di non aver speso un euro in più per averne uno migliore.
Una scelta di questo tipo è dettata da chi compra, non da chi produce.
Chi produce cerca sempre di farlo "al minor costo sufficiente" per garantire degli standard di affidabilità.
p.s. Persino gli ultimi Xeon esacore di lntel hanno una funzione di raffreddamento attivo nei casi (si spera rari) in cui superano il TDP dichiarato. E anche in ogni portatile la CPU che hai non sai mai quanto in effetti andrà, per lo stesso motivo. Il problema non è tanto che sia sbagliato usare forme di raffreddamento attivo, ma più che altro che è difficile leggere le specifiche (non ci si può fidare dei "megaherz" sull'etichetta di un portatile, perché cambiano tra estate ed inverno).
Nel caso delle Radeon la cosa fortunatamente è limitata al furmark, e del resto le prestazioni di una GPU le puoi giudicare solo da un mix di bench di giochi differenti. Credo che chi sia interessato al furmark lo sappia, e farò in modo di informare del "problema" chiunque mi chiedesse pareri :)
Mercuri0
14-10-2008, 15:54
Ma si sa il perchè di questa mancanza???azzo non è una cosa da poco il mancato powerplay....personalmente se avessi avuto per mano quelle schede avrei cambiato bios per tenere le temperature un pò più basse(o cambiato dissi) e magari avrei creato un buon profilo con frequenze in idle abbassate...per uno che se la passa a fare queste cose risparmia divertendosi per un non appassionato invece c'è solo il rischio di rovinare la vga se è proprio come dite :rolleyes:
Per il powerplay non so. Per le temperature hanno testato la massima temperatura che la scheda può sopportare senza problemi per tutta la sua vita (105°) hanno scelto decine di gradi di sicurezza che non si sa mai, e hanno messo la ventola al regime meno rumoroso che facesse rientrare la scheda nella temperatura.
Comunque mi sembra stiano mettendo un opzione nel pannello di controllo dei driver per modificare facilmente la velocità di rotazione per gli utenti smanettoni.
sniperspa
14-10-2008, 16:05
Per il powerplay non so. Per le temperature hanno testato la massima temperatura che la scheda può sopportare senza problemi per tutta la sua vita (105°) hanno scelto decine di gradi di sicurezza che non si sa mai, e hanno messo la ventola al regime meno rumoroso che facesse rientrare la scheda nella temperatura.
Comunque mi sembra stiano mettendo un opzione nel pannello di controllo dei driver per modificare facilmente la velocità di rotazione per gli utenti smanettoni.
Bè ma se i rischi ci sono solo con Furmark non vedo problemi...:fagiano:
L'unico problema secondo me è il mancato powerplay...
Per il powerplay non so. Per le temperature hanno testato la massima temperatura che la scheda può sopportare senza problemi per tutta la sua vita (105°) hanno scelto decine di gradi di sicurezza che non si sa mai, e hanno messo la ventola al regime meno rumoroso che facesse rientrare la scheda nella temperatura.
Comunque mi sembra stiano mettendo un opzione nel pannello di controllo dei driver per modificare facilmente la velocità di rotazione per gli utenti smanettoni.
Evidentemente le decine di gradi di sicurezza non sono sufficienti per il furmark, e se qualcuno sviluppa un applicativo simile? non mi sembra un ipotesi cosi remota.
Quante schede rischieranno seriamente di bruciarsi prima cha AMD sviluppi un apposito profilo, considerando che la maggior parte delle persone non aggiorna i driver regolarmente?
gianni1879
14-10-2008, 16:34
Il problema non è solo con il furmark ma anche con Quake War che non è usato certo poco.
Il problema causa rotture sia dei componenti dedicati all'alimentazione sia della GPU.
http://en.expreview.com/img/2008/08/26/numbers.png
non ho capito perchè mi vieni a proporre il grafico a me?
devo far i gli screen dove non supero i 48/49°? tanto per precisare nella mia vga con l'exe non rinominato la differenza è 4/5°.
Furmark l'ho provato in tutte le salse, sai cosa succede se attivi msaa 8x?
Le cose prima di parlare provatele...
poi mi dici dove ci sono dei casi di fusione di rv770?
ti dico invece che sono saltate molte powercolor nella sezione alimentazione, e non è certo per colpa di Ati
yossarian
14-10-2008, 16:42
Evidentemente le decine di gradi di sicurezza non sono sufficienti per il furmark, e se qualcuno sviluppa un applicativo simile? non mi sembra un ipotesi cosi remota.
Quante schede rischieranno seriamente di bruciarsi prima cha AMD sviluppi un apposito profilo, considerando che la maggior parte delle persone non aggiorna i driver regolarmente?
seriamente: quante 4850 si sono "bruciate" finora? Hai sentito parlare di un'azione, analoga a quella dei produttori di portatili nei confronti dei chip nVIDIA, per eccessiva moria di 4850? Hai sentito di produttori che si rifiutano di fare 4850? Tra l'altro, nessuno obbliga i produttori di vga ad utilizzare dissi di tipo reference e neppure ad adottare pcb di tipo reference
Tra l'altro, mi continua a sfuggire (in realtà lo so) il motivo per cui è da 4 pagine che si è montato un caso su un evento di poco conto, come la vicenda furmark con le 4850, andando ampiamente OT e glissando, invece, su un problema serio, conclamato e di cui nVIDIA non ha ancora fatto lumi sulla reale portata (quello dei chip per portatili fallati). E quando se ne è parlato, si è tentato in tutti i modi di minimizzare e di giustificare il comportamento di nVIDIA. Gradirei che qualcuno mi illuminasse su ciò.
In caso contrario, direi di porre fine a questo lungo, tedioso e inconcludente OT
appleroof
14-10-2008, 17:20
hai ragione .. maledetti luoghi comuni :D
http://it.youtube.com/watch?v=Q-YiujI25mU
Pero questa resterà negli annali
http://it.youtube.com/watch?v=eYWaUJakMfg
la differenza tra fare polemica fanboistica e cercare di discutere, con tutti i limiti del mondo che mi appartengono, stà in questo tuo post di risposta al mio, per i seguenti semplici motivi, secondo me:
a) mi metti in campo la 8800gt che ha un dissipatore single slot; la 2900xt ne ha uno doppio slot, per conformazione i primi sono per forza più rumorosi dei secondi, e sono stato anche "buono" a non postare la cosa spaventosa che è la versione OEM, visto che cmq interessa davvero una fetta minima di utenti http://dailymotion.alice.it/related/x1xzw0_hd-2900xt-in-action_tech/video/x3tmy6_ati-hd-2900xt-sechecheveux_tech?from=rss (ovviamente la 4870 da questo punto di vista non fà meglio, al limite peggio, della 2900xt retail http://dailymotion.alice.it/related/x603nt_test-amd-radeon-hd-4870_tech/video/x6v08a_le-bruit-de-la-radeon-4870_tech?from=rss ) ;
b) mi cacci un vecchio cavallo di battaglia dei fanboy rossi (evidentemente dopo quello non hanno più avuto altrettante "soddisfazioni", devo pensare..) quando tutto il discorso che facevo con l'utente yossarian verteva sulle ultime schede Ati ed Nvidia in particolare (rileggere bene sequenza di post precedenti al tuo, come prova), quindi completamente fuori dal discorso, quindi con chiaro intento polemico-fanboistico, appunto;
c) cercavo non di provocare, ma di dimostrare con i fatti, per quanto possibile virtualmente, che quello che yossarian e tu e altri chiamate "luogo comune" è invece un dato di fatto, e mi sembra che non riconoscerlo sia non tanto avere le proverbiali fette di prosciutto sugli occhi, ma, nel caso specifico, tappi di gomma nelle orecchie :D.
Vedo che non riuscite a cogliere il discorso di Furmark.
Si parlava consumi delle gpu (questo è IT, parlare delle gpu mobile fallate d'Nvidia è OT, visto che ci sono altre news e topic ancora aperti in cui discuterne, giusto per chiarire), di quanto scaldano , di quanto rumore fanno, ma come fate a parlarne se non sapete QUANTO consumano veramente?
Furmark è il programma che ad oggi dice spreme meglio la gpu per indicarne il consumo.
I test lo dimostrano.
Allo stesso identico modo di come, nelle recensioni delle cpu, usano Orthos o Prime95 per indicarne i consumi in full load.
Anche questo è un caso limite, lontano dall'uso "quotidiano" della maggior parte degli utenti, ma nessuno ne ha mai contestato la validità.
Ora se volete, continuate pure a parlare di performance/W, consumi e calore.
yossarian
14-10-2008, 22:04
Vedo che non riuscite a cogliere il discorso di Furmark.
Si parlava consumi delle gpu (questo è IT,
come fa ad essere IT parlare dei ocnsumi e delle temperature delle gpu ATi con una particolare applicazione in un thread intitolato GT200 a 55 nm le immagini del chip? Da quando ATi progetta le Geforce? Ok, prendiamola alla larga: la 55 nm dovrebbe consumare meno della 65 nm; quindi facciamo un paragone con i consumi delle ATi; allora possiamo parlare di ATi e di Furmark
parlare delle gpu mobile fallate d'Nvidia è OT,
se vale quanto sopra, vale anche questo ragionamento: gt200 lo produce nVIDIA; le gpu fallate anche; parlare delle gpu fallate è IT ed è un argomento molto più scabroso.
visto che ci sono altre news e topic ancora aperti in cui discuterne, giusto per chiarire),
strano che su furmark e le 4850 nessuno abbia ancora aperto un topic. Non ci posso credere; comunque si può sempre andare su quello ufficiale della 4850 :D
di quanto scaldano , di quanto rumore fanno, ma come fate a parlarne se non sapete QUANTO consumano veramente?
pechè tu sai quanto consumano e quanto scaldano veramente le nVIDIA? Non credo proprio e potresti avere delle grosse sorprese nel momento in cui si lanciasse qualche applicazione che va ad interferire, ad esempio, con i controlli di clock gating della gpu
Furmark è il programma che ad oggi dice spreme meglio la gpu per indicarne il consumo.
I test lo dimostrano.
sbagliato: furmark è solo il test che fa salire di più le temperature di alcuni circuiti delle 4850. Per la cronaca, le temperature di un chip non sono le stesse dappertutto e/o con tutte le applicazioni e ci sono chip che generano più calore in alcuni circuiti e altri che ne generano di più in altri. La temperatura che si rileva non è quella della gpu ma quella massima tra tutte quelle rilevate all'interno; il che non è indicativo del fatto che quel test stressi il chip ma solo che ne stressi in particolare una parte (e può farlo per svariati motivi).
Infine furmark non è paradigmatico di un bel niente, poichè non ci sono giochi basati sulle sue specifiche e non è detto che ce ne saranno.
Allo stesso identico modo di come, nelle recensioni delle cpu, usano Orthos o Prime95 per indicarne i consumi in full load.
furmark non è neppure nato come test per verificare i consumi in full load e non è neppure attendibile al riguardo (leggi quanto scritto da gianni che ha una 4850 e ha provato furmark).
Anche questo è un caso limite, lontano dall'uso "quotidiano" della maggior parte degli utenti, ma nessuno ne ha mai contestato la validità.
questo è il caso di un programma usato impropriamente perchè nato per altri scopi; per cui la validità non è contestabile per il semplice fatto che non ha valore di bench in tal senso. Inoltre, ti ripeto l'invito a consultare chi ha una 4850.
Ora se volete, continuate pure a parlare di performance/W, consumi e calore.
sui consumi e la rumorosità, mi pare che le tabelle che avete postato abbiano detto tutto: non credo ci sia altro da aggiungere :D
Magari è il caso di parlare dello shrink di gt200
yossarian
14-10-2008, 22:11
la differenza tra fare polemica fanboistica e cercare di discutere, con tutti i limiti del mondo che mi appartengono, stà in questo tuo post di risposta al mio, per i seguenti semplici motivi, secondo me:
a) mi metti in campo la 8800gt che ha un dissipatore single slot; la 2900xt ne ha uno doppio slot, per conformazione i primi sono per forza più rumorosi dei secondi, e sono stato anche "buono" a non postare la cosa spaventosa che è la versione OEM, visto che cmq interessa davvero una fetta minima di utenti http://dailymotion.alice.it/related/x1xzw0_hd-2900xt-in-action_tech/video/x3tmy6_ati-hd-2900xt-sechecheveux_tech?from=rss (ovviamente la 4870 da questo punto di vista non fà meglio, al limite peggio, della 2900xt retail http://dailymotion.alice.it/related/x603nt_test-amd-radeon-hd-4870_tech/video/x6v08a_le-bruit-de-la-radeon-4870_tech?from=rss ) ;
b) mi cacci un vecchio cavallo di battaglia dei fanboy rossi (evidentemente dopo quello non hanno più avuto altrettante "soddisfazioni", devo pensare..) quando tutto il discorso che facevo con l'utente yossarian verteva sulle ultime schede Ati ed Nvidia in particolare (rileggere bene sequenza di post precedenti al tuo, come prova), quindi completamente fuori dal discorso, quindi con chiaro intento polemico-fanboistico, appunto;
c) cercavo non di provocare, ma di dimostrare con i fatti, per quanto possibile virtualmente, che quello che yossarian e tu e altri chiamate "luogo comune" è invece un dato di fatto, e mi sembra che non riconoscerlo sia non tanto avere le proverbiali fette di prosciutto sugli occhi, ma, nel caso specifico, tappi di gomma nelle orecchie :D.
apple, single o doppio, all'atto pratico (ovvero quello del contenimento del rumore), cambia poco: i tappi devi metterli comunque :D
Quindi, se la 2900 è rumorosa, lo è anche la 8800 GT; al contrario, pare che le nuove ATi siano più silenziose delle nuove nVIDIA, almeno stando alle tabelle che avete postato, ed anche meno calde (con l'eccezione della 4850). Ora, se vogliamo basarci su valutazioni soggettive, allora è anche ammissibile il discorso che un tipo di rumore può essere più fastidioso di un altro (l'orecchio è un filtro imperfetto e, da individuo ad individuo, funziona in maniera differente; però allora dovremmo ascoltare il parere di chi ha avuto più vga per farci un'idea, tenendo conto che si tratta sempre di parere personale e non basato su misurazioni oggettive). Se ci basiamo sulle tabelle dei db rilevati, invece, allora le chiacchiere sono inutili.
In quanto alla 5800, quando si parla di rumore non si può non citare l'unica, inimitabile e ancora ampiamente insuperata capostipite di tutti gli aspirapolvere planetari. :D
Infine, basta andare a rileggere le prime 2 pagine per vedere che la discussione è degenerata già da li e non certo per colpa di quelli che definite fanboy ATi.
gianni1879
14-10-2008, 22:43
poco fa abbiamo fatto dei test con altri utenti su Furmark in altra modalità ed ovviamente le temp cambiano ancora di parecchio:
uno screen datto da un utente poco fa, il mio nemmeno l'ho messo dato che ho ottenuto risultati simili
MSAA 0x:
http://www.pctunerup.com/up/image.php?src=_200810/20081014210327_testtempfunmarkinangolobasso755_1170.jpg
MSAA 8x:
http://www.pctunerup.com/up/image.php?src=_200810/20081014222033_teststabilitsolofanvgaecpu770_1175AA8x.JPG
Se ci avete fatto caso vedete dove è posizionato furmark durante l'esecuzione?
in basso a sinistra....
Conclusione affidabilità ZERO anche con exe rinominato, quindi falsare i dati e possibile in diversi modi
appleroof
15-10-2008, 13:57
apple, single o doppio, all'atto pratico (ovvero quello del contenimento del rumore), cambia poco: i tappi devi metterli comunque :D
Quindi, se la 2900 è rumorosa, lo è anche la 8800 GT; al contrario, pare che le nuove ATi siano più silenziose delle nuove nVIDIA, almeno stando alle tabelle che avete postato, ed anche meno calde (con l'eccezione della 4850). Ora, se vogliamo basarci su valutazioni soggettive, allora è anche ammissibile il discorso che un tipo di rumore può essere più fastidioso di un altro (l'orecchio è un filtro imperfetto e, da individuo ad individuo, funziona in maniera differente; però allora dovremmo ascoltare il parere di chi ha avuto più vga per farci un'idea, tenendo conto che si tratta sempre di parere personale e non basato su misurazioni oggettive). Se ci basiamo sulle tabelle dei db rilevati, invece, allora le chiacchiere sono inutili.
In quanto alla 5800, quando si parla di rumore non si può non citare l'unica, inimitabile e ancora ampiamente insuperata capostipite di tutti gli aspirapolvere planetari. :D
Infine, basta andare a rileggere le prime 2 pagine per vedere che la discussione è degenerata già da li e non certo per colpa di quelli che definite fanboy ATi.
non so più che dire....ma i link che ho postato li hai aperti??? :stordita:
yossarian
15-10-2008, 15:00
non so più che dire....ma i link che ho postato li hai aperti??? :stordita:
tutti e anche quelli postati da Mparlav:D
appleroof
15-10-2008, 15:02
tutti :D
e i tappi dalle orecchie li hai tolti prima? :D
basta, chiudo qui davvero, tanto i link sono lì e ciascuno può verificare e valutare :read:
yossarian
15-10-2008, 15:09
e i tappi dalle orecchie li hai tolti prima? :D
basta, chiudo qui davvero, tanto i link sono lì e ciascuno può verificare e valutare :read:
http://techreport.com/articles.x/14990/15
qui ci sono tutte (più o meno) :D
e i tappi dalle orecchie li hai tolti prima? :D
basta, chiudo qui davvero, tanto i link sono lì e ciascuno può verificare e valutare :read:
Ma mannaggia ma perché sei ostinato a voler credere che si è per forza di cose ottusi o di parte?
Io ti rifaccio la domanda: hai mai avuto una scheda della serie 38x0 o 48x0 per valutare? Io si, proprio in questo momento, e provengo dalle serie precedenti 7x00 e G80 di Nvidia (una delle due che ancora posseggo), e ti assicuro che in confronto queste sono più silenziose e più fresche. E vado ad aria, mica a liquido!
appleroof
15-10-2008, 19:02
http://techreport.com/articles.x/14990/15
qui ci sono tutte (più o meno) :D
le tabelle non dicono nulla di per sè, riguardo al rumore...vabbè l'ho detto 10 volte, lasciam perdere mi arrendo definitivamente*, i link con le vga dal vivo parlano da soli ;)
* è proprio il caso di dire che non c'è peggior sordo di chi non vuol sentire!!! :asd: :asd:
Kharonte85
15-10-2008, 19:57
:eekk: Non ho seguito il tread dopo il mio post ma alla faccia dell'OT...io vi bannerei tutti :sofico:
leoneazzurro
16-10-2008, 09:48
E io concorderei pure, dato che c'era anche un mio richiamo.
In sintesi, ammonizione per yossarian, appleroof e Mparlav.
E per gli altri che sono andati OT: ci siete andati vicino.
Per piacere, esiste la sezione schede video per queste discussioni.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.