View Full Version : ATI Radeon HD 2900 XT: è il momento di R600
Pagine :
1
2
3
4
[
5]
6
7
8
9
Free Gordon
15-05-2007, 21:54
Con un minimo di overvolt e 900Mhz, anche a liquido è una bella impresa raffreddare 250-300W che si possono raggiungere in overclock con questa scheda (chi ha avuto a che fare con le Peltier lo sa bene. ;-)
Se il limite massimo erogabile dal sistema di alimentazione è 250W, come si possono sviluppare 300W??
Dove lo hai letto che a 900mhz, con OV, con un sistema a liquido le temp sono insostenibli?
MiKeLezZ
15-05-2007, 21:56
Non si parla di dissi in quel senso, ma di ventola rumorosa.
Stessa cosa è successa sulla 1800 e 1900.E' successa anche a loro, perchè le 1800 e 1900 avevano gli identici problemi di cui sopra (o sotto), di consumo...
Semplicemente se si deve smaltire una data quantità di calore (e non è poco) non si può fare altrimenti
Pensare che con consumi simili, all'epoca Intel voleva creare un nuovo standard per i case (BTX), per poter montare dissipatori da 0,5kg nelle sue CPU... i miracoli non si posson fareSbagliato, il calore non dipende solo dal consumo ma principalmente da quanta corrente viene "persa"..
GTX e Ultra, nel 3d, sono più calde della 2900XT (guarda la rece) ma hanno dissi meno rumorosi. ;) No, non mi puoi dire una cosa del genere...
Il calore è una misura per la potenza dissipata dal chip, e la potenza dissipata è praticamente la potenza consumata dal chip
Se la scheda richiede 150W per funzionare, questi 150W entreranno sì nella scheda, ma poi ne dovranno anche uscire, sotto forma di calore
Calore che sarà irragiato oppure condotto, ma poco conta per i nostri fini, in ogni caso esce dal chip verso l'esterno
Questa potenza è data dalla tensione di alimentazione (che scende con la nanometria) e dal consumo in ampere (che dipende dalla quantità di transistor, e dal leak di corrente degli stessi, dove con leak si intende la quantità di corrente che viene prelevata in più, pur non essendo necessaria)
Quindi, la metto sul banale, ma in ultima analisi è davvero così, un oggetto che consuma tanto è un oggetto che scalda tanto
Il fatto che le 8800 siano "più calde nel 3D e abbiano dissi meno rumorosi" è, ancora, molto banalmente uno la causa dell'altro.
Ovvero, l'utilizzo di un dissipatore meno rumoroso vuol dire che viene utilizzata una ventola a bassa velocità di rotazione, quindi con una capacità dissipativa non elevata, il che significa che il calore non verrà efficacemente dissipato nell'ambiente circostante.. e quindi poco a poco la scheda aumenterà di temperatura, fino a raggiungere la temperatura critica in cui si ha un regime stazionario, in cui (a parità di condizioni ambientali) la capacità dissipativa della ventolina è in grado di disperdere nell'ambiente una quantità di calore sufficiente a non farla aumentare
Paradossalmente, un chip può anche scaldare come una faina in calore ma avere una temperatura bassa... significa solo che il sistema di raffreddamento è molto valido (è per esempio il caso del sistema a liquido, che riesce a mantenere la temperatura molto vicina a quella ambiente), ma comunque la scheda consumerà sempre tanta potenza, e tanta potenza sarà dissipata nell'ambiente....
Non v'è dubbio che la colpevole sia ATI :asd: ma non dipende dal fatto che l'archi sia eccessivamente parallelizzata (dato che è più parallelizzata G80 :asd: ) ma da un insieme di circostanze: fast14 e HS80 sono i maggiori indiziati.Da quello che ho letto su Anandtech l'architettura ATI sembra invece proprio eccessivamente "poco capace" nello sfruttare i suoi 320 shaders, e per "parallelizzazione" io intendo proprio che da una parte ne siano presenti 128, e dall'altra 320, non so te cosa mi intendi...
Sulla colpevole, i fatti dicono che prima di R600, già R520 si è dimostrato come poco capace nel contenere i consumi, e Fast14 e HS80 non credo fossero implementati... in ogni caso sarebbero giustificazioni poco valide, NVIDIA pur non utilizzandoli vedo che riesce a creare chip ugualmente validi
Anche questo è errato.
Sull'aniso nVidia è davanti, mentre negli altri due reparti è davanti ATI.
Stando perlomeno alle attuali recensioni, eh...PureVideo ottiene quasi un punteggio perfetto nell'HQV benchmark (senza contare che è più semplice da usare), percui non vedo proprio il motivo di affermare la superiorità di AVIVO, di cui non è peraltro stata testata la capacità in queste schede
Così come non vedo il motivo di dire che l'AA di ATI sia migliore, non solo è inferiore come prestazioni (e questo è indiscutibile e punto di svolta dalle generazioni passate), ma le nuove modalità "tent", siano esse "wide" oppure "narrow" non riescono assolutamente a dare una qualità decente, sfuocando eccessivamente la zona e fornendo di conseguenza un dettaglio inferiore (dove per dettaglio io intendo la capacità di distinguere come univoci pixel e/o gruppi di pixel formanti un dato elemento minimo della scena).
Al contrario NVIDIA con G80 ha introdotto il CSAA che, pur non essendo perfetto (si tratta di un MSAA programmabile), è comunque un filtro non solo qualitativamente molto valido, ma fornisce un performance hit davvero basso
Free Gordon
15-05-2007, 22:10
così come G60 è stato un gradino sopra ad R420, ma in futuro si vedrà se è i problemi di R600 sono di natura tecnica o di progettazione.
Ora, non vorrei far polemiche in questo 3d che non c'entrano nulla, ma la X800XT PE ha sempre battuto 6800 Ultra in prestazioni E consumi (D3 e KoR a parte). ;)
NV40 la superava però in features (SM3 vs SM2). ;)
Ci sarebbe da discutere sul fatto che quelle features siano state implementate davvero completamente, o meno. :D Ma non è nè il luogo nè il momento.
In sostanza, non era più successo (dalla 9700 in poi) che la high end nVidia battesse in prestazioni la high end ATI. ;)
R600 effettivamente è un'anomalia anche in questo.. :asd:
Free Gordon
15-05-2007, 22:10
siete tutti uguali, verdi o rossi che siate ;)
Bella Tetsujin. :D
aaasssdddfffggg
15-05-2007, 22:12
Ma perchè tuti questi giri di parole cercando di spingere la r600 oltre le sue possibilità?E' stata la stessa casa madre AMD a dire alla stampa mondiale che la rivale della 2900xt è la 8800gts.La 8800 gtx ancor più la 8800 ultra sono irragiungibili per Ati per come sono le cose adesso.
Free Gordon
15-05-2007, 22:15
Come mai così tanta differnza con i test di HwUp? :mbe:
I test di Dinox sono fatti con driver più nuovi, gli 8.37.4.2.
C'è anche un altra rece fatta con gli stessi, dove si vedono risultati migliori. ;)
Cerca l'ultimo (o penultimo) post di leoneazzurro, troverai il link.
I problemi di driver di questa scheda, oggi, sono evidenti. Per ora resto alla finestra a guardare. :D
NvidiaMen
15-05-2007, 22:28
Non appena saranno disponibili "veri" motori DX10 (Crysis) e dei drivers meno acerbi per ATI la situazione che ad oggi decreta la x2900xt un flop si ribalterà. Non si tratta di essere di parte, il mio nick direbbe semmai il contrario, ma più di mezzo anno di sviluppo sui drivers a favore di nVidia per le sue schede DX10 non sono da trascurare, come non sono da trascurare pseudobenchmark DX10 (call of juarez in testa) scritti sulla base delle uniche architetture DX10 fino ad oggi disponibili, cioè la serie 8800 di nVidia per le quali il codice sarà stato scritto certamente ad hoc...
Questa è la mia opinione ad oggi...
DakmorNoland
15-05-2007, 22:31
Sì cmq a me con tutto il rispetto i test pubblicati qui sembrano un pò una farsa.
Già quelli di Tom non sono così disastrosi. E poi girando ne ho visto un'altro con gli ultimi beta, e batte spessissimo la GTS, e a volta anche la GTX anche se di poco.
EDIT: Parlo di questa http://www.ocworkbench.com/2007/asus/EAH2900XT/b1.htm
Non dico che ci siano chissà quali stravolgimenti, ma la 2900xt non sembra andare poi così male.
Free Gordon
15-05-2007, 22:42
E' successa anche a loro, perchè le 1800 e 1900 avevano gli identici problemi di cui sopra (o sotto), di consumo...
Semplicemente se si deve smaltire una data quantità di calore (e non è poco) non si può fare altrimenti
Pensare che con consumi simili, all'epoca Intel voleva creare un nuovo standard per i case (BTX), per poter montare dissipatori da 0,5kg nelle sue CPU... i miracoli non si posson fare
Esempio banale per capirci: con l'accelero le 1800/1900 stavano a temp più basse con meno rumore. ;)
E il dissipatore non è che fosse quella bestia voluminosa eh.. :D
Sono ignobili a fare i dissi alla ATI, è un dato di fatto (ma già dalla x800 era così).
No, non mi puoi dire una cosa del genere...
Il calore è una misura per la potenza dissipata dal chip, e la potenza dissipata è praticamente la potenza consumata dal chip
Se la scheda richiede 150W per funzionare, questi 150W entreranno sì nella scheda, ma poi ne dovranno anche uscire, sotto forma di calore
Calore che sarà irragiato oppure condotto, ma poco conta per i nostri fini, in ogni caso esce dal chip verso l'esterno
Il calore che fuoriesce è sì direttamente dipendente da quanta corrente entra nel chip (ovviamente), ma le temperature sono fortemente influenzate dalla struttura del chip.
Due chip diversi, con lo stesso TDP possono scaldare in modo differente, anche se i dissipatori sono paragonabili.
Questa potenza è data dalla tensione di alimentazione (che scende con la nanometria) e dal consumo in ampere (che dipende dalla quantità di transistor, e dal leak di corrente degli stessi, dove con leak si intende la quantità di corrente che viene prelevata in più, pur non essendo necessaria)
Quindi, la metto sul banale, ma in ultima analisi è davvero così, un oggetto che consuma tanto è un oggetto che scalda tanto
Per cui le temperature in media più alte di un Core2Duo rispetto ad un A64 sono dovute al fatto che il Core2Duo consuma di più? (TDP) :D
Ovviamente no.. (Riallacciandomi a sopra).
Il fatto che le 8800 siano "più calde nel 3D e abbiano dissi meno rumorosi" è, ancora, molto banalmente uno la causa dell'altro.
Ovvero, l'utilizzo di un dissipatore meno rumoroso vuol dire che viene utilizzata una ventola a bassa velocità di rotazione, quindi con una capacità dissipativa non elevata, il che significa che il calore non verrà efficacemente dissipato nell'ambiente circostante.. e quindi poco a poco la scheda aumenterà di temperatura, fino a raggiungere la temperatura critica in cui si ha un regime stazionario, in cui (a parità di condizioni ambientali) la capacità dissipativa della ventolina è in grado di disperdere nell'ambiente una quantità di calore sufficiente a non farla aumentare
A questa ti rispondo così, perlomeno la finiamo... ^_^
Ultra e XT sono separate da 3W (a parte che in idle la XT consuma molto meno) eppure la Ultra fa meno rumore. ;)
Paradossalmente, un chip può anche scaldare come una faina in calore ma avere una temperatura bassa... significa solo che il sistema di raffreddamento è molto valido (è per esempio il caso del sistema a liquido, che riesce a mantenere la temperatura molto vicina a quella ambiente), ma comunque la scheda consumerà sempre tanta potenza, e tanta potenza sarà dissipata nell'ambiente....
Infatti è dall'inizio che ti dico che la XT ha un dissi scandaloso come per tutte le ATI degli ultimi anni, purtroppo...
Da quello che ho letto su Anandtech l'architettura ATI sembra invece proprio eccessivamente "poco capace" nello sfruttare i suoi 320 shaders, e per "parallelizzazione" io intendo proprio che da una parte ne siano presenti 128, e dall'altra 320, non so te cosa mi intendi...
Rileggilo meglio :D l'articolo di Anandtech è quello più completo e meglio scritto fra tutti quelli usciti (B3D a parte, anche se quest'ultimo è incompleto e avrà vari seguiti..)
G80 gestisce 128 thread.
R600 ne gestisce 64.
G80 via hw è più parallelizzato di R600...
ps OT.
Nel caso di R600 il discorso è molto complesso... perchè la "parallelizzazione" vera e propria deve avvenire via software (e sicuramente questo non implica un aumento del TDP :p ) ed è proprio lì il problema dei driver ATI attualmente.
Oltre a quello di trovarsi con un hw che ha un MSAA "programmabile"... :D
Per cui le prestazioni con l'AA attivo attualmente sono ingiudicabili causa driver.
Cmq fine OT.
Sulla colpevole, i fatti dicono che prima di R600, già R520 si è dimostrato come poco capace nel contenere i consumi, e Fast14 e HS80 non credo fossero implementati...
R520 e 580 consumano di più dei concorrenti perchè sono chip più complessi a livello di circuitazione (che è quella che richiede le risorse maggiori), implementando delle feature che G70/71 non ha :D (e che sono tutt'ora insfruttate nei giochi... DB per prima! ;) )
Infine, sono il 10 e il 30% più grossi di G70/71 e questo è un'altro dei motivi (ma influisce molto poco).
in ogni caso sarebbero giustificazioni poco valide, NVIDIA pur non utilizzandoli vedo che riesce a creare chip ugualmente validi
Sono approcci differenti. E cmq tutti e due validi nei loro rispettivi obiettivi. ;)
PureVideo ottiene quasi un punteggio perfetto nell'HQV benchmark (senza contare che è più semplice da usare), percui non vedo proprio il motivo di affermare la superiorità di AVIVO, di cui non è peraltro stata testata la capacità in queste schede
Guarda le rece dove è stato testato. ;)
Senza considerare che c'è l'audio integrato...
Così come non vedo il motivo di dire che l'AA di ATI sia migliore, non solo è inferiore come prestazioni (e questo è indiscutibile e punto di svolta dalle generazioni passate), ma le nuove modalità "tent", siano esse "wide" oppure "narrow" non riescono assolutamente a dare una qualità decente, sfuocando eccessivamente la zona e fornendo di conseguenza un dettaglio inferiore (dove per dettaglio io intendo la capacità di distinguere come univoci pixel e/o gruppi di pixel formanti un dato elemento minimo della scena).
L'edge detect di ATI è superiore a tutti gli AA della 8800.
Per quanto riguarda il discorso prestazioni, ti rimando al discorso che ti ho fatto sopra. ;)
Free Gordon
15-05-2007, 22:49
Sì cmq a me con tutto il rispetto i test pubblicati qui sembrano un pò una farsa.
Già quelli di Tom non sono così disastrosi. E poi girando ne ho visto un'altro con gli ultimi beta, e batte spessissimo la GTS, e a volta anche la GTX anche se di poco.
EDIT: Parlo di questa http://www.ocworkbench.com/2007/asus/EAH2900XT/b1.htm
Non dico che ci siano chissà quali stravolgimenti, ma la 2900xt non sembra andare poi così male.
No vorrei dirlo troppo presto, ma credo che quello della HD2900XT sia il lancio peggio gestito della storia delle GPU.
Il prodotto non è malvagio e ha capacità da esprimere :D ma è grezzo sia a livello di supporto software sia a livello di finitura (dissipatore orribile come sempre...).
Sì cmq a me con tutto il rispetto i test pubblicati qui sembrano un pò una farsa.
Già quelli di Tom non sono così disastrosi. E poi girando ne ho visto un'altro con gli ultimi beta, e batte spessissimo la GTS, e a volta anche la GTX anche se di poco.
EDIT: Parlo di questa http://www.ocworkbench.com/2007/asus/EAH2900XT/b1.htm
Non dico che ci siano chissà quali stravolgimenti, ma la 2900xt non sembra andare poi così male.
Ma sono poi sempre gli stessi drive usati da hwupgrade, a parte che per leggerli ci vuole una vista 11/10 con un bel aa 16x
Lud von Pipper
15-05-2007, 22:59
ma mi sa che non avremo risposta. la sua risposta.
ciao.
;)
Se l'hai rubata l'affare l'hai fatto senz'altro tu (sempre che non ti becchino ovviamente ;).)
Se l'hai comprata a marzo dimmi dove visto che i miei 220€ (iva inclusa) erano il prezzo più basso disponibile a febbrario e che la GTS320 più economica costa 259€ anche ora (http://www.trovaprezzi.it/prezzo_schede-grafiche_gts_320mb.aspx). Semplicemente perchè è uscita sul mercato a marzo, ad un prezzo (ivato) di 350€ secchi.
Ovviamente, scaricando l'iva ho pagato la mia scheda meno di 200€...
Sai, se mi impegno un attimo mio cuggino mi procura per 250€ una GTS 640 così poi ti sbandiero in faccia qualche bench ;).
Nella mia ottica l'affare l'ho fatto io, perchè gioco senza limitazioni da quattro mesi a quello che mi interessa (su un CRT22") e quando deciderò di cambiare posso considerare di avere un centone in più in nel budget per puntare dove serve. :cool:
(senza polemiche ovviamente ;) )
Rileggilo meglio :D l'articolo di Anandtech è quello più completo e meglio scritto fra tutti quelli usciti (B3D a parte, anche se quest'ultimo è incompleto e avrà vari seguiti..)
G80 gestisce 128 thread.
R600 ne gestisce 64.
G80 via hw è più parallelizzato di R600...
ps OT.
Nel caso di R600 il discorso è molto complesso... perchè la "parallelizzazione" vera e propria deve avvenire via software (e sicuramente questo non implica un aumento del TDP :p ) ed è proprio lì il problema dei driver ATI attualmente.
Oltre a quello di trovarsi con un hw che ha un MSAA "programmabile"... :D
Per cui le prestazioni con l'AA attivo attualmente sono ingiudicabili causa driver.
Cmq fine OT.
nn azardo ipotesi ma vuol dire che se mai ati dovrebbe riuscire ad sfruttare al 100% i 320SPs avra preztazioni....? se si imposta un valore ipotetico di fps ad una proporzione è corretto dire che: 128SPs:100fps=320SPs:Xfps? cioè questo calcolo è corretto più o meno e poi potrebbe essere cio che ci riservano iprossimi driver ati?
Ti ho citato perchè la penso esattamente come te, e perchè sono daccordo con quello che hai scritto. Ti ho solo detto che le opinioni che hai espresso sulla 2900 sono legittime e che le smentite di altri fatte con il senno di poi non vanno presi in considerazione
Esattamente come detto in privato, non ti avevo capito :)
Se l'hai rubata l'affare l'hai fatto senz'altro tu (sempre che non ti becchino ovviamente ;).)
Se l'hai comprata a marzo dimmi dove visto che i miei 220€ (iva inclusa) erano il prezzo più basso disponibile a febbrario e che la GTS320 più economica costa 259€ anche ora (http://www.trovaprezzi.it/prezzo_schede-grafiche_gts_320mb.aspx). Semplicemente perchè è uscita sul mercato a marzo, ad un prezzo (ivato) di 350€ secchi.
Ovviamente, scaricando l'iva ho pagato la mia scheda meno di 200€...
Sai, se mi impegno un attimo mio cuggino mi procura per 250€ una GTS 640 così poi ti sbandiero in faccia qualche bench ;).
Nella mia ottica l'affare l'ho fatto io, perchè gioco senza limitazioni da quattro mesi a quello che mi interessa (su un CRT22") e quando deciderò di cambiare posso considerare di avere un centone in più in nel budget per puntare dove serve. :cool:
Esistono negozi piuttosto famosi a roma e che non trovi nel trovaprezzi, in almeno un paio di questi la 320mb di trova da oltre un mese a 250€, la 640mb a 322€ mi pare...
(senza polemiche ovviamente ;) )
presa a febbraio la 320, di listino era 270€ iva inclusa, contro i 220 della x1950xt.
L'abisso di prestazioni nei giochi recenti giustifica ampiamente la differenza di prezzo, e te lo dico io che venivo da una x1900xt.
Quando deciderai di cambiare avrai pure speso 50€ in meno, ma ti ritroverai con una scheda che in pochi vorranno e che comunque subirà un svalutazione sicuramente maggiore con il passaggio alle dx10, quindi alla fine non so nemmeno se avrai speso meno.
Appena è uscita questa scheda ho venduto subito la mia ati e con circa 30€ ho fatto questo cambio che rifarei in qualsiasi momento.
Ma infatti la vera fascia media Nvidia, diciamo il jolly, saranno a breve le attuali 8800gts nelle due declinazioni
Fossi in Ati proporrei da subito, se ne ha la possibilità, un R600 con bus a 256bit, shader ridotti e sempre 512mb di ram. Prezzo ovviamente adeguato e si potrebbe realmente scontrare con le GTS con il fattore prezzo a favore.
Fossi in Ati proporrei da subito, se ne ha la possibilità, un R600 con bus a 256bit, shader ridotti e sempre 512mb di ram. Prezzo ovviamente adeguato e si potrebbe realmente scontrare con le GTS con il fattore prezzo a favore.
fossi in ATI mi metterei sotto con il supporto driver per consentire a questa scheda di esprimere tutte le sue potenzialità...far uscire una scheda simile a quella che dici tu confonderebbe solamente le idee e poi la fascia media ati è gia pronta (vedi x2600 e x2300...)
fossi in ATI mi metterei sotto con il supporto driver per consentire a questa scheda di esprimere tutte le sue potenzialità...far uscire una scheda simile a quella che dici tu confonderebbe solamente le idee e poi la fascia media ati è gia pronta (vedi x2600 e x2300...)
Siamo sicuri che con una GTS a 250€ o giù di lì una X2600 sia appetibile? Stiamo a vedere le prestazioni ma sono scettico :)
Mister Tarpone
15-05-2007, 23:40
Siamo sicuri che con una GTS a 250€ o giù di lì una X2600 sia appetibile? Stiamo a vedere le prestazioni ma sono scettico :)
dipenderà da che rapporto prezzo prestazioni avrà la 2600xt (che sto aspettando anch'io... con molti dubbi però :fagiano: )
:stordita:
MenageZero
15-05-2007, 23:50
Beh, io la GTS non al considero proprio: è una scheda che, come anche al 2900, va bene "ora", ma da qui a quando si useranno finalmente queste benedette API Dx10 si rischiano brutte sorprese.
Se poi uno deve cambiare la 6600 Gt o la X800 allora ci si potrebbe anche ragionare ma in giro si trovano degnissime DX9 che costano molto ma MOLTOi meno: risparmio oggi per comprare meglio a breve :cool:
(400€ fanno pur sempre quasi 800000 lire! :read: )
... beh se parliamo di risparmio... mi sa qui non mi batte nessuno... l'ultima (ma credo anche la prima) s.v. di fascia alta che ho comprato nuova è stata una tnt (circa 350.000 £) ... :sofico:
(lo so, lo so, essendo un iscritto a questo forum, sono un caso "patologico" :p )
ghiltanas
16-05-2007, 00:11
credo che le 2600 siano ciofeche clamorose (purtroppo ovviamente, nn lo dico certo col sorriso sulle labbra), lo dico guardando le caratteristiche e predendo come confronto la sorella maggiore...:doh: per nn parlare poi che se magari tra un mese la 8800gts la trovi a 220 voglio vedere chi si compra una 2600 anche se viene 20 o 30 euro meno
c'è poco da dire amd è presa tra due fuochi e nn può resistere per sempre, da una parte nvidia dall'altra intel (che ora ha deciso di rincarare la dose abbassando a luglio i prezzi dei proci in maniera sensibile); mi sorge il dubbio che ci sia una sorta di patto d'acciaio nn scritto fra intel e nvidia che ha come obbiettivo di far chiudere definitivamente amd prendendo due piccioni con una fava..francamente spero di no
spero che ATI\AMD si riprenda altrimenti la vedo nera....non oso nemmeno immaginare un monopolio INTEL\NVIDIA...se ora stanno regalando cpu e vga dopo arriveranno alle stelle :rolleyes:
Mister Tarpone
16-05-2007, 00:15
credo che le 2600 siano ciofeche clamorose (purtroppo ovviamente, nn lo dico certo col sorriso sulle labbra), lo dico guardando le caratteristiche e predendo come confronto la sorella maggiore...:doh: per nn parlare poi che se magari tra un mese la 8800gts la trovi a 220 voglio vedere chi si compra una 2600 anche se viene 20 o 30 euro meno
c'è poco da dire amd è presa tra due fuochi e nn può resistere per sempre, da una parte nvidia dall'altra intel (che ora ha deciso di rincarare la dose abbassando a luglio i prezzi dei proci in maniera sensibile); mi sorge il dubbio che ci sia una sorta di patto d'acciaio nn scritto fra intel e nvidia che ha come obbiettivo di far chiuedere definitivamente amd prendendo due piccioni con una fava..francamente spero di no
eh si... se la gts arrivasse a 220€ ci sarebbe poco da fare per le 2600.
anche perchè penso che costeranno 200 carte...
però aspetto per curiosità :) tanto vado ancora abb. bene con la mia attuale vga :fagiano:
ghiltanas
16-05-2007, 00:18
io invece sono al limite e infatti mi girano xkè io speravo nelle 8600 e ho preso una vga di passaggio (che cmq per ora va benino) e invece ora devo aspettare il calo delle 8800 se nn addirittura la nuova generazione
Free Gordon
16-05-2007, 00:23
nn azardo ipotesi ma vuol dire che se mai ati dovrebbe riuscire ad sfruttare al 100% i 320SPs avra preztazioni....? se si imposta un valore ipotetico di fps ad una proporzione è corretto dire che: 128SPs:100fps=320SPs:Xfps? cioè questo calcolo è corretto più o meno e poi potrebbe essere cio che ci riservano iprossimi driver ati?
No no no :D certe proporzioni farebbero venire la pelle d'oca a qualsiasi esperto del settore (e io NON sono un esperto). :D
Considerando le cose del puro e semplice punto di vista degli "stream processor" (come li chiamano adesso :D ), le cose stanno così:
Gli SP di R600 sono 2.5x volte quelli di G80 (confrontiamoli, anche se sono differenti ;) ).
Il clock degli SP di G80 (attualmente) è 2 volte quello degli SP di R600.
G80 gestisce 128 thread con i suoi 128 SP.
R600 64 thread con le sue 64 ALU (da 5+1 (branching) operazioni ciascuna, da quì 64x5=320).
Nel caso migliore per G80 (solo istruzioni scalari, uno shader molto basilare), il chip nVidia è teoricamente 4 volte più veloce di R600 nell'elaborare lo shader.
Nel caso migliore per R600 (5 istruzioni da macinare -ad esempio tutti i vertex shader-), il chip ATI è teoricamente 0.5 volte più veloce nell'elaborare lo shader.
Ovviamente questi sono i dati crudi, riferiti allo shader core. Poi, nella realtà, ci sono altre miriadi di fattori che io non sono in grado di spiegarti... :p
Ad esempio ci sarebbe da considerare il fatto che R600 ha un'unità di branching per ognuna delle 64 ALU e fa branching "for free".
G80 no, ci mette due cicli di clock, però la granularità per G80 è di 16pixel, mentre per R600 è di 64pixel (la condizione migliore è avere un numero di pixel più basso possibile).
Ma attualmente non esistono giochi che fanno uso del dinamic branching. :D
Ps. già con i giochi attuali, la percentuale di operazione matematiche (a carico dello shader core) rispetto alle texture ops è leggermente sbilanciato vero le operazioni matematiche. In futuro, sarà sempre più squilibrato in quella direzione.
MiKeLezZ
16-05-2007, 00:25
Il calore che fuoriesce è sì direttamente dipendente da quanta corrente entra nel chip (ovviamente), ma le temperature sono fortemente influenzate dalla struttura del chip.
Due chip diversi, con lo stesso TDP possono scaldare in modo differente, anche se i dissipatori sono paragonabili.Comunque non ritengo utile un'analisi delle temperature, basta solo siano inferiori al limite critico...
Nel caso del Core 2 Duo, le temperature più alte sono date dalla sonda termica inserita più internamente.
Non viene quindi misurata la temperatura superficiale del chip bensì una sorta di via di mezzo fra quella e il core.
Quindi dico anche, e chi mi dice che la sonda di R600 e G80 sia nella stessa equiparabile posizione, o anche che abbia la stessa taratura e/o precisione?
A questa ti rispondo così, perlomeno la finiamo... ^_^
Ultra e XT sono separate da 3W (a parte che in idle la XT consuma molto meno) eppure la Ultra fa meno rumore. ;) Infatti la Ultra sta a 7°c in più, segno che (ipotetizzando le sonde siano effettivamente equiparabili) il sistema di dissipazione è sottodimensionato rispetto la XT.
Il valore in idle in questo caso è totalmente ininfluente perchè la temperatura raggiunta in full è comunque a regime.
Infatti è dall'inizio che ti dico che la XT ha un dissi scandaloso come per tutte le ATI degli ultimi anni, purtroppo...Il problema non è il dissipatore, che come spiegato poco sopra è più efficace rispetto a quello della Ultra... pur consumando la scheda 3W in più, questa ha una temperatura inferiore.
Rileggilo meglio :D l'articolo di Anandtech è quello più completo e meglio scritto fra tutti quelli usciti (B3D a parte, anche se quest'ultimo è incompleto e avrà vari seguiti..)
G80 gestisce 128 thread.
R600 ne gestisce 64.
G80 via hw è più parallelizzato di R600... Dice anche:
More work (up to 5x) is potentially getting done on each of those 64 threads than on NVIDIA's 128 threads.
This is because R600 can execute up to five parallel operations per thread.
128 istruzioni contro 320
Comunque non saprei andare nello specifico, per ora è solo un'impressione data dal fatto che non trovo altre spiegazioni al consumo che non una inefficienza architetturale (a questi punti se non è data dai 320 shaders sarà di qualcos'altro) dato che la quantità di transistor è pressapoco uguale e medesimo il processo produttivo.
L'edge detect di ATI è superiore a tutti gli AA della 8800.
Per quanto riguarda il discorso prestazioni, ti rimando al discorso che ti ho fatto sopra. ;)Per ora dell'edge detect si sa poco, anche perchè è presente solo in forma alpha nei driver beta
Senza offesa ma è il tipico discorso di chi non ha la più pallida idea di cosa siano logiche programmabili in elettronica :)
Ci sono chip che sono "vuoti" dentro e non fanno niente se li attacchi alla corrente: li riempi con un software e ti emulano un pentium 2. :rolleyes:
Gli integrati utilizzati in questo caso non si basano su celle contenenti le componenti logiche di base (FF,LUT,Porte logiche, buffer..etc) configurabili a piacere e con interconessioni programmabili.
In questo caso vengono utilizzate strutture HW fisse in grado di ottimizzare l'elaborazione di determinati flussi dati tramite parallelizzazione degli stessi o la creazione di cascate di elaborazione con componenti logici cmq già esistenti.
Inoltre le frequenze di lavoro di questi chip sono irraggiungibili da qualsiasi dispositivo a logica programmabile, serve un ASIC per forza.
IMHO c'è qualche collo di bottiglia, o qualche "Trucco" inserito dagli ingegneri per mantenere stabili certe componenti a certe velocità...a scapito però delle prestazioni.
Ciauz
Il calore è una misura per la potenza dissipata dal chip, e la potenza dissipata è praticamente la potenza consumata dal chip
ma quando mai... :rolleyes: le leggi della termodinamica dove le lasci?
Gli integrati utilizzati in questo caso non si basano su celle contenenti le componenti logiche di base (FF,LUT,Porte logiche, buffer..etc) configurabili a piacere e con interconessioni programmabili.
In questo caso vengono utilizzate strutture HW fisse in grado di ottimizzare l'elaborazione di determinati flussi dati tramite parallelizzazione degli stessi o la creazione di cascate di elaborazione con componenti logici cmq già esistenti.
Inoltre le frequenze di lavoro di questi chip sono irraggiungibili da qualsiasi dispositivo a logica programmabile, serve un ASIC per forza.
IMHO c'è qualche collo di bottiglia, o qualche "Trucco" inserito dagli ingegneri per mantenere stabili certe componenti a certe velocità...a scapito però delle prestazioni.
Ciauz
ho fatto un esempio spinto della parola "programmabilità", siccome qua dentro c'è gente che non ha la minima idea di cosa sia dell'hardware programmabile...:mbe:
MiKeLezZ
16-05-2007, 00:43
ma quando mai... :rolleyes: le leggi della termodinamica dove le lasci?cortesemente spiegami l'errore
ho fatto un esempio spinto della parola "programmabilità", siccome qua dentro c'è gente che non ha la minima idea di cosa sia dell'hardware programmabile...:mbe:
Ah ok ;) Pensavo ti riferissi nello specifico alla tecnologia di base di R600.
Ciauz
Ah ok ;) Pensavo ti riferissi nello specifico alla tecnologia di base di R600.
Ciauz
No beh... Il fatto è che cmq con tutti gli arbiter e i vari setup per ogni blocco R600 è quasi un chip "vergine" che può, tramite apposito software, fare...un po di tutto... cag@re.... o miracoli come il mezzo Tflop di potenza...
cortesemente spiegami l'errore
se assorbe 150 watt e ne sputa fuori 150watt in forma di calore ci sono due spiegazioni: o R600 ha efficenza 0 ed è solo una grossa resistenza, oppure hanno una grossa impedenza d'ingresso che assorbe 150watt e ne dissipa altrettanta avendo così un chip che fa quello che fa consumando 0 energia (e hanno scoperto la macchina a moto perpetuo)...
:rolleyes:
Evangelion01
16-05-2007, 01:12
se assorbe 150 watt e ne sputa fuori 150watt in forma di calore ci sono due spiegazioni: o R600 ha efficenza 0 ed è solo una grossa resistenza, oppure hanno una grossa impedenza d'ingresso che assorbe 150watt e ne dissipa altrettanta avendo così un chip che fa quello che fa consumando 0 energia (e hanno scoperto la macchina a moto perpetuo)...
:rolleyes:
Leggasi il capitolo "ciclo di carnot" e "rendimento". :D
mi sono appena fatto un salto da dinox e li, al contrario di ieri dove ho letto le recensioni di Tom's e HW, sono riuscito a riflettere un pochino meglio, non essendo stato bombardato dagli incessanti "ci aspettavamo di meglio da ATI"...
Mi era sfuggita nel marasma generale ieri. Ora la sto leggendo, e sto vedendo delle belle sorprese, grazie ;)
MiKeLezZ
16-05-2007, 02:15
se assorbe 150 watt e ne sputa fuori 150watt in forma di calore ci sono due spiegazioni: o R600 ha efficenza 0 ed è solo una grossa resistenza, oppure hanno una grossa impedenza d'ingresso che assorbe 150watt e ne dissipa altrettanta avendo così un chip che fa quello che fa consumando 0 energia (e hanno scoperto la macchina a moto perpetuo)... :rolleyes:Sì: R600 è solo una grossa resistenza, una resistenza che è la somma di milioni di altre resistenze in serie o in parallelo (teoricamente dovremmo aggiungerci anche una capacità ma è del tutto trascurabile).
Se ammettiamo il chip della GPU necessiti di una tensione di alimentazione di 1,3V con una corrente pari a 115A, ovvero 150W, e questi 150W entrano per unità di tempo DENTRO al chip (attenzione anche al sistema di riferimento, lasciamo fuori il fatto che per ottenere quei 150W avremo probabilmente dovuto attingere a 160W in partenza), ora spiegami tu, POI, che fine fanno.
Non stiamo parlando di un motore che trasforma l'energia della deflagrazione dentro la camera di combustione in un movimento meccanico assiale dalla spinta del pistone (che comunque poi verrà trasformato in attriti del sistema di trasmissione e del pneumatico, e quindi calore), né di una batteria al piombo che attua del lavoro chimico (che comunque anch'esso libererà calore).
Cosa credi che succeda? Che i 150W vengono "spesi", e "danno da mangiare" ai transistor insiti dentro al chip (abbiamo trovato un oggetto dalla capacità infinita, che immaganizza 150W su 150W?) o, peggio la potenza venga poi trasformata in "teraflop", dove il termine "teraflop" equivale a un -fisicamente- nulla (una sorta di energia trascendentale)?
La potenza viene usata per aprire o chiudere i gate dei mosfet (le resistenze di cui parlavo sopra), vengono poi generate come scarti onde elettromagnetiche e calore. In maniera trascurabile vengono alimentati piccoli fenomeni chimici fra i composti del chip.
L'efficienza di cui tu parli (che in ambito CPU non si è mai usata, e c'è un perchè) viene calcolata per descrivere, appunto, la potenza persa in calore, nei sistemi in cui sia previsto l'utilizzo della potenza come input per una fase successiva.
Nel nostro esempio possiamo parlare di efficienza a riguardo del reparto di alimentazione del chip, che è affidato a un regolatore PWM digitale, i 160W di prima che si tramutano in 150W e quindi danno luogo a un rendimento del 0,9375, a carico del regolare.
Riguardo la CPU possiamo parlare di efficienza solo nel riguardo dei prodotti di scarto del sistema, e non mi pare il punto.
Il ciclo di carnot lasciamo pure dove stà....... :mbe:
Free Gordon
16-05-2007, 02:41
... beh se parliamo di risparmio... mi sa qui non mi batte nessuno... l'ultima (ma credo anche la prima) s.v. di fascia alta che ho comprato nuova è stata una tnt (circa 350.000 £) ... :sofico:
(lo so, lo so, essendo un iscritto a questo forum, sono un caso "patologico" :p )
Io invece credo di non averla proprio mai comprata nuova. :D
MiKeLezZ
16-05-2007, 02:51
E' arrivato il test di Xbitlabs con i suoi amabili risultati sul power consumption delle schede:
http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html
IDLE
X2900XT - 72W
8800GTX - 70W
8800GTS - 58W
LOAD
X2900XT - 161W
8800GTX - 131W
8800GTS - 106W
60W in più rispetto la GTS non sono pochi, soprattutto quando ingiustificati.
Testati anche i filtri, amara scoperta che la nebbia in HL2 è buggata... e meno male che un gioco della serie verrà fornito in bundle con le X2900XT
http://www.xbitlabs.com/articles/video/display/r600-architecture_16.html
ANISO
8800 quasi perfetto.
X2900 pari alle vecchie X1: buono.
AA MSAA (quindi 2x 4x 8x)
X2900 leggero vantaggio, ma difficile da notare a occhio nudo.
8800 hanno meno decrementi prestazionali nell'usarlo
AA CFAA
X2900 scandalosa, immagini sfuocate.
Molto meglio il CSAA delle 8800, sopratutto se si va dai 12x in su, sia per performance che qualità.
Free Gordon
16-05-2007, 03:01
Comunque non ritengo utile un'analisi delle temperature, basta solo siano inferiori al limite critico...
Ah, ma ora ritratti? :ciapet:
Allora non dire (come invece sostenevi nel primo post) che il chip scalda troppo, perchè è una cosa del tutto ininfluente ai fini di utilizzo, parlando del default (come ho sempre sostenuto).
Quindi dico anche, e chi mi dice che la sonda di R600 e G80 sia nella stessa equiparabile posizione, o anche che abbia la stessa taratura e/o precisione?
E chi lo sa? :)
Infatti la Ultra sta a 7°c in più, segno che (ipotetizzando le sonde siano effettivamente equiparabili) il sistema di dissipazione è sottodimensionato rispetto la XT. Il problema non è il dissipatore, che come spiegato poco sopra è più efficace rispetto a quello della Ultra... pur consumando la scheda 3W in più, questa ha una temperatura inferiore.
Ferma un attimo che mi stai girando la frittata: non si parlava di efficienza del dissipatore, ma del fatto che sta scheda facesse troppo rumore... e tu sostenevi che è una diretta conseguenza del consumo... :)
Io invece ti dissi che il problema era il dissipatore e il confronto con la Ultra mi da ragione. ;)
Il dissi della XT, la terrà anche più fresca della Ultra, ma fa rumore perchè è fatto male tra ventola ed alette. ;)
Come quelli della 1800/1900 in pratica.
Dice anche: More work (up to 5x) is potentially getting done on each of those 64 threads than on NVIDIA's 128 threads.
This is because R600 can execute up to five parallel operations per thread.
128 istruzioni contro 320
Sì, era solo un nostro misunderstanding sull'origine di quel "parallelizzazione". ;)
Comunque non saprei andare nello specifico, per ora è solo un'impressione data dal fatto che non trovo altre spiegazioni al consumo che non una inefficienza architetturale (a questi punti se non è data dai 320 shaders sarà di qualcos'altro) dato che la quantità di transistor è pressapoco uguale e medesimo il processo produttivo.
Il fatto è che l'efficienza architetturale, nel caso delle GPU, non è facile da cavare come nel caso delle CPU... dove i bench (e i campi d'applicazione) sono pressocchè fissi.
Nel campo delle GPU, da gioco a gioco, possono variare le prestazioni notevolmente e in questo caso specifico succederà anche da driver a driver...!
Allora a quel punto come fai a dire: questa scheda è più "power efficient" di quella?
Si farà una media... ma ci vorranno almeno 18-24 mesi per dirlo, come per tutte le altre schede (G70/R520 compresi).
Per ora dell'edge detect si sa poco, anche perchè è presente solo in forma alpha nei driver beta
Quello lo vedremo tra un mesetto o due. ;)
Io per ora resto a guardare...
Free Gordon
16-05-2007, 03:12
E' arrivato il test di Xbitlabs con i suoi amabili risultati sul power consumption delle schede:
http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html
IDLE
X2900XT - 72W
8800GTX - 70W
8800GTS - 58W
LOAD
X2900XT - 161W
8800GTX - 131W
8800GTS - 106W
60W in più rispetto la GTS non sono pochi, soprattutto quando ingiustificati.
Sono abbastanza discordanti rispetto a quelli di vr-zone (ma anche di hwupgrade).
Potresti anche pensare che consuma "solo" 30W in più della GTX. :D
Si pensava peggio, insomma. :D
Testati anche i filtri, amara scoperta che la nebbia in HL2 è buggata... e meno male che un gioco della serie verrà fornito in bundle con le X2900XT
http://www.xbitlabs.com/articles/video/display/r600-architecture_16.html
Driver... ;)
ANISO
8800 quasi perfetto.
X2900 pari alle vecchie X1: buono.
Perfetto.. (fazioso)
Migliore della 2900XT...! :D
AA MSAA (quindi 2x 4x 8x)
X2900 leggero vantaggio, ma difficile da notare a occhio nudo.
Fazioso... :ciapet:
E' meglio della 8800 punto e basta... :ciapet:
E i driver sono immaturi.
AA CFAA
X2900 scandalosa, immagini sfuocate.
Molto meglio il CSAA delle 8800, sopratutto se si va dai 12x in su, sia per performance che qualità.
Ma l'edge detect, dove lo mettiamo?
Cmq la modalità CF di ATI fa abbastanza schifo come idea (imho).
ps. ovviamente si scherza, eh. ;)
Jon_Snow
16-05-2007, 03:22
ANISO
8800 quasi perfetto.
X2900 pari alle vecchie X1: buono.
AA MSAA (quindi 2x 4x 8x)
X2900 leggero vantaggio, ma difficile da notare a occhio nudo.
8800 hanno meno decrementi prestazionali nell'usarlo
AA CFAA
X2900 scandalosa, immagini sfuocate.
Molto meglio il CSAA delle 8800, sopratutto se si va dai 12x in su, sia per performance che qualità.
Mamma mia l'ultimo test lascia davvero a bocca aperta! :( Driver davvero da schifo...
Free Gordon
16-05-2007, 03:53
Ecco le conclusioni di Xbit:
We still to have to find out performance of the Radeon HD 2900 XTX in real-world games and cannot make any final conclusions now. However, we can already state certain things about the newcomer, which was expected to emerge back in the Q4 2006, but was delayed by nearly half a year.
ATI Radeon HD 2900 XT is here, it works; it has unified shader architecture; it has over 700 million transistors, an absolute record to date; it features 512-bit memory bus, for the first time with the industry; it supports many interesting features and technologies; but it also has drivers that need to be improved to utilize the new promising features and its has only 16 texture units, which limits performance even in synthetic 3D benchmarks.
The main advantage of ATI Radeon HD 2000 is exceptional computing power of all chips as well as modular design, something, which may allow the company to rapidly create new chips based on common building blocks – 5D scalar shader processors, texture processors and render back end processors. But if it takes the company another year before it boosts performance of its performance mainstream, mainstream and entry-level chips, the scenario that happened with transition from the Radeon X1600 XT to Radeon X1950 Pro, AMD risks to lose market share to Nvidia, who is consistently sticking to its policy of renewing the product lines every two quarters.
The new full-scene antialiasing methods look promising, but not all of them are ideal to say at least, as in certain cases we see substantial blur over our screenshots, which is unacceptable in the year 2007, when games tend to feature textures with a lot of small details as well as micro-geometry. We hope that ATI’s adaptive edge detect filter antialiasing will bring the new image quality heights into consumer 3D graphics.
Another potentially good thing about the Radeon HD 2000 is built-in hardware tesselator, similar to tesselator inside Xbox 360 GPU, which may catalyze game developers to take advantage of it and games will look more detailed on ATI Radeon HD 2000 graphics cards.
Multimedia features of the Radeon HD 2000 family also look promising, but, unfortunately, AMD/ATI unified video decoder should yet to be fully implemented into drivers. Even though the chip now officially supports decoding of VC-1 as well as features audio controller for audio data transmission over HDMI, the lack of certain software features make such capabilities useless for now.
Finally, despite of the fact that power consumption of $399 graphics card is not a really important factor to consider and around 160W is not really a lot for modern power supply units, cooling system that produces rather loud nice is something that should definitely be corrected on commercial Radeon HD 2900 XT graphics cards.
Sostanzialmente concordo con la loro analisi. ;)
G80 gestisce 128 thread con i suoi 128 SP.
R600 64 thread con le sue 64 ALU (da 5+1 (branching) operazioni ciascuna, da quì 64x5=320).
Nel caso migliore per G80 (solo istruzioni scalari, uno shader molto basilare), il chip nVidia è teoricamente 4 volte più veloce di R600 nell'elaborare lo shader.
Nel caso migliore per R600 (5 istruzioni da macinare -ad esempio tutti i vertex shader-), il chip ATI è teoricamente 0.5 volte più veloce nell'elaborare lo shader.
Ovviamente questi sono i dati crudi, riferiti allo shader core. Poi, nella realtà, ci sono altre miriadi di fattori che io non sono in grado di spiegarti... :p
Ad esempio ci sarebbe da considerare il fatto che R600 ha un'unità di branching per ognuna delle 64 ALU e fa branching "for free".
G80 no, ci mette due cicli di clock, però la granularità per G80 è di 16pixel, mentre per R600 è di 64pixel (la condizione migliore è avere un numero di pixel più basso possibile).
Ma attualmente non esistono giochi che fanno uso del dinamic branching. :D
effettivamente nn avevo considerato il clock delgli shader, e il resto, grazie!!!
halduemilauno
16-05-2007, 06:46
Se l'hai rubata l'affare l'hai fatto senz'altro tu (sempre che non ti becchino ovviamente ;).)
Se l'hai comprata a marzo dimmi dove visto che i miei 220€ (iva inclusa) erano il prezzo più basso disponibile a febbrario e che la GTS320 più economica costa 259€ anche ora (http://www.trovaprezzi.it/prezzo_schede-grafiche_gts_320mb.aspx). Semplicemente perchè è uscita sul mercato a marzo, ad un prezzo (ivato) di 350€ secchi.
Ovviamente, scaricando l'iva ho pagato la mia scheda meno di 200€...
Sai, se mi impegno un attimo mio cuggino mi procura per 250€ una GTS 640 così poi ti sbandiero in faccia qualche bench ;).
Nella mia ottica l'affare l'ho fatto io, perchè gioco senza limitazioni da quattro mesi a quello che mi interessa (su un CRT22") e quando deciderò di cambiare posso considerare di avere un centone in più in nel budget per puntare dove serve. :cool:
(senza polemiche ovviamente ;) )
una precisazione la 8800gts320 è uscita 10 febbraio. e l'ho pagata capito pagata 250€. e non ti permettere battute ed illazioni
presa a febbraio la 320, di listino era 270€ iva inclusa, contro i 220 della x1950xt.
L'abisso di prestazioni nei giochi recenti giustifica ampiamente la differenza di prezzo, e te lo dico io che venivo da una x1900xt.
Quando deciderai di cambiare avrai pure speso 50€ in meno, ma ti ritroverai con una scheda che in pochi vorranno e che comunque subirà un svalutazione sicuramente maggiore con il passaggio alle dx10, quindi alla fine non so nemmeno se avrai speso meno.
Appena è uscita questa scheda ho venduto subito la mia ati e con circa 30€ ho fatto questo cambio che rifarei in qualsiasi momento.
;)
halduemilauno
16-05-2007, 07:15
http://www.legitreviews.com/article/505/1/
http://www.legitreviews.com/images/reviews/505/lost_planet_12x7.jpg
http://www.legitreviews.com/images/reviews/505/lost_planet_16x12.jpg
;)
killer978
16-05-2007, 07:38
I test di Dinox sono fatti con driver più nuovi, gli 8.37.4.2.
C'è anche un altra rece fatta con gli stessi, dove si vedono risultati migliori. ;)
Cerca l'ultimo (o penultimo) post di leoneazzurro, troverai il link.
I problemi di driver di questa scheda, oggi, sono evidenti. Per ora resto alla finestra a guardare. :D
Quindi non è poi così malaccio come sembra (Consumi a parte) è sempre avanti alla GTS ed alcune volte supera la GTX, anche con driver beta :mbe:
NightStalker
16-05-2007, 08:14
http://www.legitreviews.com/article/505/1/
http://www.legitreviews.com/images/reviews/505/lost_planet_12x7.jpg
http://www.legitreviews.com/images/reviews/505/lost_planet_16x12.jpg
;)
:eek:
RICKYL74
16-05-2007, 08:51
Si le ho cambiate perchè a fare la differenza sono i 128 sp portati a 1500 e non le frequenze pompate del chip e delle memorie come molti si mettono ad overcloccare. gli sp di una 8800gtx non li porti a 1500Mhertz.Saluti.
tocca vedere anche lo shader clock.
;)
Aumentando la frequenza della gpu e delle GDDR aumenta lo shader Clock che nel mio caso sono a 1571Mhz, oppure imposti il tutto dal bios, poi dal bios modifichi tutto latenze comprese!!
come vedi anche una semplice 8800GTX può competere come una ultra modificando qualche parametro naturalmente e se la scheda te lo permette, e chiaro poi, che se passi direttamente alla versione ultra pagandotela i bei soldini che costa e tutta un'altra cosa, più facile!! ma non mi divertirei. Ciao ;)
halduemilauno
16-05-2007, 08:59
Aumentando la frequenza della gpu e delle GDDR aumenta lo shader Clock che nel mio caso sono a 1571Mhz, oppure imposti il tutto dal bios, poi dal bios modifichi tutto latenze comprese!!
come vedi anche una semplice 8800GTX può competere come una ultra modificando qualche parametro naturalmente e se la scheda te lo permette, e chiaro poi, che se passi direttamente alla versione ultra pagandotela i bei soldini che costa e tutta un'altra cosa, più facile!! ma non mi divertirei. Ciao ;)
con il tocca vedere lo shader clock mica intendevo che era impossibile. il core da 575 a 612 è una bazzeccola ma lo shader da 1350 a 1500 è un pò diverso e lo stesso per la ram da 1800 a 2160. e poi anche le ultra si oc vista a 720/2440.
tutto qui.
;)
RICKYL74
16-05-2007, 09:38
con il tocca vedere lo shader clock mica intendevo che era impossibile. il core da 575 a 612 è una bazzeccola ma lo shader da 1350 a 1500 è un pò diverso e lo stesso per la ram da 1800 a 2160. e poi anche le ultra si oc vista a 720/2440.
tutto qui.
;)
Bhe!! è chiaro che si OC anche la ultra ma non credere che salga poi tanto, bisogna che monti circuteria di straqualità e che sia ben raffreddata se riesci a tenerla a 720Mhz e 2440 le memorie con sp a 1641Mhz tanto di cappello, ma non impossibile, si parla sempre di 80nm contro 90nm, è chiaro quindi che la 8800Ultra sia più potente (anche se di poco).. per quanto riguarda la rev. dello step anche le gtx sono state aggiornate.
poi ti ripeto la mia 8800gtx gpu da 626 portata a 650, le memorie da 2000 a 2200 con gli sp a 1560! quindi ho suparato la ultra a default se ti pare poco.
Comunque la domanda mi nasce spontanea, a default:
vale la pena spendere 800euro per avere un 10-15% di prestazioni in più? ;)
halduemilauno
16-05-2007, 09:42
Bhe!! è chiaro che si OC anche la ultra ma non credere che salga poi tanto, bisogna che monti circuteria di straqualità e che sia ben raffreddata se riesci a tenerla a 720Mhz e 2440 le memorie con sp a 1641Mhz tanto di cappello, ma non impossibile, si parla sempre di 80nm contro 90nm, è chiaro quindi che la 8800Ultra sia più potente (anche se di poco).. per quanto riguarda la rev. dello step anche le gtx sono state aggiornate.
poi ti ripeto la mia 8800gtx gpu da 626 portata a 650, le memorie da 2000 a 2200 con gli sp a 1560! quindi ho suparato la ultra a default se ti pare poco.
Comunque la domanda mi nasce spontanea, a default:
vale la pena spendere 800euro per avere un 10-15% di prestazioni in più? ;)
no no mi pare molto e tra la gtx e la ultra consiglio la gtx.
mo basta con l'ot.
;)
RICKYL74
16-05-2007, 10:16
..volevo sentirti dire questo!! ;)
OK basta OT...
Io voto la HD2600XT a 65nm - e straboccio la 2900XT una mangia corrente allucinante rumorosa con temperature da stufetta per l'inverno, e poi criticavano le 8800 che scaldavano tanto. Tutti sapevamo che la nuova ATI era molto al di sotto delle aspettative di cosa si lamentano, dichiarato dalla stessa ATI che le 8800gtx al momento sono qualche gradino più su!! e rispo a tutti quelli che dicono che i driver capovolgeranno la situazione, non capisco ma di cosa parlano? i nuovi driver correggeranno i bug e alcuni problemini presenti nei driver attuali ma non stravolgeranno un bel niente, solo l'uscita della XTX che se è vero che monterà 1Gb GDDR4 gpu 65nm a 900Mhz (sarà vero? mah!!) potrà ribaltare la situazione, ma bisognerà vedere come si comporterà al confronto delle nuove nVidia che usciranno. ..Bella gara eh! :D
MiKeLezZ
16-05-2007, 10:30
http://www.legitreviews.com/article/505/1/
http://www.legitreviews.com/images/reviews/505/lost_planet_12x7.jpg
http://www.legitreviews.com/images/reviews/505/lost_planet_16x12.jpg
;)I "nuovi driver magici" sembrano non esser poi così magici come si pensava
non erano gli 8.38? ricordo male io?
MiKeLezZ
16-05-2007, 10:34
non erano gli 8.38? ricordo male io?
No: http://forums.legitreviews.com/about9846.html
Ma tranquillo: anche se non lo erano, ora la scusa passerà a loro
MiKeLezZ
16-05-2007, 10:38
It seems that all the artifacts that was observed on the ATI card was likely to be snow that wasn't able to be rendered. Objects like fences and alien creatures were observed with the NVIDIA card that were not present when we used the ATI video card.
It seemed that ATI was having issues with the motion blur.
The same scene on the ATI Radeon HD 2900 XT video card is very different. Of course it's not the exact same frame, but it's close enough. There is no fog, the lighting is very different, and the holes for the creatures aren't really rendered.
NVIDIA GeForce 8800 GTX clearly had better image quality than the ATI HD 2900 XT with both available drivers.
Va bene fare 15fps, ma almeno renderizzare bene la scena?
Certo, diamo la colpa ancora ai driver immaturi (a cui han lavorato 6 mesi), ma se la R600 per funzionare deve esser ottimizzata gioco per gioco, c'è qualcosa che non va
Portocala
16-05-2007, 10:40
Lost Planet = dx10?
se si, fanno solo 50 fps a risoluzioni cosi basse?
:eek:
edit: google :D
77fps con la GTX
Va bene fare 15fps, ma almeno renderizzare bene la scena?
Certo, diamo la colpa ancora ai driver immaturi (a cui han lavorato 6 mesi), ma se la R600 per funzionare deve esser ottimizzata gioco per gioco, c'è qualcosa che non va
non c'è dubbio, lo dissi il 14 stesso:
dico la mia solo sul lato driver: anche se dovesse uscire una versione portentosa, che incrementasse le prestazioni sensibilmente, imho rappresenterebbe cmq una mezza sconfitta.
il giorno della presentazione era oggi, il massimo dell'attenzione era oggi, le recensioni uscivano oggi. farsi trovare impreparati oggi non ha scusanti.
che si voglia confrontare con la GTS o la GTX, che si parli di games DX9.0 o 10.0.
;)
aaasssdddfffggg
16-05-2007, 11:01
Girate la pizza come volete ma alla luce dei fatti l'architettura della g80 è risultata di gran lunga milgiore della rivale r600.Ormai è un dato di fatto.
Quindi non è poi così malaccio come sembra (Consumi a parte) è sempre avanti alla GTS ed alcune volte supera la GTX, anche con driver beta :mbe:
sempre avanti alla gts?? e a volte alla gtx??? :gluglu: :gluglu:
aaasssdddfffggg
16-05-2007, 11:06
Killer 978 mi sa che tu lavori dentro ATI : ti sei bevuto il cervello appunto!!
Killer 978 mi sa che tu lavori dentro ATI : ti sei bevuto il cervello appunto!!
Cerchiamo anche di non insultare la gente, magari... :rolleyes:
mi ricordo ke killer978 era quello ke diceva ke la x1950xtx era meglio della gts 640. è troppo forte, sbelliki dalle risate con lui
tinniz977
16-05-2007, 11:25
Un consiglio:
Cosa dite alla luce della prova ,R600 rinasce in dx10 o corro a prendermi una xfx8800 gts 640mb(ho visto ampi margini di miglioramento di quest'ultima con i driver che verranno).
Sono legato a ATI dalla 7500...9800pro...x800...x1900xt...e aspettavo x2900xt vedendo in lei una 9700 moderna(CHE SOGNO)per continuare la scalata con ATI ma...
PROPIO ho l'impressione che questa scheda sarà riaggiornata prestissimo!!
Non tanto per la velocita che è allineata ma ho l'impressione che sia dà ottimizzare parecchio,a volte lenta più di una x1900xt e a volte con punte notevoli ma...
Cosa dite per questa generazione passo la mano con ATI?
Che peccato, e ho aspettato 2mesi per L'UPGRADE!
In merito ai consumi di Xbitlabs: loro usano il 3dmark06 invece dello Shadermark di Hwupgrade. Quest'ultimo da' consumi più elevati (mea culpa quando in passato ho criticato la redazione per la scelta di quell'applicativo).
In ogni caso, Amd dichiara 215W per la HD 2900XT, mentre Nvidia dichiara 170W. Da 45W teorici, si passa a 30W reali. Non cambia la sostanza nel rapporto performance/W, che è ciò che conta davvero.
Penso che con applicazioni DirectX10 che spremono di più le gpu, sarà più facile raggiungere consumi più vicini a quelli dichiarati.
In merito alla domanda: come si superano i 300W?
E' molto semplice.
Lo standard dice che 8 pin (100W) + 6 pin (75W) + slot (75W) fanno 250W.
In overclock gli standard non contano, per definizione :-)
Infatti, molti overclock sulla 2900XT li hanno fatto usando i 2 connettori 6 pin. L'Overdrive è disabilitato, ma l'utility Amd per l'overclock funziona.
Quindi una HD 2900XT overcloccata con azoto liquido a 1.53V (1.175V standard) e 1230/2300 (attuale WR) consuma dai 450 ai 480W :-)
Chiaramente con un buon alimentatore da 1kW, visto anche il quad core da 4.9Ghz che gli stava appresso ;-)
Ma come ho già detto, se una HD 2900XT fa gli 850/2000 ad aria, non è granchè vs GTS a 650/1900, vedendo quali sono le attuali prestazioni di partenza, e quali sono le "insidie" a livello termico e d'alimentazione, per la 2900XT.
Portocala
16-05-2007, 11:35
Un consiglio:
Cosa dite alla luce della prova ,R600 rinasce in dx10 o corro a prendermi una xfx8800 gts 640mb(ho visto ampi margini di miglioramento di quest'ultima con i driver che verranno).
Sono legato a ATI dalla 7500...9800pro...x800...x1900xt...e aspettavo x2900xt vedendo in lei una 9700 moderna(CHE SOGNO)per continuare la scalata con ATI ma...
PROPIO ho l'impressione che questa scheda sarà riaggiornata prestissimo!!
Non tanto per la velocita che è allineata ma ho l'impressione che sia dà ottimizzare parecchio,a volte lenta più di una x1900xt e a volte con punte notevoli ma...
Cosa dite per questa generazione passo la mano con ATI?
Che peccato, e ho aspettato 2mesi per L'UPGRADE!
hai tutta sta fretta di cambiare? Se no, aspetta :asd:
Direi che altri 4-5 titoli dx10 possano finalmente dire what's better :)
halduemilauno
16-05-2007, 11:40
Un consiglio:
Cosa dite alla luce della prova ,R600 rinasce in dx10 o corro a prendermi una xfx8800 gts 640mb(ho visto ampi margini di miglioramento di quest'ultima con i driver che verranno).
Sono legato a ATI dalla 7500...9800pro...x800...x1900xt...e aspettavo x2900xt vedendo in lei una 9700 moderna(CHE SOGNO)per continuare la scalata con ATI ma...
PROPIO ho l'impressione che questa scheda sarà riaggiornata prestissimo!!
Non tanto per la velocita che è allineata ma ho l'impressione che sia dà ottimizzare parecchio,a volte lenta più di una x1900xt e a volte con punte notevoli ma...
Cosa dite per questa generazione passo la mano con ATI?
Che peccato, e ho aspettato 2mesi per L'UPGRADE!
alla luce della prova comincia a correre per andare a comprare la 8800gts640.
;)
Apix_1024
16-05-2007, 11:41
In merito ai consumi di Xbitlabs: loro usano il 3dmark06 invece dello Shadermark di Hwupgrade. Quest'ultimo da' consumi più elevati (mea culpa quando in passato ho criticato la redazione per la scelta di quell'applicativo).
In ogni caso, Amd dichiara 215W per la HD 2900XT, mentre Nvidia dichiara 170W. Da 45W teorici, si passa a 30W reali. Non cambia la sostanza nel rapporto performance/W, che è ciò che conta davvero.
Penso che con applicazioni DirectX10 che spremono di più le gpu, sarà più facile raggiungere consumi più vicini a quelli dichiarati.
In merito alla domanda: come si superano i 300W?
E' molto semplice.
Lo standard dice che 8 pin (100W) + 6 pin (75W) + slot (75W) fanno 250W.
In overclock gli standard non contano, per definizione :-)
Infatti, molti overclock sulla 2900XT li hanno fatto usando i 2 connettori 6 pin. L'Overdrive è disabilitato, ma l'utility Amd per l'overclock funziona.
Quindi una HD 2900XT overcloccata con azoto liquido a 1.53V (1.175V standard) e 1230/2300 (attuale WR) consuma dai 450 ai 480W :-)
Chiaramente con un buon alimentatore da 1kW, visto anche il quad core da 4.9Ghz che gli stava appresso ;-)
Ma come ho già detto, se una HD 2900XT fa gli 850/2000 ad aria, non è granchè vs GTS a 650/1900, vedendo quali sono le attuali prestazioni di partenza, e quali sono le "insidie" a livello termico e d'alimentazione, per la 2900XT.
pensare che il sistema in firma sotto carico fa 500watt e non é certo un sistema da buttare!! cmq la x2900 sotto azoto raggiunge frequenze veramente da capogiro.. vedremo se i driver un pó meno acerbi daranno benefici...
MiKeLezZ
16-05-2007, 12:00
In merito ai consumi di Xbitlabs: loro usano il 3dmark06 invece dello Shadermark di Hwupgrade. Quest'ultimo da' consumi più elevati (mea culpa quando in passato ho criticato la redazione per la scelta di quell'applicativo).
ShaderMark 2.1 is a DirectX 9.0 pixel shader benchmark.
We loaded the GPU by launching the first SM3.0/HDR graphics test from 3DMark06 and running it in a loop.
Non credo sia come dici... non han fatto fare un loop di 3DMark (che ha dei punti morti), ma uno stress test con SM3.0/HDR; il consumo di XBitlabs molto probabilmente è semplicemente più accurato (e più rappresentativo di uno scenario reale).
Comunque se hai delle prove a riguardo...
In ogni caso, Amd dichiara 215W per la HD 2900XT, mentre Nvidia dichiara 170W. Da 45W teorici, si passa a 30W reali. Non cambia la sostanza nel rapporto performance/W, che è ciò che conta davvero.
Penso che con applicazioni DirectX10 che spremono di più le gpu, sarà più facile raggiungere consumi più vicini a quelli dichiarati.Penso che questi valori siano di massima ed irraggiungibili, ottenuti moltiplicando la tensione di alimentazione con il consumo teorico in ampere di tutti i transistor accesi. Una sorta di "sicuramente non più di questo". Anche perchè spesso sono riferiti al caso peggiore, ovvero il peggior chip di tutti quelli creati da un wafer (che è la piastra madre usata in fabbrica).
In merito alla domanda: come si superano i 300W?
E' molto semplice.
Lo standard dice che 8 pin (100W) + 6 pin (75W) + slot (75W) fanno 250W.
In overclock gli standard non contano, per definizione :-)
Infatti, molti overclock sulla 2900XT li hanno fatto usando i 2 connettori 6 pin. L'Overdrive è disabilitato, ma l'utility Amd per l'overclock funziona.
Quindi una HD 2900XT overcloccata con azoto liquido a 1.53V (1.175V standard) e 1230/2300 (attuale WR) consuma dai 450 ai 480W :-)
Chiaramente con un buon alimentatore da 1kW, visto anche il quad core da 4.9Ghz che gli stava appresso ;-)Ciò che dici non fila.
Se Xbitlabs ha misurato 161W a pieno carico per la X2900XT, e tu dici che la tensione di alimentazione è 1,175V, significa che la scheda ha un consumo di 137A, che moltiplicati per la tensione in overvolt della scheda a 1,53V, mi dice che avrò un consumo teorico in OC di circa 209W (non è esattamente così visto che gli ampere vengono assorbiti da molteplici circuiti della scheda e non solo il chip, ma rende l'idea).
A questo va aggiunto che un aumento di frequenza sulle RAM porta a un aumento di consumi, però negligibile, diciamo 5W. Invece l'aumento di frequenza del core può portare a fenomeni di elettromigrazione, di leakage, e parzialmente di resistenza maggiore dei transistor data dalla temperatura maggiore (fenomeno comunque attenuato sotto azoto liquido) che aumentano gli ampere consumati..
Ma certamente non possono far passare da 209W teorici a 480W pratici (che in pratica sarebbe un piccolo fornetto da cucina)... al massimo arriveremo sui 250W/270W.
Ho visto le preoccupazioni di alcuni utenti riguardo alle performance delle gtx e comunque di quello che sono ora le schede di fascia alta con i giochi DX10 e volevo dire la mia. Visto che sono le schede più potenti oggi in circolazione le software house dovranno basare *per forza* i loro titoli non su queste, bensi su quelle di fascia media o addirittura bassa di questa generazione, per almeno il prossimo anno se non anche quello dopo. E' chiaro che non tutti possono permettersi una scheda video di fascia alta all'interno del case ed è altrettanto vero che il gioco lo devono vendere al più alto numero di persone possibili. O pensano veramente che io l'anno prossimo cambierò una 8800 ultra perchè è uscita una scheda che i programmatori non hanno nemmeno idea di come sfruttare visto la lentezza che hanno nell'aggiornarsi ( vedi multi-core ) o perchè non hanno minimamente voglia di sbattersi nell'ottimizzare visto che tanto esiste la corsa all'hardware ?
Lud von Pipper
16-05-2007, 12:15
presa a febbraio la 320, di listino era 270€ iva inclusa, contro i 220 della x1950xt.
L'abisso di prestazioni nei giochi recenti giustifica ampiamente la differenza di prezzo, e te lo dico io che venivo da una x1900xt.
Quando deciderai di cambiare avrai pure speso 50€ in meno, ma ti ritroverai con una scheda che in pochi vorranno e che comunque subirà un svalutazione sicuramente maggiore con il passaggio alle dx10, quindi alla fine non so nemmeno se avrai speso meno.
Appena è uscita questa scheda ho venduto subito la mia ati e con circa 30€ ho fatto questo cambio che rifarei in qualsiasi momento.
E' evidente che lavori, o comunque sei strettamente a contatto con qualche negozio: è ovvio che ho fatto un minimo di confronto per acquistare la scheda video, e non ho trovato NULLA al di sotto dei 350€ che fosse da me in quanche modo acquistabile, a meno di buttarsi alla cieca su E-bay da privati (poco affidabili).
Faccio notare che la mia 6600GT era praticamente defunta e funzionava solo in 2D, quindi di attendere oltre non se ne parlava.: mi serviva una scheda nuova e subito.
Ho comprato la 1950XT con l'Accelero X2 spendendo in totale 234€, insieme ad un Arcticoling per l'E6600 e ad un Enermax Liberty per un Pc che oggi non mi accorgo sia acceso.
Gioco e uso il PC abitualmente a 1600x1200 (esclusi Oblivion R6V), risoluzione a cui le differenze tra ATI e nVidia si assottigliano e quindi sono pienamente soddisfatto del mio acquisto, soprattutto a ragione degli oltre 100€ di differenza sul prezzo milgiore possibile a mia disposizione.
A tutt'ora ritengo la 8800GTS 320 una scheda utile solo per il 1200x1024 (a lungo termine), e per le stesse ragioni da te esposte, (i 50€ di differenza che tu affermi ci fossero all'epoca), potrei chiedere perchè non hai investito su una 8800GT S640 perchè... L'abisso di prestazioni nei giochi recenti giustifica ampiamente la differenza di prezzo...
Quando deciderai di cambiare avrai pure speso 50€ in meno, ma ti ritroverai con una scheda che in pochi vorranno e che comunque subirà un svalutazione sicuramente maggiore con il passaggio alle dx10, quindi alla fine non so nemmeno se avrai speso meno. ;)
Apix_1024
16-05-2007, 12:17
Ma certamente non possono far passare da 209W teorici a 480W pratici (che in pratica sarebbe un piccolo fornetto da cucina)... al massimo arriveremo sui 250W/270W.
guarda io ti dico che con la x1900gt ad un aumento del voltaggio equivale pure un aumento della corrente richiesta dal core... la mia x1900gt lavora a default a 1.25volt e circa 28/30a di picco. con 1.45volt il picco é giá verso i 42/45a... quindi se tanto mi dá tanto pure la x2900 fará cosí piú o meno...:muro: :muro:
Portocala
16-05-2007, 12:36
E' evidente ...
visto il test con Lost Planet, un frame rate decente la 8800 GTS320 lo garantirà in dx10
non so la tua ...
Spero i drivers riescano a dare ad AMD un pò di quello che è di AMD ( cazz ho scritto? :D )
Mi sto innamorando di sto brutto anatrocolo, nella speranza che diventi un cigno bello figo, altrimenti lo schiaccio :sofico:
Lud von Pipper
16-05-2007, 12:39
una precisazione la 8800gts320 è uscita 10 febbraio. e l'ho pagata capito pagata 250€. e non ti permettere battute ed illazioni ;)
Ti ho chiesto dove, ma, per citare te stesso... non credo che avremo risposte :ahahah:
(i suonatori andarono per suonera e... :ciapet: )
Ti ho chiesto dove, ma, per citare te stesso... :ahahah:
(i suonatori andarono per suonera e... :ciapet: )
Se conosco Hal l'ha presa in un negozio a Roma. A listino il prezzo è quello, non so se a febbraio lo era già, ma di sicuro non l'ha rubata :)
halduemilauno
16-05-2007, 12:46
Ti ho chiesto dove, ma, per citare te stesso... :ahahah:
(i suonatori andarono per suonera e... :ciapet: )
Se l'hai rubata l'affare l'hai fatto senz'altro tu (sempre che non ti becchino ovviamente ;).)
Se l'hai comprata a marzo dimmi dove visto che i miei 220€ (iva inclusa) erano il prezzo più basso disponibile a febbrario e che la GTS320 più economica costa 259€ anche ora (http://www.trovaprezzi.it/prezzo_schede-grafiche_gts_320mb.aspx). Semplicemente perchè è uscita sul mercato a marzo, ad un prezzo (ivato) di 350€ secchi.
Ovviamente, scaricando l'iva ho pagato la mia scheda meno di 200€...
Sai, se mi impegno un attimo mio cuggino mi procura per 250€ una GTS 640 così poi ti sbandiero in faccia qualche bench ;).
Nella mia ottica l'affare l'ho fatto io, perchè gioco senza limitazioni da quattro mesi a quello che mi interessa (su un CRT22") e quando deciderò di cambiare posso considerare di avere un centone in più in nel budget per puntare dove serve. :cool:
(senza polemiche ovviamente ;) )
Se l'hai rubata l'affare l'hai fatto senz'altro tu (sempre che non ti becchino ovviamente ;).)
ma a questa tua frase non hai da dire nulla?
halduemilauno
16-05-2007, 12:50
Se conosco Hal l'ha presa in un negozio a Roma. A listino il prezzo è quello, non so se a febbraio lo era già, ma di sicuro non l'ha rubata :)
in questo caso si mi conosci bene. ma ti rendi conto mi ha chiesto se l'ho rubata.
:mad:
in questo caso si mi conosci bene. ma ti rendi conto mi ha chiesto se l'ho rubata.
:mad:
Ho avuto uno scambio di vedute con Lud von Pipper e se non ho capito male come è fatto, ti chiederà scusa :)
Ho avuto uno scambio di vedute con Lud von Pipper e se non ho capito male come è fatto, ti chiederà scusa :)
Eh sì.... diciamo che sarebbe meglio che lo faccia...
bluefrog
16-05-2007, 12:53
Per caso è il "centro computer" della città?
halduemilauno
16-05-2007, 12:54
Ho avuto uno scambio di vedute con Lud von Pipper e se non ho capito male come è fatto, ti chiederà scusa :)
aspetto. intanto ti ringrazio per i tuoi interventi.
Lud von Pipper
16-05-2007, 12:57
Mi sto innamorando di sto brutto anatrocolo, nella speranza che diventi un cigno bello figo, altrimenti lo schiaccio :sofico:
Questione di esigenze:
Quanto ti dura mediamente una scheda video?
Che tipo di monitor hai, e intendi sostituirlo?
Che tipo di giochi usi normalmente?
Lasciando da parte i giochi DX10 che per me non saranno giocabili a pieni dettagli su una GTS fai la tua valutazione su queste schede e decidi quanto vuoi spendere.
Considerà però che tra i 178€, ad esempio, di una 1950XT e i 259€ di una GTS320 ci sono 81€ quasi un terzo del prezzo complessivo, a fornte di circa un 10% di differenza reale.
Se vuoi cambiare scheda solo tu conosci a fondo tutte le variabili che rendono per te una scheda appetitosa. Per chi ha esigenze a lungo termine (oltre l'anno) la GTX è l'unica via possibile (per quanto dolga al portafoglio) ;)
halduemilauno
16-05-2007, 12:59
Eh sì.... diciamo che sarebbe meglio che lo faccia...
grazie anche a te.
Lud von Pipper
16-05-2007, 13:01
Eh sì.... diciamo che sarebbe meglio che lo faccia...
Ma la faccina di fianco alla frase la vedo solo io? :rolleyes:
OT
Hal se é il negozio che sto pensando c' é anche una bella sparkle GTS 640 a 322 Euri :D
OT
x MiKeLezZ
C'è il confronto sul Hardocp (sito che in genere non leggo), in cui tra Orthos + 3Dmark ed Othos + Shadermark, il secondo sistema consuma di più.
Cmq sono d'accordo con te: il rilevamento col 3dmark è più vicino alle condizioni di gioco. Ma è certo che usciranno applicazioni più pesanti del 3Dmark in futuro.
In merito ai consumi, hai fatto parecchia confusione :-)
Il dato di partenza è 1.175V e 160W a 750 gpu e 850 le memorie.
Il dato d'arrivo è 1.53V e 1230/1200. Anche le memorie sono state overvoltate, ma incidono in maniera minimale sui consumi.
Siccome i consumi variano col quadrato del voltaggio hai che:
160W * (1.53/1.175)^2 * (1230/750) = 445W.
L'assorbimento dipende anche dalla temperatura operativa.
Più è alta e più il chip assorbe corrente (e più assorbe, più scalda). Un motivo in più per tenerle basse.
L'overclock in oggetto era fatto tra i -70 ed i -90 C° (hanno avuto qualche difficoltà a tenerle basse, con l'azoto liquido!!).
La cosa davvero ostica è sapere di "quanto" varia l'assorbimento rispetto alla temperatura operativa.
In quel genere di overclock, non se ne curano molto: sono altri i "parametri" critici da tenere d'occhio.
MiKeLezZ
16-05-2007, 13:28
guarda io ti dico che con la x1900gt ad un aumento del voltaggio equivale pure un aumento della corrente richiesta dal core... la mia x1900gt lavora a default a 1.25volt e circa 28/30a di picco. con 1.45volt il picco é giá verso i 42/45a... quindi se tanto mi dá tanto pure la x2900 fará cosí piú o meno...:muro: :muro:'mazza il 50% in più non è per nulla poco... nel mio esempio di prima si passerebbe dai 250W/270W stimati, ai 310W
Lud von Pipper
16-05-2007, 13:57
Il dato d'arrivo è 1.53V e 1230/1200. Anche le memorie sono state overvoltate, ma incidono in maniera minimale sui consumi.
Ne sei sicuro? ho visto tempo fa alcuni test sull'assorbimento di una scheda video (XT GDDR3 portata ad XTX GDDR4) che mostrava come un aumento nelle frequenza di pochi mhz porta ad uno aumento notevolissimo consumi, percentuali importanti sul consumo generale della scheda sotto carico.
Non so se fosse un caso particolare ma portare le memorie fuori specifica non è che avvenga gratis
E' evidente che lavori, o comunque sei strettamente a contatto con qualche negozio: è ovvio che ho fatto un minimo di confronto per acquistare la scheda video, e non ho trovato NULLA al di sotto dei 350€ che fosse da me in quanche modo acquistabile, a meno di buttarsi alla cieca su E-bay da privati (poco affidabili).
Faccio notare che la mia 6600GT era praticamente defunta e funzionava solo in 2D, quindi di attendere oltre non se ne parlava.: mi serviva una scheda nuova e subito.
Ho comprato la 1950XT con l'Accelero X2 spendendo in totale 234€, insieme ad un Arcticoling per l'E6600 e ad un Enermax Liberty per un Pc che oggi non mi accorgo sia acceso.
Gioco e uso il PC abitualmente a 1600x1200 (esclusi Oblivion R6V), risoluzione a cui le differenze tra ATI e nVidia si assottigliano e quindi sono pienamente soddisfatto del mio acquisto, soprattutto a ragione degli oltre 100€ di differenza sul prezzo milgiore possibile a mia disposizione.
A tutt'ora ritengo la 8800GTS 320 una scheda utile solo per il 1200x1024 (a lungo termine), e per le stesse ragioni da te esposte, (i 50€ di differenza che tu affermi ci fossero all'epoca), potrei chiedere perchè non hai investito su una 8800GT S640 perchè... ;)
no, non lavoro e non ho conoscenze particolari, semplicemente so quali sono i negozi più economici, a roma ce ne sono 4 in particolare di cui 2 spediscono anche.
Come hai detto tu, avevi fretta e spesso in questi casi si commettono errori negli acquisti, e prendere una x1950xt a quel prezzo lo definirei tale.
Che poi ci giochi bene a 1600x1200 ok, io potrei giocarci meglio perchè fino a quella risoluzione e a volte oltre non c'è differenza con le 640mb.
I motivi fondamentali per cui non ho considerato la sorella maggiore sono due: il prezzo (se non ricordo male era 420€ contro 270€) e perchè il mio vx922 non va oltre 1280x1024 e non ho intenzione di cambiarlo.
grazie anche a te.
hal, sono due giorni che ricevi "attestati di solidarietà" a destra e a manca..... ci sarà mica da preoccuparsi ? :sofico:
;)
MiKeLezZ
16-05-2007, 14:08
x MiKeLezZ
C'è il confronto sul Hardocp (sito che in genere non leggo), in cui tra Orthos + 3Dmark ed Othos + Shadermark, il secondo sistema consuma di più.
Cmq sono d'accordo con te: il rilevamento col 3dmark è più vicino alle condizioni di gioco. Ma è certo che usciranno applicazioni più pesanti del 3Dmark in futuro.
In merito ai consumi, hai fatto parecchia confusione :-)
Il dato di partenza è 1.175V e 160W a 750 gpu e 850 le memorie.
Il dato d'arrivo è 1.53V e 1230/1200. Anche le memorie sono state overvoltate, ma incidono in maniera minimale sui consumi.
Siccome i consumi variano col quadrato del voltaggio hai che:
160W * (1.53/1.175)^2 * (1230/750) = 445W.
L'assorbimento dipende anche dalla temperatura operativa.
Più è alta e più il chip assorbe corrente (e più assorbe, più scalda). Un motivo in più per tenerle basse.
L'overclock in oggetto era fatto tra i -70 ed i -90 C° (hanno avuto qualche difficoltà a tenerle basse, con l'azoto liquido!!).
La cosa davvero ostica è sapere di "quanto" varia l'assorbimento rispetto alla temperatura operativa.
In quel genere di overclock, non se ne curano molto: sono altri i "parametri" critici da tenere d'occhio.bhe la potenza è v*i oppure R*i^2 e non si scappa...
la tua formula calcola la potenza in funzione del quadrato del rapporto fra i diversi voltaggi e del rapporto fra le frequenze, ipotetizzando quindi un andamento esponenziale per i primi e lineare per i secondi
è un'approssimazione che tiene conto dei fattori che ho esplicato nel reply precedente e che tu hai ripreso (aumento di resistenza elettrica con aumento di temperatura e frequenza operativa, e aumento del leakage)
ma, appunto, giusto un'approssimazione, infatti i 445W mi sembrano eccessivi (contando anche che a -70°c avvengono diversi fenomeni per cui vengono limitati fortemente quelli esposti prima, e potremmo quasi ottenere un effetto contrario: i 1230MHz ne sono prova)
sarebbe comunque interessante vedere test sull'argomento, non mi sembra che xbitlabs ne abbia mai fattiNe sei sicuro? ho visto tempo fa alcuni test sull'assorbimento di una scheda video (XT GDDR3 portata ad XTX GDDR4) che mostrava come un aumento nelle frequenza di pochi mhz porta ad uno aumento notevolissimo consumi, percentuali importanti sul consumo generale della scheda sotto carico.
Non so se fosse un caso particolare ma portare le memorie fuori specifica non è che avvenga gratisLe memorie consumano così poco già da loro che anche pensando che il consumo di potenza raddoppi in oc (il 100% in più), in percentuale è poco incidente rispetto all'oc del core
halduemilauno
16-05-2007, 14:10
Per caso è il "centro computer" della città?
no. è la molto piccola volpe.
;)
halduemilauno
16-05-2007, 14:13
hal, sono due giorni che ricevi "attestati di solidarietà" a destra e a manca..... ci sarà mica da preoccuparsi ? :sofico:
;)
forse ma certamente non da sorprendersi.
;)
I "nuovi driver magici" sembrano non esser poi così magici come si pensava
si si certo
"AMD has cautioned reviewers on DX10 "Lost Planet" benchmark to be released very soon. True enough, PCGH has managed to benchmark HD 2900 XT against 8800 GTS and the results are very clear; 19fps vs 39fps. Here's a snip from the email :
Tomorrow Nvidia is expected to host new DirectX 10 content on nZone.com in the form of a “Lost Planet” benchmark. Before you begin testing, there are a few points I want to convey about “Lost Planet”. “Lost Planet” is an Nvidia-sponsored title, and one that Nvidia has had a chance to look at and optimize their drivers for. The developer has not made us aware of this new benchmark, and as such the ATI Radeon driver team has not had the opportunity explore how the benchmark uses our hardware and optimize in a similar fashion. Over the next little while AMD will be looking at this, but in the meantime, please note that whatever performance you see will not be reflective of what gamers will experience in the final build of the game."
Portocala
16-05-2007, 14:15
Questione di esigenze:
Quanto ti dura mediamente una scheda video?
Che tipo di monitor hai, e intendi sostituirlo?
Che tipo di giochi usi normalmente?
Lasciando da parte i giochi DX10 che per me non saranno giocabili a pieni dettagli su una GTS fai la tua valutazione su queste schede e decidi quanto vuoi spendere.
Considerà però che tra i 178€, ad esempio, di una 1950XT e i 259€ di una GTS320 ci sono 81€ quasi un terzo del prezzo complessivo, a fornte di circa un 10% di differenza reale.
Se vuoi cambiare scheda solo tu conosci a fondo tutte le variabili che rendono per te una scheda appetitosa. Per chi ha esigenze a lungo termine (oltre l'anno) la GTX è l'unica via possibile (per quanto dolga al portafoglio) ;)
infatti, per il pc che devo fare ho scelto una 1950 PRO a 150 euro (e sono al pelo del budget che mi sono imposto) dato che l'alternativa 8600GT è inadeguata.
Portocala
16-05-2007, 14:18
si si certo
"AMD has cautioned reviewers on DX10 "Lost Planet" benchmark to be released very soon. True enough, PCGH has managed to benchmark HD 2900 XT against 8800 GTS and the results are very clear; 19fps vs 39fps. Here's a snip from the email :
Tomorrow Nvidia is expected to host new DirectX 10 content on nZone.com in the form of a “Lost Planet” benchmark. Before you begin testing, there are a few points I want to convey about “Lost Planet”. “Lost Planet” is an Nvidia-sponsored title, and one that Nvidia has had a chance to look at and optimize their drivers for. The developer has not made us aware of this new benchmark, and as such the ATI Radeon driver team has not had the opportunity explore how the benchmark uses our hardware and optimize in a similar fashion. Over the next little while AMD will be looking at this, but in the meantime, please note that whatever performance you see will not be reflective of what gamers will experience in the final build of the game."
e infatti si sa che nvidia ha i profili per i giochi.
ci vuole tempo, ancora e ancora e ancora.
halduemilauno
16-05-2007, 14:18
Ma la faccina di fianco alla frase la vedo solo io? :rolleyes:
allora tutti sarebbero autorizzati a dire le peggio cose basta mettere la faccina giusta. guarda a questo punto di queste tue eventuali scuse spintanee non so più che farmene. tanto hanno capito tutti chi sei e come sei fatto.
e infatti si sa che nvidia ha i profili per i giochi.
ci vuole tempo, ancora e ancora e ancora.
e il bello è che effettivamente la demo è una vera e propria "merd@" tant'è che fa crash continui e ha numerosi difetti di visualizzione non solo sulle ati.
Sul NG it.comp.giochi.action c'è gente che lo sta provano su vista...ed è uno sfacelo di gioco.... mal ottimizzato e buggato più che mai...
Ora capisco perchè alla ti dicono di aspettare dei test con il gioco in gold, e non solo perchè non hanno avuto la possibilità di provarlo ed esaminarlo...
MiKeLezZ
16-05-2007, 14:23
anzi, mi correggo, un test di OC potremmo estrapolarlo proprio da una recente recensione di xbitlabs:
http://www.xbitlabs.com/articles/video/display/gf8800gts320MB-roundup_8.html
594/1840 invece che 516/1600, quindi un aumento in frequenza in percentuale del 15% porta i consumi da 103W a 118W (idle non lo consideriamo), un aumento percentuale del 15% (ancora)
tutto questo (credo) con tensione di alimentazione immutata percui (almeno a questi livelli) si ha un andamento effettivamente lineare
forse ma certamente non da sorprendersi.
;)
non c'è dubbio.
;)
halduemilauno
16-05-2007, 14:28
non c'è dubbio.
;)
ciao.
;)
MiKeLezZ
16-05-2007, 14:28
si si certo
"AMD has cautioned reviewers on DX10 "Lost Planet" benchmark to be released very soon. True enough, PCGH has managed to benchmark HD 2900 XT against 8800 GTS and the results are very clear; 19fps vs 39fps. Here's a snip from the email :
Tomorrow Nvidia is expected to host new DirectX 10 content on nZone.com in the form of a “Lost Planet” benchmark. Before you begin testing, there are a few points I want to convey about “Lost Planet”. “Lost Planet” is an Nvidia-sponsored title, and one that Nvidia has had a chance to look at and optimize their drivers for. The developer has not made us aware of this new benchmark, and as such the ATI Radeon driver team has not had the opportunity explore how the benchmark uses our hardware and optimize in a similar fashion. Over the next little while AMD will be looking at this, but in the meantime, please note that whatever performance you see will not be reflective of what gamers will experience in the final build of the game."
Sarà anche così, ma non è un vanto ammettere che i giochi debbano esser ottimizzati nei driver per rendere al meglio.. e non solo in performance, ma anche in qualità visiva (perchè al momento sono le ATI ad avere notevoli bug di visualizzazione, e non solo in quel gioco)
E' come dire che ho una ferrari biturbo che va una schioppettata, però ad ogni curva che incontro devo scendere e girarla a spinta, perchè il volante non comanda lo sterzo...
Evangelion01
16-05-2007, 14:33
Sarà anche così, ma non è un vanto ammettere che i giochi debbano esser ottimizzati nei driver per rendere al meglio.. e non solo in performance, ma anche in qualità visiva (perchè al momento sono le ATI ad avere notevoli bug di visualizzazione, e non solo in quel gioco)
E' come dire che ho una ferrari biturbo che va una schioppettata, però ad ogni curva che incontro devo scendere e girarla a spinta, perchè il volante non comanda lo sterzo...
Quoto, e spero che quella dei giochi "sponsorizzati" e ottimizzati solo per una o l' altra marca non diventi una situazione comune, altrimenti ci toccherà fare un "crossli" per giocare tutti i titoli in maniera decente... :asd:
Portocala
16-05-2007, 14:34
Sarà anche così, ma non è un vanto ammettere che i giochi debbano esser ottimizzati nei driver per rendere al meglio.. e non solo in performance, ma anche in qualità visiva (perchè al momento sono le ATI ad avere notevoli bug di visualizzazione, e non solo in quel gioco)
E' come dire che ho una ferrari biturbo che va una schioppettata, però ad ogni curva che incontro devo scendere e girarla a spinta, perchè il volante non comanda lo sterzo...
non ho capito cosa hai scritto :confused: puoi spiegarti meglio, grazie
Quoto, e spero che quella dei giochi "sponsorizzati" e ottimizzati solo per una o l' altra marca non diventi una situazione comune, altrimenti ci toccherà fare un "crossli" per giocare tutti i titoli in maniera decente... :asd:
Beh, basta aspettare che i giochi escano in edizione economica con la gazzetta e non ci sono più problemi per spingerli al massimo indipendentemente dalla marca della scheda top di gamma appena comprata. :D
MiKeLezZ
16-05-2007, 14:41
non ho capito cosa hai scritto :confused: puoi spiegarti meglio, grazieSe il gioco è scritto in DX10 e la scheda supporta DX10, i driver ritengo dovrebbero esser solo un banale orpello, in quanto si presume la scheda macini comunque senza problemi il codice del gioco e da questo fornisca un output visivo corretto
Non mi pare che le CPU necessitino di driver per funzionare, né che i loro output siano diversi fra AMD e INTEL, se apro la calcolatrice e faccio 2/3 il risultato deve esser 0,666-6 per entrambi
Posso capire la transizione ad architetture a stream processor possa maggiormente necessitare una sorta di ottimizzazione per plasmare il codice alla scheda (in quanto la scheda al codice non è ancora possibile plasmarla), ma vedere 17FPS quando la soluzione concorrente ne fa 3 volte di più significa che non siamo più di fronte ad "ottimizzazione" ma proprio a un deficit strutturale, ancora peggio la qualità visiva ricca di errori di visualizzazione, segno che addirittura viene meno la capacità di scheda/driver a tradurre il linguaggio, che si presume standard, DX10 (ma anche DX9, visto il rendering della nebbia in HL2)
Sarà anche così, ma non è un vanto ammettere che i giochi debbano esser ottimizzati nei driver per rendere al meglio.. e non solo in performance, ma anche in qualità visiva (perchè al momento sono le ATI ad avere notevoli bug di visualizzazione, e non solo in quel gioco)
E' come dire che ho una ferrari biturbo che va una schioppettata, però ad ogni curva che incontro devo scendere e girarla a spinta, perchè il volante non comanda lo sterzo...
ma ci fai o ci sei? su cosa pensi si basi la programmabilità dei chip grafici come G80 e R600? E' tutto un profiling pesantemente basato sul singolo gioco (o motore grafico) da elaborare....
Zannawhite
16-05-2007, 14:56
Vi ho lasciati un giorno e siamo già a pagina 57
Vi chiedevo se questi nuovi driver Ati portano benefici sensibili anche sui giochi in DX9 ?
gianni1879
16-05-2007, 14:59
Non so se era stato postato, qua trovate una rece sotto win XP:
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=1
un pochino meglio!
mmmh stavo vedendo sti test su win32bit sp2 e devo dire che in alcuni casi va abbastanza bene, ma in altri attivando i filtri se ne scende di brutto....
la sk potrebbe migliorare forse pure di parecchio con driver migliori... boh
Se il gioco è scritto in DX10 e la scheda supporta DX10, i driver ritengo dovrebbero esser solo un banale orpello, in quanto si presume la scheda macini comunque senza problemi il codice del gioco e da questo fornisca un output visivo corretto
Quoto solo questo in modo che la gente capisca che le tue argomentazioni sono basate su lacune e disastrose idee sconclusionate su come funzionano le architteture grafiche moderne.
Spero che nessuno ti ascolti veramente perchè ormai è EVIDENTE che tu continui a non capire cosa sia la programmabilità dei driver e la programmabilità dell'hardware e che differenza ci sia tra queste due.
Mi stupisco che tu ancora provi ad addentrarti in discorsi pseudo-tecnici senza minimamente sapere come funzionino le cose.
Quello che mi più mi stupisce è che c'è pure gente che ti da ascolto...
Sinceramente vorrei vedere i tuoi interventi quotati dai "guru" del forum...
:(
halduemilauno
16-05-2007, 15:10
http://www.tomshw.it/graphic.php?guide=20070516
;)
MiKeLezZ
16-05-2007, 15:12
ok bs :friend:
comunque non mi hai ancora risposto :)
http://www.hwupgrade.it/forum/showpost.php?p=17140140&postcount=1063
sarà forse anche per questo che hai tutto questo astio
Evangelion01
16-05-2007, 15:12
[QUOTE=MiKeLezZ;17145401]Se il gioco è scritto in DX10 e la scheda supporta DX10, i driver ritengo dovrebbero esser solo un banale orpello, in quanto si presume la scheda macini comunque senza problemi il codice del gioco e da questo fornisca un output visivo corretto
QUOTE]
No, questo è SBAGLIATO. Se fosse come dici tu, non ci sarebbero problemi e bug nei giochi, e non sarebbe necessario rilasciare di continuo
nuovi driver per correggerli. Magari, fosse così semplice..... :p
Evangelion01
16-05-2007, 15:15
http://www.tomshw.it/graphic.php?guide=20070516
;)
Già vista e letta... e questo mi fa pensare ancor di più. Se in alcuni casi sicramente il comportamento penoso della 2900 è imputabile ai driver, in altri mi pare che sia la vga in affanno..... staremo a vedere.
ok bs :friend:
comunque non mi hai ancora risposto :)
http://www.hwupgrade.it/forum/showpost.php?p=17140140&postcount=1063
sarà forse anche per questo che hai tutto questo astio
Non rispondo perchè a parte le cavolate scritte, il mio post era ironico...e continua a essere vero che in calore assolutamente non viene dissipata tutta la corrente assorbita.
Astio? No, semplicemente ti sei fissato con quella cosa dei driver, questione che non hai capito e che purtroppo opinioni solo grazie alle tue supposizioni.
halduemilauno
16-05-2007, 15:17
Già vista e letta... e questo mi fa pensare ancor di più. Se in alcuni casi sicramente il comportamento penoso della 2900 è imputabile ai driver, in altri mi pare che sia la vga in affanno..... staremo a vedere.
quella è nuova di oggi.
;)
Evangelion01
16-05-2007, 15:18
quella è nuova di oggi.
;)
Lo so.. :)
Già vista e letta... e questo mi fa pensare ancor di più. Se in alcuni casi sicramente il comportamento penoso della 2900 è imputabile ai driver, in altri mi pare che sia la vga in affanno..... staremo a vedere.
certo che se si dici che il comportamento penoso a volte è imputabile ai driver e poi si va a recriminare sulle scarse prestazioni in XF...beh... Non bisognerebbe prima vedere che in single la situazione driver venga migliorata?
MiKeLezZ
16-05-2007, 15:24
Non rispondo perchè a parte le cavolate scritte, il mio post era ironico...e continua a essere vero che in calore assolutamente non viene dissipata tutta la corrente assorbita.
Astio? No, semplicemente ti sei fissato con quella cosa dei driver, questione che non hai capito e che purtroppo opinioni solo grazie alle tue supposizioni.per fortuna tu hai capito anche la mia parte, e se non capisci, tanto sei ironico :D :D
in ogni caso è poco utile il tuo recriminare non so cosa, le conclusioni sono a senso unico
chi vuole può continuare a sperare, ma mi sembra si sia già detto tutto
Mikelezz: l'assorbimento è lineare se non c'è incremento di voltaggio.
Se c'è variazione di voltaggio, la variazione è quadratica sul voltaggio e lineare sul clock.
La formula è quella: viene utilizzata da anni con risultati più che accettabili.
Serve per avere un'ottima approssimazione per il dimensionamento del sistema di raffreddamento e per l'alimentazione.
Se vuoi un risultato più accurato, usi una pinza amperometrica ed un tester.
Evangelion01
16-05-2007, 15:35
certo che se si dici che il comportamento penoso a volte è imputabile ai driver e poi si va a recriminare sulle scarse prestazioni in XF...beh... Non bisognerebbe prima vedere che in single la situazione driver venga migliorata?
Cio che intendevo è che, guardando quei bench, in alcuni casi il cf di 2900 sta dietro il cf di x1900, e questo sarà sicuramente dovuto a un comportamento anomalo dei drivers in quel determinato game, cosa che non avviene in altri, in cui se la gioca con la 8800 gts. In quelli probabilmente i driver hanno meno influenza. Poi come ho già detto, staremo a vedere cosa succederà con le prossime release. Certo è che al momento, con questi driver, sono prestazioni molto deludenti per le 2900, specie in Cf. E la situazione attuale interessa chi magari vuole acquistare ORA e godersi queste vga.
Zannawhite
16-05-2007, 15:35
Vedo comunque che il tizzone è ancora bello acceso :eek:
Come reperibilità delle HD 2900 XT come siamo messi?
Mi ricordo che Ati era sempre un po in affanno a rendere disponibili subito questi nuovi arrivi.
Sarà anche così, ma non è un vanto ammettere che i giochi debbano esser ottimizzati nei driver per rendere al meglio.. e non solo in performance, ma anche in qualità visiva (perchè al momento sono le ATI ad avere notevoli bug di visualizzazione, e non solo in quel gioco)
E' come dire che ho una ferrari biturbo che va una schioppettata, però ad ogni curva che incontro devo scendere e girarla a spinta, perchè il volante non comanda lo sterzo...
scusate non per essere ma ormai sono anni che atie nvidia ottimizzazano i driver per le singolo applicazioni
[KS]Zanna
16-05-2007, 16:40
bhe la potenza è v*i oppure R*i^2 e non si scappa...
la tua formula calcola la potenza in funzione del quadrato del rapporto fra i diversi voltaggi e del rapporto fra le frequenze, ipotetizzando quindi un andamento esponenziale per i primi e lineare per i secondi
è un'approssimazione che tiene conto dei fattori che ho esplicato nel reply precedente e che tu hai ripreso (aumento di resistenza elettrica con aumento di temperatura e frequenza operativa, e aumento del leakage)
ma, appunto, giusto un'approssimazione, infatti i 445W mi sembrano eccessivi
Scusami, ma visto il modo un po' saccente in cui hai ripreso qualche pagina fa qualcuno che citava (abbastanza a sproposito lo ammetto) i cicli di Carnot, non mi puoi poi scadere in generalizzazioni di questo tipo: non stiamo parlando di una resistenzona su cui scorre la corrente "i" con caduta di tensione "V"...
Accettiamo l'approssimazione di considerare la potenza assorbita come solo contributo della potenza di switching (le potenze di corto circuito e di leakage possono essere considerate trascurabili, dato anche l'affinamento dei processi litografici usati al giorno d'oggi): in questo caso la potenza di un circuito CMOS si calcola con la ben nota formula P = Ceff*f*V^2 dove Ceff è da intendersi come la capacità efficace di carico di un equivalente circuito a cui si approssima l'originale circuito complesso.
Nel caso in questione non sappiamo la Ceff del circuito "R600" :) , ma sapendo la potenza full load della scheda @ default, Mparlav non ha fatto altro che moltiplicare per il quadrato del rapporto tra Vov e Vdef e linearmente per il rapporto tra la foc e la fdef, che è una buona stima per la potenza sviluppata dalla scheda in overclock.
Ricapitalondo, un bel 10 a Mparlav e un po' + di umiltà (in generale per tutti, visto che altre persone stanno usando toni un po' esagerati e provocatori).
Ciao
dagon1978
16-05-2007, 17:14
Vedo comunque che il tizzone è ancora bello acceso :eek:
Come reperibilità delle HD 2900 XT come siamo messi?
Mi ricordo che Ati era sempre un po in affanno a rendere disponibili subito questi nuovi arrivi.
si trova piuttosto facilmente allo stesso prezzo delle 8800gts 640 (qualche manciata di € in più)
secondo me è comunque una buona scheda, rispetto alla diretta concorrente sta sopra, ha qualche svantaggio dovuto al rumore e al consumo, ma anche qualche vantaggio
non la vedo così tragica, è normale che sia una delusione per chi si aspettava che rivaleggiasse con le gtx (o le ultra...)
si trova piuttosto facilmente allo stesso prezzo delle 8800gts 640 (qualche manciata di € in più)
secondo me è comunque una buona scheda, rispetto alla diretta concorrente sta sopra, ha qualche svantaggio dovuto al rumore e al consumo, ma anche qualche vantaggio
non la vedo così tragica, è normale che sia una delusione per chi si aspettava che rivaleggiasse con le gtx (o le ultra...)
la 8800gts 640mb consuma meno...
dagon1978
16-05-2007, 17:31
la 8800gts 640mb consuma meno...
e io cosa ho scritto scusa?
e io cosa ho scritto scusa?
pensavo parlassi della 8800gts sorry :D
Superfigo1
16-05-2007, 17:46
solo x dire:
cavoli 1150 e più commenti, 116 pagine in DUE giorni!!!
mai tema è stato + caldo!!!
dagon1978
16-05-2007, 17:54
solo x dire:
cavoli 1150 e più commenti, 116 pagine in DUE giorni!!!
mai tema è stato + caldo!!!
vero... e se guardi le statistiche capisci anche chi ha scritto di più (e perché...)
cmq tra i 1150 mancano ancora le considerazioni di quei 2/3 utenti molto ferrati sull'argomento che ci permetterebbero di capire il perché di alcune situazioni anomale (vedi bench in cui va sotto la generazione precedente) e quanto c'è ancora da attendersi da questa architettura (nuovi driver, nuove schede pompate, fascia media... ecc)
io onestamente sono in attesa di questi interventi, speriamo che arrivino ;)
Da un certo punto di vista dagon1978 ha ragione: io non la vedo così tragica, ma il vero problema è stato il ritardo. Più tempo passava, più l'aspettativa era alta.
In merito ai consumi bisogna fare anche questo ragionamento raffrontandosi alla generazione precedente, senza alcuna polemica.
La x1900XT 512Mb consuma il 50% in più di una 7900GTX 512Mb, ma garantisce prestazioni medie del 15% in più, maggiore qualità AF, ed il support HDR(FP16) + AA.
Questo ha reso giustificabile questo consumo maggiore agli occhi degli utenti.
La HD 2900XT consuma il 50% in più della 8800 GTS, va uguale come prestazioni tendendo a quelle della GTX, ha un peggior filtro AF, ed un supporto video sicuramente eccellente, ma imho, inutile per questa categoria di schede enthusiast (per quello ci saranno le 2400 e 2600 desktop e mobile, visto che nessuno s'infila una 2900XT nell'HTPC).
Quindi i 160-200W sarebbero pure tollerabili, se almeno uscissero fuori le prestazioni, ma non rispetto alla GTS, ma rispetto alla GTX.
Perchè è questo che la gente si aspetta da Amd/Ati.
Visto che sono passati tutti questi mesi per il debutto, non so' quanto tempo la gente vorrà aspettare per dei driver prestazionali.
dagon1978
16-05-2007, 18:56
Da un certo punto di vista dagon1978 ha ragione: io non la vedo così tragica, ma il vero problema è stato il ritardo. Più tempo passava, più l'aspettativa era alta.
In merito ai consumi bisogna fare anche questo ragionamento raffrontandosi alla generazione precedente, senza alcuna polemica.
La x1900XT 512Mb consuma il 50% in più di una 7900GTX 512Mb, ma garantisce prestazioni medie del 15% in più, maggiore qualità AF, ed il support HDR(FP16) + AA.
Questo ha reso giustificabile questo consumo maggiore agli occhi degli utenti.
La HD 2900XT consuma il 50% in più della 8800 GTS, va uguale come prestazioni tendendo a quelle della GTX, ha un peggior filtro AF, ed un supporto video sicuramente eccellente, ma imho, inutile per questa categoria di schede enthusiast (per quello ci saranno le 2400 e 2600 desktop e mobile, visto che nessuno s'infila una 2900XT nell'HTPC).
Quindi i 160-200W sarebbero pure tollerabili, se almeno uscissero fuori le prestazioni, ma non rispetto alla GTS, ma rispetto alla GTX.
Perchè è questo che la gente si aspetta da Amd/Ati.
Visto che sono passati tutti questi mesi per il debutto, non so' quanto tempo la gente vorrà aspettare per dei driver prestazionali.
hai ragione e il tuo intervento mi da lo spunto per fare un paio di considerazioni (visto che non posso farne dal lato tecnico, date le mie scarse conoscenze)
questa scheda è uscita prematuramente, sembra una battuta, ma lo si capisce chiaramente: i driver hanno problemi, bug, rallentamenti insoliti, sembrano andare meno a risoluzioni basse che a quelle alte (non scalano), insomma, mi sembra chiaro che le abbiano tirate fuori perché DOVEVANO tirarle fuori
perché dico dovevano? per il discorso che hai fatto tu, l'attesa genera aspettative e in amd sapevano benissimo che le aspettative purtroppo sarebbero state disattese
le aspettative erano di vedere una scheda che stesse sopra la gtx (è innegabile) se non sopra la ultra, questo non è e non sarà mai, neanche con i driver più ottimizzati del mondo, questo mi pare sia chiaro, quindi rimandare ancora per tirare fuori una scheda che non rivaleggia con le gtx per me era un suicidio, credo che in amd abbiano fatto lo stesso ragionamento
inoltre, e secondo me questo è un punto fondamentale, se non il principale, gli serviva un qualcosa da dare in pasto alla gente, ti sei accorto che nessuno ora parla delle hd2600 e 2400?
eppure è un bello smacco anche questo, altro ritardo...altra attesa... ma meno aspettative stavolta ;)
ora AMD ha il tempo di raffinare i driver (e quant'altro) per tirare fuori delle 2600/2400 stabili, con driver decenti e in grado di rivaleggiare con la concorrenza... questo è quello che penso e spero di non essere smentito (ma si vedrà) tieni conto che la fascia media è quella in cui AMD si sta giocando di più, è lì la chiave della faccenda
sono sicuro che se avessero potuto rimandare l'uscita della 2900 lo avrebbero fatto per tirare fuori qualcosa di più stabile (con driver meglio ottimizzati), ma per svariate ragioni amd doveva tirarla fuori adesso... e purtroppo questi sono i risultati... :(
Free Gordon
16-05-2007, 19:15
I "nuovi driver magici" sembrano non esser poi così magici come si pensava
Peccato che non sono nuovi. :D
Sono quelli usati nelle rece di Dinoxpc e altri. ;)
Free Gordon
16-05-2007, 19:19
It seems that all the artifacts that was observed on the ATI card was likely to be snow that wasn't able to be rendered. Objects like fences and alien creatures were observed with the NVIDIA card that were not present when we used the ATI video card.
It seemed that ATI was having issues with the motion blur.
The same scene on the ATI Radeon HD 2900 XT video card is very different. Of course it's not the exact same frame, but it's close enough. There is no fog, the lighting is very different, and the holes for the creatures aren't really rendered.
NVIDIA GeForce 8800 GTX clearly had better image quality than the ATI HD 2900 XT with both available drivers.
E pensa che su Xenos invece gira a 720p con MSAA4x attivo, sui 30fps... :rotfl:
E' più che probabile che questi dati, non rispecchino le reali prestazioni di R600 in questo gioco.
Tutto imho eh. :D
Free Gordon
16-05-2007, 19:22
alla luce della prova comincia a correre per andare a comprare la 8800gts640.
;)
:rotfl:
gianni1879
16-05-2007, 19:35
cmq son tornato da oggi e speravo di trovare al mio ritorno buone notizie ma invece ho trovato una grossa delusione... quindi alla fine i test in giro erano in buona parte veritieri!!
prestazioni + - allineate alla 8800gts 640, ma consumi e rumorosità decisamenti altissimi... non va per niente bene, a maggior ragione terrò ancora per un pò la mia sk, al max se decido vado di 8800gtx.
dopo il passaggio da amd ad intel mi sa che tra poco si presenterà la stessa situazione per la vga... davvero peccato, ma stavolta ati non ha fatto un buon lavoro
Hai proprio ragione dagon1978. L'uscita della HD 2900XT ha fatto passare quasi in secondo piano la mancata uscita della fascia medio-bassa. Era un dato ufficiale che la R600 non sarebbe uscita al Cebit (metà marzo), per consentire il debutto dell'intera gamma Directx10. Ed invece il 14/5 presentano una sola scheda!
E si scopre che la fascia media e bassa dovrebbe essere presentata bene o male al Comdex (inizi giugno) con disponibilitò 15-20 gg dopo.
Altri 2 mesi di ritardo sulla concorrenza.
RICKYL74
16-05-2007, 21:23
ATI punterà alla fascia media dove ci sarà la vera guerra, e secondo me riuscirà a proporre dei prodotti qualità-prestazioni-prezzo ottimi dove nVidia faticherà a contrastare, ci saranno moltissime soluzioi sia da parte ATI che da parte nVidia infatti non mi meraviglierò quando sul mercato cominceranno ad arrivare schede su schede (HD 2400-26xx-27xx con varie sigle poi le xtx e cosi via, nVidia che tirerà fuori come al suo solito sbotti di schede video che non si capirà più niente) difficile fare delle previsioni sulla fascia alta per adesso chi vuole la miglior scheda sul mercato inutile fare commneti.. tra un pò ci saranno le schede con processo 65nm e quindi molte novità, attualmente l'architettura di nVidia sembra farla da padrona, ma le caratteristiche tecniche del'R600 vanno approfondite perchè ci sono delle cose davvero interessanti una GSPPU (Graphics Sound and Physics Processing Unit) molto meno dipendente dalla CPU perchè molti componenti della scena grafica saranno calcolati e renderizzati direttamente dalla stessa GPU, con meno impegno dell´utilizzo della CPU stessa, 320 Stream Processor che vanno ad una frequenza di 740Mhz, contro i 128 di nVidia a 1,35Ghz, la differenza di frequenza è consistente, però le pipeline ATI sono molto più complesse, l'R600 combina Grafica, Audio e processi fisici in modo completo e più complesso.. dovranno migliorare i driver che quasi sicuramente cambieranno molti aspetti daltra parte la scheda è giovane e per forza di cose AMD doveva introdurre nel mercato altrimenti erano cazzi!! Una cosa è certa le ATI in termini di prezzo finale cioè quello che si troverà sugli scaffali dei negozi saranno sicuramente più bassi di quelle nVidia. Il rapporto qualità-prestazioni-prezzo sarà molto importante in termini di valutazioni all'acquisto, perchè se è vero che la scheda più potente e di nVidia la 8800Ultra e anche vero che non te la regalano mica si parla di 800Euro che messe in SLI fanno !!!! 1600Euro 3.200.000 delle vecchie lire con un alimentatore da 800Watt come minimo ...una bella botta direi eh!! Certo chi vuole il meglio deve pretendere il meglio e spendere tanti bei soldoni, di conseguenza sarà legato solo a pochi eletti, quindi come ho già scritto, secondo me e non solo secondo me (E' OVVIO) la vera guerra tra ATI e nVidia sarà nella fascia media del mercato quella che porta sicuramente più liquidi, dove ATI farà una guerra ai prezzi aggressiva basti pensare che una hd 2900xt costa sulle 400-440Euro, la HD 2600XT che ha il core realizzato in tecnologia a 65nm con 390 milioni di transistor ed è operante a 800Mhz, con memorie GDDR operanti a 2300MHz, bus a 128-bit con tagli da 256Mb con un prezzo finale che si aggira più o meno sulle 280Euro forse anche meno sarà una bella tentazione per molti, poi la:
HD 2900 XTX
GPU a 800MHz - 1024MB GDDR4 a 2200MHz
La scheda dovrebbe consumare circa 230W in Full load
totalizza circa 13500 punti al 3DMark 06 con driver versione 8.36.
non conosco il prezzo ma non dovrebbe superare le 550Euro, credo!!
una
8800Ultra totalizza 14000 punti al 3DMark 06 costa sulle 800Euro
P.S.
non sono un fanboy ne di ATI ne Nvidia, posseggo una 8800GTX ma quando un prodotto merità non sto a criticare tutto quello che conosco o non conosco mi limito a cercare di capire, valutare, analizzare e giudicare su basi chiare e comprensibili. poi ognuno e libero di vederla e pensarla come meglio crede. ;)
Free Gordon
16-05-2007, 21:30
inoltre, e secondo me questo è un punto fondamentale, se non il principale, gli serviva un qualcosa da dare in pasto alla gente, ti sei accorto che nessuno ora parla delle hd2600 e 2400?
eppure è un bello smacco anche questo, altro ritardo...altra attesa... ma meno aspettative stavolta ;)
ora AMD ha il tempo di raffinare i driver (e quant'altro) per tirare fuori delle 2600/2400 stabili, con driver decenti e in grado di rivaleggiare con la concorrenza... questo è quello che penso e spero di non essere smentito (ma si vedrà) tieni conto che la fascia media è quella in cui AMD si sta giocando di più, è lì la chiave della faccenda
sono sicuro che se avessero potuto rimandare l'uscita della 2900 lo avrebbero fatto per tirare fuori qualcosa di più stabile (con driver meglio ottimizzati), ma per svariate ragioni amd doveva tirarla fuori adesso... e purtroppo questi sono i risultati... :(
E' possibile che abbiano dato in pasto alla folla brulicante, la bestia "più" sacrificabile...
Però è una situazione a cui non sarebbero mai dovuti arrivare...
La prima prova della politica AMD/ATI è stata disastrosa...
dagon1978
16-05-2007, 21:36
dove ATI farà una guerra ai prezzi molto buona basti pensare che una hd 2900xt costa sulle 400-440Euro, la HD 2600XT che ha il core realizzato in tecnologia a 65nm con 390 milioni di transistor ed è operante a 800Mhz, con memorie GDDR operanti a 2300MHz, bus a 128-bit con tagli da 256Mb con un prezzo finale che si aggira più o meno sulle 280Euro forse anche meno sarà una bella tentazione per molti, poi la:
solo una precisazione, la 2900xt si trova tra i 380 e i 400€ (non sopra), la 2600xt se costerà 280€ sarà fuori mercato, perché già a 250€ trovi le gts 320
poi dipende anche quanto vanno... ma ho qualche dubbio che arrivino alle prestazioni delle gts...
dagon1978
16-05-2007, 21:39
E' possibile che abbiano dato in pasto alla folla brulicante, la bestia "più" sacrificabile...
Però è una situazione a cui non sarebbero mai dovuti arrivare...
La prima prova della politica AMD/ATI è stata disastrosa...
hai perfettamente ragione, ma noi non conosciamo i retroscena...
qualcosa deve essere successo che ha provocato a cascata tutti questi ritardi (non solo delle GPU tra l'altro...)
concordo che non sarebbero mai dovuti arrivare a tanto, ma ormai? speriamo solo che riescano a parare il colpo con tutto quello che arriverà dopo, la stagione calda è appena incominciata :D
RICKYL74
16-05-2007, 21:50
solo una precisazione, la 2900xt si trova tra i 380 e i 400€ (non sopra), la 2600xt se costerà 280€ sarà fuori mercato, perché già a 250€ trovi le gts 320
poi dipende anche quanto vanno... ma ho qualche dubbio che arrivino alle prestazioni delle gts...
In America si trova tra i 400/440Euro quanto costerà in Europa e in Italia, Mah!! euro più euro meno siamo li, che poi costi sotto le 400 tanto meglio vuol dire che il mio discorso torna.. :D
per le HD2600XT sentivo parlare di 199dollari ma in Italia si sa quando qualcosa da altre parti costa 2 da noi costa 4!!! :rolleyes:
dagon1978
16-05-2007, 22:02
In America si trova tra i 400/440Euro quanto costerà in Europa e in Italia, Mah!! euro più euro meno siamo li, che poi costi sotto le 400 tanto meglio vuol dire che il mio discorso torna.. :D
per le HD2600XT sentivo parlare di 199dollari ma in Italia si sa quando qualcosa da altre parti costa 2 da noi costa 4!!! :rolleyes:
in italia costa tra i 380 e i 400, è già disponibile ;) era solo una precisazione, non volevo entrare nel merito del discorso
RICKYL74
16-05-2007, 22:16
in italia costa tra i 380 e i 400, è già disponibile ;) era solo una precisazione, non volevo entrare nel merito del discorso
i prezzi in Italia delle 2900 esattamente non li conosco i produttori si sbizzariscono a piacimento.. se te le hai già trovate a quel prezzo meglio così.
..poi se mi permetti hai scritto che le 8800gts 320Mb costano sulle 250Eu.
non so dove ti servi ma non credo che in negozio siano così generosi dalle mie parti!!
Alcuni esempi: (on-line Iva inclusa) in negozio un pochino di più..
CLUB3D 8800GTS 320 - 290Eu.
XFX GeForce 8800GTS 320 Mb - circa 300Eu.
XFX xxx edition 320mb - 357Eu.
Asus nvidia 8800gts 320m pci-e - 346,90Eu.
GIGABYTE 8800GTS 320Mb - 310Eu.
MSI 8800GTS 320MB - 330Eu.
BFG - Evga - Abit - Etc. Etc.
boh! forse mi sbaglio, ma sulle 250Eu. non ne ho mai viste.
dagon1978
16-05-2007, 22:28
ci sono ci sono, basta cercare ;)
Dj Antonino
16-05-2007, 22:31
boh! forse mi sbaglio, ma sulle 250Eu. non ne ho mai viste.
basta saper cercare nei negozi giusti :asd:
RICKYL74
16-05-2007, 22:35
capisco!
capisco!
E' un negozio di Roma che però non spedisce, quindi diciamo che si trovano a quel prezzo ma non tutti possono prenderle. Diciamo che si trovano ma dire che le GTS costano quella cifra è una cosa un pò forzata. Il prezzo che tutti possono trovare è più sui 280€.
capisco!
www.trovaprezzi.it
E' un negozio di Roma che però non spedisce, quindi diciamo che si trovano a quel prezzo ma non tutti possono prenderle. Diciamo che si trovano ma dire che le GTS costano quella cifra è una cosa un pò forzata. Il prezzo che tutti possono trovare è più sui 280€.
DJLode, mica puoi mandarmi un PM con il nome del negozio? Passo spesso a Roma, magari ci faccio un salto. ;)
Thanks.
Free Gordon
16-05-2007, 23:36
hai perfettamente ragione, ma noi non conosciamo i retroscena...
qualcosa deve essere successo che ha provocato a cascata tutti questi ritardi (non solo delle GPU tra l'altro...)
concordo che non sarebbero mai dovuti arrivare a tanto, ma ormai? speriamo solo che riescano a parare il colpo con tutto quello che arriverà dopo, la stagione calda è appena incominciata :D
Ok, ormai è andata...
Ma spero che non facciano mai più un errore del genere.
Perchè a livello di immagine, ci perderebbero troppo.
hai tutta sta fretta di cambiare? Se no, aspetta :asd:
Direi che altri 4-5 titoli dx10 possano finalmente dire what's better :)
Praticamente fra altri 6 mesi? :D
solo x dire:
cavoli 1150 e più commenti, 116 pagine in DUE giorni!!!
mai tema è stato + caldo!!!
Mai una scheda cosi poco performante aveva consumato cosi tanto :asd:
Da cui il tema caldo...
leoneazzurro
16-05-2007, 23:36
allora tutti sarebbero autorizzati a dire le peggio cose basta mettere la faccina giusta. guarda a questo punto di queste tue eventuali scuse spintanee non so più che farmene. tanto hanno capito tutti chi sei e come sei fatto.
Allora, se ci si sente insultati questo non autorizza però a fare lo stesso.
Mi sembra che su questo thread ci sia un'ammonizione a prescindere, per cui invito per l'ultima volta tutti, e ripeto TUTTI a sospendere le polemiche immediatamente.
Free Gordon
16-05-2007, 23:45
La 2900XT (versione di Gigabyte) si trova fino a 369€ (spedizione compresa).
Dove l'hai vista a 370 euro spedita?
Hyxshare
17-05-2007, 00:24
ma io mi chiedo dopo i test si saranno accorti ke faceva pena alla AMD/ATi??? e allora che cavolo l'hanno fatta uscire a fare solo x vedere 119 pagine di commenti sui siti hardware (come questo :D) dove si dice solo FLOP???...
.....sara' mica ke ATI si sia fatta influenzare dall'AMD (ricrod un certo core 2 duo.....)......poiche' mi sembrava che prima andasse alla grande (vedi X1900XT/XTX)....guarda caso il mega flop e' uscito quando si sono unite mah....non penso ke la colpa sia di ati...
tigrerossa
17-05-2007, 00:31
-----------------------------------
Ciao a tutti,
volevo segnalare un'iniziativa importante su
Non si spamma.
ma io mi chiedo dopo i test si saranno accorti ke faceva pena alla AMD/ATi??? e allora che cavolo l'hanno fatta uscire a fare solo x vedere 119 pagine di commenti sui siti hardware (come questo :D) dove si dice solo FLOP???...
.....sara' mica ke ATI si sia fatta influenzare dall'AMD (ricrod un certo core 2 duo.....)......poiche' mi sembrava che prima andasse alla grande (vedi X1900XT/XTX)....guarda caso il mega flop e' uscito quando si sono unite mah....non penso ke la colpa sia di ati...
si è vero e poi lasciavano a Nvidia il mercato delle dx10 senza nemmeno provare a contrastare:rolleyes:
e cmq la vga ha alcuni difetti ma non è certo un flop se avessi letto l'articolo te ne saresti accorto...certi commenti possiamo anche risparmiarli dai...119 pagine di commenti dove la gente dice solo flop ci sono a causa di commenti simili a questo altrimenti ce ne sarebbero molte di meno con commenti molto piu interessanti...
In America si trova tra i 400/440Euro quanto costerà in Europa e in Italia, Mah!! euro più euro meno siamo li, che poi costi sotto le 400 tanto meglio vuol dire che il mio discorso torna.. :D
per le HD2600XT sentivo parlare di 199dollari ma in Italia si sa quando qualcosa da altre parti costa 2 da noi costa 4!!! :rolleyes:
si vede che non compri online... ormai sono mesi che se in america costa 400$ qua da noi costa 360-370euro... ossia come il 90% delle hd2900xt in commercio qua in ita.
Lo stesso vale per la 2600xt, la si troverà sulle 200euro o poco meno!
prezzi IVATI
Dj Antonino
17-05-2007, 00:39
.....sara' mica ke ATI si sia fatta influenzare dall'AMD (ricrod un certo core 2 duo.....)......poiche' mi sembrava che prima andasse alla grande (vedi X1900XT/XTX)....guarda caso il mega flop e' uscito quando si sono unite mah....non penso ke la colpa sia di ati...
I progetti su R600 sono sicuramente iniziati ben prima dell'acquisizione di AMD.. Non è colpa di AMD..
il paragone poi con i c2d è totalmente fuori luogo..
dagon1978
17-05-2007, 01:09
Ok, ormai è andata...
Ma spero che non facciano mai più un errore del genere.
Perchè a livello di immagine, ci perderebbero troppo.
ce lo auguriamo tutti, o almeno tutti quelli che tengono a un mercato con un po' di concorrenza ancora ;)
si vede che non compri online... ormai sono mesi che se in america costa 400$ qua da noi costa 360-370euro... ossia come il 90% delle hd2900xt in commercio qua in ita.
Lo stesso vale per la 2600xt, la si troverà sulle 200euro o poco meno!
prezzi IVATI
vero, i negozzi online ultimamente stanno facendo dei buoni prezzi (non per tutti gli articoli, ma cmq i prezzi sono competitivi...)
se la 2600xt sarà sulle 200€ allora potrebbe avere ancora un mercato... dipende quanto va...
RICKYL74
17-05-2007, 08:04
si vede che non compri online... ormai sono mesi che se in america costa 400$ qua da noi costa 360-370euro... ossia come il 90% delle hd2900xt in commercio qua in ita.
Lo stesso vale per la 2600xt, la si troverà sulle 200euro o poco meno!
prezzi IVATI
:eek: comprare schede video on-line (auguri di cuore)
ecco perchè la gen.. mmmh pren.. ce.. incu.... vabbè...
Comunque sui prezzi mi fido di voi se dite così, certo saranno in pochi a spendere quelle cifre, perchè voglio vedere quanto costeranno effettivamente in negozio, e quando dico negozio intendo, quel negozio dove compra la stra maggioranza degli utenti Italiani vale a dire il negozio sotto casa "nel senso nelle vicinanze!!" perchè se è vero che a Roma o Milano esiste il negozio dove ti fà risparmiare 80-100Euro voglio vedere chi sta a canicatti se prende il treno per andare a comprare la 8800GTS 320Mb a 280Eu (qualcuno ha detto 250/200!!) a Roma o milano. magari lo potrebbe anche fare, ma siamo realisti dai. Io voglio vedere cosa compro, toccare con mano soprattutto se si tratta di prodotti Hardware voglio poter tornare in negozio e incazzarmi faccia a facci no per E-Mail o per Tel. coprerei on-line solo in un caso vale a dire direttamente con le case produttrici (e non so quanto risparmierei) tipo Crucial che in max 5 gg ti fà avere 2gb di ddr stupendamente imballate con un servizio tecnico impeccabile!!! ma questa e una cosa personale, e se la vogliamo dire tutta per risparmiare esistono tanti altri metodi ..POI OH!! che ATI farà dei prezzi aggressivi l'ho detto se avete letto bene qualche post più su se volete ve lo riscrivo, andando nel particolare dei prezzi chi le trova al prezzo più basso BEN VENGA PER LUI ..tanto AMD ormai, può fare anche sconti comitiva.
I progetti su R600 sono sicuramente iniziati ben prima dell'acquisizione di AMD.. Non è colpa di AMD..
il paragone poi con i c2d è totalmente fuori luogo..
Oltre a tutto, se davvero ci fosse lo zampino degli ingegneri AMD, magari le performances della 2900 non sarebbero migliorate, ma molto probabilmente si sarebbero abbattuti i consumi.
Per un sistema integrato CPU/GPU con i consumi della 2900, il nome "fusion" sarebbe più che appropriato.
NightStalker
17-05-2007, 09:16
:eek: comprare schede video on-line (auguri di cuore)
ecco perchè la gen.. mmmh pren.. ce.. incu.... vabbè...
Comunque sui prezzi mi fido di voi se dite così, certo saranno in pochi a spendere quelle cifre, perchè voglio vedere quanto costeranno effettivamente in negozio, e quando dico negozio intendo, quel negozio dove compra la stra maggioranza degli utenti Italiani vale a dire il negozio sotto casa "nel senso nelle vicinanze!!" perchè se è vero che a Roma o Milano esiste il negozio dove ti fà risparmiare 80-100Euro voglio vedere chi sta a canicatti se prende il treno per andare a comprare la 8800GTS 320Mb a 280Eu (qualcuno ha detto 250/200!!) a Roma o milano. magari lo potrebbe anche fare, ma siamo realisti dai.
mah fai conto che è dal 2003 che compro online...
praticamente dei miei 4 pc il 60-70% della'hardware è stato acquistato online :asd:
e avendo sempre acquistato da negozi di cui sentivo parlar bene (magari proprio su questo forum) non ho avuto problemi nemmeno cogli RMA che mi sono capitati
DJLode, mica puoi mandarmi un PM con il nome del negozio? Passo spesso a Roma, magari ci faccio un salto. ;)
Thanks.
Inviato :)
:eek: comprare schede video on-line (auguri di cuore)
ecco perchè la gen.. mmmh pren.. ce.. incu.... vabbè...
:confused:
eretico.... Le inculate le prendi SOLO nei negozi sotto casa. Per quanto riguarda i prezzi e per le conoscenze informatiche SCADENTI dell'80% delle persone che aprono negozi e restano ferme solo con il mercato "da negozio" appunto...
Portocala
17-05-2007, 10:22
secondo me e non solo secondo me (E' OVVIO) la vera guerra tra ATI e nVidia sarà nella fascia media del mercato quella che porta sicuramente più liquidi, dove ATI farà una guerra ai prezzi aggressiva basti pensare che una hd 2900xt costa sulle 400-440Euro, la HD 2600XT che ha il core realizzato in tecnologia a 65nm con 390 milioni di transistor ed è operante a 800Mhz, con memorie GDDR operanti a 2300MHz, bus a 128-bit con tagli da 256Mb con un prezzo finale che si aggira più o meno sulle 280Euro forse anche meno sarà una bella tentazione per molti
ti faccio presente che andrà a competere con le 8600. e sappiamo già che quelle sono davvero schede scandalose e non credo che AMD lancerà schede di poco inferiori alle 2900 visto quanto le 2600 sono castrate (quarto di bus, dimezzati i sp, se non ricordo male). Quindi i miracoli nessuno se li aspetta!
hai detto 280 euro. Non ti sembrano tanti? La 8600 va pianissimo rispetto alla 8800 che si trova a quei 280 euro.
Anche io aspetto sti drivers per vedere come cambia il comportamento, ma non sono cosi enthusiasta.
mah fai conto che è dal 2003 che compro online...
praticamente dei miei 4 pc il 60-70% della'hardware è stato acquistato online :asd:
e avendo sempre acquistato da negozi di cui sentivo parlar bene (magari proprio su questo forum) non ho avuto problemi nemmeno cogli RMA che mi sono capitati
quest'anno è la prima volta che mi faccio il pc con negozi online. Siccome dubitavo molto, ho scelto un negozio che ha un pick-up vicino a dove lavoro percui se ho grane so dove andarli a trovare e non pago le spese di spedizione :asd:
@ RICKYL74: tutta sta diffidenza e pessimismo, mi sembrano fuori luogo ;) con un pò di informazione e ricerche si trovano le alternative migliori per il proprio portafoglio, quindi la reticenza verso l'online in spesso non ha motivo. Devi solo trovare la risposta migliore ai tuoi dubbi.
www.trovaprezzi.it è il primo da guardare e in base a quello ti fai le tue idee. se hai la fortuna di avere vicino un loro negozio, beh, meglio di cosi, non ce nè :asd:
ti consiglio di leggere sto thread. http://www.hwupgrade.it/forum/showthread.php?t=1421437
RICKYL74
17-05-2007, 10:26
:confused:
eretico.... Le inculate le prendi SOLO nei negozi sotto casa. Per quanto riguarda i prezzi e per le conoscenze informatiche SCADENTI dell'80% delle persone che aprono negozi e restano ferme solo con il mercato "da negozio" appunto...
si e...
mah fai conto che è dal 2003 che compro online...
praticamente dei miei 4 pc il 60-70% della'hardware è stato acquistato online :asd:
e avendo sempre acquistato da negozi di cui sentivo parlar bene (magari proprio su questo forum) non ho avuto problemi nemmeno cogli RMA che mi sono capitati
Ma io credo che ognuno e libero di comprare dove gli pare, io dei miei 5 o 6 PC non ricordo bene ho perso il conto li ho sempre assemblati comprando direttamente cash alla mano "vedendo, valutando, provando il prodotto e poi decidere se acquistarlo" ..l'acquisto On-Line non dico che non sia conveniente sicuramente si risparmia, ma non raccontiamo che sia tutto rose e fiori perchè non è così, perchè c'è chi si è scottato di brutto comprando on-line, a te è andata sempre bene come a tanti altri, ad altri magari è andata male.. Io sono un po conservativo diciamo all'antica mi piace il contatto diretto il classico negozio dove ti servi da una vita tanto per intenderci (dopo anni che ti servi lo sconto te lo fanno anche li :D ) Poi sono convinto di una cosa che nessuno regala niente e quando un prodotto si trova al di sotto della media un pò di dubbi se permetti li tengo, quando per esempio acquisto un paio di ram oppure una cpu devo essere sicuro di cosa ho per le mani, di provare il prodotto e se non soddisfatto di cambiarlo il giorno dopo, non so se mi spiego, quindi ho bisogno di comprare da gente di fiducia, che ti passa componentistica OK, poi i problemi ci possono pure essere ma li risolviamo a quattrocchi.. ....
.. .... comunque a me personalmente non piacciono gli acquisti via web tutto qui, chi acquista on-line sa il fatto suo ripeto ognuno e libero di comprare dove gli pare, e non lo ritengo sbagliato solo che a me non piace. Ciao :)
Portocala
17-05-2007, 10:29
:confused:
eretico.... Le inculate le prendi SOLO nei negozi sotto casa. Per quanto riguarda i prezzi e per le conoscenze informatiche SCADENTI dell'80% delle persone che aprono negozi e restano ferme solo con il mercato "da negozio" appunto...
Mamma mia come sei pesante. Tu hai mai usato parole/frasi che non ti facessero sembrare incazzato con tutti.
Sei sempre sul punto di esplodere. Relax!
Portocala
17-05-2007, 10:36
Ma io credo che ognuno e libero di comprare dove gli pare, io dei miei 5 o 6 PC non ricordo bene ho perso il conto li ho sempre assemblati comprando direttamente cash alla mano "vedendo, valutando, provando il prodotto e poi decidere se acquistarlo" ..l'acquisto On-Line non dico che non sia conveniente sicuramente si risparmia, ma non raccontiamo che sia tutto rose e fiori perchè non è così, perchè c'è chi si è scottato di brutto comprando on-line, a te è andata sempre bene come a tanti altri, ad altri magari è andata male.. Io sono un po conservativo diciamo all'antica mi piace il contatto diretto il classico negozio dove ti servi da una vita tanto per intenderci (dopo anni che ti servi lo sconto te lo fanno anche li :D ) Poi sono convinto di una cosa che nessuno regala niente e quando un prodotto si trova al di sotto della media un pò di dubbi se permetti li tengo, quando per esempio acquisto un paio di ram oppure una cpu devo essere sicuro di cosa ho per le mani, di provare il prodotto e se non soddisfatto di cambiarlo il giorno dopo, non so se mi spiego, quindi ho bisogno di comprare da gente di fiducia, che ti passa componentistica OK, poi i problemi ci possono pure essere ma li risolviamo a quattrocchi.. ....
.. .... comunque a me personalmente non piacciono gli acquisti via web tutto qui, chi acquista on-line sa il fatto suo ripeto ognuno e libero di comprare dove gli pare, e non lo ritengo sbagliato solo che a me non piace. Ciao :)
hai tutte le ragioni. Ma una volta lo devi anche provare.
Nel negozio sotto cosa, ti fa i prezzi più alti perchè ha meno clienti, e quindi deve aumentare il guadagno. Lo stesso prezzo che ti fa un negozio online te li può fare anche il tuo negoziante di fiducia, ma lui ci perde.
sia l'Online che il shop i prodotti li prendono agli stessi prezzi, che sarà il 50% del prezzo in vendita, ma poi devono aggiungere tasse, costi di magazzino, giacenza e personale.
Un negozio online, se sufficientemente grande, ha molte più vendite di quello sotto casa tua, e quindi preferisce ridurre il prezzo di vendita, ma avere più clienti. + clienti >> + passaparola >> + vendite >> + guadagno.
Le sole le prendi anche sotto casa :asd:
per questo magari online, la 2600 sarà a 200 euro mentre nei negozi a 220.
gianni1879
17-05-2007, 10:59
http://www.legionhardware.com/document.php?id=645&p=1
non so se era sta segnalata, cmq test fatti sotto XP sp2 dove la scheda va decisamente meglio ;)
segno che sotto vista i problemi driver ci sono eccome
http://www.legionhardware.com/document.php?id=645&p=1
non so se era sta segnalata, cmq test fatti sotto XP sp2 dove la scheda va decisamente meglio ;)
segno che sotto vista i problemi driver ci sono eccome
Non sono stati capaci di fare i driver per il rage teather della x19xx
DakmorNoland
17-05-2007, 11:09
http://www.legionhardware.com/document.php?id=645&p=1
non so se era sta segnalata, cmq test fatti sotto XP sp2 dove la scheda va decisamente meglio ;)
segno che sotto vista i problemi driver ci sono eccome
Si' infatti, il problema di questa scheda rimane il consumo! Anche se la porteranno a 350euro, quello che risparmi sulla 8800GTS 640MB te lo paghi tutto in bolletta!
Questa architettura promette molto bene, ma urge una versione 65nm che permetta consumi piu' contenuti!!!
gianni1879
17-05-2007, 11:17
http://www.ocworkbench.com/2007/asus/EAH2900XT/b1.htm ;)
sempre sotto XP
gianni1879
17-05-2007, 11:24
http://www.digit-life.com/articles2/video/r600-part3.html#p1
ancora XP
DakmorNoland
17-05-2007, 11:29
A questo proposito è evidente che se il prossimo driver farà già il miracolo e si avranno le prestazioni che l'hardware merita (quelle viste in XP, con un piccolo boost) anche in Vista, allora la scheda meriterà di essere acquistata nonostante i consumi (nel mercato high end non è certo il consumo il parametro di riferimento). Se dovesse essere necessario attendere di più allora tanto varrà attendere poco più ancora per vedere tutto, sia la fascia media, sia i nuovi respin (di R600 come di G80).
E ciò si applica a tutti, fuorché a coloro che devono obligatoriamente comprare una VGA oggi, per i quali è tutto una scommessa :>
I consumi devono diventare al piu' presto un parametro importante anche per le soluzioni high-end e non per l'alimentatore che si puo' sempre cambiare, ma per la bolletta!!
Le 8800GTS vanno ancora bene, ma schede come la GTX, la Ultra o la 2900XT sono uno scandalo!
Portocala
17-05-2007, 11:30
Nvidia Forceware (158.22)
forceware vecchi :)
Portocala
17-05-2007, 11:36
Splinter cell
http://www.ixbt.com/video3/images/r600/sc1-pr.png
la 2900xt superiore del 30% rispetto alla GTS ... :sofico: :rolleyes:
RICKYL74
17-05-2007, 11:55
hai tutte le ragioni. Ma una volta lo devi anche provare.
Nel negozio sotto cosa, ti fa i prezzi più alti perchè ha meno clienti, e quindi deve aumentare il guadagno. Lo stesso prezzo che ti fa un negozio online te li può fare anche il tuo negoziante di fiducia, ma lui ci perde.
sia l'Online che il shop i prodotti li prendono agli stessi prezzi, che sarà il 50% del prezzo in vendita, ma poi devono aggiungere tasse, costi di magazzino, giacenza e personale.
Un negozio online, se sufficientemente grande, ha molte più vendite di quello sotto casa tua, e quindi preferisce ridurre il prezzo di vendita, ma avere più clienti. + clienti >> + passaparola >> + vendite >> + guadagno.
Le sole le prendi anche sotto casa
per questo magari online, la 2600 sarà a 200 euro mentre nei negozi a 220.
:cry:
ragazzi, oggi non riesco a farmi capire, (CAPITA!!) ho già comprato on-line ma non materiale informatico, io non compro on-line i componenti hardware solo perchè mi trovo bene dove già compro!! So come funziona nei negozi perchè ne ho gestiti due (uno dei quali venduto per disperazione) quindi..... con il venditore siamo amici perchè nel suo negozio prima ci lavoravo!!! lo conosco ormai da anni e usiamo solo canali di fiducia, quindi so da dove arrivano i componenti e come sono stati trattati. voglio sempre il meglio per il mio case :p ..ma questo non vuol dire che io banno chi compra on-line, ci mancherebbe figuriamoci.. che me frega a me dove la gente fa i propri acquisti.
Perché quando compri una 8800GTX (è un esempio) nel negozio sotto casa, ammesso tu riesca a trovare il modello esatto della marca che cercavi, te la fanno portare a casa, disimballare, installare, provare, testare e se sei soddisfatto pagare? Perché se intanto la paghi e poi se non funziona torni in negozio allora è esattamente come online :>
:rolleyes:
Apparte che in negozio ho sempre trovato tutto quello che cercavo (ordinati il venerdi marcoledi gia testavamo il tutto)..
a me non piace comprare On-Line materiale informatico "componenti harware", non lo posso dire? non si può dire? aah scusate allora!!
comunque Ti faccio un altro esempio (per chiuderla perchè tutti questi discorsi con la HD2900 centrano poco) dunque:
ultimamente ho sostituito la mia XFX 8800GTX con una nuova BFG 8800GTX OC 2 perchè la prima mi dava dei problemi (diciamo era difettosa) a distanza di mesi sostituita con un'altra scheda video di altra marca senza tante storie che va una meraviglia. secondo Es.?
Oridini un bel procio dal tuo negozio On-Line ti arriva (hai già pagato) scarti, installi e testi.. ti accorgi che non ti soddisfa, magari non sale come vorresti, scalda un pò di più dei suoi fratelli che ne so cosa ti pare, PERO' FUNZIONA, telefoni dici che non sei soddisfatto e te ne rimandano un altro "STESSO PROBLEMA" in negozio (per bs82: sotto casa era un esempio, ma sicuramente l'avevi capito) è diverso perchè se hai un rapporto diretto e di amicizia e il venditore che ti risolve il problema PARLO SOLO DI NEGOZI COMPETENTI, CON PERSONE ALTAMENTE QUALIFICATE E PROFESSIONALI fai sapere che hai bisogno di una tale cpu con un rev. che ti pare e te la fanno avere, dove cavolo è il problema.. magari on-line è lo stesso, E' allora? ognuno sceglie i canali a lui più convenienti, c'è chi si trova bene On-Line c'è chi si trova bene comprando dove cazzo gli pare. Magari ho sbagliato scrivendo (auguri di cuore) :doh: tacci mia..
comunque ragazzi siamo troppo OT.. (io la chiudo qui) ...fa anche rima! :)
_______________________________________________________________________________________________________________________
Asus commando - E6600 @3.6Ghz - Zalman 9700NT - DDR2 667 2Gb Teamgroup (4-4-4-10 @1200Mhz) - BFG 8800 GTX OC 2(@650-2200Mhz SP. 1560Mhz) - Creative X-FI Fatal1ty fps (che incu!!) - Hercules Dj Console - Sistema audio 5.1 Kenwood (butto giù i muri di casa!!!) - Raptor 74Gb - Maxtor sata2 250x2 - DVDRW Samsung 18X - DVDRom Benq 48X - Plextor plexwhiter premium 52X - OCZ GameXtream powersupply 700W - Samsung Lcd 21" - Win-Xp pro x32
_______________________________________________________________________________________________________________________
visto l'ot...
voi fate cuocere le uova 7 minuti e mezzo per farle sode? no perche mi hanno detto che oltre quel tempo di cottura il tuorlo inizia a diventare verdognolo. :Prrr:
DiPancrazio82
17-05-2007, 12:37
http://www.ocworkbench.com/2007/asus/EAH2900XT/b1.htm ;)
sempre sotto XP
Secondo me quei test non sono veritieri.
Li dice che fa con un X6800 8639 punti sotto XP quando io ho una 8800GTS e faccio 8700 punti con un E4300 overclockato a 3Ghz(che è cmq abbastanza inferiore ad un X6800) con scheda a default e sotto vista (con driver da schifo).Ma con XP i punti che facevo erano molti dippiu' circa 9500.
Quindi la differenza non è tutta quella che dicono.Poi se per sfruttare una 2900XT mi ci vuole un alimentatore da 100€ in su a questo punto la scheda mi è costata quasi 500€
I consumi devono diventare al piu' presto un parametro importante anche per le soluzioni high-end e non per l'alimentatore che si puo' sempre cambiare, ma per la bolletta!!
Le 8800GTS vanno ancora bene, ma schede come la GTX, la Ultra o la 2900XT sono uno scandalo!
la 8800 gtx e la ultra consumano così tanto xè vanno di +, e non di poco
Free Gordon
17-05-2007, 16:31
Oltre a tutto, se davvero ci fosse lo zampino degli ingegneri AMD, magari le performances della 2900 non sarebbero migliorate, ma molto probabilmente si sarebbero abbattuti i consumi.
Fantasie... :D
Il progetto R600 consuma così perchè sono state fatte scelte, costruttive e non, che l'ha portato a consumare di più della concorrenza (la scheda "beve" 160W).
Dipende dagli obiettivi che hai. Purtroppo ATI, per ora, ha sbagliato target, proponendo una scheda forte in alcuni campi che sono assolutamente sottosfruttati oggi (e debole in comparti che invece oggi la fanno ancora da padrone).
Per un sistema integrato CPU/GPU con i consumi della 2900, il nome "fusion" sarebbe più che appropriato.
:rotfl:
Ps. considera che la 2600 non ha il connettore PCI-e, per cui dovrebbe consumare poco. ;)
Free Gordon
17-05-2007, 16:35
Le 8800GTS vanno ancora bene, ma schede come la GTX, la Ultra o la 2900XT sono uno scandalo!
Non sei mica obbligato a comprarle.. eh! :D
Free Gordon
17-05-2007, 16:39
se per sfruttare una 2900XT mi ci vuole un alimentatore da 100€ in su a questo punto la scheda mi è costata quasi 500€
Basta un comune LC Power da 500W da 40 euro... :rolleyes:
Vi ricordo che tra 8800GTX e 2900XT ci sono 30W in più per la XT, mica 100.. :D
DakmorNoland
17-05-2007, 16:40
Non sei mica obbligato a comprarle.. eh! :D
Infatti da vero intenditore (:sofico: ) di hardware non la prenderei mai.
Basta un comune LC Power da 500W da 40 euro... :rolleyes:
Vi ricordo che tra 8800GTX e 2900XT ci sono 30W in più per la XT, mica 100.. :D
Sei sicuro? Con procio che in full consuma 90W, cioè quasi tutti i core 2 duo e gli x2 non EE, e una 8800GTX un LC Power Titan 560W con i suoi 32A sui +12V, ce la fa giusto giusto.
Già la Ultra o la 2900XT potrebbero dargli problemi, ovviamente IMHO, visto che non ci sono test ufficiali credo.
Basta un comune LC Power da 500W da 40 euro... :rolleyes:
Vi ricordo che tra 8800GTX e 2900XT ci sono 30W in più per la XT, mica 100.. :D
ma il fatto è ke consuma un pò di + e va molto meno, è quello ke da fastidio agli utenti
[KS]Zanna
17-05-2007, 16:57
Sei sicuro? Con procio che in full consuma 90W, cioè quasi tutti i core 2 duo e gli x2 non EE, e una 8800GTX un LC Power Titan 560W con i suoi 32A sui +12V, ce la fa giusto giusto.
Già la Ultra o la 2900XT potrebbero dargli problemi, ovviamente IMHO, visto che non ci sono test ufficiali credo.
Con questo sistema:
scheda madre Foxconn C55A01 (chipset nVIDIA nForce 680i SLI, Socket 775 LGA)
processore Intel Core 2 Extreme X6800 2,93 GHz
memoria G.Skill F2-6400CL4D-2GBHK, 2x1 Gbyte
sistema operativo Windows Vista Ultimate 32bit
si ottengono questi consumi:
http://www.hwupgrade.it/articoli/skvideo/1725/power.png
Free Gordon
17-05-2007, 17:03
http://www.legionhardware.com/document.php?id=645&p=1
non so se era sta segnalata, cmq test fatti sotto XP sp2 dove la scheda va decisamente meglio ;)
segno che sotto vista i problemi driver ci sono eccome
In questa rece fa numeri ottimi!! :confused:
A parte che mi fido poco di questa rece.. (non dichiara piattaforme di test e driver..).
In questa rece fa numeri ottimi!! :confused:
A parte che mi fido poco di questa rece.. (non dichiara piattaforme di test e driver..).
certo ke li dichiara :confused:
Grave Digger
17-05-2007, 18:00
ma il fatto è ke consuma un pò di + e va molto meno, è quello ke da fastidio agli utenti
è quello che penso anch'io,a fronte di prestazioni tutto sommato mediocri rispetto alle promesse da sempre perpetrate(ed è questa aspettativa disattesa che probabilmente ha inficiato sulla psiche degli utenti),si osserva un consumo (ma anche temperature) davvero eccessivo.....ma credo che ricorrere ai 750 mhz di clock e relativo vcore sia stata in parte una scelta obbligata da parte di ati per compensare la minore efficienza architetturale rispetto alla controparte g80,che seppur non possa essere definito parco in termini di richiesta energetica,è tra i chips dal rapporto prestazioni/consumi migliore di sempre.....
Free Gordon
17-05-2007, 18:35
certo ke li dichiara :confused:
è vero. scusa, non avevo visto in seconda pagina.
Free Gordon
17-05-2007, 18:39
è quello che penso anch'io,a fronte di prestazioni tutto sommato mediocri rispetto alle promesse da sempre perpetrate(ed è questa aspettativa disattesa che probabilmente ha inficiato sulla psiche degli utenti),si osserva un consumo (ma anche temperature) davvero eccessivo.....ma credo che ricorrere ai 750 mhz di clock e relativo vcore sia stata in parte una scelta obbligata da parte di ati per compensare la minore efficienza architetturale rispetto alla controparte g80,che seppur non possa essere definito parco in termini di richiesta energetica,è tra i chips dal rapporto prestazioni/consumi migliore di sempre.....
ehm?? :mbe:
scusa se te lo dico, ma parla a ragion veduta la prox volta. :D
il vcore della 2900XT è bassissimo (1.18v) e la frequenza non è alta (il progetto era di farla andare molto più in alto).
G80 gira a 150mhz più in basso (per TMU e ROPs) ma i suoi shader stanno al DOPPIO della frequenza...
Grave Digger
17-05-2007, 18:48
ehm?? :mbe:
scusa se te lo dico, ma parla a ragion veduta la prox volta. :D
il vcore della 2900XT è bassissimo (1.18v) e la frequenza non è alta (il progetto era di farla andare molto più in alto).
G80 gira a 150mhz più in basso (per TMU e ROPs) ma i suoi shader stanno al DOPPIO della frequenza...
beh si era per farla breve,volevo sottolineare il fatto che principalmente la frequenza di clock di uscita è piuttosto elevata(e anche se non mi addentro nei discorsi shader scalari vs vettoriali etc etc si capisce insomma).....il vcore per quanto in assoluto non elevato,l'ho citato al fine di metterlo in relazione al consumo mostrato complessivamente dall'architettura....proprio per il fatto che abbiamo visto che l'abito non fa il monaco......
il nocciolo è che nvidia avendo shader a frequenza elevata e clock inferiore alla controparte ati(che sulla carta aveva rivoluzionato la galassia,facendoci conoscere i plutoniani),consuma meno e va di più,quindi l'efficienza è superiore,e qui mi sembra ci sia poco da discutere.....per questo dico che per l'utente finale in ultima istanza il vero freno è il rapporto prestazioni/consumi poco favorevole,chiunque con un minimo di attenzione al portafogli opterebbe per una GTS 640.....
killer978
17-05-2007, 20:07
sempre avanti alla gts?? e a volte alla gtx??? :gluglu: :gluglu:
Parlavo dei test fatti su Dinox-PC con Win XP!!!
Se leggi i miei commenti + dietro ho gia detto e stradetto che la VGA MIGLIORE OGGI PREZZO/PRESTAZIONI è la GTS 320!!!
Non nascondo il mio debole x AMD e ATI, cmq compro sempre cio che è mejo al momento, se guardi la mia firma ho un Core Duo ed una X1900 pagata 200€ prima che uscissero le GTS 320mb, allora si scontrava con le 7800/7900 ed il confronto tra X1xx e 7xxx era impietoso specie con i filtri!!!
Adesso comprerei una GTS senza pensarci su 2 volte
killer978
17-05-2007, 20:10
mi ricordo ke killer978 era quello ke diceva ke la x1950xtx era meglio della gts 640. è troppo forte, sbelliki dalle risate con lui
Evitiamo di andare sul personale fai il bravo bimbo dai :friend: te eri quello che trollava e difendeva le 7xxx quando il confronto gia con una X1800XL era impietoso nei vari tread di Belin (quindi un po te la cercavi) !!
mai detto che una X1900 fosse sopra una GTS ;)
Free Gordon
17-05-2007, 20:22
il nocciolo è che nvidia avendo shader a frequenza elevata e clock inferiore alla controparte ati(che sulla carta aveva rivoluzionato la galassia,facendoci conoscere i plutoniani),consuma meno e va di più,quindi l'efficienza è superiore,e qui mi sembra ci sia poco da discutere.....per questo dico che per l'utente finale in ultima istanza il vero freno è il rapporto prestazioni/consumi poco favorevole,chiunque con un minimo di attenzione al portafogli opterebbe per una GTS 640.....
Come ho detto vari post fà, l'efficienza nelle GPU si estrapola dagli fps nei giochi... :D e ad ogni bench, partendo da questo presupposto, ci può essere un'efficienza diversa...!
Se avessimo giudicato solo i primi 3-6 mesi della ATI 8500, saremmo giunti alle stesse conclusioni a cui sei giunto tu, parlando della 2900XT.. ma quello che successe dopo, è storia. ;) La 8500 superò la rivale in tutto.
Io credo che questa scheda, per come è stata strutturata, darà il suo meglio in giochi in cui il carico sui calcoli matematici sarà preponderante rispetto al texturing e dove ci saranno shader lunghi da elaborare.
Perchè è per quel tipo di scenario che è stata creata e nei giochi attuali (giochi con cui confrontavamo anche le VGA della passata generazione e addirittura di 2 generazioni fà) non ha una resa paragonabile alle 8800 più veloci (GTX e Ultra), perchè i giochi attuali sono tarati in maniera differente: 60% del carico sugli shader (generalmente corti) e 40% sulle texture.
Si può discutere sul fatto che ATI abbia sbagliato il timing (e questo attualmente è innegabile) ma non ha molto senso parlare di efficienza in queste circostanze.
ps.
Al giocatore che compra una VGA da 350-400 euro, del rapporto prestazioni consumi gliene può pure fregare ben poco... perchè su un anno di utilizzo, i soldi spesi in corrente imputabili ad una scheda video rispetto ad un altra (mettiamo che ci siano 50W dalla GTS alla XT) non credo saranno incisivi... :rolleyes:
Free Gordon
17-05-2007, 20:25
mai detto che una X1900 fosse sopra una GTS ;)
Rispetto alla 320, dipende. ;)
La 1950XTX si trova tra la 320 e la 640, in generale.
Cmq è probabile che più si andrà avanti (nei giochi futuri) e più la 320 supererà e staccherà la 1950 (parlando di dx9 ovviamente) alle basse e medie res. ;)
killer978
17-05-2007, 20:37
Rispetto alla 320, dipende. ;)
La 1950XTX si trova tra la 320 e la 640, in generale.
Cmq è probabile che più si andrà avanti (nei giochi futuri) e più la 320 supererà e staccherà la 1950 (parlando di dx9 ovviamente) alle basse e medie res. ;)
appunto
Ora non ricordo a quale discussione si riferiva Saf, cmq ricordo che in + di una recensione le X1900 se la giocassero alla pari con le GTS!!! ovviamente non in tutti i titoli e solo in determinate situazioni. ;)
Non mi sembra di aver detto qualche eresia tanto da farlo sbellicare dalle risate :asd:
Se qualcvuno vuole ridere basta che vada a spulciarsi i vecchi tread delle X1xxx li Safendi faceva i salti mortali :asd:
cmq chiudiamo l'OT!!!
killer978
17-05-2007, 20:43
Questi test sono fatti con gli ultimi Beta e sotto Win XP SP2
http://img526.imageshack.us/img526/6818/3dmark2006uw1.png (http://imageshack.us)
http://img264.imageshack.us/img264/9781/x3zm9.png (http://imageshack.us)
http://img264.imageshack.us/img264/6607/cohit0.png (http://imageshack.us)
http://img174.imageshack.us/img174/2457/farcryuw1.png (http://imageshack.us)
Grave Digger
17-05-2007, 21:36
Come ho detto vari post fà, l'efficienza nelle GPU si estrapola dagli fps nei giochi... :D e ad ogni bench, partendo da questo presupposto, ci può essere un'efficienza diversa...!
Se avessimo giudicato solo i primi 3-6 mesi della ATI 8500, saremmo giunti alle stesse conclusioni a cui sei giunto tu, parlando della 2900XT.. ma quello che successe dopo, è storia. ;) La 8500 superò la rivale in tutto.
Io credo che questa scheda, per come è stata strutturata, darà il suo meglio in giochi in cui il carico sui calcoli matematici sarà preponderante rispetto al texturing e dove ci saranno shader lunghi da elaborare.
Perchè è per quel tipo di scenario che è stata creata e nei giochi attuali (giochi con cui confrontavamo anche le VGA della passata generazione e addirittura di 2 generazioni fà) non ha una resa paragonabile alle 8800 più veloci (GTX e Ultra), perchè i giochi attuali sono tarati in maniera differente: 60% del carico sugli shader (generalmente corti) e 40% sulle texture.
Si può discutere sul fatto che ATI abbia sbagliato il timing (e questo attualmente è innegabile) ma non ha molto senso parlare di efficienza in queste circostanze.
ps.
Al giocatore che compra una VGA da 350-400 euro, del rapporto prestazioni consumi gliene può pure fregare ben poco... perchè su un anno di utilizzo, i soldi spesi in corrente imputabili ad una scheda video rispetto ad un altra (mettiamo che ci siano 50W dalla GTS alla XT) non credo saranno incisivi... :rolleyes:
mah,se tu sostieni che io mi sia basato su qualcosa di diverso dai giochi e dai bench,a cosa mi sarò mai riferito???ma che discorsi sono scusa :rolleyes: ....
cmnq parlare di schede di 4 generazioni fa non ha molto senso,perchè non c'è assolutamente un parallelismo osservabile dal punto di vista della continuità architetturale...quà si gira pagina,ed a quanto pare nvidia è riuscita a tirar fuori un prodotto molto valido.....poi,alla luce dei test che tutti abbiamo potuto osservare,mi sembra abbastanza evidente che ad oggi nvidia è l'acquisto più sensato....non esiste per quel che mi concerne che una scheda faccia pena in dx 9.0c per puoi staccare l'asfalto in dx10,un'architettura non si immette sul mercato per supposizioni prestazionali future non meglio precisate e soprattutto a prezzo di fascia medio-alta;si commercializza un prodotto per fare cassa,e ciò presuppone che il fattore stupore per le prestazioni induca la clientela a migrare al proprio hardware....e ciò in ati non sono stati in grado di farlo,e tantomeno in ati hanno mai avuto la pretesa di essere superiori con la 2900xt alla attuale gamma di prodotti nvidia,segno concreto che cmnq alla ati sono penso molto coscienti della situazione....fermo restando il fatto che di giochi in dx9 ancora ne vedremo per un pezzo,quindi in ogni caso il fine ultimo dell'acquirente oculato(per non dire intelligente,perchè sarebbe offensivo) è acquistare con il proprio denaro una scheda che faccia più cosa possibili nel migliore dei modi,ed anche qui ati ha questo innegabile difetto.....
in ultima istanza,il fatto che esista una fascia enthusiast non giustifica che si possa utilizzare in modo indiscriminato la corrente elettrica....io per principio sono molto attento a queste cose(e non è questione dei 50W,cerchiamo di discutere seriamente :) ),e a dirla tutta,nessuno mi farebbe mettere nel mio case una scheda che riscalda e consuma più della mia nvidia,e soprattutto che vada MENO....
perchè appunto,un conto è sacrificare temperature e consumi in favore delle prestazioni(e qui un enthusiast vi si rispecchia in pieno),un altro è essere fanboy e fare certe assunzioni per principio,nella speranza che la scheda improvvisamente ribalti la situazione con degli improbabili driver.....
Questi test sono fatti con gli ultimi Beta e sotto Win XP SP2
http://img526.imageshack.us/img526/6818/3dmark2006uw1.png (http://imageshack.us)
http://img264.imageshack.us/img264/9781/x3zm9.png (http://imageshack.us)
http://img264.imageshack.us/img264/6607/cohit0.png (http://imageshack.us)
http://img174.imageshack.us/img174/2457/farcryuw1.png (http://imageshack.us)
fonte?
Grave Digger
17-05-2007, 22:11
fonte?
dalla testata "la speranza è l'ultima a morire" :asd:
scherzo :)
Evangelion01
17-05-2007, 22:14
mah,se tu sostieni che io mi sia basato su qualcosa di diverso dai giochi e dai bench,a cosa mi sarò mai riferito???ma che discorsi sono scusa :rolleyes: ....
cmnq parlare di schede di 4 generazioni fa non ha molto senso,perchè non c'è assolutamente un parallelismo osservabile dal punto di vista della continuità architetturale...quà si gira pagina,ed a quanto pare nvidia è riuscita a tirar fuori un prodotto molto valido.....poi,alla luce dei test che tutti abbiamo potuto osservare,mi sembra abbastanza evidente che ad oggi nvidia è l'acquisto più sensato....non esiste per quel che mi concerne che una scheda faccia pena in dx 9.0c per puoi staccare l'asfalto in dx10,un'architettura non si immette sul mercato per supposizioni prestazionali future non meglio precisate e soprattutto a prezzo di fascia medio-alta;si commercializza un prodotto per fare cassa,e ciò presuppone che il fattore stupore per le prestazioni induca la clientela a migrare al proprio hardware....e ciò in ati non sono stati in grado di farlo,e tantomeno in ati hanno mai avuto la pretesa di essere superiori con la 2900xt alla attuale gamma di prodotti nvidia,segno concreto che cmnq alla ati sono penso molto coscienti della situazione....fermo restando il fatto che di giochi in dx9 ancora ne vedremo per un pezzo,quindi in ogni caso il fine ultimo dell'acquirente oculato(per non dire intelligente,perchè sarebbe offensivo) è acquistare con il proprio denaro una scheda che faccia più cosa possibili nel migliore dei modi,ed anche qui ati ha questo innegabile difetto.....
in ultima istanza,il fatto che esista una fascia enthusiast non giustifica che si possa utilizzare in modo indiscriminato la corrente elettrica....io per principio sono molto attento a queste cose(e non è questione dei 50W,cerchiamo di discutere seriamente :) ),e a dirla tutta,nessuno mi farebbe mettere nel mio case una scheda che riscalda e consuma più della mia nvidia,e soprattutto che vada MENO....
perchè appunto,un conto è sacrificare temperature e consumi in favore delle prestazioni(e qui un enthusiast vi si rispecchia in pieno),un altro è essere fanboy e fare certe assunzioni per principio,nella speranza che la scheda improvvisamente ribalti la situazione con degli improbabili driver.....
Quoto, e aggiungo che un prodotto, va si guardato anche in ottica futura, ma soprattutto va giudicato per ciò che dà ORA. E quì la 2900 ha già perso la battaglia. :)
La guerra invecie è ancora lunga...
Grave Digger
17-05-2007, 22:18
Quoto, e aggiungo che un prodotto, va si guardato anche in ottica futura, ma soprattutto va giudicato per ciò che dà ORA. E quì la 2900 ha già perso la battaglia. :)
La guerra invecie è ancora lunga...
:cincin: :mano: :sborone: :angel: :asd:
dalla testata "la speranza è l'ultima a morire" :asd:
scherzo :)
:D guarda quei grafici provengono da questa recensione: http://www.legionhardware.com/document.php?id=645&p=5
E' da notare che la scheda testata è una ASUS con driver recenti... se fosse attendibile sarebbe una piccola svolta per questa scheda!:rolleyes:
Ciao!
:D guarda quei grafici provengono da questa recensione: http://www.legionhardware.com/document.php?id=645&p=5
E' da notare che la scheda testata è una ASUS con driver recenti... se fosse attendibile sarebbe una piccola svolta per questa scheda!:rolleyes:
Ciao!
Sul sito AMD/Ati gli ultimi driver disponibili sono i 8.37.4.3.
Su Hwupgrade hanno usato i 8.37-4-07419a e driver NVIDIA Forceware 158.18
Nella recensione su legionhardware vengono usati i 8.37.4.2 47096 e driver NVIDIA Forceware 158.22
Quelli della AMD/Ati stanno sfornando un rilascio di driver al giorno... non è che gatta ci cova... non ci avranno mica preso per il :ciapet: ...
Bhà... comunque secondo me siamo solo all'inizio...
spero di godermi un bello spettacolo "ati vs NVIDIA"
MenageZero
17-05-2007, 22:50
però il fatto che hanno deciso di commercializzarla cmq quando previsto ed a quel prezzo, non sembra spingere ad adottare con faclità l'idea che con il lavoro sui drv la hd2900xt diventi in pochissimi mesi stabilmente competitiva con la gtx o la ultra ... :boh:
però il fatto che hanno deciso di commercializzarla cmq quando previsto ed a quel prezzo, non sembra spingere ad adottare con faclità l'idea che con il lavoro sui drv la hd2900xt diventi in pochissimi mesi stabilmente competitiva con la gtx o la ultra ... :boh:
a mio avviso a quei livelli non ci arriverà mai, non e' la sua fascia, puo' al max diventare stabilmente superiore alla GTS 640.
a mio avviso a quei livelli non ci arriverà mai, non e' la sua fascia, puo' al max diventare stabilmente superiore alla GTS 640.
Infatti.
Cavolo ma non siete un po' troppo esigenti?
Volete una ultra a 370 Euro :asd:
http://www.legionhardware.com/document.php?id=645&p=1
non so se era sta segnalata, cmq test fatti sotto XP sp2 dove la scheda va decisamente meglio ;)
segno che sotto vista i problemi driver ci sono eccome
Se la recensione è attendibile i risultati sono molto interessanti ;)
Ho visto su un noto sito online la 2900xt a 319 euro iva esclusa...se mantiene/migliora i risultati della recensione potrebbe rappresentare una valida alternativa alla GTS.
Ciauz
halduemilauno
18-05-2007, 09:42
Se la recensione è attendibile i risultati sono molto interessanti ;)
Ho visto su un noto sito online la 2900xt a 319 euro iva esclusa...se mantiene/migliora i risultati della recensione potrebbe rappresentare una valida alternativa alla GTS.
Ciauz
da tener presente che per chi ha monitor da 17/19 pollici c'è la 8800gts320 che è altrettanto valida della 640 e rispetto alla 2900xt si risparmiano almeno 130€.
;)
da tener presente che per chi ha monitor da 17/19 pollici c'è la 8800gts320 che è altrettanto valida della 640 e rispetto alla 2900xt si risparmiano almeno 130€.
;)
Verissimo. Diciamo che la terrei in considerazione solo per l'utenza interessata alla GTS 640.
Certo rimane la questione Vista....ma risolveranno la cosa..penso.
Certo rimane sempre strano che dopo 6 mesi presentino la scheda in queste condizioni...ossia buona sotto XP e pessima sotto Vista.
Ciauz
Slayer86
18-05-2007, 11:09
Riguardando l'articolo in cui veniva presentata la 8800gtx ho notato che le prestazioni non erano di tanto superiori a quelle della HD 2900 di oggi c'è da dire che ci sono delle piccole variazioni nella configurazione di test e il sistema operativo era xp e non vista però la 8800 ha fatto segnare in oblivion senza hdr alla risoluzione di 1920 dei valori bassi e medi inferiori a quelli fatti registrare dalla 2900... secondo me lavorando sui driver dovrebbe migliorare parecchio tuttavia la scheda è in netto ritardo rispetto alla controparte nvidia e si presenta con driver scadenti ora è stata bollata da tutti come flop... bhe questa è tutta cattiva pubblicità anche perchè se tra 6 mesi ci saranno driver efficenti nessuno farà test di confronto per i nuovi driver...
Grave Digger
18-05-2007, 11:14
Riguardando l'articolo in cui veniva presentata la 8800gtx ho notato che le prestazioni non erano di tanto superiori a quelle della HD 2900 di oggi c'è da dire che ci sono delle piccole variazioni nella configurazione di test e il sistema operativo era xp e non vista però la 8800 ha fatto segnare in oblivion senza hdr alla risoluzione di 1920 dei valori bassi e medi inferiori a quelli fatti registrare dalla 2900... secondo me lavorando sui driver dovrebbe migliorare parecchio tuttavia la scheda è in netto ritardo rispetto alla controparte nvidia e si presenta con driver scadenti ora è stata bollata da tutti come flop... bhe questa è tutta cattiva pubblicità anche perchè se tra 6 mesi ci saranno driver efficenti nessuno farà test di confronto per i nuovi driver...
quoto,e inoltre,per come la vedo io,queste schede tra un anno verranno soppiantate dalla generazione successiva,valida davvero in dx10,e alla fine dei conti con le nostre schede potremo giocare bene in ambito dx10 solo a risoluzioni medio-basse....
killer978
18-05-2007, 11:44
Verissimo. Diciamo che la terrei in considerazione solo per l'utenza interessata alla GTS 640.
Certo rimane la questione Vista....ma risolveranno la cosa..penso.
Certo rimane sempre strano che dopo 6 mesi presentino la scheda in queste condizioni...ossia buona sotto XP e pessima sotto Vista.
Ciauz
Forse dimentichiamo che in questi ultimi mesi la società è stata profondamente cambiata.
Forse davvero la VGA non era pronta, quindi sui driver non hanno potuto lavorare come avrebbero voluto!!
Free Gordon
18-05-2007, 13:06
mah,se tu sostieni che io mi sia basato su qualcosa di diverso dai giochi e dai bench,a cosa mi sarò mai riferito???ma che discorsi sono scusa :rolleyes: ....
Non ci siamo capiti...non ho detto questo, ho detto sostanzialmente che ora è permaturo giudicare l'efficienza di questa architettura.
cmnq parlare di schede di 4 generazioni fa non ha molto senso,perchè non c'è assolutamente un parallelismo osservabile dal punto di vista della continuità architetturale...
Ma che c'entra? :D
Io dico che il problema ora è di driver (e per dirlo ho usato quel paragone con la 8500), anche se sotto XP la scheda già ora stacca nettamente la 8800 GTS 640 in molti ambiti e alcune volte supera la GTX/Ultra.
http://www.digit-life.com/articles2/video/r600-part3.html
quà si gira pagina,ed a quanto pare nvidia è riuscita a tirar fuori un prodotto molto valido.....poi,alla luce dei test che tutti abbiamo potuto osservare,mi sembra abbastanza evidente che ad oggi nvidia è l'acquisto più sensato....
nVidia è l'acquisto più sensato per la fascia high end "bassa" 8800GTS 320.. e per la alta (GTX).
Ma la 2900XT è sicuramente migliore della 8800GTS 640 (sotto XP).
in ultima istanza,il fatto che esista una fascia enthusiast non giustifica che si possa utilizzare in modo indiscriminato la corrente elettrica....io per principio sono molto attento a queste cose(e non è questione dei 50W,cerchiamo di discutere seriamente :) )
E' vero, sono 65W rispetto alla 640... :rolleyes:
http://vr-zone.com/?i=4946&s=9
Hai mai fatto un calcolo di quanto ti può costare una scheda che nel 3D consuma 65W in più della concorrente, all'anno? ^_^
Considerando 40 ore di gioco mensili? Ad esempio...
Grave Digger
18-05-2007, 13:19
Non ci siamo capiti...non ho detto questo, ho detto sostanzialmente che ora è permaturo giudicare l'efficienza di questa architettura.
Ma che c'entra? :D
Io dico che il problema ora è di driver (e per dirlo ho usato quel paragone con la 8500), anche se sotto XP la scheda già ora stacca nettamente la 8800 GTS 640 in molti ambiti e alcune volte supera la GTX/Ultra.
http://www.digit-life.com/articles2/video/r600-part3.html
nVidia è l'acquisto più sensato per la fascia high end "bassa" 8800GTS 320.. e per la alta (GTX).
Ma la 2900XT è sicuramente migliore della 8800GTS 640 (sotto XP).
E' vero, sono 65W rispetto alla 640... :rolleyes:
http://vr-zone.com/?i=4946&s=9
Hai mai fatto un calcolo di quanto ti può costare una scheda che nel 3D consuma 65W in più della concorrente, all'anno? ^_^
Considerando 40 ore di gioco mensili? Ad esempio...
siamo sempre lì,i consumi significano relativamente.....ti ripeto,se avesse prestazioni superiori,un enthusiast rinuncerebbe a qualcosa pur di avere le prestazioni.....ma ora come ora nessuno mette una scheda così esosa in termini energetici e con temperature così elevate per andare di meno....
questo AD OGGI.....in futuro si vedrà....ma oggi,concretamente,se di pome devo andare a comprare una vga,credo si sappia verso cosa orientarsi.....
halduemilauno
18-05-2007, 13:34
nelle rece dove voi vedete che la 2900xt va meglio dovete tener conto (o almeno non solo)non di xp o vista dovete tener conto se i filtri(normalmente 4/16)sono attivati o meno. è soprattutto(ho detto soprattutto non in maniera esclusiva) in quelle modalità che si deve giudicare.
;)
Grave Digger
18-05-2007, 13:39
nelle rece dove voi vedete che la 2900xt va meglio dovete tener conto (o almeno non solo)non di xp o vista dovete tener conto se i filtri(normalmente 4/16)sono attivati o meno. è soprattutto(ho detto soprattutto non in maniera esclusiva) in quelle modalità che si deve giudicare.
;)
parole sante,ci sono troppe orecchie da mercante in giro :)
halduemilauno
18-05-2007, 13:42
parole sante,ci sono troppe orecchie da mercante in giro :)
probabilmente non hanno visto che le impostazioni sono diverse. queste schede son fatte per essere utilizzate con i filtri normalmente 4/16. in quelle condizioni le cose son ben diverse da quello che si dice.
;)
killer978
18-05-2007, 13:44
Crossposting :D
su XP sta scheda non va malaccio, secondo me ci sono ottime possibilità di ripresa anche su Vista con driver meno pre pre pre pre pre alpha beta gamma :asd:
http://img291.imageshack.us/img291/4687/sc2nk8.th.png (http://img291.imageshack.us/my.php?image=sc2nk8.png)
http://img526.imageshack.us/img526/4272/chdj1.th.png (http://img526.imageshack.us/my.php?image=chdj1.png)
http://img150.imageshack.us/img150/451/prhf0.th.png (http://img150.imageshack.us/my.php?image=prhf0.png)
Sembra che in OpenGL soffra meno delle precedenti VGA rispetto alle Nvidia ;)
killer978
18-05-2007, 13:52
parole sante,ci sono troppe orecchie da mercante in giro :)
Non si tratta di orecchie da mercante , è solo che alla fine non sembra poi così disastrosa rispetto alle GTS, tutto qui!!!
il problema principale è Vista ( x adesso) resta la certezza che il 99% di queste VGA almeno nel breve/medio termine saranno usate su Win XP!
è normale che chi ha un po di simpatia x ATI cerchi di sdrammatizzare (ovviamente senza inventarsi nulla) mentre chi è pro monopolio cerchi di azzopparle!!
c'è gente che ha il complesso di inferiorità :D dopo anni di mazzate date da ATI a Nvidia , qualcuno adesso cerca di farla vedere + nera di quella che!!
Con questo ripeto che se dovrei cambiare adesso la mia VGA prenderei una GTS 320 senza pensarci 2 volte, ma come potete vedere dalle mille rece sparse x il Web la X1900XTX si difende ancora bene a volte sta sopra la 320 :asd:
x adesso mi godo quello che ho poi si vedrà ;)
halduemilauno
18-05-2007, 14:01
per esempio in questa rece
http://www.hothardware.com/articles/ATI_Radeon_HD_2900_XT__R600_Has_Arrived/?page=14
i bench son tutti stati fatti con i filtri 4/16 e la 2900xt sta sempre sotto. l'unico test eseguito senza filtri è il classico 3dmark e li sta sopra alla gts. la rece è stata eseguita sotto xp.
;)
AndreaG.
18-05-2007, 14:09
per esempio in questa rece
http://www.hothardware.com/articles/ATI_Radeon_HD_2900_XT__R600_Has_Arrived/?page=14
i bench son tutti stati fatti con i filtri 4/16 e la 2900xt sta sempre sotto. l'unico test eseguito senza filtri è il classico 3dmark e li sta sopra alla gts. la rece è stata eseguita sotto xp.
;)
in effetti in giro per la rete ci sono molti che stanno cercando in tutti i modi di far meglio apparire la 2900.... non è bello...
Portocala
18-05-2007, 14:17
in effetti in giro per la rete ci sono molti che stanno cercando in tutti i modi di far meglio apparire la 2900.... non è bello...
come se cercassero di risollevare il morale alla AMD
per esempio in questa rece
http://www.hothardware.com/articles/ATI_Radeon_HD_2900_XT__R600_Has_Arrived/?page=14
i bench son tutti stati fatti con i filtri 4/16 e la 2900xt sta sempre sotto. l'unico test eseguito senza filtri è il classico 3dmark e li sta sopra alla gts. la rece è stata eseguita sotto xp.
;)
Azz hai ragione, non avevo fatto caso ad aa ed af disabilitati.
In effetti si "siede" parecchio abilitandoli...
Resta cmq interessante il fatto che sotto xp e senza filtri raggiunga quei risultati, magari lavorando un pò sui driver riescono a recuperare le perdite dovute all'introduzione dei filtri per posizionarsi a livello della GTS.
IMHO capisco che dopo la fusione l'azienda abbia avuto (forse) una riorganizzazione dei team dedicati ad R600...ma non penso che nessun project manager di amd abbia preso in carico l'intero progetto cancellando tutti i team che c'erano al lavoro.
Nel mio campo quando si verificano queste cose....solitamente il prodotto hardware non è ancora pronto per la scadenza prevista e di conseguenza si accettano compromessi (anche prestazionali) pur di farlo uscire in tempo.
E se l'hw non è pronto, la parte software (ossia i driver per i vari s.o. in questo caso) non può essere testata in maniera veritiera...ma al più simulata, con risultati che spesso lasciano il tempo che trovano.
Cmq...aspettiamo e vedremo :)
Ciauz
Free Gordon
18-05-2007, 18:48
nelle rece dove voi vedete che la 2900xt va meglio dovete tener conto (o almeno non solo)non di xp o vista dovete tener conto se i filtri(normalmente 4/16)sono attivati o meno. è soprattutto(ho detto soprattutto non in maniera esclusiva) in quelle modalità che si deve giudicare. ;)
http://www.digit-life.com/articles2/video/r600-part3.html
http://www.ixbt.com/video3/r600-part3-d.shtml#p16
AA4x e AF16 abilitati. ;)
In questa rece la 2900XT in media supera la GTS 640 di molto.
E supera anche la GTX in molti casi.. :eek:
Sarei felice di vedere una rece di hwupgrade con XP Sp2, ma a quanto pare non la vedremo mai... perchè ormai hanno tuttoi vista.. :asd:
Free Gordon
18-05-2007, 19:23
per esempio in questa rece
http://www.hothardware.com/articles/ATI_Radeon_HD_2900_XT__R600_Has_Arrived/?page=14
i bench son tutti stati fatti con i filtri 4/16 e la 2900xt sta sempre sotto. l'unico test eseguito senza filtri è il classico 3dmark e li sta sopra alla gts. la rece è stata eseguita sotto xp.
;)
Al di là del fatto che i driver non sono chiari per entrambe le rece (perchè gli 8.37 hanno varie release con risultati differenti), in questa rece sono testati 4 giochi.
HL2: EP1
FEAR
PRAY
STALKER
Se confrontiamo i risultati, AA4x e AF16x di questa rece, con quelle che ho postato sopra, vediamo che:
In FEAR e PREY, la GTS a default, è inferiore alla 2900XT, per cui le rece concordano. ;)
STALKER e HL2:EP1 non sono stati testati da digit-life, per cui non possiamo dire nulla a riguardo, se non che la GTS 640 a default (perchè nella rece ce n'è anche una overcloccata) va meglio della 2900XT.
Resta il fatto che, se prendiamo per buoni i test di digit-life (avendo trovato riscontri nella rece di Hothardware.. :D ), vediamo che la 2900XT va meglio (marginalmente o di molto) nei seguenti giochi con HDR + AA4x e AF16X:
FAR CRY (reserch)
CHAOS THEORY
COMPANY OF HEROES
SERIOUS SAM II
E tutto ciò con driver pre-alpha... ;)
halduemilauno
18-05-2007, 20:27
http://www.digit-life.com/articles2/video/r600-part3.html
http://www.ixbt.com/video3/r600-part3-d.shtml#p16
AA4x e AF16 abilitati. ;)
In questa rece la 2900XT in media supera la GTS 640 di molto.
E supera anche la GTX in molti casi.. :eek:
Sarei felice di vedere una rece di hwupgrade con XP Sp2, ma a quanto pare non la vedremo mai... perchè ormai hanno tuttoi vista.. :asd:
li c'è la sua versione oc 850/2000. solo in coh la gtx è sotto.
Al di là del fatto che i driver non sono chiari per entrambe le rece (perchè gli 8.37 hanno varie release con risultati differenti), in questa rece sono testati 4 giochi.
HL2: EP1
FEAR
PRAY
STALKER
Se confrontiamo i risultati, AA4x e AF16x di questa rece, con quelle che ho postato sopra, vediamo che:
In FEAR e PREY, la GTS a default, è inferiore alla 2900XT, per cui le rece concordano. ;)
STALKER e HL2:EP1 non sono stati testati da digit-life, per cui non possiamo dire nulla a riguardo, se non che la GTS 640 a default (perchè nella rece ce n'è anche una overcloccata) va meglio della 2900XT.
Resta il fatto che, se prendiamo per buoni i test di digit-life (avendo trovato riscontri nella rece di Hothardware.. :D ), vediamo che la 2900XT va meglio (marginalmente o di molto) nei seguenti giochi con HDR + AA4x e AF16X:
FAR CRY (reserch)
CHAOS THEORY
COMPANY OF HEROES
SERIOUS SAM II
E tutto ciò con driver pre-alpha... ;)
Bhe, 10 mesi per dei drivers PRE-Alpha, mancano alpha 1 e 2, poi beta 1 2 e 3, e forse i final, in questo lasso di tempo nVidia avrà gia rilasciato nuovo hw e migliorato i drv delle soluzioni esistenti.
Per quanto sia nVidia oriented, ho atteso l'acquisto della 8800gtx per aspettarmi i risultati di ATI con questa scheda, che collocandosi nella fascia media non mi ha per niente soddisfatto, aspetto ancora la XTX, che dovrebbe "teoricamente" avere a che fare con le soluzioni GTX, ma quando uscirà, ci saranno gia le soluzioni Dual GPU (8950)...quindi torniamo al punto da capo.
Cosa tiene ATI ancora con il collo fuori dalla m.... è il fatto che titoli dx10 non se ne vedono ancora in giro, ma è meglio che si dia una svegliata, o dovrà attendere le dx11 per vendere anche solo una scheda.
RICKYL74
18-05-2007, 22:07
...aspetto ancora la XTX, che dovrebbe "teoricamente" avere a che fare con le soluzioni GTX, ma quando uscirà, ci saranno gia le soluzioni Dual GPU (8950)...quindi torniamo al punto da capo.
..si ma anche ATI sta lavorando sulle dual gpu tipo le 8950GX2 di nVida
Grave Digger
18-05-2007, 22:37
..si ma anche ATI sta lavorando sulle dual gpu tipo le 8950GX2 di nVida
ATI insegue :sborone:
Bhe, 10 mesi per dei drivers PRE-Alpha,
ma smettiamola di dire bambinate...suvvia. :p
L'ultima revision di R60 è stata fatta in febbraio. Sviluppo driver per un chip che non posso ancora distribuire agli sviluppatori e ai tester?
Dove sono i mesi e mesi di driver già pronti che tutti qua dentro dicono? :mc:
Free Gordon
19-05-2007, 05:06
li c'è la sua versione oc 850/2000. solo in coh la gtx è sotto.
La XT testata è a default, mica a 850mhz... ;)
Digit dice solamente che l'OC raggiunto è di 850mhz (nella media in pratica).
Free Gordon
19-05-2007, 05:09
ATI insegue :sborone:
Non si sa chi però... :asd:
Sicuramente non insegue (nè l'ha mai inseguita) nVidia. :D
Free Gordon
19-05-2007, 05:10
..si ma anche ATI sta lavorando sulle dual gpu tipo le 8950GX2 di nVida
Non credo che usciranno mai delle "8950GX2" e men che meno delle schede con due R600 on board.
halduemilauno
19-05-2007, 08:30
La XT testata è a default, mica a 850mhz... ;)
Digit dice solamente che l'OC raggiunto è di 850mhz (nella media in pratica).
li è anche testata in oc 850/2000. e può generare confusione.
killer978
19-05-2007, 09:07
li è anche testata in oc 850/2000. e può generare confusione.
Basta non guardare i risultati della OC!!
Anche se come metro di paragone x una ipotetica XTX funziona ;)
halduemilauno
19-05-2007, 09:12
Basta non guardare i risultati della OC!!
Anche se come metro di paragone x una ipotetica XTX funziona ;)
certo. basta che qualcuno non si confonda. funziona come risultati evidentemente non funziona come consumo, calore, rumore. gia elevati a 740/1650 e quindi inaccettabili. se no la facevano. e se la facevano bastava per nvidia fare la ultra a 675/1550/2200. evidentemente sapeva e si è regolata.
Grave Digger
19-05-2007, 10:04
Non si sa chi però... :asd:
Sicuramente non insegue (nè l'ha mai inseguita) nVidia. :D
scherzi a parte (la mia inizialmente era una battuta ;) ),Nvidia fa lo sli(facciamo 3dfx và) e Ati appronta il crossfire;Nvidia fa le gx2 e Ati fa una x1950pro dual gpu.....insomma,in quanto a novità,diciamo la Nvidia ha avuto una marcia in più(pur andando sull'esotico :D ).....a questo giro purtroppo ati è un po' in affanno,e siamo rimasti fregati perchè fondamentalmente ci terremo il prezzo della ultra invariato per diversi mesi :rolleyes: ......anche se le OpenGL sono ormai in disuso,non dimentichiamoci che nvidia è sempre stata più propensa a sviluppare schede OpenGL oriented,ma è relativo,perchè cmnq i giochi erano pochi(a me per esempio facevano comodo perchè mi piacciono gli fps OpenGL).....
alla fine le potenzialità delle due case sono grossomodo sovrapponibili,ed escludendo qualche problemuccio finanziario in AMD,i presupposti per ritornare a della sana e serrata concorrenza ci sono tutti,ma possibilmente non nell'immediato :) .....
un bel video con con la 2900xt in azione
Link (http://www.dailymotion.com/video/x1xzw0_hd-2900xt-in-action)
con gli ultimi driver hanno risolto il problema della gesione della ventola in ambiente 3d? :confused:
un bel video con con la 2900xt in azione
Link (http://www.dailymotion.com/video/x1xzw0_hd-2900xt-in-action)
con gli ultimi driver hanno risolto il problema della gesione della ventola in ambiente 3d? :confused:
azz, al 100% è un phon :asd:
ghiltanas
19-05-2007, 10:32
ma nel video hanno tagliato la parte migliore...quando comincia a volare :stordita:
29Leonardo
19-05-2007, 10:37
ma nel video hanno tagliato la parte migliore...quando comincia a volare :stordita:
Ahahhha peccato! :rotfl:
scherzi a parte (la mia inizialmente era una battuta ;) ),Nvidia fa lo sli(facciamo 3dfx và) e Ati appronta il crossfire;Nvidia fa le gx2 e Ati fa una x1950pro dual gpu.....insomma,in quanto a novità,diciamo la Nvidia ha avuto una marcia in più(pur andando sull'esotico :D ).....
Ma sinceramente qua l'hai sparata grossa! :sofico:
Ati è dalla Radeon Maxx (parliamo del '99 ) che SA e PUO' usare sistemi multigpu multischeda.
Quantificare l'avanzamento tecnologico di una casa per il solo fatto di essere capaci di fare un collage di chip è 'un po' errato.
Ti ricordo che con Ati R300 è possibile, ed è stato fatto, collegare fino a 256 schede della famiglia dotata di R300 appunto in parallelo.
Soluzione usata molti anni fa, ancora prima che nvidia acquisisse 3dfx e ancora prima che in casa nvidia sapessero che cosa voleva dire SLI, da alcune aziende di simulazione di volo e di produzione grafica.
Ad esempio la Evans & Sutherland che produce simulatori anche militari ne ha usate mi pare 34 in paralello di R300.
Per quanto riguardo il corrersi dietro, Ati ha spesso corso dietro Nvidia per le prestazioni, ma dire lo stesso delle "trovate tecnologiche" è un po una baggianata.
Già adesso in R600, se pur riuscito mica tanto bene, Ati è già avanti: ha l'engine per i Geometry Shaders, ha la funzione di Tesselation in HW (DX10.1 o DX11), ha l'AA (poco performante) fatto via shaders.
Tutte cose che prima o poi anche nVidia dovrà usare perchè richieste dalle prossime specifiche delle librerie grafiche che tutti conosciamo.
Che tutte queste trovate non sempre vadano bene è giustissimo dirlo (vedi l'Npatch-TruFrom di Ati usato in modo decente solo da RTCW, il 3Dc per la compressione delle normal maps usato solo da SS e Far Cry mi pare), ma dire che tecnologicamente in questi anni è Ati a correre dietro nVidia mi pare un po' assurdo...
un bel video con con la 2900xt in azione
Link (http://www.dailymotion.com/video/x1xzw0_hd-2900xt-in-action)
con gli ultimi driver hanno risolto il problema della gesione della ventola in ambiente 3d? :confused:
Beh dai pensavo peggio.... :rolleyes:
Dopotutto è senza case e con la cam a 20 cm....
(ma c'è il video sfasato dall'audio? si sente il rumore forte molto dopo che si vede la ventola aumentare di giri)
Beh dai pensavo peggio.... :rolleyes:
Dopotutto è senza case e con la cam a 20 cm....
(ma c'è il video sfasato dall'audio? si sente il rumore forte molto dopo che si vede la ventola aumentare di giri)
è come quando passa un jet in volo: il velivolo ed il rumore prodotto non sono in sincrono :D
è come quando passa un jet in volo: il velivolo ed il rumore prodotto non sono in sincrono :D
LOL....visti i secondi che son passati sarà a mach 3 .... :D
RICKYL74
19-05-2007, 12:47
Non credo che usciranno mai delle "8950GX2" e men che meno delle schede con due R600 on board.
..non ne sarei tanto così sicuro, comunque vedremo.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.