View Full Version : ATI Radeon HD 2900 XT: è il momento di R600
Pagine :
1
2
3
4
5
[
6]
7
8
9
Free Gordon
19-05-2007, 14:00
li è anche testata in oc 850/2000. e può generare confusione.
Sei tu che stai generando confusione... ;) la XT in quei confronti che ho riportato sopra, sotto XP Sp2, è testata a default, come le GTS.
http://www.digit-life.com/articles2/video/r600-part3.html
Le percentuali dei test OC sono riportate SOLO in rapporto alle performance della 2900XT a default, per cui non facciamo confusione per favore. :D
Free Gordon
19-05-2007, 14:05
scherzi a parte (la mia inizialmente era una battuta ;) ),Nvidia fa lo sli(facciamo 3dfx và) e Ati appronta il crossfire;
nVidia ha proposto lo sli, DOPO l'acquisizione di 3DFX e del suo know how.
ATI ha fatto lo SLI, molto tempo prima col Fury MAXX (anche se i tempi non erano ancora maturi).
Nvidia fa le gx2 e Ati fa una x1950pro dual gpu.....
ATI non ha fatto la dual GPU è Sapphire che l'ha progettata.
La dual GPU da ATI si chiamava GEMINI ed era un progetto iniziato anche prima della dual GPU di nVidia ma non è mai andato in porto, a causa dei consumi dei chip della serie R5x0. ;)
alla fine le potenzialità delle due case sono grossomodo sovrapponibili,ed escludendo qualche problemuccio finanziario in AMD,i presupposti per ritornare a della sana e serrata concorrenza ci sono tutti,ma possibilmente non nell'immediato :) .....
Non sono le potenzialità a fare la differenza (nVidia era decisamente più grossa di ATI e avrebbe avuto molti più soldi da investire nel reparto R&D) ma la filosofia di sviluppo. ;)
Grave Digger
19-05-2007, 14:15
Ma sinceramente qua l'hai sparata grossa! :sofico:
Ati è dalla Radeon Maxx (parliamo del '99 ) che SA e PUO' usare sistemi multigpu multischeda.
Quantificare l'avanzamento tecnologico di una casa per il solo fatto di essere capaci di fare un collage di chip è 'un po' errato.
Ti ricordo che con Ati R300 è possibile, ed è stato fatto, collegare fino a 256 schede della famiglia dotata di R300 appunto in parallelo.
Soluzione usata molti anni fa, ancora prima che nvidia acquisisse 3dfx e ancora prima che in casa nvidia sapessero che cosa voleva dire SLI, da alcune aziende di simulazione di volo e di produzione grafica.
Ad esempio la Evans & Sutherland che produce simulatori anche militari ne ha usate mi pare 34 in paralello di R300.
Per quanto riguardo il corrersi dietro, Ati ha spesso corso dietro Nvidia per le prestazioni, ma dire lo stesso delle "trovate tecnologiche" è un po una baggianata.
Già adesso in R600, se pur riuscito mica tanto bene, Ati è già avanti: ha l'engine per i Geometry Shaders, ha la funzione di Tesselation in HW (DX10.1 o DX11), ha l'AA (poco performante) fatto via shaders.
Tutte cose che prima o poi anche nVidia dovrà usare perchè richieste dalle prossime specifiche delle librerie grafiche che tutti conosciamo.
Che tutte queste trovate non sempre vadano bene è giustissimo dirlo (vedi l'Npatch-TruFrom di Ati usato in modo decente solo da RTCW, il 3Dc per la compressione delle normal maps usato solo da SS e Far Cry mi pare), ma dire che tecnologicamente in questi anni è Ati a correre dietro nVidia mi pare un po' assurdo...
si so a cosa ti riferisci,ma se leggi attentamente quello che ho scritto si evincono alcune cose già citate da te:
allora.....battuta a parte(speravo si fosse capito il senso),io non ho detto che a conti fatti nvidia ha inventato esclusivamente determinate tecnologie(come ho già detto lo sli era appannaggio di 3dfx),ho detto che nvidia(forte del proprio nome) ha reso disponibile al grande pubblico soluzioni abbastanza "esotiche" :) : personalmente non le concepisco e non le acquisterei,gli sli e gx2 non mi interessano(men che meno i chipset nforce,BRRRRRR),ma comunque il fatto che una determinata utenza che vuole e che può puntare su determinate soluzioni venga soddisfatta,secondo me non è cosa da poco.....fermo restando che anche la sony per dirne una,fece un cubo con 16 sistemi ps2 in parallelo nel '99 (il GS cube :read: ) ......per cui,non è l'invenzione il succo,bensì la diffusione :) ......che poi le schede abbiano precise peculiarità architetturali è un altro paio di maniche,ci si potrebbe scrivere un volume su un argomento del genere,ma il concetto che ho espresso puntava altrove.....
altra cosa: ufficialmente ati non ha citato l'implementazione delle dx10.1,perchè ancora non si sa ufficialmente se le unità di tassellazione saranno l'unica innovazione delle librerie alla versione 10.1.....credo che nella tua argomentazione siano presenti altre baggianate ;) ....
Grave Digger
19-05-2007, 14:22
nVidia ha proposto lo sli, DOPO l'acquisizione di 3DFX e del suo know how.
ATI ha fatto lo SLI, molto tempo prima col Fury MAXX (anche se i tempi non erano ancora maturi).
ma io che ho detto scusate???ho detto che in realtà la 3dfx l'ha studiata per introdurla nel mercato,è pure messo tra parentesi :eek: .....
ATI non ha fatto la dual GPU è Sapphire che l'ha progettata.
La dual GPU da ATI si chiamava GEMINI ed era un progetto iniziato anche prima della dual GPU di nVidia ma non è mai andato in porto, a causa dei consumi dei chip della serie R5x0. ;) ;)
si scusami,effettivamente ho associato sapphire al marchio Ati perchè di fatto Sapphire è l'azienda fiduciaria che maggiormente si appoggia al know how di Ati stessa...
Non sono le potenzialità a fare la differenza (nVidia era decisamente più grossa di ATI e avrebbe avuto molti più soldi da investire nel reparto R&D) ma la filosofia di sviluppo. ;)
mi sembra intrinseco nel momento in cui si parla di potenzialità,mettendo DA PARTE la questione economica di AMD.....non credi???
se non mi fossi riferito alle idee progettuali,a cosa mi riferivo allora ;) ?????
altra cosa: ufficialmente ati non ha citato l'implementazione delle dx10.1,perchè ancora non si sa ufficialmente se le unità di tassellazione saranno l'unica innovazione delle librerie alla versione 10.1.....credo che nella tua argomentazione siano presenti altre baggianate ;) ....
Non ho MAI scritto che R600 supporta le DX10.1.
Io ho scritto:
Già adesso in R600, se pur riuscito mica tanto bene, Ati è già avanti: ha l'engine per i Geometry Shaders, ha la funzione di Tesselation in HW (DX10.1 o DX11), ha l'AA (poco performante) fatto via shaders.
Tutte cose che prima o poi anche nVidia dovrà usare perchè richieste dalle prossime specifiche delle librerie grafiche che tutti conosciamo.
Ovviamente se tu non sai cosa servono i geometry shaders e le unità di tesselation non so che dirti.
Resta il fatto che sono implementazioni "oltre" le specifiche delle DX10 attuali ma come chi sviluppa già sa, inserite da tempo nelle roadmap MS delle dx10.1 e successive.
Ovviamente le specifiche delle prossime DX richiederanno tante altre cosettine in più e come dici giustamente te non c'è niente di ufficiale.
Peccato che chi programma sa quali sono le soluzioni da usare per "avanzare tecnologicamente" nel rendering grafico.
Ati per adesso alcune le ha già implementate, nVidia no.
Quindi l'equazione è quanto meno semplice.
Un altro esempio? R500, non è DX10 compliant, ha delle librerie proprietarie derivate dalle DX10 di vista...ma ha alcune soluzioni in alcuni settori del rendering grafico che vanno "oltre" anche le specifiche delle DX10.
.....credo che nella tua argomentazione siano presenti altre baggianate ;) ....
Fin ad ora di baggianate, a parte le tue, non ne ho viste.... Della serie "Non abbiamo nozioni per controbattere".... :rolleyes:
Ovviamente siccome faccio sti discorsi vengo sempre etichettato come fanboy ATi. AMEN!
Se io fossi nato un po' prima e avessi avuto qualche conoscenza in più quando uscirono schede come la TNT2, la G400 ecc ecc probabilmente mi avresti etichettato come fanboy di un'altra casa.
La questione è che i fatti sono reali e oggettivi: tecnologicamente è da 5-6 anni che ATi implementa bene o male soluzioni sempre più avanzate di nVidia.
Punto e basta.
Il discorso era su chi era più avanti tecnologicamente tu ovviamente hai subito ripiegato sul chi "diffonde meglio le tecnologie"...
Servono altri fatti oggettivi? Quando Ati faceva l'MSAA nVidia faceva ancora il SSAA. Quando ati faceva il RGSAA nVidia faceva gli ibridi ssaa/msaa, i bus delle schede, i bus interni, i bit per colore, il supporto delle texture con res maggiori ecc ecc ecc... ... quindi dai...siamo oggettivi!
Poi c'è la questione tempistiche. Clamorosa quella dell'AntiAliasing per le Alpha texture. :D
Nvidia fa uscire il suo nuovo modello di scheda video (a driver appositi) con il supporto per questa modalità di AA.
Ati che fa? Rilascia dei driver per le sue schede video, da R300 in su, che abilitano sia il Temporal AA sia l'AA per le alpha texture. Ah il bello è che i chip Ati anche più vecchi di 2 anni in confronto al nuovo modello nvidia già avevano la possibilità di questa funzione e bastava attivarla via driver.
Vedi dove sta la differenza di implementazioni di soluzioni avanzate?
leoneazzurro
19-05-2007, 15:09
Bs82 e Grave Digger, stop qui.
Grave Digger
19-05-2007, 15:11
edit
"l'educazione è il dono dei forti"
Grave Digger
19-05-2007, 15:12
Bs82 e Grave Digger, stop qui.
leo,come vedi io rispondo in maniera educate e penso corretta,ciò che non capisco è perchè lui debba rivolgersi agli altri utenti in questo modo :boh: .....
cmnq,per me è chiusa qui,tranquillo ;) ....
p.s.:ho letto solo ora,se devo editare il mio precedente mex (per nulla offensivo eh),procedo.....
leoneazzurro
19-05-2007, 15:31
Si, meglio editare.
Grave Digger
19-05-2007, 15:34
Si, meglio editare.
fatto :)
p.s.:nella speranza che il messaggio che contiene venga recepito in maniera diffusa :) .....
se il sottoscritto si è comportato da persona ineducata,anche inavvertitamente,è ovviamente tuo dovere segnalarmelo,mi sembra il minimo ;) ....
Free Gordon
19-05-2007, 15:45
certo. basta che qualcuno non si confonda.
Mah, ti sei confuso solo tu eh... :asd:
Cmq, continuando il post che avevo iniziato sopra, dove raccoglievo le prestazioni rilevate sotto XP Sp2 dalla scheda, in rapporto alla GTS, abbiamo che:
dalla rece di Digit si ha che la XT va meglio della GTS in (su 7 giochi testati):
FAR CRY (HDR)
FEAR
CHAOS THEORY
COMPANY of HEROES
SERIOUS SAM II (HDR)
PRAY
(6 giochi a vantaggio della XT)
dalla rece di Legion abbiamo conferma dei risultati, la XT và meglio in (su 7 giochi testati):
X3 REUNION (quì è davanti anche alla 8800ULTRA)
FAR CRY
COMPANY of HEROES
FEAR
PREY
STALKER (questo test però non è affidabile, dato che è stato fatto con ILL. statica sicuramente).
(5 o 6 giochi a vantaggio della XT)
dalla rece di firingsquad abbiamo (su 11 giochi testati):
To save time during testing, we used two different factory overclocked GeForce 8800 GTS 640MB boards: EVGA’s e-GeForce 8800 GTS KO ACS3, and the BFG GeForce 8800 GTS OC2 (two OC2 BFG cards were used exclusively for SLI testing). Both boards are factory overclocked to the same speeds, so performance between the two should be similar.
Questo potrebbe generare confusione, se vogliamo proprio mettere i puntini sulle i...
Cmq osservando i risultati vs la GTS 640MB a default, abbiamo che va meglio in:
FEAR
OBLIVION (foliage area)
HL2: LC
COMPANY of HEROES
QUAKE IV
FAR CRY
CALL of JUAREZ dx10
(7 giochi a vantaggio della XT)
Il tutto con driver alpha. ;)
Sotto XP sp2 le prestazioni iniziano ad apparire più realistiche in rapporto al numero di transistor dell'architettura, anche se le carenze nel settore Texture Unit e ROPs di R600 rispetto a G80 (anche alla GTS), si fanno sentire ancora in molti giochi, non shader-oriented.
In attesa di driver migliori, attendo con impazienza la presentazione di RV630 per vedere come hanno bilanciato l'archittettura nella fascia media. ;)
leoneazzurro
19-05-2007, 15:52
fatto :)
p.s.:nella speranza che il messaggio che contiene venga recepito in maniera diffusa :) .....
se il sottoscritto si è comportato da persona ineducata,anche inavvertitamente,è ovviamente tuo dovere segnalarmelo,mi sembra il minimo ;) ....
Partecipare a flame non è cosa buona per chiunque. Specialment esu un thread ove vige un'ammonizione a prescindere. Se ci si sente offesi da un post, si segnalaad un moderatore e NON si risponde alimentando le polemiche.
Grave Digger
19-05-2007, 16:08
Partecipare a flame non è cosa buona per chiunque. Specialment esu un thread ove vige un'ammonizione a prescindere. Se ci si sente offesi da un post, si segnalaad un moderatore e NON si risponde alimentando le polemiche.
eh,che roba è un' "ammonizione a prescindere" :mbe: ????
mi sono perso qualcosa :stordita: ?????
edit
leoneazzurro
19-05-2007, 16:45
Le contestazioni o i chiarimenti sull'operato dei moderatori sono da effettuarsi in forma esclusivamente privata. E' un articolo del regolamento.
In secondo luogo, in quanto da te detto dovrei "buttare fuori" anche te.
In terzo luogo, Cerbert ha dichiarato su questo thread un'ammonizione a prescindere:
http://www.hwupgrade.it/forum/showpost.php?p=17117531&postcount=529
Ergo, se questo sproloquio OT non termina dopo questo post, vedrò di applicare le sanzioni del caso.
bonzuccio
19-05-2007, 17:01
Si parlava di flop ma questa 2900 sotto xt va bene,
già meglio della gts 640 con driver abbastanza disastrati e non potrà che andare meglio.
E' anche chiaro come l'architettura ati sulla carta abbia implementazioni che la avvantaggeranno rispetto a qualsiasi scheda nvidia attuale (vedi tassellation, geometry shaders e aa via shader).. è proprio una architettura pensata ed equilibrata per le dx10
già adesso con un driver pre alpha in dx10 è vicina alla gtx aggiornata agli ultimissimi driver (parlo di coj e non di lost planet ovviamente)
quello che mi lascia perplesso è come questa scheda debba con tutti quei transistor trovarsi come un pesce cosi fuor d'acqua in dx9
e quanti sforzi bisogna fare via driver per ottenere buoni risultati in SINGOLI giochi sempre in dx9..
sembra che le nvidia ragionino al contrario invece: naturalmente a loro agio in dx9 e comunque con dei margini in dx10
poi c'è il problema consumo che è comunque un problema visto che complica le cose a livello di flussi nel case (calore) e talvolta potrebbe essere necessario un upgrade a livello ali per ben alimentare questi costosi componenti..
mi da da pensare anche chi ha posto dubbi sul funzionamento delle circuiterie..
quello che da fastidio è che ancora chi ha detto fin dall'inizio che era un flop proprio non ha intenzione di mitigare le proprie posizioni :read: ne di ammettere i propri errori :asd: :)
Si parlava di flop ma questa 2900 sotto xt va bene,
già meglio della gts 640 con driver abbastanza disastrati e non potrà che andare meglio.
E' anche chiaro come l'architettura ati sulla carta abbia implementazioni che la avvantaggeranno rispetto a qualsiasi scheda nvidia attuale (vedi tassellation, geometry shaders e aa via shader).. è proprio una architettura pensata ed equilibrata per le dx10
già adesso con un driver pre alpha in dx10 è vicina alla gtx aggiornata agli ultimissimi driver (parlo di coj e non di lost planet ovviamente)
quello che mi lascia perplesso è come questa scheda debba con tutti quei transistor trovarsi come un pesce cosi fuor d'acqua in dx9
e quanti sforzi bisogna fare via driver per ottenere buoni risultati in SINGOLI giochi sempre in dx9..
sembra che le nvidia ragionino al contrario invece: naturalmente a loro agio in dx9 e comunque con dei margini in dx10
poi c'è il problema consumo che è comunque un problema visto che complica le cose a livello di flussi nel case (calore) e talvolta potrebbe essere necessario un upgrade a livello ali per ben alimentare questi costosi componenti..
mi da da pensare anche chi ha posto dubbi sul funzionamento delle circuiterie..
quello che da fastidio è che ancora chi ha detto fin dall'inizio che era un flop proprio non ha intenzione di mitigare le proprie posizioni :read: ne di ammettere i propri errori :asd: :)
Volevi dire XP immagino :D. Quello che conta cmq sono le prestazioni non sulla carta, ed effettivamente la scheda va molto meglio rispetto ai primi giorni, e sono stato il primo ad essere molto contento di questa novità, perché ho sempre sostenuto che il consumatore dovrebbe volere l'abbassamento dei prezzi e l'aumento delle performnace, per cui è sempre meglio se le case si fanno concorrenza. E la conccorenza nella fascia TOP c'è solo con schede che vanno bene.
Il flop però rimane, per esempio: il rapporto consumi-prestazioni, calore-prestazioni, feautures sulla carta-prestazioni, iniziali promesse-prestazioni e ancora mancanza di driver adeguati all'uscita-tempo impiegato prima di uscire. Poi più migliorano e meglio è, soprattutto se riescono a scendere ancora un po' con il prezzo ;).
bonzuccio
19-05-2007, 17:36
Si infatti.. gli bastano quei 20 euro per ammortizzarmi la bolletta dell'enel per un paio d'anni..
è incredibile poi la sfiga su questo sito di questa scheda, in oblivion non va bene a differenza di tutto il resto.. ti testano oblivion con hdr
in lost planet non va bene perchè è targato nvidia.. ti testano lost planet
su vista la scheda attualmente non va bene e che ti fa il Corsini?
La testa su vista visto che ormai hanno fatto il passaggio:
chi legge solo questo sito e non ha avuto la pazienza di saltare a piè pari le nostre diatribe (sorvoliamo su chi e come ha alimentato il grosso abbaglio) ha un informazione (purtroppo) MOLTO DISTORTA della situazione,
questo per una serie di eventi coincidenti..
ma insomma non sono una diecina di utenti hwupgrade male informati che ne determineranno il mercato
Già, senza quotare gran parte di ciò che ha scritto bonzuccio, sono d'accordo con lui. La scheda sotto XP a mio parere compete bene con le equivalenti nvidia, sotto vista si vedrà...diamo tempo agli sviluppatori di fare le loro prove (anche se non mi spiego sto ritardo ma pazienza, l'importante è che si raggiungano i risultati ;) ).
Certo la redazione dovrebbe rifare i test con gli ultimi catalyst disponibili e con WinXP SP2, sarebbe una buona cosa.
Ciauz
C'è anche da notare che la HD2900XT ha "solo" 512 mb di memoria. Basti notare la differenza tra le due sorelle gemelle 8800gts da 320 e 640 MB, identiche in tutto tranne che per la ram: Un abisso per 320 MB in più. Questo la dice lunga sull'importanza della quantità di ram in tutti i test effettuati. Sarebbe utile vedere una HD2900XT un po' più "pompata" e con 1 gb di ram. Comunque in un mesetto si vedrà di che pasta sono fatte queste R600.
DakmorNoland
19-05-2007, 18:35
Si infatti.. gli bastano quei 20 euro per ammortizzarmi la bolletta dell'enel per un paio d'anni..
è incredibile poi la sfiga su questo sito di questa scheda, in oblivion non va bene a differenza di tutto il resto.. ti testano oblivion con hdr
in lost planet non va bene perchè è targato nvidia.. ti testano lost planet
su vista la scheda attualmente non va bene e che ti fa il Corsini?
La testa su vista visto che ormai hanno fatto il passaggio:
chi legge solo questo sito e non ha avuto la pazienza di saltare a piè pari le nostre diatribe (sorvoliamo su chi e come ha alimentato il grosso abbaglio) ha un informazione (purtroppo) MOLTO DISTORTA della situazione,
questo per una serie di eventi coincidenti..
ma insomma non sono una diecina di utenti hwupgrade male informati che ne determineranno il mercato
guarda quotone!
Sta scheda non è un granchè e soprattutto per i consumi ma non solo meglio aspettare la versione a 65nm, tuttavia basta già vedere i test di Tom per rendersi conto che i test svolti da HU purtroppo danno una visione sbagliata della scheda. A vedere solo i test pubblicati qui sembra un disastro! Invece non è così. Sicuramente è una scheda che ha un pò deluso, ma addirittura nei test di oblivion pubblicati qui fa pena, quando basta vedere quelli di Tom e di altri siti per vedere come stanno realmente le cose!
Poi Vista ma chi cavolo lo usa?! Chi se ne intende un minimo di pc non va ad installarsi un OS del genere! Aspetta minimo un anno!
E con questo concludo. :p
halduemilauno
19-05-2007, 18:50
Poi Vista ma chi cavolo lo usa?! Chi se ne intende un minimo di pc non va ad installarsi un OS del genere! Aspetta minimo un anno!
E con questo concludo. :p
:banned:
Non per prendere le parti di microsoft, che ha investito (e sprecato per lo più) una follia su Vista che adesso vorrebbe farci ripagare a noi utenti (e che qui si sbaglia di grosso)...
Io però concordo sul fatto di testare le schede con Vista. Le schede sono nate per supportare le API directx10 e, a che mi risulta, solo Vista supporta. Questa forse è una delle caratteristiche principali delle schede testate, insieme alla intrinseca potenza elaborativa, sfruttabile anche con XP e Directx9c.
C'è anche da notare che la HD2900XT ha "solo" 512 mb di memoria. Basti notare la differenza tra le due sorelle gemelle 8800gts da 320 e 640 MB, identiche in tutto tranne che per la ram: Un abisso per 320 MB in più. Questo la dice lunga sull'importanza della quantità di ram in tutti i test effettuati. Sarebbe utile vedere una HD2900XT un po' più "pompata" e con 1 gb di ram. Comunque in un mesetto si vedrà di che pasta sono fatte queste R600.
Le performance per ora sono assolutamente schizofreniche. In certi test a 2560x1600 con AA R600 va molto meglio rispetto alla GTX che ha 256MB di memoria in più... :boh:
killer978
19-05-2007, 21:13
Mi aggiungo al coro!!! :D avrò visto quasi 50 recensioni diverse ed in tutte o quasi, su XP con gli ultimi beta è sempre sopra la GTS e a volte se la gioca con la GTX!! direi ottimo x una scheda appena uscita e con driver pre pre pre pre alpha
Solo su Hw Up sembra un disastro :rolleyes: comincio a ricredermi sulle vere qualità di sta VGA, basta vedere le prestazioni delle GTX appena uscite 6 mesi fa e compararle con questa ;) Nvidia ha migliorato tantissimo con i driver , su vista con alcuni titoli anche del 35/40%
Io non la comprerei solo xche dovrei cambiare ALI , con un Coolergiant 485W non credo basti, quindi dovrei aggiungere al costo della VGA altri 180/200€ :muro: nel mio caso mejo una GTS :asd:
a volte se la gioca con la GTX!!
:asd: :asd: :ahahah: :ahahah:
killer978
19-05-2007, 21:28
Con 135€ ne ho preso uno da 750W, efficienza sempre superiore all'85% e 4 rail indipendenti a 12V da 18A. Sei mesi fa :>
Ha il cavo 8 pin x okkare la VGA?
Se è un LC power mejo che non mi pronunci :asd:
killer978
19-05-2007, 21:29
:asd: :asd: :ahahah: :ahahah:
:rolleyes:
killer978
19-05-2007, 21:32
Evitiamo di andare sul personale fai il bravo bimbo dai :friend: te eri quello che trollava e difendeva le 7xxx quando il confronto gia con una X1800XL era impietoso nei vari tread di Belin (quindi un po te la cercavi) !!
;)
killer978
19-05-2007, 21:46
Cmq x chi ne volesse sapere di + sull'architettura ATI si vada a leggere questa analisi tecnica!! Secondo me tra un anno le X2900 reggeranno mejo delle 8800 , come succede oggi tra X1900 e serie 7xxx di Nvidia ;)
http://www.tomshw.it/graphic.php?guide=20070515
bonzuccio
19-05-2007, 21:46
Io però concordo sul fatto di testare le schede con Vista. Le schede sono nate per supportare le API directx10 e, a che mi risulta, solo Vista supporta. Questa forse è una delle caratteristiche principali delle schede testate, insieme alla intrinseca potenza elaborativa, sfruttabile anche con XP e Directx9c.
La cosa rocambolesca è che l'architettura è proprio fatta per girare su vista e dx10, è in questo ambito che schizzeranno
in ati hanno sentito evidentemente il bisogno di agire sui driver in xp per trasformare le chiamate degli engine dei giochi in modo da essere trattate bene con le risorse a disposizione.. bene ha fatto anandtech a descrivere la scheda nei dettagli, bene hanno fatto gli altri siti a farci vedere come vanno su xp..
bene ha fatto hwupgrade a farci vedere che su vista adesso vanno come le gts640
ma da qui a dire che sta scheda è un flop ce ne passa :read:
killer978
19-05-2007, 22:16
No, ne ha due 2x3 e ha il 2x4 sdoppiabile per la scheda madre (ovvero per le attuali ne usi metà e per le prossime con PCI-E 2.0 lo usi tutto).
E' un Unib Enpower
Ottimo!!
hai qualche link? magari in PVT :D
Ooops: quindi non ha il cavo 8 pin x queste HD2900?
La cosa rocambolesca è che l'architettura è proprio fatta per girare su vista e dx10, è in questo ambito che schizzeranno
in ati hanno sentito evidentemente il bisogno di agire sui driver in xp per trasformare le chiamate degli engine dei giochi in modo da essere trattate bene con le risorse a disposizione.. bene ha fatto anandtech a descrivere la scheda nei dettagli, bene hanno fatto gli altri siti a farci vedere come vanno su xp..
bene ha fatto hwupgrade a farci vedere che su vista adesso vanno come le gts640
ma da qui a dire che sta scheda è un flop ce ne passa :read:
quotissimo...:cincin: questo è il commento definitivo!
CaFFeiNe
19-05-2007, 22:44
scusate ma io ho trovato in giro per la rete questi benchmark fatti da un utente che l'ha acquistata....
http://www.xtremesystems.org/forums/showthread.php?t=144645
e a quanto pare con i nuovi driver recupera almeno un 30% di potenza.... infatti si avvicina addirittura alla gtx in alcuni benchmark....
bonzuccio
19-05-2007, 23:49
quotissimo...:cincin: questo è il commento definitivo!
grazie grazie ho avuto 5 giorni di riflessione per pensarci :asd:
Non per prendere le parti di microsoft, che ha investito (e sprecato per lo più) una follia su Vista che adesso vorrebbe farci ripagare a noi utenti (e che qui si sbaglia di grosso)...
Io però concordo sul fatto di testare le schede con Vista. Le schede sono nate per supportare le API directx10 e, a che mi risulta, solo Vista supporta. Questa forse è una delle caratteristiche principali delle schede testate, insieme alla intrinseca potenza elaborativa, sfruttabile anche con XP e Directx9c.
Guarda io uso Vista e lo trovo un sistema operativo molto più solido di XP; sicuramente la scelta di testare in Vista oggi può essere criticata, perché è un sistema operativo ancora non ideale per videogiocare, però si tratta del sistema operativo su cui prima o poi i videogiocatori dovranno migrare. Rispetto ad XP a molto di più di un'interfaccia grafica scopiazzata, provare per credere ;). Molte delle funzioni di Vista possono essere implementate in XP; però in Vista è tutto già configurato di default, e per me non è un vantaggio da poco. Non mi metto a parlare di altri sistemi operativi: stiamo parlando di schede grafiche per videogiochi, quindi inutile pensare di poter passare a Linux o Mac, almeno allo stato attuale delle cose e a mio avviso.
grazie grazie ho avuto 5 giorni di riflessione per pensarci :asd:
:D ti ripeto: qualsiasi utente dovrebbe sperare in una rimonta di ATI nelle prestazioni; però secondo me qualsiasi utente informato ad oggi dovrebbe acquistare una GTS640Mbyte a 322€ o una GTS320 a 250€; se la 2900XT costasse meno della GTS la si potrebbe suggerire, però per adesso io continuo a preferire nVidia e a sperare in un'ulteriore diminuzione dei prezzi.
killer978
20-05-2007, 07:52
scusate ma io ho trovato in giro per la rete questi benchmark fatti da un utente che l'ha acquistata....
http://www.xtremesystems.org/forums/showthread.php?t=144645
e a quanto pare con i nuovi driver recupera almeno un 30% di potenza.... infatti si avvicina addirittura alla gtx in alcuni benchmark....
:eek: :eek: :eek:
Assurdo :D sta VGA incomincia ad intrigare!!
Oltretutto gia si trova a 370€ con HDMI 2 giochi ecc... ecc....
killer978
20-05-2007, 07:58
http://www.hkepc.com/bbs/hwdb.php?tid=790821&tp=AMD-R600-HIS&rid=790821
:asd: :asd:
sembra che il flop poi non sia così flop, alla ATI stanno lavorando notte e giorno sui driver
questa situazione mi ricorda l'inizio del 1995. Ricordate il pentium pro? Benchmark penosi sul software a 16 bit, assenza di un SO di riferimento a 32 bit...un flop: :muro: ne avranno venduti 2. Eppure il P.Pro è diventato pentium 2 con l'mmx e qualche affinamento, poi pentium 3 infine pentium m, base per i processori core. Se penso che esiste un legame architetturale tra il q6600 del mio pc e quel "rospo" mi viene da sorridere. :D. L'architettura ATI sembra interessante...diamo tempo al tempo e vediamo con del software DX10 come "Crysis" cosa succederà. Già mi aumenta la salivazione...:oink:
http://www.hkepc.com/bbs/hwdb.php?tid=790821&tp=AMD-R600-HIS&rid=790821
:asd: :asd:
sembra che il flop poi non sia così flop, alla ATI stanno lavorando notte e giorno sui driver
Più che altro mi sembra molto interessante l'ultima tabella con i test delle potenzialità teoriche degli shader...
http://img101.imageshack.us/img101/5299/shadertestmd8.jpg (http://imageshack.us)
bonzuccio
20-05-2007, 11:09
Il bello è che r600 può compierne 5 contemporaneamente di quelle operazioni per ciclo di clock.. prima di prendere la gts640 se questa scheda consuma troppo aspetterei per la versione pro o come si chiamerà..
non mi importasse dei consumi prenderei questa xt visto che ogni giorno che passa va sempre meglio
Il bello è che r600 può compierne 5 contemporaneamente di quelle operazioni per ciclo di clock.. prima di prendere la gts640 se questa scheda consuma troppo aspetterei per la versione pro o come si chiamerà..
non mi importasse dei consumi prenderei questa xt visto che ogni giorno che passa va sempre meglio
La review di HKEPC confronta le ultime versioni dei drivers ATi e NVidia. E da quanto vedo sembra che praticamente, per il particolare tipo di AA di R600, alla ATI siano costretti ad "aggiustare" le prestazioni coi filtri per ogni singolo gioco. Dopo la "cura" le prestazioni però aumentano in maniera incredibile (praticamente raddoppiano, ad es. FarCry con tutto al max e AA8x).
killer978
20-05-2007, 11:51
La review di HKEPC confronta le ultime versioni dei drivers ATi e NVidia. E da quanto vedo sembra che praticamente, per il particolare tipo di AA di R600, alla ATI siano costretti ad "aggiustare" le prestazioni coi filtri per ogni singolo gioco. Dopo la "cura" le prestazioni però aumentano in maniera incredibile (praticamente raddoppiano, ad es. FarCry con tutto al max e AA8x).
Stanno facendo quello che fa Nvidia da un pezzo!!!
x ogni gioco creano un profilo specifico;) io se fossi in ATI incomincerei a stringere accordi con le softhouse, è assurdo che in quasi tutti i titoli compaia il logo Nvidia :muro: di ATI manco la puzza :asd:
;)
si si anke la 1800xl :ahahah:
killer978
20-05-2007, 13:45
si si anke la 1800xl :ahahah:
Ma qlcs di + creativo nei tuoi post? sai riempire il server di :ahahah: è un peccato
Ti ricordavo un po mejo :asd:
Ma qlcs di + creativo nei tuoi post? sai riempire il server di :ahahah: è un peccato
Ti ricordavo un po mejo :asd:
sono un pò scazzato, x quello. poi oramai non 6 + divertente, 6 troppo banale
Grave Digger
20-05-2007, 13:50
sarà o non sarà casuale che la faccina che sbraita è rossa???ah vero,adesso anche ati è color verde amd :D
cmnq secondo me per avere un responso definitivo bisognerà attendere la messa a regime di vista e relativi software :) ....i presupposti cmnq per oltrepassare complessivamente la gts sembrano esserci.....
voglio che i prezzi scendano :cry: !!!!mi voglio comprare la ultra :cry: (la mia gtx non la vendo,andrà nel mio mulaccio :D )!!!!....
halduemilauno
20-05-2007, 13:57
sarà o non sarà casuale che la faccina che sbraita è rossa???ah vero,adesso anche ati è color verde amd :D
cmnq secondo me per avere un responso definitivo bisognerà attendere la messa a regime di vista e relativi software :) ....i presupposti cmnq per oltrepassare complessivamente la gts sembrano esserci.....
voglio che i prezzi scendano :cry: !!!!mi voglio comprare la ultra :cry: (la mia gtx non la vendo,andrà nel mio mulaccio :D )!!!!....
quello che tu dici è da verificare e per carità aspetteremo. ma parlando di prezzi gia adesso c'è la gts che costa oltre 100€ di meno. e per tutti gli utenti che hanno i 17/19 pollici(ovvero la massa)la 8800gts320 è ottima.
;)
killer978
20-05-2007, 14:00
quello che tu dici è da verificare e per carità aspetteremo. ma parlando di prezzi gia adesso c'è la gts che costa oltre 100€ di meno. e per tutti gli utenti che hanno i 17/19 pollici(ovvero la massa)la 8800gts320 è ottima.
;)
Se confrontiamo la HD con la GTS 320 hai pienamente ragione, non c'è storia ;)
La GTS la batte in tutto :D con la 640 la musica cambia visti i prezzi simili, c'è solo il problema alimentatore poi si potrebbe preferire la 2900 x svariati motivi , quali prestazioni supporto HDMI , UVD ecc.. ecc... ;)
killer978
20-05-2007, 14:03
sono un pò scazzato, x quello. poi oramai non 6 + divertente, 6 troppo banale
Se ero io a parlare come fai te sarei gia stato sospeso!! :rolleyes: il bello di HwUp :rolleyes:
Perche vai sul personale quando qui parliamo di VGA?
halduemilauno
20-05-2007, 14:06
Se confrontiamo la HD con la GTS 320 hai pienamente ragione, non c'è storia ;)
La GTS la batte in tutto :D con la 640 la musica cambia visti i prezzi simili, c'è solo il problema alimentatore poi si potrebbe preferire la 2900 x svariati motivi , quali prestazioni supporto HDMI , UVD ecc.. ecc... ;)
sei il primo atista(scusa il termine) che lo riconosce.
;)
leoneazzurro
20-05-2007, 14:17
Possiamo evitare di fare polemiche inutili e di parlare di VGA,magari su basi tecniche e non per "io sento che è così" e "io tifo (inserire nome della marca preferita) quindi deve essere per forza meglio"? Grazie.
Grave Digger
20-05-2007, 21:25
quello che tu dici è da verificare e per carità aspetteremo. ma parlando di prezzi gia adesso c'è la gts che costa oltre 100€ di meno. e per tutti gli utenti che hanno i 17/19 pollici(ovvero la massa)la 8800gts320 è ottima.
;)
beh,per carità,non ho detto che la hd 2900 ha già battuto la gts,in ogni caso su questa neonata ATI pende la spada del fattore rumorosità-consumi-calore generato :) ....
secondo me AD OGGI la GTS è da preferire per una miriade di motivi,possiamo anche aggiungerci il prezzo visto che l'avete chiamato in causa ;) .....
p.s.:cmnq questo è il thread degli atisti integralisti,capisco la sconfitta,ma giungere all'offesa personale è veramente vergognoso :rolleyes: ....soprattutto quando c'è gente che si inventa inesistenti features(tra l'altro minime,nulla di sostanziale) teoricamente presenti nei trascorsi progetti(e mai usate inoltre),tralasciando che la serie X800/700/600/300 nemmeno supportava lo SM 3.0,e che ATI ha sempre perso in OpenGL,SEMPRE....e meno male che offendono nvidia,dicendo che ATI è avanti :rolleyes: ......
che nvidiosi :D
bonzuccio
20-05-2007, 21:32
nvidiosi atisti integralisti..dai è chiaro che quando il discorso prende una certa piega te sei li a cercare di fare caciara ;)
G80 adesso rappresenta un acquisto da sostituire nel breve periodo
mentre queste r600 (parlo anche della fascia media-medio alta che uscirà)
hanno tutte le carte in regola per essere schede che reggeranno botta anche alle prossime evoluzioni che verranno dalla controparte,
in questo senso all'uscita di r600 a g80 sono comparse le rughe e i capelli bianchi :asd:
Quindi i driver sono la rivalsa di r600?? Cmq finche non vedo rece ufficiali di hwupgrade o tomshw non esprimo giudizio
Grave Digger
20-05-2007, 21:55
nvidiosi atisti integralisti..dai è chiaro che quando il discorso prende una certa piega te sei li a cercare di fare caciara ;)
G80 adesso rappresenta un acquisto da sostituire nel breve periodo
mentre queste r600 (parlo anche della fascia media-medio alta che uscirà)
hanno tutte le carte in regola per essere schede che reggeranno botta anche alle prossime evoluzioni che verranno dalla controparte,
in questo senso all'uscita di r600 a g80 sono comparse le rughe e i capelli bianchi :asd:
guarda,tu non c'entri nel discorso personalmente,però caspita,un po' di netiquette non guasterebbe ad alcuni,anche perchè i miei commenti non sono mai stati "cagnarosi" ;) (se però nemmeno le battute scherzose sono ammesse,beh ditemelo e la chiudiamo lì;non è un problema l'umorismo)......
sul fattore tempo non ne sarei così sicuro,anche perchè dopo 8 mesi il top del top è obsoleto,qualunque esso sia,sia amd che nvidia.....
cmnq ho detto anche io che le carte in regola ci son tutte,ma il problema restano consumi e company :) ....
GeforcePower
20-05-2007, 23:21
UAUAhUAUAUAhu hanno toppato alla grandeeeeeeeeeeee...ottima rece cmq complimenti...viva le 8800 gtx!!!!
Grave Digger
20-05-2007, 23:24
UAUAhUAUAUAhu hanno toppato alla grandeeeeeeeeeeee...ottima rece cmq complimenti...viva le 8800 gtx!!!!
il tuo nick è tutto un programma :asd:
cmnq ti consiglio di editare,in questo 3d vige l'ammonizione,rischi di essere sospeso se da queste parti passa un mod :) .....
GeforcePower
20-05-2007, 23:25
mentre queste r600 (parlo anche della fascia media-medio alta che uscirà
hanno tutte le carte in regola per essere schede che reggeranno botta anche alle prossime evoluzioni che verranno dalla controparte,
in questo senso all'uscita di r600 a g80 sono comparse le rughe e i capelli bianchi
dove la prendi la cocaina???UHAuahUHAuHAU ma fammi il piacere
nvidia non se ne frega delle r600 uscite dopo 30 anni e che non posso manco mettersi al confronto..dopotutto sto tempo la r600 avrebbe dovuto competere contro una 8800 gtx e non contro una gts 320...a ..per giunta adesso e' uscita la 8800 ultra..che e' un mostro...ma fatemi il piacere non e' per essere di parte..ma ati ha toppato!!!!!
GeforcePower
20-05-2007, 23:28
account fake???ascutimi vatti a cuccari ca stai dummennu
account fake???ascutimi vatti a cuccari ca stai dummennu
OK... sospeso 5gg... ;)
Grave Digger
20-05-2007, 23:30
E' un falso problema, questa 2900 va presa come proof of concept più che come prodotto commerciale. Non credo nemmeno sia un grande acquisto, a questo punto, ma un buon punto di riferimento per chi può aspettare a fare l'acquisto che escano le iterazioni nuove sia di nVidia che di ATI in modo da avere schede più performanti con consumi umani (soprattutto perché i consumi sono anche la causa del rumore del sistema di dissipazione).
si ma un proof of concept,mi costa 400 e poi me lo tengo io nel case.....
mica ora bisogna usare 2 pesi 2 misure....
QUESTA ad oggi è l'offerta di punta ATI.....e non ci sono santi....
il prodotto va saggiato in quanto tale,perchè sto constatando che si parla di questa scheda come per i motori fiat benzina 1.4 turbo :D ....
le considerazioni vanno fatte AD OGGI,perchè chi ha necessità di una scheda nell'immediato non può fare supposizioni,perchè nessuno tra noi può sapere con certezza come vanno(in parte) e come andranno le cose....in futuro questo,in futuro quello etc etc....allora dobbiamo pensare che tutto quello che si dice per giustificare questa scheda,altro non sia che la prova che il prodotto ad oggi non è percepito validamente dall'utenza(percezione eh)???...
Grave Digger
20-05-2007, 23:32
OK... sospeso 5gg... ;)
:asd:
mi fai morire ogni volta ;)
Scrambler77
21-05-2007, 00:06
account fake???ascutimi vatti a cuccari ca stai dummennu
:rotfl: ma che significa?? :asd:
Scrambler77
21-05-2007, 00:07
:asd:
mi fai morire ogni volta ;)
già... soprattutto quando scambia un utente "proxato" per un clone... :asd:
Scrambler77
21-05-2007, 00:10
E' un falso problema, questa 2900 va presa come proof of concept più che come prodotto commerciale. Non credo nemmeno sia un grande acquisto, a questo punto, ma un buon punto di riferimento per chi può aspettare a fare l'acquisto che escano le iterazioni nuove sia di nVidia che di ATI in modo da avere schede più performanti con consumi umani (soprattutto perché i consumi sono anche la causa del rumore del sistema di dissipazione).
beh...1 anno (o più) per un "proof of concept" mi sembrano parecchi... ;)
...a me sembra un "pres per cul"... :)
Scrambler77
21-05-2007, 00:11
Tutti così tecnici i tuoi 26 post fino ad oggi?
Certo che farsi un account fake per fare questo genere di commenti senza che l'onta dell'idiozia conclamata colpisca l'account principale è veramente penoso...
Wow... hai dato dell'idiota ad un utente... chissà perchè un mod non ti ha neppure ammonito... :D
già... soprattutto quando scambia un utente "proxato" per un clone... :asd:
già... ma è la tua parola contro la mia... e vale più la mia! :asd:
Wow... hai dato dell'idiota ad un utente... chissà perchè un mod non ti ha neppure ammonito... :D
Se vuoi polemizzare, potrei sempre cominciare da te... ;)
Scrambler77
21-05-2007, 00:13
già... ma è la tua parola contro la mia... e vale più la mia! :asd:
ehhe... complimenti per i contenuti! :asd:
...cmq siamo OT! :rotfl:
Grave Digger
21-05-2007, 00:17
Se vuoi polemizzare, potrei sempre cominciare da te... ;)
ma la discussione deve sempre prendere,in un modo o nell'altro,una brutta piega almeno 2 o 3 volte al giorno :stordita: ?????
già... ma è la tua parola contro la mia... e vale più la mia! :asd:
:asd:
beh...1 anno (o più) per un "proof of concept" mi sembrano parecchi... ;)
...a me sembra un "pres per cul"... :)
:asd:
cmnq,dopo tutto questo tempo secondo me questa scheda,anche se valida,ha causato un danno d'immagine....non da flop,ma qualche scalfitura l'ha provocata ;) ....
Scrambler77
21-05-2007, 00:19
ma la discussione deve sempre prendere,in un modo o nell'altro,una brutta piega almeno 2 o 3 volte al giorno :stordita: ?????
No... è che a Raven piace la mia ragazza... e proprio non si da pace! :asd:
cmnq,dopo tutto questo tempo secondo me questa scheda,anche se valida,ha causato un danno d'immagine....non da flop,ma qualche scalfitura l'ha provocata ;) ....
Quoto... una di quelle che in gergo motoristico si chiama "cricca". Potrebbe essere parecchio pericolosa per il futuro.
bonzuccio
21-05-2007, 00:21
Mi sa che è meglio mettere i numeri sul tavolo e coi driver di adesso su XP..
Non fatevi confondere dalla versione o/c (che potrebbe dare qualche indicazione)
a splinter cell sopra i 1024 sta sopra la gtx, guardate in basso in HQ cioè con filtri al massimo
http://img291.imageshack.us/img291/4687/sc2nk8.png
a company of heroes come attivi aa e af sta sopra la gtx, in HQ sta sopra 2 volte su 3 cioè a risoluzioni maggiori
http://img526.imageshack.us/my.php?image=chdj1.png
a prey è abbastanza vicina alla gtx ma in HQ la supera, distanziandola da 1600X1200
http://img150.imageshack.us/my.php?image=prhf0.png
.. insomma come proof of concept sta scheda inizia a spaccare
Grave Digger
21-05-2007, 00:24
Quoto... una di quelle che in gergo motoristico si chiama "cricca". Potrebbe essere parecchio pericolosa per il futuro.
eh eh,ma la cricca è una spada di damocle,sul più bello CRACK!!!!,e addio sogni di gloria :fagiano: ....
ad un mio collega è successo con una pedana della moto,fortunatamente non si è fatto nulla,a parte qualche graffio e qualche ematoma superficiale....
quà invece il problema è immediato,intanto c'è il danno all'immagine,poi resta da dimostrare di essere in grado di raggiungere la vetta(non sarà comunque un problema per ati secondo me :) )
quello che dobbiamo considerare è la scheda all'oggi,ragionando per supposizioni mi sembra si stia quasi ammettendo che il prodotto non sia ben percepito,ribadisco....
letto lo screen di bonzuccio :) .....i consumi saranno accettabili quando le prestazioni avrenno superato una 8800 gtx...allora si che sarà un prodotto appetibile....
No... è che a Raven piace la mia ragazza... e proprio non si da pace! :asd:
Lo scherzo è bello finché dura poco... se insisti poi non venire lamentarti eh... ;)
Mi sa che è meglio mettere i numeri sul tavolo e coi driver di adesso su XP..
Non fatevi confondere dalla versione o/c (che potrebbe dare qualche indicazione)
a splinter cell sopra i 1024 sta sopra la gtx, guardate in asso in HQ cioè con filtri al massimo
mega cut:sofico:
.. insomma come proof of concept sta scheda inizia a spaccare
ottimo...xò è strano che nonostante abbia meno v-ram riesca a stare cosi dietro alla gtx anke alle alte risoluzioni...
Scrambler77
21-05-2007, 00:28
Mi sa che è meglio mettere i numeri sul tavolo e coi driver di adesso su XP..
Non fatevi confondere dalla versione o/c (che potrebbe dare qualche indicazione)
a splinter cell sopra i 1024 sta sopra la gtx, guardate in basso in HQ cioè con filtri al massimo
a prey è abbastanza vicina alla gtx ma in HQ la supera, distanziandola da 1600X1200
.. insomma come proof of concept sta scheda inizia a spaccare
Azz... allora dovrebbero darla in bundle con "splinter cell", non con stalker!! :rotfl:
Grave Digger
21-05-2007, 00:28
No... è che a Raven piace la mia ragazza... e proprio non si da pace! :asd:
FOTO :O !!!!!
bonzuccio
21-05-2007, 00:41
letto lo screen di bonzuccio :) .....i consumi saranno accettabili quando le prestazioni avrenno superato una 8800 gtx...allora si che sarà un prodotto appetibile....
Comunque se calcoli che in un paio di settimane sta scheda sta risorgendo dalle acque (dire melma forse è meglio) adesso c'è una specie di gigantesco timer col conto alla rovescia truccato che a ogni secondo scala di 2 minuti.. tra 1 ora e mezza la tua gtx varrà meno di 390 euro :doh:
Scrambler77
21-05-2007, 00:45
Comunque se calcoli che in un paio di settimane sta scheda sta risorgendo dalle acque (dire melma forse è meglio) adesso c'è una specie di gigantesco timer col conto alla rovescia truccato che a ogni secondo scala di 2 minuti.. tra 1 ora e mezza la tua gtx varrà meno di 390 euro :doh:
Sui risultati di quei test pongo il veto... Tom's HW non è dello stesso avviso, neppure sulle prestazioni della GTX. :)
Infondo una ritoccatina ai numeri si può sempre dare no? ;)
Grave Digger
21-05-2007, 00:46
Comunque se calcoli che in un paio di settimane sta scheda sta risorgendo dalle acque (dire melma forse è meglio) adesso c'è una specie di gigantesco timer col conto alla rovescia truccato che a ogni secondo scala di 2 minuti.. tra 1 ora e mezza la tua gtx varrà meno di 390 euro :doh:
:asd:
speriamo anche per la ultra :D ...cmnq,per ora sto bene come sto con la gtx,ero pronto il giorno del lancio a upgradare a r600,ma vista la situazione,attenderò che si sistemino un po' le cose per ordinarlo.....
tanto in ogni caso prendere adesso la ultra era un vezzo,non una necessità :) ...
bonzuccio
21-05-2007, 00:59
Sui risultati di quei test pongo il veto... Tom's HW non è dello stesso avviso, neppure sulle prestazioni della GTX. :)
Infondo una ritoccatina ai numeri si può sempre dare no? ;)
La rete è piena di recensioni con driver più aggiornati di quelli di tom's hardware..
esistono anch siti in giapponese ma insomma è solo un contributo per non fare in modo che solo gli utenti italiani credano che quelli sono i numeri veri spero di non dovervelo dire in ostrogoto ;)
Scrambler77
21-05-2007, 01:11
La rete è piena di recensioni con driver più aggiornati di quelli di tom's hardware..
esistono anch siti in giapponese ma insomma è solo un contributo per non fare in modo che solo gli utenti italiani credano che quelli sono i numeri veri spero di non dovervelo dire in ostrogoto ;)
Non ho scritto che hanno alzato i numeri di R600. Ho scritto che su Tom's HW gli stessi test con la GTX (tra l'altro coi drivers vecchi) salgono molto di più rispetto a quelli che hai postato tu. :O
In un test in particolare, se non ricordo male, a parità di risoluzione, su Tom's HW la GTX aveva 40fps in più con AF16 rispetto a quelli che hai postato tu, con AF8x...
Tra l'altro, quali drivers nvidia hanno usato per quei bench? Perchè se non sono gli ultimi, i valori sono un tantino cambiati... ;)
97.92
3DMark Score 10600 3DMarks
SM2.0 Score 4777
HDR/SM3.0 Score 4860
GT1 - Return To Proxycon 39,784 FPS
GT2 - Firefly Forest 39,827 FPS
158.22
3DMark Score 11104 3DMarks
SM2.0 Score 5 K
HDR/SM3.0 Score 4985
GT1 - Return To Proxycon 42,149 FPS
GT2 - Firefly Forest 42,818 FPS
E tra questi e i 158.43 la situazione è ancora migliorata... ATi non è l'unica che sa compilare drivers... :)
bonzuccio
21-05-2007, 01:19
mmm.. potresti essere più preciso?
I test su nvidia sono stati fatti con drivers 158.18/158.19,
il sito è http://www.digit-life.com/articles2/video/r600-part3.html
Scrambler77
21-05-2007, 01:56
mmm.. potresti essere più preciso?
I test su nvidia sono stati fatti con drivers 158.18/158.19,
il sito è http://www.digit-life.com/articles2/video/r600-part3.html
Ok.. non ti garantisco stanotte (sto andando a nanna) ma domani spulcio la cronologia, ripesco la rece e posto i grafici che ricordo essere discordanti...
Free Gordon
21-05-2007, 04:16
Ok.. non ti garantisco stanotte (sto andando a nanna) ma domani spulcio la cronologia, ripesco la rece e posto i grafici che ricordo essere discordanti...
Non è possibile confrontare numero-numero, due rece differenti. ;)
Puoi al massimo fare dei confronti di qualità (in quali giochi và meglio?).
Cmq ormai è chiaro che con driver pre-alpha, la XT supera la GTS di un bel margine sotto XP.. ma anche la GTX in alcuni giochi (X3, ad esempio).
Il tutto dipende da come è fatto il gioco.
In linea di massima, i giochi che fanno largo uso di texture (filtrate), vanno meglio (o molto meglio) su G80.
Quelli invece che hanno un preponderante carico sugli shader (e più sono lunghi, più R600 si trova a suo agio), vanno potenzialmente meglio su R600.
Ciò non toglie che la maggioranza dei giochi attuali, appartengono alla prima categoria. ;)
Ti rimetto un mio post di qualche giorno fà:
http://www.hwupgrade.it/forum/showpost.php?p=17186239&postcount=1294
Cmq, continuando il post che avevo iniziato sopra, dove raccoglievo le prestazioni rilevate sotto XP Sp2 dalla scheda, in rapporto alla GTS, abbiamo che:
dalla rece di Digit si ha che la XT va meglio della GTS in (su 7 giochi testati):
FAR CRY (HDR)
FEAR
CHAOS THEORY
COMPANY of HEROES
SERIOUS SAM II (HDR)
PRAY
(6 giochi a vantaggio della XT)
dalla rece di Legion abbiamo conferma dei risultati, la XT và meglio in (su 7 giochi testati):
X3 REUNION (quì è davanti anche alla 8800ULTRA)
FAR CRY
COMPANY of HEROES
FEAR
PREY
STALKER (questo test però non è affidabile, dato che è stato fatto con ILL. statica sicuramente).
(5 o 6 giochi a vantaggio della XT)
dalla rece di firingsquad abbiamo (su 11 giochi testati):
To save time during testing, we used two different factory overclocked GeForce 8800 GTS 640MB boards: EVGA’s e-GeForce 8800 GTS KO ACS3, and the BFG GeForce 8800 GTS OC2 (two OC2 BFG cards were used exclusively for SLI testing). Both boards are factory overclocked to the same speeds, so performance between the two should be similar.
Questo potrebbe generare confusione, se vogliamo proprio mettere i puntini sulle i...
Cmq osservando i risultati vs la GTS 640MB a default, abbiamo che va meglio in:
FEAR
OBLIVION (foliage area)
HL2: LC
COMPANY of HEROES
QUAKE IV
FAR CRY
CALL of JUAREZ dx10
(7 giochi a vantaggio della XT)
Il tutto con driver alpha. ;)
Sotto XP sp2 le prestazioni iniziano ad apparire più realistiche in rapporto al numero di transistor dell'architettura, anche se le carenze nel settore Texture Unit e ROPs di R600 rispetto a G80 (anche alla GTS), si fanno sentire ancora in molti giochi, non shader-oriented.
In attesa di driver migliori, attendo con impazienza la presentazione di RV630 per vedere come hanno bilanciato l'archittettura nella fascia media. ;)
killer978
21-05-2007, 07:39
Wow... hai dato dell'idiota ad un utente... chissà perchè un mod non ti ha neppure ammonito... :D
:rolleyes:
Che roba!!! dove andremo a finire :rolleyes:
Hai fatto 5 post dove cercavi qualcuno da far sospendere!!! meno male che nessuno ha abboccato
Perche sempre ste entrate trionfalistiche? se guardiamo un po di pagine dietro ci sono decine di siti che mostrano la superiorità alla GTS, a volte se la gioca con la GTX, non credo che siano tutte rece faziose non trovi? forse dimentichi che costa 370€ e i driver sono ancora dei beta
Basta che non lo compri. E' uscita non pronta, i fatti sono questi, non era pronta ma hanno pensato fosse meglio non pronta che altri 3 mesi di ritardo, giudizio opinabile ma lo sarebbe stato anche quello opposto.
La scheda fa vedere che il potenziale c'è, se sfruttata adeguatamente. Bene.
Da questa considerazione si può partire pensando al futuro, ovvero alle GPU 65nm che usciranno a breve, sia in fascia media che in fascia alta a sostituire questa e ritenendo che possano essere ottimi prodotti.
Chi aveva estremamente bisogno di comprarsi una VGA ha già preso una 8800 da tempo, chi ha aspettato fin'ora può aspettare un altro mese, chi è semplicemente interessato alla tecnologia in quanto tale aspetterà come ha sempre fatto.
Di certo non spendo 400€, anzi 370€, per un proof of concept, il quale mi serve solo a farmi un'idea di come sarà la vera XT, quella pronta, quella a 65nm. E' anche chiaro che se qualcuno me la tira dietro a meno di 350€, diventa un affarone :>
Quoto :)
Ciauz
x me resta comunque un flop, xè secondo me ati l'aveva progettata x essere la + veloce skeda video, x quello ha ritardato così tanto, e ha usato la scusa ke doveva battersi con la gts, dovendo di conseguenza abbassare i prezzi a loro malincuore
halduemilauno
21-05-2007, 09:25
beh,per carità,non ho detto che la hd 2900 ha già battuto la gts,in ogni caso su questa neonata ATI pende la spada del fattore rumorosità-consumi-calore generato :) ....
secondo me AD OGGI la GTS è da preferire per una miriade di motivi,possiamo anche aggiungerci il prezzo visto che l'avete chiamato in causa ;) .....
p.s.:cmnq questo è il thread degli atisti integralisti,capisco la sconfitta,ma giungere all'offesa personale è veramente vergognoso :rolleyes: ....soprattutto quando c'è gente che si inventa inesistenti features(tra l'altro minime,nulla di sostanziale) teoricamente presenti nei trascorsi progetti(e mai usate inoltre),tralasciando che la serie X800/700/600/300 nemmeno supportava lo SM 3.0,e che ATI ha sempre perso in OpenGL,SEMPRE....e meno male che offendono nvidia,dicendo che ATI è avanti :rolleyes: ......
che nvidiosi :D
ho chiamato in causa il prezzo perchè molti su istruzioni amd/ati fanno solo il confronto con la 8800gts640 perchè ovviamente fa comodo visto che la differenza di prezzo è minima. ma in realtà come detto per la massa degli utenti che hanno i 17/19 pollici c'è anche la 320 assolutamente competitiva e offerta ad almeno 100€ di meno. perfettamente d'accordo sulla spada di damocle.
;)
halduemilauno
21-05-2007, 09:28
Basta che non lo compri. E' uscita non pronta, i fatti sono questi, non era pronta ma hanno pensato fosse meglio non pronta che altri 3 mesi di ritardo, giudizio opinabile ma lo sarebbe stato anche quello opposto.
La scheda fa vedere che il potenziale c'è, se sfruttata adeguatamente. Bene.
Da questa considerazione si può partire pensando al futuro, ovvero alle GPU 65nm che usciranno a breve, sia in fascia media che in fascia alta a sostituire questa e ritenendo che possano essere ottimi prodotti.
Chi aveva estremamente bisogno di comprarsi una VGA ha già preso una 8800 da tempo, chi ha aspettato fin'ora può aspettare un altro mese, chi è semplicemente interessato alla tecnologia in quanto tale aspetterà come ha sempre fatto.
Di certo non spendo 400€, anzi 370€, per un proof of concept, il quale mi serve solo a farmi un'idea di come sarà la vera XT, quella pronta, quella a 65nm. E' anche chiaro che se qualcuno me la tira dietro a meno di 350€, diventa un affarone :>
però potevano almeno aspettare questi fantomatici nuovi driver del 22. tanto sei mesi e sei giorni di ritardo o sei mesi e mezzo che cambiava? si sarebbero risparmiate tante chiacchiere o forse sanno che...
Io cmq non vi capisco...parliamo di consumi....ma non credo che anche consumando di più in un anno potete colmare quei quasi 200€ di differenza che ci sono fra la la 2900xt e la gtx o sbaglio?
A me la vga sembra si comporti in modo egregio visto anche il prezzo, di poco superiore alla GTS ma sempre e costantemente più veloce rispetto a questa e molto vicina alla gtx...
Imho al momento è la migliore con rapporto prezzo/prestazioni.
halduemilauno
21-05-2007, 10:14
Io cmq non vi capisco...parliamo di consumi....ma non credo che anche consumando di più in un anno potete colmare quei quasi 200€ di differenza che ci sono fra la la 2900xt e la gtx o sbaglio?
A me la vga sembra si comporti in modo egregio visto anche il prezzo, di poco superiore alla GTS ma sempre e costantemente più veloce rispetto a questa e molto vicina alla gtx...
Imho al momento è la migliore con rapporto prezzo/prestazioni.
A) sono intorno ai 100€.
B) è la 8800gts320 a 250/270€ la migliore.
C) ma tu lasceresti un elettrodomestico da 70/80watt acceso a uffa un tot ore al giorno?
A) sono intorno ai 100€.
B) è la 8800gts320 a 250/270€ la migliore.
C) ma tu lasceresti un elettrodomestico da 70/80watt acceso a uffa un tot ore al giorno?
a) si giusto non ero aggiornato.
b) vero anche quello ma di una vga con meno di 512mb di memoria per me non ha motivo di esistere...specialmente con quella potenza, avrei capito una entry level dx10 ma non una gts.
c) vero pure...ma io credo che se uno si compra una vga del genere non lasci il pc acceso per scaricare con emule,no? per quello usa un muletto se c'è l'ha, ed oltretutto rispetto ad una gts (ma anche con la gtx visto che le si avvicina in parecchie situazioni) quanto potrebbe mai essere la differenza in un anno (in euro) mettendo la media di 2 ore al giorno di funzionamento? Puoi dirmelo perfavore perchè sarei anche curioso.
A) sono intorno ai 100€.
B) è la 8800gts320 a 250/270€ la migliore.
C) ma tu lasceresti un elettrodomestico da 70/80watt acceso a uffa un tot ore al giorno?
Veramente triste dover ripetere ogni volta le stesse cose. Io non capisco perché ci sia questo tifo da stadio, alla fine stiamo parlando di aziente, aziende che lavorano per schiavizzare le menti dei consumatori... Una scheda che consuma di più e scalda di più ma non va di più in modo proporzionale, e che sulla carta ha delle potenzialità di molto superiori alla concorrezza, e che viene presentata con mesi di ritardo e nonostante questo non ha driver stabili, è per me un flop informatico. Poi se si danno da fare con i driver e riescono a colmare il gap la scheda avrà delle buone possibilità commerciali, soprattutto se proposta ad un buon prezzo; perché le potenzialità e la tencologia che sta dietro a questa scheda sulla carta è straordinaria. Il problema è che dei dati sulla carta non ci facciamo nulla; del fatto che il dissipatore è il più efficiente mai introdotto su una scheda come soluzione di default si può apprezzare in virtù del buon margine di OC che la scheda consente, però il consumo ed il calore aumentano lo stesso, e sono già troppo alti per quello che la scheda offre.
Una 8800GTX si trova a meno di 500€, una GTS640 a 320€ ed una GTS320 a 250€ e si tratta di schede che consumano e scaldano meno, e che hanno delle potenzialità note, e anche loro hanno dimostrato che possono crescere, e non poco, in termini prestazionali con drivers migliori. Io consiglio, a quelli che mi chiedono un sistema gaming, una soluzione basata su nVidia, perché non mi piace scommettere con i soldi degli altri. E la 2900XT non ha ancora le carte in regola per poter essere considerata un prodotto definitivo.
halduemilauno
21-05-2007, 10:29
a) si giusto non ero aggiornato.
b) vero anche quello ma di una vga con meno di 512mb di memoria per me non ha motivo di esistere...specialmente con quella potenza, avrei capito una entry level dx10 ma non una gts.
c) vero pure...ma io credo che se uno si compra una vga del genere non lasci il pc acceso per scaricare con emule,no? per quello usa un muletto se c'è l'ha, ed oltretutto rispetto ad una gts (ma anche con la gtx visto che le si avvicina in parecchie situazioni) quanto potrebbe mai essere la differenza in un anno (in euro) mettendo la media di 2 ore al giorno di funzionamento? Puoi dirmelo perfavore perchè sarei anche curioso.
eppure è dimostrato che per chi ha monitor da 17/19 pollici il comportamento delle due schede è identico e quindi in quelle condizioni(che sono la massa ricordiamolo)se è competitiva una lo è anche l'altra. il fatto è che vi fa comodo fare il confronto solo con la 640 cosi vi giustificate i 100 e passa € in + che dovete sborsare.
hai detto due ore? perfetto e perchè devo avere un oggetto che consuma 70 watt a uffa per due ore al giorno? e questo perchè tu mi parli di due ore e quanti invece ce ne stanno ben di +?
ma la bolletta la paghi tu o ci pensa papà?
poi se vogliamo parlare anche del calore e del rumore generato in + teniamone conto.
a) si giusto non ero aggiornato.
b) vero anche quello ma di una vga con meno di 512mb di memoria per me non ha motivo di esistere...specialmente con quella potenza, avrei capito una entry level dx10 ma non una gts.
c) vero pure...ma io credo che se uno si compra una vga del genere non lasci il pc acceso per scaricare con emule,no? per quello usa un muletto se c'è l'ha, ed oltretutto rispetto ad una gts (ma anche con la gtx visto che le si avvicina in parecchie situazioni) quanto potrebbe mai essere la differenza in un anno (in euro) mettendo la media di 2 ore al giorno di funzionamento? Puoi dirmelo perfavore perchè sarei anche curioso.
I 320Mbyte sono sufficienti anche per giochi molto complessi fino a 1600x1200 come risoluzione, e vanno più che bene sui monitor da 17 a 19", e questo è un dato di fatto: se non hai uno schermo più grande non serve a nulla la RAM sulla VGA. Ed in alcuni casi (molti) non serve neanche con uno schermo più grande (fino a 22"). Se uno compra una VGA del genere significa che o è un appassionato di tecnologia e gli piace scommettere sulle prestazioni oppure è un utente appassionato di un determinato gioco dove la scheda vale quello che costa (e non sono pochissimi, però neanche la magggioranza).
hai detto due ore? perfetto e perchè devo avere un oggetto che consuma 70 watt a uffa per due ore al giorno? e questo perchè tu mi parli di due ore e quanti invece ce ne stanno ben di +?
ma la bolletta la paghi tu o ci pensa papà?
poi se vogliamo parlare anche del calore e del rumore generato in + teniamone conto.
Credo che i WATT che consuma una VGA high-end siano L'ULTIMA cosa che guarda un appassionato... .;)
Piuttosto il rumore, ok... ma il consumo proprio no...
Per il resto... se davvero sta scheda migliora coi driver nuovi dopo appena 1 settimana dal lancio, allora Ati è stata "polla" a farla uscire il 15 e a non aspettare altre 2 settimane... ciò non toglie che, sotto XP, sta scheda sembra non essere certo quel flop che poteva sembrare inizialmente, anzi... ;)
Grave Digger
21-05-2007, 10:56
Credo che i WATT che consuma una VGA high-end siano L'ULTIMA cosa che guarda un appassionato... .;)
Piuttosto il rumore, ok... ma il consumo proprio no...
Per il resto... se davvero sta scheda migliora coi driver nuovi dopo appena 1 settimana dal lancio, allora Ati è stata "polla" a farla uscire il 15 e a non aspettare altre 2 settimane... ciò non toglie che, sotto XP, sta scheda sembra non essere certo quel flop che poteva sembrare inizialmente, anzi... ;)
diciamo che i consumi per un enthusiast non contano(relativamente),MA solo se suffragati da prestazioni superiori alla controparte nvidia....cerchiamo di non dimenticarlo.....al netto dei consumi,della rumorosità,del calore in ogni caso resta un prodotto valido......
halduemilauno
21-05-2007, 10:58
Perché il calore e la rumorosità non li risolvi con i driver del 22 e aspettare la versione a 65nm voleva dire molto più tempo che una settimana.
E' il prezzo che decide su cosa si fa il confronto, non quello che fa comodo a qualcuno.
riferendomi ai driver parlavo delle prestazioni.
ma se per gli scenari di massa(17/19 pollici)ottengo lo stesso con 100€ di meno è gia bello che deciso 8800gts320. se ne deve tener conto.
Grave Digger
21-05-2007, 10:59
riferendomi ai driver parlavo delle prestazioni.
ma se per gli scenari di massa(17/19 pollici)ottengo lo stesso con 100€ di meno è gia bello che deciso 8800gts320.
e non dimentichiamoci che con 100 euro circa posso comprare un bel po' di roba informatica :) ....
diciamo che i consumi per un enthusiast non contano(relativamente),MA solo se suffragati da prestazioni superiori alla controparte nvidia....cerchiamo di non dimenticarlo.....al netto dei consumi,della rumorosità,del calore in ogni caso resta un prodotto valido......
L'unico fattore (parlo per me) che conta in relazione alle prestazioni, per un confronto tra le diverse schede, è il prezzo... :p
Grave Digger
21-05-2007, 11:02
L'unico fattore (parlo per me) che conta in relazione alle prestazioni, per un confronto tra le diverse schede, è il prezzo... :p
idem ;)
halduemilauno
21-05-2007, 11:03
L'unico fattore (parlo per me) che conta in relazione alle prestazioni, per un confronto tra le diverse schede, è il prezzo... :p
e allora 8800gts320. quei 100€ in + non li ammortizzerai mai. poi per chi ha scenari diversi di certo la 2900xt entra in gioco e si scontra con le altre. ma chi gode di altri scenari con monitor adeguati non sta li a perdere tempo e si fa la 8800gtx che si trova in media un 100€ di + e nel prezzo ci sono i 256 mega di ram in + che in quei specifici scenari fanno di certo comodo.
;)
L'unico fattore (parlo per me) che conta in relazione alle prestazioni, per un confronto tra le diverse schede, è il prezzo... :p
Il conumo maggiore invece secondo me è un fattore da non sottavalutare; e nella 2900XT è tutto il comparto consumo-alimentazione a non convincermi: connettori non standard sulla stragrande maggiornaza degli alimentatori, consumi elevati che soprattutto in configurazioni CrossFire potrebbero costringere ad un cambio di alimentatore, prestazioni non all'altezza dei consumi. Io ripeto, al dilà delle considerazioni su uno o l'altro aspetto credo che questa scheda non sia acquistabile se non per uno dei motivi che ho elencato prima, e che in generale siano preferibili le soluzioni nVidia in questo momento.
EIDT: inoltre se è il prezzo a contare ricordiamoci del prezzo della corrente, del prezzo di un alimentatore adeguato, etc.
e allora 8800gts320. quei 100€ in + non li ammortizzerai mai. poi per chi ha scenari diversi di certo la 2900xt entra in gioco e si scontra con le altre.
;)
Ritengo la GTS da 640mb la vera concorrente "alla pari" della hd2900xt per motivazioni di prezzo (e ram installata)... imho la gts320 al momento colma un "vuoto" dello scalino inferiore e ha "campo libero" in tal senso, avantaggiandosene non poco... se verrà fatta una hd2900xt da 256mb (dubito) allora si metterà in relazione con essa... ma ora come ora ati non ha la controparte...
halduemilauno
21-05-2007, 11:22
Ritengo la GTS da 640mb la vera concorrente "alla pari" della hd2900xt per motivazioni di prezzo (e ram installata)... imho la gts320 al momento colma un "vuoto" dello scalino inferiore e ha "campo libero" in tal senso, avantaggiandosene non poco... se verrà fatta una hd2900xt da 256mb (dubito) allora si metterà in relazione con essa... ma ora come ora ati non ha la controparte...
e il famigerato e a volte tanto sbandierato rapporto prezzo/prestazioni?
;)
e il famigerato e a volte tanto sbandierato rapporto prezzo/prestazioni?
;)
ok... è a vantaggio della gts320 (contento?! :D )... la gts320 è più conveniente di HD2900XT nella stessa misura in cui lo è della GTS640! ;)
Ma il confronto va fatto nella stessa fascia di prezzo/dotazione... la gts 320, come detto è "un'altra scheda" di un'altra fascia, fascia in cui ATI non c'è... ;)
Tra l'altro allora il miglior rapporto prezzo/prestazioni, se vogliamo, ce l'ha la ATI X1950 Pro, che non è DX10 ma consente di giocare bene a 1280x1024 con soli140 Euro I.I.
ps: per tutti... rispondendo alla numerose segnalazioni che ci sono arrivate in merito e volendo fare un po' di ordine pregherei 2 cose per i post futuri:
- Questo è un thread di commento sull'articolo della HD2900XT, e quindi deve essere mantenuto in ambito tecnico (va bene il confronto tecnico tra nvidia e ati)
- I consigli per gli acquisti però vanno dati nell'apposita sezione di "schede video"... abbiamo ricevuto diverse lamentele al riguardo...
Grazie! ;)
bonzuccio
21-05-2007, 11:45
La gts da 320mb è ben contrastata dalle serie 1900-1950 che costano pure molto di meno e coi driver attuali vanno ad altissime risoluzioni e coi filtri alla grandissima in dx9,
una scheda no-sense sotto molti aspetti la gts320 abbiamo visto come le dx10 siano un qualcosa di mooolto prematuro (prestazioni comunque basse sui anche sui giochi sviluppati ad hoc per nvidia con una gtx, chiara mancanza di implementazioni hardware importanti comunque presenti nella xt2900 e presumibilmente nella futura fascia media di r600 che intanto proprio a livello driver è in stato embrionale in dx10 essendo uno il gioco e una mezza patch in coj)
Grave Digger
21-05-2007, 11:50
La gts da 320mb è ben contrastata dalle serie 1900-1950 che costano pure molto di meno e coi driver attuali vanno ad altissime risoluzioni e coi filtri alla grandissima in dx9,
una scheda no-sense sotto molti aspetti la gts320 abbiamo visto come le dx10 siano un qualcosa di mooolto prematuro (prestazioni comunque basse sui anche sui giochi sviluppati ad hoc per nvidia con una gtx, chiara mancanza di implementazioni hardware importanti comunque presenti nella xt2900 e presumibilmente nella futura fascia media di r600 che intanto proprio a livello driver è in stato embrionale in dx10 essendo uno il gioco e una mezza patch in coj)
€
mmm,però il paragone è un po' infelice....la serie X19xx non è dx10 compliant :) ....
Scrambler77
21-05-2007, 11:50
e il famigerato e a volte tanto sbandierato rapporto prezzo/prestazioni?
;)
Insomma, come la fai la sbagli... :asd:
halduemilauno
21-05-2007, 11:52
ok... è a vantaggio della gts320 (contento?! :D )... la gts320 è più conveniente di HD2900XT nella stessa misura in cui lo è della GTS640! ;)
Ma il confronto va fatto nella stessa fascia di prezzo/dotazione... la gts 320, come detto è "un'altra scheda" di un'altra fascia, fascia in cui ATI non c'è... ;)
Tra l'altro allora il miglior rapporto prezzo/prestazioni, se vogliamo, ce l'ha la ATI X1950 Pro, che non è DX10 ma consente di giocare bene a 1270x1024 con soli140 Euro I.I.
ps: per tutti... rispondendo alla numerose segnalazioni che ci sono arrivate in merito e volendo fare un po' di ordine pregherei 2 cose per i post futuri:
- Questo è un thread di commento sull'articolo della HD2900XT, e quindi deve essere mantenuto in ambito tecnico (va bene il confronto tecnico tra nvidia e ati)
- I consigli per gli acquisti però vanno dati nell'apposita sezione di "schede video"... abbiamo ricevuto diverse lamentele al riguardo...
Grazie! ;)
Ma il confronto va fatto nella stessa fascia di prezzo/dotazione/dx. ma la smetti di modificare il post.
:D
halduemilauno
21-05-2007, 11:54
La gts da 320mb è ben contrastata dalle serie 1900-1950 che costano pure molto di meno e coi driver attuali vanno ad altissime risoluzioni e coi filtri alla grandissima in dx9,
una scheda no-sense sotto molti aspetti la gts320 abbiamo visto come le dx10 siano un qualcosa di mooolto prematuro (prestazioni comunque basse sui anche sui giochi sviluppati ad hoc per nvidia con una gtx, chiara mancanza di implementazioni hardware importanti comunque presenti nella xt2900 e presumibilmente nella futura fascia media di r600 che intanto proprio a livello driver è in stato embrionale in dx10 essendo uno il gioco e una mezza patch in coj)
una scheda no sense.
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
Ma il confronto va fatto nella stessa fascia di prezzo/dotazione/dx.
... considera che i giochi veramente DX10 escono l'anno prossimo, e quindi con le VGA attuali non me li potrò godere appieno, allora, nell'incertezza, io ora risparmio 130 Euro (con la x1950) e POI l'anno prossimo mi faccio una VERA next-gen! ;)
ma la smetti di modificare il post.
:D
Sì... :D
Scrambler77
21-05-2007, 11:57
una scheda no sense.
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
Beh... in effetti... se è no-sense la gts320... la 2900xt -> oggi <- che senso ha?? ;) :asd:
eppure è dimostrato che per chi ha monitor da 17/19 pollici il comportamento delle due schede è identico e quindi in quelle condizioni(che sono la massa ricordiamolo)se è competitiva una lo è anche l'altra. il fatto è che vi fa comodo fare il confronto solo con la 640 cosi vi giustificate i 100 e passa € in + che dovete sborsare.
hai detto due ore? perfetto e perchè devo avere un oggetto che consuma 70 watt a uffa per due ore al giorno? e questo perchè tu mi parli di due ore e quanti invece ce ne stanno ben di +?
ma la bolletta la paghi tu o ci pensa papà?
poi se vogliamo parlare anche del calore e del rumore generato in + teniamone conto.
Scusa ma io ti ho chiesto una cosa...e tu non mi hai risposto a quanto pare.
p.s. la bolletta come tutto il resto me lo pago io.
ripeto....quanto può consumare in più rispetto ad una gts e una gtx in un anno tenendola accesa per 2 ore al giorno?
Scrambler77
21-05-2007, 11:59
... considera che i giochi veramente DX10 escono l'anno prossimo, e quindi con le VGA attuali non me li potrò godere appieno, allora, nell'incertezza, io ora risparmio 130 Euro (con la x1950) e POI l'anno prossimo mi faccio una VERA next-gen! ;)
Il salto generazionale c'è stato con G80... ;)
bonzuccio
21-05-2007, 12:04
€
mmm,però il paragone è un po' infelice....la serie X19xx non è dx10 compliant :) ....
Si ma è un prodotto ormai davvero maturo.. e finito visto che sui driver di r600 ci staranno lavorando pure i commerciali in amd-ati.. :asd:
E' sulla fascia medio bassa che ati è davvero scoperta, una 8400-8600 è davvero preferibile a qualsiasi x1300 - x1650 ed è questa la fascia dei grossi volumi..
continuo malgrado questo a preferire ati, è dalla serie 8000 che si vede come le scommesse dei canadesi siano sempre state azzeccate, il prediligere gli shader allle texture è una cosa che sta già portando a dei risultati,
l'implementare un engine dedicato alla tasselation (tecnologia portata dal mondo console) significa scommettere che anche la piatta pc prima o poi dovrà fare i conti con tecniche nuove, il disegnare una architettura per massimizzare il guadagno in dx10 (e "soffrire" in dx9) sempre con un engine dedicato ai geometry shader (che se usati portano a benefici enormi) significa non prendere per il qlo gli acquirenti.. non è una questione di fanboismo ma le politiche di queste 2 case stanno li da un pezzo e pian piano ho sviluppato una certa preferenza.. poi l'acquisizione di amd secondo me ha enfatizzato il fatto che dentro quegli uffici ci sono un mucchio di visionari.. per me la cosa è esaltante :)
Scrambler77
21-05-2007, 12:10
Scusa ma io ti ho chiesto una cosa...e tu non mi hai risposto a quanto pare.
p.s. la bolletta come tutto il resto me lo pago io.
ripeto....quanto può consumare in più rispetto ad una gts e una gtx in un anno tenendola accesa per 2 ore al giorno?
Calcolando 2 ore di full-load al giorno, con 90w in più rispetto la GTS, il consumo si traduce in circa 65,7kw/h all'anno in più in bolletta.
A 0,18€, il cunsumo in full-load aumenta di circa 11,82 euro.
Calcolando 4 ore di idle al giorno (per un totale medio di 6 ore di PC, anche se c'è gente che tiene il PC acceso h24), con 10w in più rispetto alla GTS, il comsumo si traduce in circa 21kw/h all'anno in più in bolletta.
Sempre a 0,18€, il consumo in idle aumenta di circa 4,00 euro.
In totale, sullo scenario di un PC acceso 6 ore/giorno con 2 ore di full-load, la 2900XT costa circa 15,00 euro in più in bolletta rispetto alla GTS (diretta concorrente).
Se il PC lo si tiene acceso tutto il giorno (emule?? :D), con 3 ore di full-load al gg, il consumo in più sale a circa +31,00 euro/anno.
bonzuccio
21-05-2007, 12:12
Calcolando 2 ore di full-load al giorno, con 90w in più rispetto la GTS, il consumo si traduce in circa 65,7kw/h all'anno in più in bolletta.
A 0,18€, il cunsumo in full-load aumenta di circa 11,82 euro.
Calcolando 4 ore di idle al giorno (per un totale medio di 6 ore di PC, anche se c'è gente che tiene il PC acceso h24), con 10w in più rispetto alla GTS, il comsumo si traduce in circa 21kw/h all'anno in più in bolletta.
Sempre a 0,18€, il consumo in idle aumenta di circa 4,00 euro.
In totale, sullo scenario di un PC acceso 6 ore/giorno con 2 ore di full-load, la 2900XT costa circa 15,00 euro in più in bolletta rispetto alla GTS (diretta concorrente).
Se il PC lo si tiene acceso tutto il giorno (emule?? :D), con 3 ore di full-load al gg, il consumo in più sale a circa +31,00 euro/anno.
Emule in full load? Guarda che è proprio se tieni in idle il pc che consumi meno con r600.. poi 90W :rolleyes:
ninja750
21-05-2007, 12:14
... considera che i giochi veramente DX10 escono l'anno prossimo, e quindi con le VGA attuali non me li potrò godere appieno, allora, nell'incertezza, io ora risparmio 130 Euro (con la x1950) e POI l'anno prossimo mi faccio una VERA next-gen!
ed è il ragionamento giusto, e si sottolinea l'inutilità del supporto dx10 alle 8600 se tanto non riusciranno a far girare un gioco decentemente
ma fare una HD2900GX2 con 2 processori grafici no? :D
Portocala
21-05-2007, 12:17
dai miei calcoli circa 18 euro in più all'anno usando il pc 2-2.5 ore al giorno
Scrambler77
21-05-2007, 12:18
Emule in full load? Guarda che è proprio se tieni in idle il pc che consumi meno con r600.. poi 90W :rolleyes:
Forse scrivo ostrogoto...
Il calcolo di emule l'ho fatto in idle... (grazie cmq per avermi illuminato).
I dati (90w) sono tratti proprio dall'articolo che stiamo commentando. :rolleyes:
Portocala
21-05-2007, 12:20
ed è il ragionamento giusto, e si sottolinea l'inutilità del supporto dx10 alle 8600 se tanto non riusciranno a far girare un gioco decentemente
il problema è che non sai che prestazioni hanno le 8600 perchè nessuno le ha incluse :(
ho scritto pm e chiesto di aggiungere anche le 8600 nei bench ma niente :confused:
Evangelion01
21-05-2007, 12:56
Anche io penso che i consumi siano un aspetto importante... o meglio : Intel, e anche amd, stanno lavorando tantissimo sul fattore prestazioni-per watt , e pubblicizzano questo dato tra i più importanti. Ora, non vedo perchè Ati o Nvidia dovrebbero fare diversamente. E questa volta il lavoro migliore l' ha fatto indubbiamente Nvidia, anche se ci sono enormi margini di miglioramento. Di questa 2900 poi non c'è un solo aspetto che convinca appieno : mediocre rapporto prestazioni-watt , rumorosità troppo elevata, scarsa competitività rispetto alla 8800gts320, e ritardo di 7 mesi a mio parere assurdo, visto il prodotto finale. Poi molti continuano a sperare nei drivers, ma uno che vuole comperare OGGI, non può andare sulla fiducia. :(
Poi molti continuano a sperare nei drivers, ma uno che vuole comperare OGGI, non può andare sulla fiducia. :(
concordo
Scrambler77
21-05-2007, 13:18
Anche io penso che i consumi siano un aspetto importante... o meglio : Intel, e anche amd, stanno lavorando tantissimo sul fattore prestazioni-per watt , e pubblicizzano questo dato tra i più importanti. Ora, non vedo perchè Ati o Nvidia dovrebbero fare diversamente. E questa volta il lavoro migliore l' ha fatto indubbiamente Nvidia, anche se ci sono enormi margini di miglioramento. Di questa 2900 poi non c'è un solo aspetto che convinca appieno : mediocre rapporto prestazioni-watt , rumorosità troppo elevata, scarsa competitività rispetto alla 8800gts320, e ritardo di 7 mesi a mio parere assurdo, visto il prodotto finale. Poi molti continuano a sperare nei drivers, ma uno che vuole comperare OGGI, non può andare sulla fiducia. :(
Quoto... ;)
Grave Digger
21-05-2007, 13:21
Anche io penso che i consumi siano un aspetto importante... o meglio : Intel, e anche amd, stanno lavorando tantissimo sul fattore prestazioni-per watt , e pubblicizzano questo dato tra i più importanti. Ora, non vedo perchè Ati o Nvidia dovrebbero fare diversamente. E questa volta il lavoro migliore l' ha fatto indubbiamente Nvidia, anche se ci sono enormi margini di miglioramento. Di questa 2900 poi non c'è un solo aspetto che convinca appieno : mediocre rapporto prestazioni-watt , rumorosità troppo elevata, scarsa competitività rispetto alla 8800gts320, e ritardo di 7 mesi a mio parere assurdo, visto il prodotto finale. Poi molti continuano a sperare nei drivers, ma uno che vuole comperare OGGI, non può andare sulla fiducia. :(
mi accodo :)
killer978
21-05-2007, 13:50
Io cmq non vi capisco...parliamo di consumi....ma non credo che anche consumando di più in un anno potete colmare quei quasi 200€ di differenza che ci sono fra la la 2900xt e la gtx o sbaglio?
A me la vga sembra si comporti in modo egregio visto anche il prezzo, di poco superiore alla GTS ma sempre e costantemente più veloce rispetto a questa e molto vicina alla gtx...
Imho al momento è la migliore con rapporto prezzo/prestazioni.
Sarebbe vero se non ci fosse la 320mb ;) x adesso è la migliore in assoluto! la GTX è una VGA inutile IMHO, con i giochi di oggi basta una X1900 o ancora mejo una GTS320mb , tanto x i giochi DX10 nessuna di queste VGA andra decentemente.
Come al solito chi spende 600€ x VGA appena uscite x me è un pazzo oppure ha soldi da buttare
bonzuccio
21-05-2007, 14:05
..cut..Poi molti continuano a sperare nei drivers, ma uno che vuole comperare OGGI, non può andare sulla fiducia. :(
Purtroppo oggi per scegliere una vga e non andare a caso come l'utente sprovveduto non è più sufficiente guardare gli istogrammi di un bench, altri fattori entrano in campo.
Certo se cambi la scheda video spesso allora la ricerca del prodotto migliore nel breve periodo si semplifica (ma si complica a livello di budget e impegno nel comprare-valutare il momento migliore) se invece il tuo è un investimento a medio lungo termine rischi di prendere una cantonata scegliendo l'apparenza migliore attuale..
ed è proprio questo il caso.
Poi certo magari il mercato di una gts tra un anno resta competitivo ma se parliamo di 2-3 anni chi ha preso ati ha da sempre un sorrisone stampato sulla faccia :( :asd:
Non c'è dubbio che chi vuole sempre il top e si muove per averlo subito ha fatto bene a prendere la gtx o si potrebbe buttare sulla ultra sapendo benissimo che tra poco dovrà cambiare ancora magari per una 2900xt a 65nm ma a chi serve una fascia alta per stare tranquillo per un pezzo o può aspettare un pochino o veramente questa xt potrebbe essere il coniglio dal cilindro.. ma potrebbe essere anche un LEPROTTO :D
killer978
21-05-2007, 14:08
....CUT.....
Se il PC lo si tiene acceso tutto il giorno (emule?? :D), con 3 ore di full-load al gg, il consumo in più sale a circa +31,00 euro/anno.
Come gia detto mille volte i consumi non sono a fare la differenza x 1€ in + al mese :asd: dai ma smettiamola :D il problema semmai è il calore prodotto ed il fatto di dover prendere un ALI con sto cavolo di attacco a 8pin :muro:
x il consumo in IDLE ti faccio notare che la X2900 consuma meno della GTS ;)
Poi sono convinto che ATI abbia il progetto + lungimirante come sempre ;) fra un anno con le X2900 si potrà ancora giocare decentemente con le GTS no :asd: e la storia si ripete :stordita:
Scrambler77
21-05-2007, 14:11
Come al solito chi spende 600€ x VGA appena uscite x me è un pazzo oppure ha soldi da buttare
C'è chi li butta in sigarette... con la differenza che la GTX non provoca il cancro... ma è una passione. ;)
Scrambler77
21-05-2007, 14:15
Come gia detto mille volte i consumi non sono a fare la differenza x 1€ in + al mese :asd: dai ma smettiamola :D il problema semmai è il calore prodotto ed il fatto di dover prendere un ALI con sto cavolo di attacco a 8pin :muro:
x il consumo in IDLE ti faccio notare che la X2900 consuma meno della GTS ;)
Poi sono convinto che ATI abbia il progetto + lungimirante come sempre ;) fra un anno con le X2900 si potrà ancora giocare decentemente con le GTS no :asd: e la storia si ripete :stordita:
Lungi da me aprire una polemica sui consumi (ho una GTX)... ma ho solo risposto ad una precisa domanda alla quale nessuno aveva risposto prima. ;)
Per quanto riguarda questa tua frase "x il consumo in IDLE ti faccio notare che la X2900 consuma meno della GTS" ti risponde direttamente hwupgrade:
http://www.hwupgrade.it/articoli/skvideo/1725/power.png
cmq, ottimo tentativo di negare ancora l'evidenza... ;)
halduemilauno
21-05-2007, 14:18
Purtroppo oggi per scegliere una vga e non andare a caso come l'utente sprovveduto non è più sufficiente guardare gli istogrammi di un bench, altri fattori entrano in campo.
Certo se cambi la scheda video spesso allora la ricerca del prodotto migliore nel breve periodo si semplifica (ma si complica a livello di budget e impegno nel comprare-valutare il momento migliore) se invece il tuo è un investimento a medio lungo termine rischi di prendere una cantonata scegliendo l'apparenza migliore attuale..
ed è proprio questo il caso.
Poi certo magari il mercato di una gts tra un anno resta competitivo ma se parliamo di 2-3 anni chi ha preso ati ha da sempre un sorrisone stampato sulla faccia :( :asd:
Non c'è dubbio che chi vuole sempre il top e si muove per averlo subito ha fatto bene a prendere la gtx o si potrebbe buttare sulla ultra sapendo benissimo che tra poco dovrà cambiare ancora magari per una 2900xt a 65nm ma a chi serve una fascia alta per stare tranquillo per un pezzo o può aspettare un pochino o veramente questa xt potrebbe essere il coniglio dal cilindro.. ma potrebbe essere anche un LEPROTTO :D
come quelli che hanno comprato le x800/850. sarà quasi un'annetto che se le danno sui denti per il mancato supporto agli shader3.
;)
bonzuccio
21-05-2007, 14:21
come quelli che hanno comprato le x800/850. sarà quasi un'annetto che se le danno sui denti per il mancato supporto agli shader3.
;)
Chi ha preso la serie 800 sa bene che ha preso una scheda "nvidia oriented".. solo che aveva una ati e godeva della qualità di immagine.. poi quella gli shader 3 è stata la storia che mi ha fatto optare per la scheda che ho in firma e ti assicuro che coi titoli in giro la minchiata l'ho fatta io ma sbagliando si impara :rolleyes:
Scrambler77
21-05-2007, 14:22
come quelli che hanno comprato le x800/850. sarà quasi un'annetto che se le danno sui denti per il mancato supporto agli shader3.
;)
Ora capisco perchè ad un mio amico mancava un incisivo... Non mi volle dire il perchè! :asd:
Evangelion01
21-05-2007, 14:23
Purtroppo oggi per scegliere una vga e non andare a caso come l'utente sprovveduto non è più sufficiente guardare gli istogrammi di un bench, altri fattori entrano in campo.
Certo se cambi la scheda video spesso allora la ricerca del prodotto migliore nel breve periodo si semplifica (ma si complica a livello di budget e impegno nel comprare-valutare il momento migliore) se invece il tuo è un investimento a medio lungo termine rischi di prendere una cantonata scegliendo l'apparenza migliore attuale..
ed è proprio questo il caso.
Guarda, purtroppo nel mercato informatico, il termine "investimento" ha ben poco senso : la velocità con cui cambiano le tecnologie è tale che una cosa acquistata ora, è già obsoleta nel giro di 3 mesi, e questo nel mercato vga, è ancora più vero. Quando ho preso la mia vga, l'ho fatto perchè sapevo che rullava alla grande nei giochi dell' epoca ( e anche attuali :D ), senza però sperare che sarei rimasto al top per più di 6 mesi. Ora ciò è avvenuto , andando anche al di là delle mie più rosee previsioni, perciò mi ritengo super-soddisfatto dell' acquisto. Chi prende ora la 2900 non ha questa certezza già da subito. Può sperare nei miglioramenti, ma le features tecnologiche supparte da r600, quanto pensi dureranno? Già si parla di dx10.1 ! Tra 2 o 3 anni anche queste vga saranno stra-sorpassate, ma cio per la 2900 avverrà senza che abbia mai primeggiato. Purtroppo ha poco senso comperare una vga OGGI cercano di guardare a più di 1 anno di distanza, perchè nessuno sa cosa realmente ci aspetta. Bisogna comperare guardando cosa realmente offre ADESSO. Il "senno di poi" in questo campo è peggio delle previsioni degli oroscopi.... L'unico campo in cui può essere una buona scelta è quello del rapporto prezzo-prestazioni, in cui batte di poco la 8800gts640 ( consumi e rumore e temp a parte ). Ma c'è la versione da 320mb che la rende ugualmente poco competitiva anche su questo fronte... Il tutto rigorosamente IMHO. :cincin:
halduemilauno
21-05-2007, 14:24
Ora capisco perchè ad un mio amico mancava un incisivo... Non mi volle dire il perchè! :asd:
ora lo sai.
:D
halduemilauno
21-05-2007, 14:26
Chi ha preso la serie 800 sa bene che ha preso una scheda "nvidia oriented".. solo che aveva una ati e godeva della qualità di immagine.. poi quella gli shader 3 è stata la storia che mi ha fatto optare per la scheda che ho in firma e ti assicuro che coi titoli in giro la minchiata l'ho fatta io ma sbagliando si impara :rolleyes:
vabbe ma pure te hai ormai una scheda superatella. e tra l'altro non era neanche il massimo allora.
Scrambler77
21-05-2007, 14:28
Guarda, purtroppo nel mercato informatico, il termine "investimento" ha ben poco senso : la velocità con cui cambiano le tecnologie è tale che una cosa acquistata ora, è già obsoleta nel giro di 3 mesi, e questo nel mercato vga, è ancora più vero. Quando ho preso la mia vga, l'ho fatto perchè sapevo che rullava alla grande nei giochi dell' epoca ( e anche attuali :D ), senza però sperare che sarei rimasto al top per più di 6 mesi. Ora ciò è avvenuto , andando anche al di là delle mie più rosee previsioni, perciò mi ritengo super-soddisfatto dell' acquisto. Chi prende ora la 2900 non ha questa certezza già da subito. Può sperare nei miglioramenti, ma le features tecnologiche supparte da r600, quanto pensi dureranno? Già si parla di dx10.1 ! Tra 2 o 3 anni anche queste vga saranno stra-sorpassate, ma cio per la 2900 avverrà senza che abbia mai primeggiato. Purtroppo ha poco senso comperare una vga OGGI cercano di guardare a più di 1 anno di distanza, perchè nessuno sa cosa realmente ci aspetta. Bisogna comperare guardando cosa realmente offre ADESSO. Il "senno di poi" in questo campo è peggio delle previsioni degli oroscopi.... L'unico campo in cui può essere una buona scelta è quello del rapporto prezzo-prestazioni, in cui batte di poco la 8800gts640 ( consumi e rumore e temp a parte ). Ma c'è la versione da 320mb che la rende ugualmente poco competitiva anche su questo fronte... Il tutto rigorosamente IMHO. :cincin:
Evangelion01 for president! :mano:
Evangelion01
21-05-2007, 14:31
Che poi, se si va a vedere la storia dei consumi, 80W di differenza dalla 8800gts, sono un' enormità :eek: ! Leggendo la guida al muletto risparmia energia, a seconda dell' uso che si fa del pc, i costi in gioco sono ENORMI , anche per differenze apparentemente basse tipo i 40W che ci sono tra 8800gtx e 2900. Poi è vero che all' enthusiast poco può fregare del consumo, ma non vedo perchè dovrei ingrassare l' ENEL, che certo non muore di fame, quando posso avere prestazioni equivalenti a costo energetico inferiore.....
:sofico:
killer978
21-05-2007, 14:35
come quelli che hanno comprato le x800/850. sarà quasi un'annetto che se le danno sui denti per il mancato supporto agli shader3.
;)
Guarda chi ha preso una X800/850 allora non sbagliò ;) Io da stupido presi una 6800GT propio x gli Shader 3.0 ti posso assicurare che fu una delusione, le X800 volavano le 6800 erano dei mattoni senza contare che nei giochi con supporto 3.0 era inutile attivare tali features causa crollo spaventoso delle prestazioni! Ancora ricordo Toca Race , se attivavo l'AA sparivano le AUTO :asd: gioco sponsorizzato da Nvidia, poi c'erano tanti altri titoli con problemi enormi quando attivavi i filtri :muro: la VGA andava a corda :asd: Speriamo che le 8800 non si comportino come le 6800 con i prox titoli :asd:
killer978
21-05-2007, 14:38
Guarda, purtroppo nel mercato informatico, il termine "investimento" ha ben poco senso : la velocità con cui cambiano le tecnologie è tale che una cosa acquistata ora, è già obsoleta nel giro di 3 mesi, e questo nel mercato vga, è ancora più vero. Quando ho preso la mia vga, l'ho fatto perchè sapevo che rullava alla grande nei giochi dell' epoca ( e anche attuali :D ), senza però sperare che sarei rimasto al top per più di 6 mesi. Ora ciò è avvenuto , andando anche al di là delle mie più rosee previsioni, perciò mi ritengo super-soddisfatto dell' acquisto. Chi prende ora la 2900 non ha questa certezza già da subito. Può sperare nei miglioramenti, ma le features tecnologiche supparte da r600, quanto pensi dureranno? Già si parla di dx10.1 ! Tra 2 o 3 anni anche queste vga saranno stra-sorpassate, ma cio per la 2900 avverrà senza che abbia mai primeggiato. Purtroppo ha poco senso comperare una vga OGGI cercano di guardare a più di 1 anno di distanza, perchè nessuno sa cosa realmente ci aspetta. Bisogna comperare guardando cosa realmente offre ADESSO. Il "senno di poi" in questo campo è peggio delle previsioni degli oroscopi.... L'unico campo in cui può essere una buona scelta è quello del rapporto prezzo-prestazioni, in cui batte di poco la 8800gts640 ( consumi e rumore e temp a parte ). Ma c'è la versione da 320mb che la rende ugualmente poco competitiva anche su questo fronte... Il tutto rigorosamente IMHO. :cincin:
Dipende ;) ti assicuro che la mia X1900 scheda che ha + di un anno alle spalle mi permette di giocare a tutto , a 1440x900 AA4x AF16xHQ
Evangelion01
21-05-2007, 14:38
Evangelion01 for president! :mano:
:asd: ;) thx.
P.s: tenete presente che provengo da una OTTIMA X1600pro, perciò non sono fan Nvidia. E' che stavolta Ati ha obiettivamente deluso, specialmente pensando alle eccellenti vga che ha sfornato in precedenza ( come la x1900gt, dal rapporto prezzo-prestazioni fantastico ). E quello che mi lascia molto perplesso è vedere come ci siano utenti che la giustificano in tutti i modi possibili e immaginabili ,quando purtroppo i dati oggettivi non sono confortanti...
bonzuccio
21-05-2007, 14:41
Il "senno di poi" in questo campo è peggio delle previsioni degli oroscopi.... L'unico campo in cui può essere una buona scelta è quello del rapporto prezzo-prestazioni, in cui batte di poco la 8800gts640 ( consumi e rumore e temp a parte ). Ma c'è la versione da 320mb che la rende ugualmente poco competitiva anche su questo fronte... Il tutto rigorosamente IMHO. :cincin:
Ma guarda che ci ricascherei anche io con la gts320, la 6800 gs/gt (nv41 quindi mi sono pure sbattuto ad aspettare :muro:) è la stessa identica cosa traslata di meno di 2 anni a livello tempo,
mi bastava aspettare un po e usciva la 1800.. :muro: :muro: :muro: :muro: :muro:
ti rendi conto di cosa è la 1800? Un gioiello,
chi ce l'ha nel case dalla prima ora sta letteralmente orgasmando come un riccio perchè ne uscirono pure poche.
Oroscopi no ma l'esperienza mi dice che ho sbagliato ad essere affrettato, gli ingegneri che progettano le schede lo fanno secondo quelle che sono le specifiche di librerie molto in la a prendere piede a livello di massa,
le dx10.1 non sono un problema visto che già le 10.0 sono una RIVOLUZIONE e non un correttivo,
i geometry shader già li hai in queste di librerie,
se puoi muovere un poligono intero invece di un singolo vertice mi sa tanto che è meglio prendere una scheda con l'engine per i GS... altro che oroscopi
La programmabilità di questa scheda e le solide basi architetturali ne faranno (secondo me) un ottimo affare perchè via driver puoi sfruttare delle risorse che le top di gamma nvidia semplicemente non hanno
anche se non primeggeranno mai (da vedere comunque) saranno come le 1800.. :D
killer978
21-05-2007, 14:42
cmq, ottimo tentativo di negare ancora l'evidenza... ;)
Su altri siti altrettanto blasonati i risultati erano leggermente diversi!!
In Idle la X2900 consumava quanto la GTS320, vabbe poi dipende anche dai chipset usati nelle varie recensioni
L'unico fattore (parlo per me) che conta in relazione alle prestazioni, per un confronto tra le diverse schede, è il prezzo... :p
esattamente...ma ancora pare non essere chiara a tutti sta cosa, basti vedere i confronti che si fanno :mbe:
halduemilauno
21-05-2007, 14:45
Guarda chi ha preso una X800/850 allora non sbagliò ;) Io da stupido presi una 6800GT propio x gli Shader 3.0 ti posso assicurare che fu una delusione, le X800 volavano le 6800 erano dei mattoni senza contare che nei giochi con supporto 3.0 era inutile attivare tali features causa crollo spaventoso delle prestazioni! Ancora ricordo Toca Race , se attivavo l'AA sparivano le AUTO :asd: gioco sponsorizzato da Nvidia, poi c'erano tanti altri titoli con problemi enormi quando attivavi i filtri :muro: la VGA andava a corda :asd: Speriamo che le 8800 non si comportino come le 6800 con i prox titoli :asd:
rispondevo all'amico che diceva 2/3 anni. chi comprò le 6800 oggi gode del supporto shader3 chi comprò x800 non può dire la stessa cosa.
tutto qui il problema non l'ho sollevato io.
;)
killer978
21-05-2007, 14:47
:asd: ;) thx.
P.s: tenete presente che provengo da una OTTIMA X1600pro, perciò non sono fan Nvidia. E' che stavolta Ati ha obiettivamente deluso, specialmente pensando alle eccellenti vga che ha sfornato in precedenza ( come la x1900gt, dal rapporto prezzo-prestazioni fantastico ). E quello che mi lascia molto perplesso è vedere come ci siano utenti che la giustificano in tutti i modi possibili e immaginabili ,quando purtroppo i dati oggettivi non sono confortanti...
Soltanto la recensione fatta da Hw Up è disastrosa, ti consiglio di guardare le campane da + parti ;) ci sono centinaia di siti Hw e su quasi tutti le X2900 sono andate benone con driver beta rispetto le GTS 640, che non ci sia una TOP a contrastare le GTX e ULTRA questo è vero ma nella fascia media alta la scheda va benone!! Poi come gia detto una TOP da 600€ adesso è inutile gia si è visto come andranno con i prox titoli, quindi meglio una VGA da 350/370€ ( o ancora mejo una GTS 320 da 250€) che una ipotetica XTX oppure le GTX/Ultra , sempre e solo IMHO!!!!
bonzuccio
21-05-2007, 14:48
vabbe ma pure te hai ormai una scheda superatella. e tra l'altro non era neanche il massimo allora.
Sai quale è la cosa peggiore per un atista con una nvidia nel case? La risposta come la tua.. :doh:
Ma comunque mi è costata mezzo milione.. niente di che sono passato alle console nel frammentre per ammortizzare lo scherzetto di nvidia :banned:
Evangelion01
21-05-2007, 14:49
Dipende ;) ti assicuro che la mia X1900 scheda che ha + di un anno alle spalle mi permette di giocare a tutto , a 1440x900 AA4x AF16xHQ
Non ne dubito. E meno male che è così, altrimenti c'era davvero da preoccuparsi !!! Almeno io la mia la potrò tenere per 2 annetti. Poi quando comincerà davvero ad arrancare la pensionerò. :D Ho scritto "3 mesi" per dire che il mercato è rapidissimo,ma in effetti dovevo scrivere 6 mesi. comunque una vga fascia high, di solito permette di fare 1 anno e mezzo al top. Però intanto non è più il massimo già dopo 6 mesi... :(
killer978
21-05-2007, 14:51
rispondevo all'amico che diceva 2/3 anni. chi comprò le 6800 oggi gode del supporto shader3 chi comprò x800 non può dire la stessa cosa.
tutto qui il problema non l'ho sollevato io.
;)
Hai perfettamente ragione, resta cmq il fatto che allora le X800 erano da preferire alle 6800 parlo x esperienza personale!! mentre il popò di roba in + che ATI ha messo nelle X1800/1900 è servito a farle andare ancora oggi a testa alta
come quelli che hanno comprato le x800/850. sarà quasi un'annetto che se le danno sui denti per il mancato supporto agli shader3.
;)
già, perchè quelli con le 6xxx se la sono passata bene...:rolleyes:
te lo dice pure lui...
Chi ha preso la serie 800 sa bene che ha preso una scheda "nvidia oriented".. solo che aveva una ati e godeva della qualità di immagine.. poi quella gli shader 3 è stata la storia che mi ha fatto optare per la scheda che ho in firma e ti assicuro che coi titoli in giro la minchiata l'ho fatta io ma sbagliando si impara :rolleyes:
halduemilauno
21-05-2007, 14:54
esattamente...ma ancora pare non essere chiara a tutti sta cosa, basti vedere i confronti che si fanno :mbe:
appunto prestazioni simili ma con 100 e passa € di meno a favore della 8800gts320. ma per carità come detto fino a un certo scenario. poi per forza di cose devono intervenire le altre. quindi quando si ha un monitor intorno ai 22/24 e oltre più ram si ha e meglio è. a questo punto ricordo gli interventi nei vari aspettando(manco fosse il messia)e mi si diceva a proposito della ram che schifo la gtx ne ha solo 784 l'R600 ne avrà un giga.
a volte come è strano il mondo.
halduemilauno
21-05-2007, 14:55
già, perchè quelli con le 6xxx se la sono passata bene...:rolleyes:
te lo dice pure lui...
loro nel loro piccolo il supporto ce l'hanno. meglio di niente. ma per carità ormai schede andate. chi+(x800)chi -(6800).
Evangelion01
21-05-2007, 14:56
Soltanto la recensione fatta da Hw Up è disastrosa, ti consiglio di guardare le campane da + parti ;) ci sono centinaia di siti Hw e su quasi tutti le X2900 sono andate benone con driver beta rispetto le GTS 640, che non ci sia una TOP a contrastare le GTX e ULTRA questo è vero ma nella fascia media alta la scheda va benone!! Poi come gia detto una TOP da 600€ adesso è inutile gia si è visto come andranno con i prox titoli, quindi meglio una VGA da 350/370€ ( o ancora mejo una GTS 320 da 250€) che una ipotetica XTX oppure le GTX/Ultra , sempre e solo IMHO!!!!
Il fatto che la 2900 abbia deluso lo dico partendo dal fatto che ho letto molte rece anche straniere, e il quadro che ne è emerso GLOBALMENTE non è dei migliori. Si, ci sono discordanze anche notevoli,( basta guardare la rece di dinox per es. ) , ma facendo una media ponderata dei pareri, la 2900 è sempre sconveniente a mio avviso. Io opterei per una gts320, e se volessi il top ricomprerei a occhi chiusi la gtx.
Per quanto riguarda il grassetto, io aspetterei a dirlo... ;)
appunto prestazioni simili ma con 100 e passa € di meno a favore della 8800gts320. ma per carità come detto fino a un certo scenario. poi per forza di cose devono intervenire le altre. quindi quando si ha un monitor intorno ai 22/24 e oltre più ram si ha e meglio è. a questo punto ricordo gli interventi nei vari aspettando(manco fosse il messia)e mi si diceva a proposito della ram che schifo la gtx ne ha solo 784 l'R600 ne avrà un giga.
a volte come è strano il mondo.
c'entra solo il prezzo, tutto il resto è fuffa. La gts da 320 è sicuramente piu conveniente ma sul mercato non si contra con questa 2900, io vorrei solo che questo fosse chiaro a tutti. Le schede si confrontano per fascia di prezzo, è un discorso puramente economico che va fatto dal lato del consumatore che a sua volta si chiede: con 300\400\500 euro che cosa mi compro?
Evangelion01
21-05-2007, 14:58
appunto prestazioni simili ma con 100 e passa € di meno a favore della 8800gts320. ma per carità come detto fino a un certo scenario. poi per forza di cose devono intervenire le altre. quindi quando si ha un monitor intorno ai 22/24 e oltre più ram si ha e meglio è. a questo punto ricordo gli interventi nei vari aspettando(manco fosse il messia)e mi si diceva a proposito della ram che schifo la gtx ne ha solo 784 l'R600 ne avrà un giga.
a volte come è strano il mondo.
Già....:p
bonzuccio
21-05-2007, 14:58
loro nel loro piccolo il supporto ce l'hanno. meglio di niente. ma per carità ormai schede andate. chi+(x800)chi -(6800).
Si si ci ho i CARTONI ANIMATI nel monitor.. :D
Scrambler77
21-05-2007, 14:58
x il consumo in IDLE ti faccio notare che la X2900 consuma meno della GTS ;)
In Idle la X2900 consumava quanto la GTS320, vabbe poi dipende anche dai chipset usati nelle varie recensioni
1) "quanto" è diverso da "meno"
2) link?
halduemilauno
21-05-2007, 14:59
Sai quale è la cosa peggiore per un atista con una nvidia nel case? La risposta come la tua.. :doh:
Ma comunque mi è costata mezzo milione.. niente di che sono passato alle console nel frammentre per ammortizzare lo scherzetto di nvidia :banned:
per carità ti risollevo subito il molare e ti dico vatti a fare una bella ati.
;)
loro nel loro piccolo il supporto ce l'hanno. meglio di niente.
chiamalo supporto :asd:
pensa che bello, tutto contento ti sei comprato la 8800/HD2900 perchè hai il supporto SM4, poi quando fai partire un gioco DX10 vedi tutto a scatti
certo, però nel loro piccolo il supporto ce l'hanno :asd:
Evangelion01
21-05-2007, 14:59
c'entra solo il prezzo, tutto il resto è fuffa. La gts da 320 è sicuramente piu conveniente ma sul mercato non si contra con questa 2900, io vorrei solo che questo fosse chiaro a tutti. Le schede si confrontano per fascia, è un discorso puramente economico.
Questo non è vero, visto che per prestazioni non è mica così lontana.... ( a parte le super-risoluzioni che importano a 1/1000000 degli utenti comuni ) :read:
purtroppo è cosi...oppure chi fa le recensioni si è bevuto il cervello. Che poi tu\voi la pensiate diversamente è un altro paio di maniche
Su altri siti altrettanto blasonati i risultati erano leggermente diversi!!
In Idle la X2900 consumava quanto la GTS320, vabbe poi dipende anche dai chipset usati nelle varie recensioni
non mi pare
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif
halduemilauno
21-05-2007, 15:02
c'entra solo il prezzo, tutto il resto è fuffa. La gts da 320 è sicuramente piu conveniente ma sul mercato non si contra con questa 2900, io vorrei solo che questo fosse chiaro a tutti. Le schede si confrontano per fascia di prezzo, è un discorso puramente economico che va fatto dal lato del consumatore che a sua volta si chiede: con 300\400\500 euro che cosa mi compro?
per fascia di prezzo. allora se ci sono due schede che valgono ambedue intorno a 100 ma una costa 370 e l'altra 270 il confronto non lo si può fare perchè una costa troppo poco?????
:boh:
Evangelion01
21-05-2007, 15:02
[...] La programmabilità di questa scheda e le solide basi architetturali ne faranno (secondo me) un ottimo affare perchè via driver puoi sfruttare delle risorse che le top di gamma nvidia semplicemente non hanno
anche se non primeggeranno mai (da vedere comunque) saranno come le 1800.. :D
Ecco, ma si rimane sempre nel campo delle ipotesi. Io preferisco qualcosa di più tangibile sinceramente... :p
halduemilauno
21-05-2007, 15:03
chiamalo supporto :asd:
pensa che bello, tutto contento ti sei comprato la 8800/HD2900 perchè hai il supporto SM4, poi quando fai partire un gioco DX10 vedi tutto a scatti
certo, però nel loro piccolo il supporto ce l'hanno :asd:
da vedere. ma in tutti i casi meglio esse che lo supportano che quelle precedenti 7900/1900 che non lo supportano per niente.
o no??????????????????????
Scrambler77
21-05-2007, 15:04
chiamalo supporto :asd:
pensa che bello, tutto contento ti sei comprato la 8800/HD2900 perchè hai il supporto SM4, poi quando fai partire un gioco DX10 vedi tutto a scatti
certo, però nel loro piccolo il supporto ce l'hanno :asd:
Ma chi è colui che non ha neppure una scheda DX10 nel case ma afferma che LostPlanet sulla GTX va tutto a scatti?? :muro:
Io l'ho giocato coi filtri al massimo, a 1280x800 alla media di 60fps... :rolleyes:
ninja750
21-05-2007, 15:04
rispondevo all'amico che diceva 2/3 anni. chi comprò le 6800 oggi gode del supporto shader3 chi comprò x800 non può dire la stessa cosa
il problema è che ora puoi attivare gli shader 3.0 con le 6800 ma i giochi non si muovono (vedi C&C3).. quindi scali dettaglio a 2.0 e li togli oppure fai come me che da una 6800 sono passato a una 1950, avessi avuto una x800 avrei fatto la stessa cosa
e idem chi compra oggi una scheda dx10 pensando che ci farà girare tutti i giochi (quali?) dx10, quando usciranno dx10 only una 8800 o 2900 saranno ancora sufficienti? imho NO
Evangelion01
21-05-2007, 15:04
per fascia di prezzo. allora se ci sono due schede che valgono ambedue intorno a 100 ma una costa 370 e l'altra 270 il confronto non lo si può fare perchè una costa troppo poco?????
:boh:
Secondo quel ragionamento si... se non fosse che il distacco tra 2900 e 8800 320 non è così marcato quanto quello di prezzo... ;)
Ma chi è colui che non ha neppure una scheda DX10 nel case ma afferma che LostPlanet sulla GTX va tutto a scatti?? :muro:
Io l'ho giocato coi filtri al massimo, a 1280x800 alla media di 60fps... :rolleyes:
la mia era solo un'ipotesi, sia chiaro ;)
Evangelion01
21-05-2007, 15:05
Ma chi è colui che non ha neppure una scheda DX10 nel case ma afferma che LostPlanet sulla GTX va tutto a scatti?? :muro:
Io l'ho giocato coi filtri al massimo, a 1280x800 alla media di 60fps... :rolleyes:
Io pure... :D
ninja750
21-05-2007, 15:05
Ma chi è colui che non ha neppure una scheda DX10 nel case ma afferma che LostPlanet sulla GTX va tutto a scatti?? :muro:
Io l'ho giocato coi filtri al massimo, a 1280x800 alla media di 60fps... :rolleyes:
sotto vista in dx10 60fps??
da vedere. ma in tutti i casi meglio esse che lo supportano che quelle precedenti 7900/1900 che non lo supportano per niente.
o no??????????????????????
logico che è da vedere, il mio era un'esempio
te lo riporto al passato
compro la 6800GT, che bello ho il supporto SM3...faccio partire riddick e cosa vedo? 11 fps :mbe:
chiamalo supporto :rolleyes:
per fascia di prezzo. allora se ci sono due schede che valgono ambedue intorno a 100 ma una costa 370 e l'altra 270 il confronto non lo si può fare perchè una costa troppo poco?????
:boh:
dipende dalla suddivisione di fasce che il mercato propone. nell'ambito delle schede grafiche oggigiorno ci vuol poco a passare da una fascia all'altra sia verso l'alto che verso il basso. Quel che è sicuro è che, economicamente parlando, non puoi paragonare una scheda da quasi 400 euro con una da 250 o poco piu. Se sta scheda fosse costata 500 e passa euro sarebbe stata paragonata alla 8800gtx eh, o ci sono dubbi anche su questo? Poi sta a chi compra decidere cosa è meglio o no
halduemilauno
21-05-2007, 15:11
logico che è da vedere, il mio era un'esempio
te lo riporto al passato
compro la 6800GT, che bello ho il supporto SM3...faccio partire riddick e cosa vedo? 11 fps :mbe:
chiamalo supporto :rolleyes:
compro la x850, che brutto non ho il supporto shader 3. faccio per installare riddick e cosa vedo? il gioco non si installa.
anche il mio esempio.
halduemilauno
21-05-2007, 15:14
dipende dalla suddivisione di fasce che il mercato propone. nell'ambito delle schede grafiche oggigiorno ci vuol poco a passare da una fascia all'altra sia verso l'alto che verso il basso. Quel che è sicuro è che, economicamente parlando, non puoi paragonare una scheda da quasi 400 euro con una da 250 o poco piu. Se sta scheda fosse costata 500 e passa euro sarebbe stata paragonata alla 8800gtx eh, o ci sono dubbi anche su questo? Poi sta a chi compra decidere cosa è meglio o no
appunto sta a chi compra decidere cosa è meglio e cosa peggio. un'utente economicamente parlando pensa alle sue tasche.
basta che le cose vengano dette tutte e con estrema chiarezza.
compro la x850, che brutto non ho il supporto shader 3. faccio per installare riddick e cosa vedo? il gioco non si installa.
anche il mio esempio.
ma se compro la x850, io sò che non ho il supporto, quindi sono cavoli miei ;)
compro la 6800, ho il supporto, e quando lo sfrutto vedo questi numeri? e io ho pagato sicuramente per questo supporto come mi sento? cosa dico?
non credo che dico: meglio di niente
ma piuttosto:
ma vaffanculo
o no?
bonzuccio
21-05-2007, 15:17
Ecco, ma si rimane sempre nel campo delle ipotesi. Io preferisco qualcosa di più tangibile sinceramente... :p
I gs supportati in quel modo non sono tangibili?
Qualsiasi cosa sia in movimento o non cambi in movimento o cambia per aree larghe (tipo le onde del mare) che fai muovi un vertice o una primitiva che ti descrive un intero poligono?
Se hai l'engine che tratta l'AA come sarà fatto in dx10 non è tangibile? Il command processor che scaricherà la cpu dai controlli non è tangibile? Il flow control.. io vorrei vedere questa xt su un monoprocessore di 2 anni fa come va.. avremmo delle sorprese secondo me se nei driver hanno avuto il tempo di usarlo.. ma non contiamo l'uvd.. insomma non è che le rece si leggono dalla parte dei bench in poi e poi si cerca di arrivare primi per scrivere f-l-o-p.. :rolleyes: mi deturpi tutta la discussione e mi vai sul piano terra terra
Errare humanum est, perseverare DIABOLICUM, con tutta sta robina in r600 ancora con la gts ie stamo?
A questo punto meglio spendere 150-200 euro e prendersi una dx9 di fascia medio alta, metti in saccoccia 100 euro e li spendi quando riterrai sarà il momento
halduemilauno
21-05-2007, 15:21
ma se compro la x850, io sò che non ho il supporto, quindi sono cavoli miei ;)
compro la 6800, ho il supporto, e quando lo sfrutto vedo questi numeri? e io ho pagato sicuramente per questo supporto come mi sento? cosa dico?
non credo che dico: meglio di niente
ma piuttosto:
ma vaffanculo
o no?
la stessa cosa la direi io al momento della scelta. e quindi comprerei l'altra quella che lo ha.
Scrambler77
21-05-2007, 15:21
sotto vista in dx10 60fps??
non credo esistano ancora le DX10 sotto XP... ;)
Scrambler77
21-05-2007, 15:28
Quindi 60fps di media alla risoluzione di 1280x800 sono prestazioni da scheda high end?
Perché se uno ha comprato una GTX per giocarci a 1280x800 è quantomeno un folle. Se non è folle ha almeno un 22", e a 1600 non fa 60 fps di media, ma nemmeno si avvicina, quindi scheda da ricomprare...
Ma LOL!! Ma che ne sai tu di come rende quella risoluzione su DX10!! La differenza con risoluzioni maggiori si vede meno che in DX9 perchè l'impatto dei filtri è molto più leggero!! Almeno degna di uno sguardo DAL VERO prima di parlare!! :rotfl:
La differenza tra 1280x800 e 1600x1200 è davvero irrisoria con i filtri tutti attivati!! :asd: Io lo so perchè lo vedo cliccando su un'icona sul mio desktop... e tu hai mai visto niente di dx10?? :asd:
halduemilauno
21-05-2007, 15:34
Quindi oggi se vai a comprare la scheda compri quella col tassellatore hardware? :rolleyes:
non andrei cosi nello specifico rimarrei sul generale prima si poteva scegliere tra dx9 e shader 2 e dx9 e shader3 per me il supporto agli shader tre era un valore aggiunto. per te e per altri no.
ne prendo atto.
halduemilauno
21-05-2007, 15:36
Giusto, ora vado a comprarmi un bel DELL 30", così posso gustarmi Crysis in 800x600 con una fantastica VGA high-end :asd:
Ma scherzi?
o se ti compri un DELL da 30(subito complimenti)mi raccomando minimo i 768 mega di ram. minimo. chi la fa la fa ma mi raccomando i 768 minimo.
Scrambler77
21-05-2007, 15:37
Giusto, ora vado a comprarmi un bel DELL 30", così posso gustarmi Crysis in 800x600 con una fantastica VGA high-end :asd:
Ma scherzi?
Ri-LOL!! Che centra la dimensione del monitor con la risoluzione adottata!! :asd:
Anche se ti compri XBox360 o PS3 non la spingerai mai a 2500x1000esticazzi di risoluzione...
Tra l'altro DX10 solleva la CPU da numerosissimi compiti (compresa la fisica) ed è normale che non puoi aspettarti che un titolo DX9 vada più lento dello stesso titolo in DX10... :rolleyes:
Chi si è comprato la 8800 SA BENE che per DX10 in futuro dovrà scendere a compromessi, così come chi si comprò la X1950XTX sapeva bene che a 1920x1200 stalker o splinter cell avrebbero scattato leggermente... che stronzata è allora...
Chiudiamo sto discorso sulle DX10 che è davvero fondato sul nulla: oggi un titolo DX10 si gioca benissimo alle risoluzioni intermedie. Attaccarsi al fatto ovvio che G80 a 6000x3000 scatta solo per dimostrare che ha i suoi limiti (visto che R600 ad oggi si è rivelato una mezza cagata anche in DX9) è davvero infantile...
Giusto, ora vado a comprarmi un bel DELL 30", così posso gustarmi Crysis in 800x600 con una fantastica VGA high-end :asd:
Ma scherzi?
:nonsifa:
non una, due ;)
edit: non avevo letto gli 800x600 :asd:
bonzuccio
21-05-2007, 15:39
non andrei cosi nello specifico rimarrei sul generale prima si poteva scegliere tra dx9 e shader 2 e dx9 e shader3 per me il supporto agli shader tre era un valore aggiunto. per te e per altri no.
ne prendo atto.
Tra le due versioni di shader non c'era differenza tale da non poter essere trattata anche con la versione precedente, forse il tassellator sarà una chicca che ci farà vedere un paio di giochi stellari solo per le ati (sarebbe anche ora :asd:) ma il futuro sono i GEOMETRY SHADERS, anche ps3 li tratta con il cell vogliamo dire tra un annetto che i pc vanno piano in confronto ad una console?
non credo
Free Gordon
21-05-2007, 15:40
ho chiamato in causa il prezzo perchè molti su istruzioni amd/ati fanno solo il confronto con la 8800gts640 perchè ovviamente fa comodo visto che la differenza di prezzo è minima. ma in realtà come detto per la massa degli utenti che hanno i 17/19 pollici c'è anche la 320 assolutamente competitiva e offerta ad almeno 100€ di meno. perfettamente d'accordo sulla spada di damocle.
;)
Come numero di transistor, la scheda è paragonabile alla GTX.
Come prezzi è paragonbile alla GTS.
Come prestazioni, PER ORA, sta tra la GTS e la GTX.
La 320MB è la scheda migliore sulla fascia 250-300 euro, non c'è dubbio!
La grandezza del monitor però non conta granchè... (anche perchè, se considerassimo solo la 1280x1024 come fai tu.. potremmo giocare bene anche con una 1900XT. ;) ).
Una scheda appena uscita è forte sulle alte res, man mano che i giochi si appesantiscono, sarà sempre meno "forte".. ;)
Dipende poi da quanto uno vuole tenere la VGA eh..
Tra le due versioni di shader non c'era differenza tale da non poter essere trattata anche con la versione precedente, forse il tassellator sarà una chicca che ci farà vedere un paio di giochi stellari solo per le ati (sarebbe anche ora :asd:) ma il futuro sono i GEOMETRY SHADERS, anche ps3 li tratta con il cell vogliamo dire tra un annetto che i pc vanno piano in confronto ad una console?
non credo
e anche Xbox 360 con Xenon
bonzuccio
21-05-2007, 15:43
Tra l'altro DX10 solleva la CPU da numerosissimi compiti (compresa la fisica) ed è normale che non puoi aspettarti che un titolo DX9 vada più lento dello stesso titolo in DX10... :rolleyes:
Chi si è comprato la 8800 SA BENE che per DX10 in futuro dovrà scendere a compromessi..
Meno male almeno sta cosa è appurata perchè la gtx è di molto menomata in confronto alla 2900xt
quindi abbiamo capito che far girare un titolo in dx9 con r600 è come emulare uno spectrum su un commodore 64.. come mai a ogni release dei driver sta scheda si avvicina alla gtx??
halduemilauno
21-05-2007, 15:44
Come numero di transistor, la scheda è paragonabile alla GTX.
Come prezzi è paragonbile alla GTS.
Come prestazioni, PER ORA, sta tra la GTS e la GTX.
La 320MB è la scheda migliore sulla fascia 250-300 euro, non c'è dubbio!
La grandezza del monitor però non conta granchè... (anche perchè, se considerassimo solo la 1280x1024 come fai tu.. potremmo giocare bene anche con una 1900XT. ;) ).
Una scheda appena uscita è forte sulle alte res, man mano che i giochi si appesantiscono, sarà sempre meno "forte".. ;)
Dipende poi da quanto uno vuole tenere la VGA eh..
dico solo, no anche a risoluzioni maggiori.
Free Gordon
21-05-2007, 15:46
però potevano almeno aspettare questi fantomatici nuovi driver del 22. tanto sei mesi e sei giorni di ritardo o sei mesi e mezzo che cambiava? si sarebbero risparmiate tante chiacchiere o forse sanno che...
Perchè pensi che una settimana in più cambi molto per il discorso driver? :confused:
Credo che i primi driver "decenti", si avranno con gli ufficiali all'uscita delle 2600.
Ma per le prestazioni, come dice Leone, ci vorrà qualche mese.
bonzuccio
21-05-2007, 15:48
doppio! :stordita:
Scrambler77
21-05-2007, 15:50
Carramba! Nessuno è così idiota da comprare un monitor da 30" per giocare a 1280x800, ecco cosa c'entra.
:rolleyes:
:rotfl: essì perchè uno si compra un 30" solo per giocare!! :asd:
Scrambler77
21-05-2007, 15:50
A me mi sa che parlo coi muri.. :rolleyes:
...a chi lo dici! :asd:
Free Gordon
21-05-2007, 15:54
e allora 8800gts320. quei 100€ in + non li ammortizzerai mai.;)
Ma stessa cosa allora si potrebbe dire, a scendere, con schede meno costose, come la 1950XT ;) (che costa altri 80 euro in meno della GTS320).
Attualmente quelle sono schede che a 1280x1024 garantiscono un'ottima esperienza di gioco..
In pratica, quello che ti voglio far capire (mentre tu vuoi dimostrare assolutamente che nVidia ha il meglio per tutti.. :asd: ), è che la proposta più conveniente è soggettiva ed è in base alla fascia di prezzo. ;)
Tra schede con prezzo uguale, ti prendi quella che va meglio (ovviamente).
Scrambler77
21-05-2007, 15:54
Una scheda appena uscita è forte sulle alte res, man mano che i giochi si appesantiscono, sarà sempre meno "forte".. ;)
Dipende poi da quanto uno vuole tenere la VGA eh..
Questo discorso valeva con le DX9... dalle DX10 in su, la pura "risoluzione" non conta più (mi pareva fosse chiaro il discorso gpgpu... ma evidentemente...).
Free Gordon
21-05-2007, 15:55
Ritengo la GTS da 640mb la vera concorrente "alla pari" della hd2900xt per motivazioni di prezzo (e ram installata)... imho la gts320 al momento colma un "vuoto" dello scalino inferiore e ha "campo libero" in tal senso, avantaggiandosene non poco... se verrà fatta una hd2900xt da 256mb (dubito) allora si metterà in relazione con essa... ma ora come ora ati non ha la controparte...
Quoto.
bonzuccio
21-05-2007, 15:55
e anche Xbox 360 con Xenon
Lì ti scontri non con la difficoltà di programmazione generica ma proprio col fatto che non hai risorse, banda, architettura adatta e per tirare fuori qualcosa devi essere un genio.. meglio far lavorare xenos che xenon per la fisica, per i gs spero che la l2 di xenon basti.. non hai 256Mb di xdr dove puoi mettere grossi blocchi di roba ma devi sempre sprecare cicli di clock.. e xenos aspetta :)
leoneazzurro
21-05-2007, 15:57
Ma non si era detto basta con le polemiche inutili? Si sta ricominciando a discutere ad un livello bassissimo. Possibile che ognuno deve sempre cercare di dimostrare che "è meglio il mio" (e viceversa, non vedo perchè si debba ad ogni costo cercare di dimostrare che "L'altrui acquisto" è una schifezza?).
Attualmente, ogni scheda sul mercato ha i suoi punti di forza e le sue debolezze, le G8X come le R6XX, se così non fosse nessuno le comprerebbe e non ci sarebbe necessità per i produttori di differenziare l'offerta.
Free Gordon
21-05-2007, 15:58
una scheda no-sense sotto molti aspetti la gts320
Imho attualmente non esistono schede non-sense. Da ambo le parti. ;)
La 320 è un ottima proposta per chi ambisce ad avere prestazioni "quasi" high end e costi ancora contenuti. ;)
Free Gordon
21-05-2007, 16:03
Se il PC lo si tiene acceso tutto il giorno (emule?? :D), con 3 ore di full-load al gg, il consumo in più sale a circa +31,00 euro/anno.
E' persino meno, dato che non credo siano molti quelli che giocano 14 ore alla settimana, puntualmente tutte le settimane... :stordita:
Inoltre non sono 90W ma molti meno dai...
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif
bonzuccio
21-05-2007, 16:05
@FreeGordon
.. usa quel tastino in basso a destra, si chiama multiquote e quando risali le montagne risulta utile.. :D
Free Gordon
21-05-2007, 16:06
Questo discorso valeva con le DX9... dalle DX10 in su, la pura "risoluzione" non conta più (mi pareva fosse chiaro il discorso gpgpu... ma evidentemente...).
Ehm?? :confused:
Per prima cosa stiamo parlando di giochi dx9.. e seconda cosa la risoluzione conterà sempre (al di là di dx9, 10 o 11..)
Free Gordon
21-05-2007, 16:18
compro la x850, che brutto non ho il supporto shader 3. faccio per installare riddick e cosa vedo? il gioco non si installa.
anche il mio esempio.
riddick non si installa sotto una x800?? :rolleyes:
ma se riddick è stato sviluppato sotto Xbox..
Io l'ho giocato coi filtri al massimo, a 1280x800 alla media di 60fps... :rolleyes:
1280x800? :mbe:
riddick non si installa sotto una x800?? :rolleyes:
ma se riddick è stato sviluppato sotto Xbox..
non sapevo come dirglielo :asd:
Scrambler77
21-05-2007, 17:08
1280x800? :mbe:
Scusa, ho sbagliato... l'ho rigiocato ora e gli fps erano 75 (di media).
Scrambler77
21-05-2007, 17:10
Possibile che ognuno deve sempre cercare di dimostrare che "è meglio il mio" (e viceversa, non vedo perchè si debba ad ogni costo cercare di dimostrare che "L'altrui acquisto" è una schifezza?).
Ti quoto... ma le due cose, purtroppo, vanno di pari passo. Dai la possibilità a quel folle, pazzo, idiota e babbeo che si è comprato una GTX di dimostrare il perchè ritiene di aver fatto un buon acquisto, da 8 mesi a questa parte...
Scrambler77
21-05-2007, 17:11
Meno male almeno sta cosa è appurata perchè la gtx è di molto menomata in confronto alla 2900xt
Ah si? :mbe:
Mi sa che anche tu sei uno di quelli che non ha mai visto una demo dx10 girare su g80... :muro:
P.S: scusate... sto multi-quote proprio non mi entra nel cervello! :asd:
leoneazzurro
21-05-2007, 17:16
Ti quoto... ma le due cose, purtroppo, vanno di pari passo. Dai la possibilità a quel folle, pazzo, idiota e babbeo che si è comprato una GTX di dimostrare il perchè ritiene di aver fatto un buon acquisto, da 8 mesi a questa parte...
A parte che ci sono i thread ufficiali per quello, direi che si è discusso più che abbastanza sul fatto che le 8800 GTX si siano dimostrate un acquisto longevo.
Magari tornare a parlere di argomenti tecnici a proposito di R600?
Scrambler77
21-05-2007, 17:22
A parte che ci sono i thread ufficiali per quello, direi che si è discusso più che abbastanza sul fatto che le 8800 GTX si siano dimostrate un acquisto longevo.
Magari tornare a parlere di argomenti tecnici a proposito di R600?
Beh di quello stavamo discutento (consumi e giusti confronti), apparte i flame di quei due o tre che non sono d'accordo su quanto hai scritto...
Scrambler77
21-05-2007, 17:27
riddick non si installa sotto una x800?? :rolleyes:
ma se riddick è stato sviluppato sotto Xbox..
No scusate... ho sempre avuto ATi prima della GTX. Avevo una x800 flashata a x850xt-pe e riddick funzionava, pure abbastanza bene.
Diamo a Cesare quel che è di Cesare... :)
Già... così come io che c'ho giocato sulla 6800GT @400/1100 andava davvero benone! (dopo la patch1.1)! :)
signori miei, carissimi amici vicini e lontani....
vi lascio a scannarvi tra 2900xtfggjh e 8800gtxrft
io ritardo ancora il mio aggiornamento della piccola X1600pro512mb poichè queste sono state solo le prime versioni compatibili Dx10, e Ati ha subito i danni più evidenti: le schede Dx10 attuali sono premature e poco durature (la loro potenza di calcolo x me è ancora insufficiente con le risoluzioni/dettagli che ci aspettano, e i costi nn valgono la candela)
r700 e G90 colmeranno sicuramente tutto, e sarà lì che sceglierò cosa comprare; spero solo che c sia ancora concorrenza sennò i prezzi decollano...
...alla prossima serie ;)
halduemilauno
21-05-2007, 17:56
logico che è da vedere, il mio era un'esempio
te lo riporto al passato
compro la 6800GT, che bello ho il supporto SM3...faccio partire riddick e cosa vedo? 11 fps :mbe:
chiamalo supporto :rolleyes:
riddick non si installa sotto una x800?? :rolleyes:
ma se riddick è stato sviluppato sotto Xbox..
non sapevo come dirglielo :asd:
No scusate... ho sempre avuto ATi prima della GTX. Avevo una x800 flashata a x850xt-pe e riddick funzionava, pure abbastanza bene.
Diamo a Cesare quel che è di Cesare... :)
parasfrasavo l'amico.
Scrambler77
21-05-2007, 18:29
signori miei, carissimi amici vicini e lontani....
vi lascio a scannarvi tra 2900xtfggjh e 8800gtxrft
io ritardo ancora il mio aggiornamento della piccola X1600pro512mb poichè queste sono state solo le prime versioni compatibili Dx10, e Ati ha subito i danni più evidenti: le schede Dx10 attuali sono premature e poco durature (la loro potenza di calcolo x me è ancora insufficiente con le risoluzioni/dettagli che ci aspettano, e i costi nn valgono la candela)
r700 e G90 colmeranno sicuramente tutto, e sarà lì che sceglierò cosa comprare; spero solo che c sia ancora concorrenza sennò i prezzi decollano...
...alla prossima serie ;)
G90 :sbav: mi aspetto una gpu a 45nm, 256 streaming processors a 2.0GHz e 1,5Gb di ram... Tutto a 45W in full-load! :asd:
Lì ti scontri non con la difficoltà di programmazione generica ma proprio col fatto che non hai risorse, banda, architettura adatta e per tirare fuori qualcosa devi essere un genio.. meglio far lavorare xenos che xenon per la fisica, per i gs spero che la l2 di xenon basti.. non hai 256Mb di xdr dove puoi mettere grossi blocchi di roba ma devi sempre sprecare cicli di clock.. e xenos aspetta :)
shhhh che se ti sente chi sviluppa su Ps3 ti salta addosso!
Io quei 256 mb di XDR non riescono a infilarci più niente, perchè l'Os gli ciucca un casino :asd:
G90 :sbav: mi aspetto una gpu a 45nm, 256 streaming processors a 2.0GHz e 1,5Gb di ram... Tutto a 45W in full-load! :asd:
Scordati i 45 nm, al 99% sarà a 65 nm. Non vedo il bisogno di scheda da 1,5 Gb nei prossimi 24 mesi. Per arrivare al Gb ci sono volute 3 generazioni.
Scrambler77
21-05-2007, 18:44
Riprendendo il discorso di DX e risoluzioni, stavo notanto che la maggior parte di screenshots di titoli DX10 in preview e/o beta release, sono tutti a risoluzioni intorno i 1280x720 punti, sia per le consolle che per PC.
Lo screen di Halo3 (ma non solo) ne è una dimostrazione
http://www.hwupgrade.it/i.php?img=introduzione.jpg
Sarà un caso, ma secondo me questa risoluzione 16:9 è stata eletta all'unanimità come ottimo compromesso tra FPS e effetti grafici con le ATTUALI schede video DX10. Andare oltre sarebbe un inutile spreco di risorse...
Questo conferma il fatto che, giocando Lost-Planet sulle attuali DX10 è possibile già da oggi usufruire di titoli DX10 con tutti gli effetti del caso (e vi assicuro che sono anni luce avanti a quelli DX9) ad una risoluzione intermedia.
La vera idiozia consiste nel comprare un monitor Dell 30" per giocare con risoluzioni native. Si sa che non esiste una scheda, per quanto high-end sia, in grado di tener testa a display del genere, e secondo me non ci sarà per i prossimi 2-3 anni.
Un individuo intelligente spende 1500 euro (apropos... ma quanto costa un 30"?) di monitor per godersi un bel film full-hd o lavorare con CAD su un desktop megagalattico... di sicuro non per un videogame.
Scrambler77
21-05-2007, 18:48
Scordati i 45 nm, al 99% sarà a 65 nm. Non vedo il bisogno di scheda da 1,5 Gb nei prossimi 24 mesi. Per arrivare al Gb ci sono volute 3 generazioni.
Dipende da quanta memoria vuoi allocare per ogni singolo stream processor...
Attualmente sono 6Mb per ogni SP. Mantenendo inalterato quel rapporto, raddoppiando gli SP avrai una scheda da 1,5Gb...
Per quanto riguarda i 45nm... ovviamente non parlo di domani, ma ciò che non si è ancora detto (almeno credo) è che nVidia pare interessata alla collaborazione con Intel (e vice-versa) sotto certi aspetti (non meglio precisati se non per le solite indiscrezioni di facciata). Un do-ut-des che potrebbe sfociare, chissà, anche nello scambio di "favori" legati anche ai processi produttivi.
Sorry per l'OT...
shhhh che se ti sente chi sviluppa su Ps3 ti salta addosso!
Io quei 256 mb di XDR non riescono a infilarci più niente, perchè l'Os gli ciucca un casino :asd:
gliene rimangono 192...tra l'altro pure RSX può scrivere sulla RAM XDR, quindi altri Mb in meno... :asd:
ma siamo troppo OT :stordita:
Scordati i 45 nm, al 99% sarà a 65 nm. Non vedo il bisogno di scheda da 1,5 Gb nei prossimi 24 mesi. Per arrivare al Gb ci sono volute 3 generazioni.
te lo dico io il bisogno: MARKETING ;)
Riprendendo il discorso di DX e risoluzioni, stavo notanto che la maggior parte di screenshots di titoli DX10 in preview e/o beta release, sono tutti a risoluzioni intorno i 1280x720 punti, sia per le consolle che per PC.
Lo screen di Halo3 (ma non solo) ne è una dimostrazione
http://www.hwupgrade.it/i.php?img=introduzione.jpg
Sarà un caso, ma secondo me questa risoluzione 16:9 è stata eletta all'unanimità come ottimo compromesso tra FPS e effetti grafici con le ATTUALI schede video DX10. Andare oltre sarebbe un inutile spreco di risorse...
Questo conferma il fatto che, giocando Lost-Planet sulle attuali DX10 è possibile già da oggi usufruire di titoli DX10 con tutti gli effetti del caso (e vi assicuro che sono anni luce avanti a quelli DX9) ad una risoluzione intermedia.
La vera idiozia consiste nel comprare un monitor Dell 30" per giocare con risoluzioni native. Si sa che non esiste una scheda, per quanto high-end sia, in grado di tener testa a display del genere, e secondo me non ci sarà per i prossimi 2-3 anni.
Un individuo intelligente spende 1500 euro (apropos... ma quanto costa un 30"?) di monitor per godersi un bel film full-hd o lavorare con CAD su un desktop megagalattico... di sicuro non per un videogame.
Non c'entra nulla. L'unico motivo è che 720p è l'unica risoluzione che gira davvero bene sempre sulle console di questa generazione. Credo esista un quantitativo microscopico di schermi da pc che supporti nativamente quella risoluzione.
Scrambler77
21-05-2007, 19:08
Non c'entra nulla. L'unico motivo è che 720p è l'unica risoluzione che gira davvero bene sempre sulle console di questa generazione. Credo esista un quantitativo microscopico di schermi da pc che supporti nativamente quella risoluzione.
Si... in effetti io vedo solo 19" 1280x800...
Si... in effetti io vedo solo 19" 1280x800...
io proprio no...io vedo il 90% di monitor con 1280x1024
Scrambler77
21-05-2007, 19:39
io proprio no...io vedo il 90% di monitor con 1280x1024
16:10 ??
io proprio no...io vedo il 90% di monitor con 1280x1024
Che io continuo a dire essere una risoluzione ORRIDA!... il 4:3 "corretto" è la 1280x960.... così come lo era prima il 1024x760 800x600 640x480 etc etc... proprio non capisco questo "cambio di rapporto" che porta allo "schiacciamento" dell'immagine!... :rolleyes:
(uno dei motivi per cui sto ancora col mio bel 21'' CRT piatto trinitron della sony! :O... con cui faccio tutte le risoluzione di questo mondo senza perdere NULLA in qualità)
:sofico:
Che io continuo a dire essere una risoluzione ORRIDA!... il 4:3 "corretto" è la 1280x960.... così come lo era prima il 1024x760 800x600 640x480 etc etc... proprio non capisco questo "cambio di rapporto" che porta allo "schiacciamento" dell'immagine!... :rolleyes:
(uno dei motivi per cui sto ancora col mio bel 21'' CRT piatto trinitron della sony! :O... con cui faccio tutte le risoluzione di questo mondo senza perdere NULLA in qualità)
:sofico:
sono d'accordo, come rapporto il 5:4 è semplicemente orribile, se fosse per me tutti i monitor dovrebbero ssere 16:9 o 16:10 :D
leoneazzurro
21-05-2007, 19:58
Che io continuo a dire essere una risoluzione ORRIDA!... il 4:3 "corretto" è la 1280x960.... così come lo era prima il 1024x760 800x600 640x480 etc etc... proprio non capisco questo "cambio di rapporto" che porta allo "schiacciamento" dell'immagine!... :rolleyes:
(uno dei motivi per cui sto ancora col mio bel 21'' CRT piatto trinitron della sony! :O... con cui faccio tutte le risoluzione di questo mondo senza perdere NULLA in qualità)
:sofico:
Si ma la maggior parte dei monitor LCD attuali con quella risoluzione hanno anche lo schermo 5:4, come il mio ACER. (e siamo OT :p)
killer978
21-05-2007, 20:42
......CUT.....
La vera idiozia consiste nel comprare un monitor Dell 30" per giocare con risoluzioni native. Si sa che non esiste una scheda, per quanto high-end sia, in grado di tener testa a display del genere, e secondo me non ci sarà per i prossimi 2-3 anni.
Un individuo intelligente spende 1500 euro (apropos... ma quanto costa un 30"?) di monitor per godersi un bel film full-hd o lavorare con CAD su un desktop megagalattico... di sicuro non per un videogame.
Su questo mi trovi perfettamente daccordo, è un monitor che ha bisogno costantemente di VGA da 600€ :D
Cmq lo stesso discorso si puo farlo a chi ha comprato una GTX 6 mesi fa x giocarci a 1280x800 :asd: quando bastava/basta una X1950PRO , ho mi sbaglio?
cmq detto tra noi era mejo che ti pigliavi una GTS 320 :D poca spesa tanta resa :D
killer978
21-05-2007, 20:44
Si... in effetti io vedo solo 19" 1280x800...
Io non ne ho mai visti di monitor 16/10 da 19" con quella risoluzione :mbe: li danno in regalo con il dixan? :asd:
Io ne ho uno da 19" con ris. 1440x900 :D
Io non ne ho mai visti di monitor 16/10 da 19" con quella risoluzione :mbe: li danno in regalo con il dixan? :asd:
Io ne ho uno da 19" con ris. 1440x900 :D
infatti :D anke il mio ASUS vw192s va a 1440x900
Il Creativo
21-05-2007, 21:23
Quindi 60fps di media alla risoluzione di 1280x800 sono prestazioni da scheda high end?
Bisogna sapere se il V-Sync era attivo, col v-sync attivo non otterrai mai più di 60 fps a quella risoluzione...
dalle DX10 in su, la pura "risoluzione" non conta più (mi pareva fosse chiaro il discorso gpgpu... ma evidentemente...).
questa me la scrivo.....:mbe:
Dipende da quanta memoria vuoi allocare per ogni singolo stream processor...
Attualmente sono 6Mb per ogni SP. Mantenendo inalterato quel rapporto, raddoppiando gli SP avrai una scheda da 1,5Gb...
memoria allocata da singoli stream processor? :confused:
OMG :muro:
Che io continuo a dire essere una risoluzione ORRIDA!... il 4:3 "corretto" è la 1280x960.... così come lo era prima il 1024x760 800x600 640x480 etc etc... proprio non capisco questo "cambio di rapporto" che porta allo "schiacciamento" dell'immagine!... :rolleyes:
(uno dei motivi per cui sto ancora col mio bel 21'' CRT piatto trinitron della sony! :O... con cui faccio tutte le risoluzione di questo mondo senza perdere NULLA in qualità)
:sofico:
quotone....alcuni anni fa di di trinitron "economici" no ne avevo trovati...ma ho questo 17" crt flat che mi tiene 1920x1440 a 60Hz :D (LG f700P)
Scrambler77
22-05-2007, 02:05
memoria allocata da singoli stream processor? :confused:
OMG :muro:
Ciao professore,
...per essere precisi, non da singoli SP ma da singolo controller di memoria (che in G80 sono 6).
In G80 gli 8 gruppi di 16 Stream Processor sono collegati a 6 controller di memoria separati. Ogni ctrl di memoria è collegato a 2 chip di memoria, per un totale di 12 chip (sulla GTX) o di 10 chip (sulla GTS con 5 ctrl di memoria). Non a caso la GTS scende a 320bit di ampiezza di bus.
Per G80, c'è un rapporto preciso tra controller di memoria, bus e, quindi, quantità di ram (a parità di mbit per chip)...
Scrambler77
22-05-2007, 02:22
Su questo mi trovi perfettamente daccordo, è un monitor che ha bisogno costantemente di VGA da 600€ :D
Cmq lo stesso discorso si puo farlo a chi ha comprato una GTX 6 mesi fa x giocarci a 1280x800 :asd: quando bastava/basta una X1950PRO , ho mi sbaglio?
:D
Quoto... infatti io presi la gtx per giocare hl2dm a risoluzione nativa sul mio 24" ;)
...e oggi anche EP1... e forse anche domani EP2...
Per quanto riguarda DX10... il discorso cambia. Parliamo di librerie più leggere per quanto riguarda la CPU ma molto + pesanti per quanto concerne la GPU. Molta roba è passata alla GPU, fisica compresa... Per questo dicevo che la potenza di una sk.video non si misurerà soltanto in framerate e risoluzioni... e ancora oggi c'è qualcuno che ha bisogno di scriversi le cose prima di capirle... :asd:
P.S: in effetti ancora mejo la GTS che la 2900XT... altrimenti tanta spesa poca resa... :asd:
killer978
22-05-2007, 09:27
Credo che ci voglia buon senso anche nell'acquisto di VGA come in tutto del resto, anche io ero tentato dalla GTS ma pensandoci bene a cosa mi serve se vado bene con quello che ho a 1440x900 ;) Sicuramente appena esce il nuovo 3Dmark DX10 e i vari titoli tra cui Crisys ci penserò ad un eventuale cambio ;)
Ho visto diversi utenti con la GTX e monitor da 17/19" assurdo :rolleyes: vabbè poi ognuno fa cio che vuole con i propi soldi :D
Oggi le migliori schede da acquistare con il parco giochi che c'è restano la GTS 320 in primis seguita dalla X1950XT e X1950PRO , il resto è superfluo a patto di giocarci su monitor da 19"
MenageZero
22-05-2007, 10:57
Si... in effetti io vedo solo 19" 1280x800...
infatti anche restando sempre solo nell'ambito dei pannelli lcd, oggi i tv "wide" li fanno praticamente tutti 16/9, mentre gli schermi "wide" per pc li fanno quasi tutti 16/10... quale sia la necessità di questo doppio non-standard lo ignoro :boh:
Portocala
22-05-2007, 11:52
BS82, Scrambler77, Free Gordon, per piacere usate sto tasto per multi quotare http://www.hwupgrade.it/forum/images_hwu/buttons/multiquote_off.gif
:mbe: :fagiano:
infatti anche restando sempre solo nell'ambito dei pannelli lcd, oggi i tv "wide" li fanno praticamente tutti 16/9, mentre gli schermi "wide" per pc li fanno quasi tutti 16/10... quale sia la necessità di questo doppio non-standard lo ignoro :boh:
16/9 credo sia imposto dalla cinematografia, mentre il 16:10 è più semplice da produrre per le marche di lcd essendo un rapporto senza troppi decimali.
A novembre scorso ho fatto lo "sforzetto" ed oltre alla 8800 GTS ho preso un LCD HP da 24"....è tutta un'altra cosa.
Per ora solo TDU mi ha fatto scendere a 1680x1050...per il resto (BF2, BF2142, GTA:SA, GT legends, GTR2, etc etc) tengo 1920x1200 con af 16x ed aa4x.
Quando vedo un LCD da 17" mi sembra piiiiicccolo :D
Ciauz
A novembre scorso ho fatto lo "sforzetto" ed oltre alla 8800 GTS ho preso un LCD HP da 24"....è tutta un'altra cosa.
Per ora solo TDU mi ha fatto scendere a 1680x1050...per il resto (BF2, BF2142, GTA:SA, GT legends, GTR2, etc etc) tengo 1920x1200 con af 16x ed aa4x.
Quando vedo un LCD da 17" mi sembra piiiiicccolo :D
Ciauz
quando ho visto e provato un'eizo da 24" e sono tornato al mio 19" 16:10 ho sofferto di un complesso di inferiorità :O
:asd:
ale0bello0pr
22-05-2007, 15:39
quando ho visto e provato un'eizo da 24" e sono tornato al mio 19" 16:10 ho sofferto di un complesso di inferiorità :O
:asd:
EIZO....quello si che è pwnare alla grande... :D
scusate ma è il thread dei monitor questo?:confused:
oh scusate mi sn sbagliato... :doh:
Scrambler77
22-05-2007, 15:49
BS82, Scrambler77, Free Gordon, per piacere usate sto tasto per multi quotare http://www.hwupgrade.it/forum/images_hwu/buttons/multiquote_off.gif
:mbe: :fagiano:
16/9 credo sia imposto dalla cinematografia, mentre il 16:10 è più semplice da produrre per le marche di lcd essendo un rapporto senza troppi decimali.
Hai ragione... sorry... :asd:
Ti quoto... ma le due cose, purtroppo, vanno di pari passo. Dai la possibilità a quel folle, pazzo, idiota e babbeo che si è comprato una GTX di dimostrare il perchè ritiene di aver fatto un buon acquisto, da 8 mesi a questa parte...
Preso cantonata... le battute autoironiche vanno sprecate dopo 1400 posts...
Ho rimosso la sanzione.
Scrambler77
22-05-2007, 20:43
Preso cantonata... le battute autoironiche vanno sprecate dopo 1400 posts...
Ho rimosso la sanzione.
:confused:
sorry ma non ho capito... che sanzione? :stordita:
Grave Digger
22-05-2007, 20:51
:confused:
sorry ma non ho capito... che sanzione? :stordita:
non verrai più sodomizzato da Cerbert in persona :O
Scrambler77
22-05-2007, 20:55
non verrai più sodomizzato da Cerbert in persona :O
Ah! Che culo! :asd:
...ps: cmq davvero non ho capito a che sanzione si riferisse. :(
Ah! Che culo! :asd:
...ps: cmq davvero non ho capito a che sanzione si riferisse. :(
mi auguro non pecugnaria...
raga... avete trovato in giro altri test???
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.