View Full Version : GeForce 8800 Ultra: prezzi al ribasso
Redazione di Hardware Upg
11-06-2007, 08:37
Link alla notizia: http://www.hwupgrade.it/news/skvideo/21514.html
NVIDIA prepara una riduzione di prezzo delle proprie soluzioni top di gamma quantificata in circa 50 Euro
Click sul link per visualizzare la notizia.
Portocala
11-06-2007, 08:39
dato non sono delle dx10 bensi delle dx9 pompate, meglio aspettare la prossima generazione
JohnPetrucci
11-06-2007, 08:45
dato non sono delle dx10 bensi delle dx9 pompate, meglio aspettare la prossima generazione
Che non siano dx10 scusa, ma è una balla.:O
Che la prossima generazione sarà più prestante anche con i titoli dx10, è il minimo che ci si possa attendere.:O
nfatti aspetto le 8900.....e nn faccio come feci prendendo la 7800gtx..
intanto sono le migliori schede sul mercato da 8 mesi a questa parte. devastanti , rapide e silenziose ;)
cmq hanno prezzi assurdi dai..
ghiltanas
11-06-2007, 08:49
ma tutte le 8800 si abbassano di 50 euro?
se è cosi ciao ciao 2900xt, ma ciao anche 8600. Cacchio una 8800gts a 200-210 euro sarebbe fenomenale.Cmq io aspetto il primo vero banco di prova: Crysis, voglio vedere se in dx10 si comportano bene come in dx9.
le gts per quello che offrono non sono poi cosi assurde come prezzi , poi certo dipende da quanto si vuol spendere. ma di tutte le schede video che ho visto se dovessimo dare un valore alla potenza queste hanno il miglior rapporto...
mica male per essere delle dx9 pompate...almeno vedendo cosa fa la conccorrenza...lol
ghiltanas
11-06-2007, 08:53
anch'io sono un pochino scettico sulle loro prestazioni in dx10, però evitiamo 2000 commenti tutti uguali, del tipo "nn male per essere dx9 pompate". L'avete già provate seriamente su un gioco in dx10 ottimizzato? credo di no e allora aspettate a giudicare
ghiltanas
11-06-2007, 08:55
ma sono solo io che mi prendo l'ati?
nn vedo perchè uno dovrebbe prendersi un'ati.Chi va meglio ora ? nvidia e allora chi ha senno prende nvidia. Nn mi dirai che prendi ati xkè sei un fan-boy?
halduemilauno
11-06-2007, 08:57
nn vedo perchè uno dovrebbe prendersi un'ati.Chi va meglio ora ? nvidia e allora chi ha senno prende nvidia. Nn mi dirai che prendi ati xkè sei un fan-boy?
lo ha scritto in sign.
;)
pinolo79
11-06-2007, 09:06
ma sono solo io che mi prendo l'ati?
mi sa che sei l'unico si... sto giro nvidia è una spanna sopra...
e te lo dice uno che ha sempre avuto solo ati e amd.
se abbassano i prezzi non è che le 8900 sono già quasi pronte???
Joe.Bagheera
11-06-2007, 09:08
Ma che dici Portocala?? Sono state le prime schede DX10 immesse sul mercato... A differenza delle ATI-AMD non hanno gli shader unificati a livello hardware, ma questo non è una caratteristica obbligatoria delle DX10.
phil anselmo
11-06-2007, 09:10
ma sono solo io che mi prendo l'ati?
mah...
guarda io fino alla scorsa generazione preferivo ATi per qualità e forse anche per potenza.
ma oggi come oggi ATi è nettamente dietro a livello prestazionale, di consumi e forse sotto tutti i punti di vista.
inoltre nvidia ha sfatato il mito della scarsa qualità video ed ora ha sfornato delle schede complete a 360°!
mi dispiace ma ATi dovrebbe inventarsi qualcosa :boh:
Ma che dici Portocala?? Sono state le prime schede DX10 immesse sul mercato... A differenza delle ATI-AMD non hanno gli shader unificati a livello hardware, ma questo non è una caratteristica obbligatoria delle DX10.
dai una letta qui :D
http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_3.html
halduemilauno
11-06-2007, 09:11
Ma che dici Portocala?? Sono state le prime schede DX10 immesse sul mercato... A differenza delle ATI-AMD non hanno gli shader unificati a livello hardware, ma questo non è una caratteristica obbligatoria delle DX10.
certo che hanno gli shader unificati.
;)
halduemilauno
11-06-2007, 09:13
mah...
guarda io fino alla scorsa generazione preferivo ATi per qualità e forse anche per potenza.
ma oggi come oggi ATi è nettamente dietro a livello prestazionale, di consumi e forse sotto tutti i punti di vista.
inoltre nvidia ha sfatato il mito della scarsa qualità video ed ora ha sfornato delle schede complete a 360°!
mi dispiace ma ATi dovrebbe inventarsi qualcosa :boh:
ma anche sotto molti punti di XP.
;)
ghiltanas
11-06-2007, 09:19
per il discorso 8900 avevo letto che volevano fare come l'anno scorso e cioè far uscire nel quarto trimestre le proposto top di gamma e nel 2008 le altre fasce.
C'è da dire che per mesi la serie 8800 nn ha avuti rivali e quindi potevano fare come cavolo gli pare, mentre al prossimo giro si spera che ati faccia vera concorrenza a nvidia con r650(se cosi si chiamerà), cossich nvidia sia obbligata ad accelerare i tempi e abbassare i costi.
ghiltanas
11-06-2007, 09:22
già che ci sono vi chiedo una cosa abbastanza pertinente:
la serie 8400 ha il pure video hd? (credo che sia quella tecnologia che riduce il carico di lavoro sul procio durante la riproduzione video), e la 8400 g (quella meno potente) è già + performante del chip intel x3100?
DakmorNoland
11-06-2007, 09:31
mah...
guarda io fino alla scorsa generazione preferivo ATi per qualità e forse anche per potenza.
ma oggi come oggi ATi è nettamente dietro a livello prestazionale, di consumi e forse sotto tutti i punti di vista.
inoltre nvidia ha sfatato il mito della scarsa qualità video ed ora ha sfornato delle schede complete a 360°!
mi dispiace ma ATi dovrebbe inventarsi qualcosa :boh:
AMD offre per 350euro una scheda che va praticamente come una 8800GTX (500euro almeno), driver permettendo. Per il calore sappiamo bene che pure le 8800 scaldano da paura! Per i consumi c'e' una differenza di circa 30W tra la GTX e la 2900, che cmq possono essere alimentate tranquillamente con un Titan che si trova a soli 60euro.
Eh si cavoli! AMD offre propio delle brutte schede! Mi raccomando non compratele! :p
AMD offre per 350euro una scheda che va praticamente come una 8800GTX (500euro almeno), driver permettendo. Per il calore sappiamo bene che pure le 8800 scaldano da paura! Per i consumi c'e' una differenza di circa 30W tra la GTX e la 2900, che cmq possono essere alimentate tranquillamente con un Titan che si trova a soli 60euro.
Eh si cavoli! AMD offre propio delle brutte schede! Mi raccomando non compratele! :p
scusa su quale pianeta vivi? :D
La 2900 va come una GTX? ma dove? Basta guardare un po' di benchmark le prende sonoramente anche da una 8800GTS...
ghiltanas
11-06-2007, 09:38
AMD offre per 350euro una scheda che va praticamente come una 8800GTX (500euro almeno), driver permettendo. Per il calore sappiamo bene che pure le 8800 scaldano da paura! Per i consumi c'e' una differenza di circa 30W tra la GTX e la 2900, che cmq possono essere alimentate tranquillamente con un Titan che si trova a soli 60euro.
Eh si cavoli! AMD offre propio delle brutte schede! Mi raccomando non compratele! :p
ma xkè devi ragionare da fan boy? ati sto giro nn c'ha preso è un dato di fatto, e cmq nn va come una gtx.La rumorosità delle 2900xt è enorme e questo è un altro dato di fatto.Per i consumi ti paiono pochi anche solo 30 w di +? (anche se mi sa sono di +). Inoltre ati ha avuto mesi e mesi per prepararsi bene il lancio, quindi doveva presentarsi già con driver ottimizzati e prestazioni al top.
Skynet*J4F*
11-06-2007, 09:43
quoto ghiltanas... con quei soldi che ci pijeresti la ATI ci fai la GTS640mb che ad alte risoluzioni macina più della hd2900xt e ti rimane pure qualche soldo...
ghiltanas
11-06-2007, 09:45
nessuno mi sa risp alla domanda che ho fatto prima sulla 8400? (mi fareste un favore)
nvidia ha fatto un ottimo lavoro con queste schede, ma i prezzi li abbassano per quali fasce? no perchè se abbassano anche le 640, ci faccio un pensierino :D
buono!
Dite che conviene spendere 160€ per una 8600gts?
scusa su quale pianeta vivi? :D
La 2900 va come una GTX? ma dove? Basta guardare un po' di benchmark le prende sonoramente anche da una 8800GTS...
Infatti diciamo che se la gioca con un 8600GT e qualche volta le prende pure lì.
Siete spettacolari da leggere, diciamo che aiutate a cominciare bene la settimana...
ghiltanas
11-06-2007, 09:50
buono!
Dite che conviene spendere 160€ per una 8600gts?
no a me la serie 8600 nn piace, hanno troppo poca potenza e ho paura che prenderanno delle batoste in ambito dx10. O uno gioca e prende la 8800 gts da 320, o una economica di passaggio in attesa della prossima generazione, io almeno la penso cosi
ghiltanas
11-06-2007, 09:52
Infatti diciamo che se la gioca con un 8600GT e qualche volta le prende pure lì.
Siete spettacolari da leggere, diciamo che aiutate a cominciare bene la settimana...
sensa faccine è dura capire se sei ironico o no, e cmq dove lo sei...
di sicuro nn nella prima riga ......:)
bonzuccio
11-06-2007, 09:55
Che non siano dx10 scusa, ma è una balla.:O
Che la prossima generazione sarà più prestante anche con i titoli dx10, è il minimo che ci si possa attendere.:O
Le 8800 sono false dx10 proprio a livello di architettura,
R600 è molto più orientata alle dx10 per architettura.
Sotto XP una 2900xt per 350 euro da filo da torcere alla gtx anche in dx9 che ne costa molti di più, andatevi a vedere le recensioni sotto xp e con driver beta
la ultra resta una scheda fuori mercato anche a 50 euro in meno
qualcuno è in grado di spiegare il concetto di "dx 9 pompate " ...lol
chi fa uscite del genere probabilmente ha un po di confusione in testa, avete almeno idea di cosa siano le direct x ?
bonzuccio
11-06-2007, 10:03
qualcuno è in grado di spiegare il concetto di "dx 9 pompate " ...lol
chi fa uscite del genere probabilmente ha un po di confusione in testa, avete almeno idea di cosa siano le direct x ?
sono librerie, è un layer software che serve ad impartire comandi alla gpu che dovrebbe avere in hardware i metodi per risolvere i comandi es. geometry shaders
dx9 pompate primo perchè di dx10 in giro c'è poco o niente, pompate perchè sò pompate
sono librerie, è un layer software che serve ad impartire comandi alla gpu che dovrebbe avere in hardware i metodi per risolvere i comandi es. geometry shaders
dx9 pompate primo perchè di dx10 in giro c'è poco o niente, pompate perchè sò pompate
ma ne sei sicuro...? :mbe:
Le 8800 sono false dx10 proprio a livello di architettura,
R600 è molto più orientata alle dx10 per architettura.
Sotto XP una 2900xt per 350 euro da filo da torcere alla gtx anche in dx9 che ne costa molti di più, andatevi a vedere le recensioni sotto xp e con driver beta
la ultra resta una scheda fuori mercato anche a 50 euro in meno
LOL infatti si vede la 2900 nei bench dx10 com'è orientata...
bonzuccio
11-06-2007, 10:06
ne sono sicuro.. potrei aver peccato di mancanza di precisione ma cosa è una libreria più o meno lo so..
Ma nessuno ha già una 2900 di ATi ? sono andato nella sessione schede video dove mi aspettavo un post tipo: "ATI 2900XT HD ARRIVATA!"... e invece nulla... giusto per capire le reali prestazioni di questo aggeggio...
ciao
Mc®.Turbo-Line
11-06-2007, 10:12
Se ho capito bene e' solo la 8800 ultra a calare di prezzo, o sbaglio?
ne sono sicuro.. potrei aver peccato di mancanza di precisione ma cosa è una libreria più o meno lo so..
Già una persona che dice: "sono delle dx9 pompate" porta con se argomentazioni di poco conto.. Ogni scheda video di nuova generazione è per forza di cose una versione che va a migliore prestazionalmente (il vostro pompare) una caratteristica della generazione precedente. Vorrei anche vedere che non fosse così!
Quindi piantiamola di dire che sono semplicemente delle dx9 pompate e false architetture dx10. Rispecchiano ogni standard richiesto dall'attuale architettura dx10? SONO DX10.
Il tuo concetto di libreria è sbagliato.. I driver creano una macchina virtuale di chiamate di sistema che le directx possono invocare ad alto livello. I driver passando dal bios poi trasformeranno le chiamate in comandi a basso livello.
Quindi le directx non toccano la gpu.. Non sanno neanche cosa sia.. Altrimenti ci vorrebbero directx diverse per ogni processore grafico prodotto.
ghiltanas
11-06-2007, 10:38
quelli che dicono dx9 pompate e false dx10 probabilmente hanno in testa già le dx10.1. Che però è solo un'ottimizazzione delle attuale librerie.Un'altra cosa: con che credete che facciano girare crysis per i test attualmente? credo proprio con le 8800 che quindi sono dx10 (e lo sono xkè come già detto rispettano tutti i requisiti imposti dalle nuove librerie: shader unificati, geometry shader ecc..).
mah...
guarda io fino alla scorsa generazione preferivo ATi per qualità e forse anche per potenza.
ma oggi come oggi ATi è nettamente dietro a livello prestazionale, di consumi e forse sotto tutti i punti di vista.
inoltre nvidia ha sfatato il mito della scarsa qualità video ed ora ha sfornato delle schede complete a 360°!
mi dispiace ma ATi dovrebbe inventarsi qualcosa :boh:
Concordo in toto, anch'io prima della serie 8xxx di nvidia preferivo le ati, non tanto come forza bruta ma come qualità di immagine, ora dovessi cambiare Sv non ci penserei un attimo a prendere una 8800 gts.
desmacker
11-06-2007, 10:44
Per la 8800ultra 50€ in meno,che sforzo che hanno fatto.
Con quello che consuma avrebbero dovuto arrivare almeno a 100€,meglio risparmiare i soldi ed investirli nella 8900gtx.:D
bonzuccio
11-06-2007, 10:44
è vero, tra librerie e gpu ci sono i driver che traducono la chiamata in qualcosa di comprensibile a basso livello alla gpu.. quindi i driver hanno un ruolo fondamentale
specie quando le librerie sono dx9 e la gpu è dx10
dire che una scheda è dx10 compliant significa che rispetta le caratteristiche richieste per esserlo
ma è anche vero che può esserlo in modo più o meno efficiente, questo dipende dai driver e dall'architettura della gpu
è vero, tra librerie e gpu ci sono i driver che traducono la chiamata in qualcosa di comprensibile a basso livello alla gpu.. quindi i driver hanno un ruolo fondamentale
specie quando le librerie sono dx9 e la gpu è dx10
dire che una scheda è dx10 compliant significa che rispetta le caratteristiche richieste per esserlo
ma è anche vero che può esserlo in modo più o meno efficiente, questo dipende dai driver e dall'architettura della gpu
Si ma il punto è che allo stato attuale anche nei test dx10 le 2900 stanno dietro...
Si ma il punto è che allo stato attuale anche nei test dx10 le 2900 stanno dietro...
I test attuali non sono test veritieri. Tutti i test attuali sono semplicemente l'appliacazione di un layer di effetti dx10 su un motore ideato quando esistevano le dx9.
I test vanno eseguiti su codice scritto da zero e ottimizzato da zero su dx10.
I test attuali non sono test veritieri. Tutti i test attuali sono semplicemente l'appliacazione di un layer di effetti dx10 su un motore ideato quando esistevano le dx9.
I test vanno eseguiti su codice scritto da zero e ottimizzato da zero su dx10.
Quindi valuteremo tra due anni circa l'effettivo valore delle 8800 e di R600 in Dx10. Ci vediamo nel 2009...
@taz83
di sicuro tra 12 mesi ATI avrà messo a posto i drv e grazie ai giochi veri in dx10 sarà la sk video più veloce del reame per i prossimi 10 anni .... fate spaccare dal ridere.. looool
bonzuccio
11-06-2007, 11:22
Si ma il punto è che allo stato attuale anche nei test dx10 le 2900 stanno dietro...
In ati hanno scelto di fare prima la cosa più difficile, cioè migliorare le prestazioni in dx9 con xp che praticamente è lo scenario preponderante del pc di chi gioca
quando usciranno i primi giochi in dx10 allora lo sviluppo driver si concentrerà di più su quel lato,
d'altronde vedere anche una gtx far andare un gioco dx10 a 30fps a risoluzioni basse fa cadere le braccia e pensare che si è ancora lontani
visto anche che il proposito delle dx10 è proprio quello di mettere in mano ai developer strumenti e metodi che aumenteranno le prestazioni e non che le diminuiranno
bonzuccio
11-06-2007, 11:33
@taz83
di sicuro tra 12 mesi ATI avrà messo a posto i drv e grazie ai giochi veri in dx10 sarà la sk video più veloce del reame per i prossimi 10 anni .... fate spaccare dal ridere.. looool
di sicuro sarà più longeva di G80, perlomeno adesso come adesso secondo me l'investimento migliore è o puntare su una gts da 320 mb mettendo sul piatto non un capitale ma una cifra giusta o scommettere su R600.. che poi con ati chi ha scommesso ha sempre scommesso bene..
in questo senso secondo me una Ultra è la estremizzazione del concetto di buttare nel water il proprio denaro..
a meno che non decido di disfarmene presto (mollando la patata bollente a qualcun altro)
@taz83
di sicuro tra 12 mesi ATI avrà messo a posto i drv e grazie ai giochi veri in dx10 sarà la sk video più veloce del reame per i prossimi 10 anni .... fate spaccare dal ridere.. looool
il tuo intervento lascia il tempo che trova visto che non ho espresso nessun favoritismo ma solo dati di fatto.. sei un fanboy o semplicemente incapace di leggere?
ahahahaha troppo lool :sbonk:
si sono fanboy del portafoglio.... per me se domani fallissero nvidia o AMD-ATI non cambia nulla basta che qualcuno mandi avanti il processo tecnologico.. siete voi che avete i prosciutto sugli occhi....
ahahahaha troppo lool
contento tu..
grazie per il tuo apporto al thread :)
sono librerie, è un layer software che serve ad impartire comandi alla gpu che dovrebbe avere in hardware i metodi per risolvere i comandi es. geometry shaders
dx9 pompate primo perchè di dx10 in giro c'è poco o niente, pompate perchè sò pompate
è il driver che impartisce ordini alla gpu nessuno può parlare con essa se non prima aver interpellato il driver :D le dx infatti parlano con i driver :Prrr:
ma come sempre arrivo in ritardo!!! sigh...
Quindi valuteremo tra due anni circa l'effettivo valore delle 8800 e di R600 in Dx10. Ci vediamo nel 2009...
Non è detto dai.. Ormai le specifiche dx10 son in giro da 2 anni e le vga di testing da 1 anno.. Già con Crysis e i giochi che usciranno ad inizio 2008 penso che vedremo titoli veramente dx10.
Resta il fatto che per ora possiamo valutare veramente le vga solo in dx9 e in quella nvidia è preferibile sotto praticamente ogni aspetto.
piperprinx
11-06-2007, 12:46
Non è detto dai.. Ormai le specifiche dx10 son in giro da 2 anni e le vga di testing da 1 anno.. Già con Crysis e i giochi che usciranno ad inizio 2008 penso che vedremo titoli veramente dx10.
per quando ci sara' un numero decente di giochi DX10 ci sara' una nuova generazione di schede....
in questo thread ci sono interventi davvero desolanti...
chi dice che le nuove ati sono al pari delle nvidia(quando il 99% dei siti al mondo ha accolto la nuova serie ati con freddezza per non dire sconcerto),chi parla di schede pompate dx10(ma che cavolo vuol dire???mi fa girare i giochi VELOCEMENTE in dx10? bene...dentro ci possono essere pure i criceti)...
è proprio impossibile riconoscere che a questo giro ati ha toppato per vari motivi(mancanza uvd,prestazioni,calore e consumo RIDICOLI)?
è un dato di fatto, speriamo nella prossima tornata...altrimenti fanno la fine di 3dfx.
I test attuali non sono test veritieri. Tutti i test attuali sono semplicemente l'appliacazione di un layer di effetti dx10 su un motore ideato quando esistevano le dx9.
I test vanno eseguiti su codice scritto da zero e ottimizzato da zero su dx10.
quindi fammi capire...compro oggi una scheda che per ora consuma solo un botto e fa un casino per poi fra un anno o piu, FORSE avere qualche frame in piu in dx10 e quindi eguagliare la 8800gtx?
quando si avvererà sta cosa ci saranno schede ben migliori sotto tutti i punti di vista spero.
di sicuro sarà più longeva di G80, perlomeno adesso come adesso secondo me l'investimento migliore è o puntare su una gts da 320 mb mettendo sul piatto non un capitale ma una cifra giusta o scommettere su R600.. che poi con ati chi ha scommesso ha sempre scommesso bene..
in questo senso secondo me una Ultra è la estremizzazione del concetto di buttare nel water il proprio denaro..
a meno che non decido di disfarmene presto (mollando la patata bollente a qualcun altro)
:eek: :eek: :eek: :eek:
cioè dove sono le basi di realtà di queste affermazioni????
la sfera di cristallo?
cioè scommettere su r600???perche cosi ati ottimizzerà i drivers vero?
e nvidia invece starà a guardare?
DakmorNoland
11-06-2007, 13:14
quindi fammi capire...compro oggi una scheda che per ora consuma solo un botto e fa un casino per poi fra un anno o piu, FORSE avere qualche frame in piu in dx10 e quindi eguagliare la 8800gtx?
quando si avvererà sta cosa ci saranno schede ben migliori sotto tutti i punti di vista spero.
Beh intanto hai risparmiato 150€ per l'upgrade successivo! :)
Beh intanto hai risparmiato 150€ per l'upgrade successivo! :)
scusa allora ti fai una 1950pro spendi 130 euro e risparmi ancora di piu per l'upgrade successivo :)
halduemilauno
11-06-2007, 13:23
di sicuro sarà più longeva di G80, perlomeno adesso come adesso secondo me l'investimento migliore è o puntare su una gts da 320 mb mettendo sul piatto non un capitale ma una cifra giusta o scommettere su R600.. che poi con ati chi ha scommesso ha sempre scommesso bene..in questo senso secondo me una Ultra è la estremizzazione del concetto di buttare nel water il proprio denaro..
a meno che non decido di disfarmene presto (mollando la patata bollente a qualcun altro)
addirittura di sicuro
sempre scommesso bene. come quelli che si son fatti la 1800 per non parlare poi della 2900.
:boh:
MiKeLezZ
11-06-2007, 13:36
buono!
Dite che conviene spendere 160€ per una 8600gts?Dipende che scheda hai ora, se hai una 7800/7900 non conviene per niente
speriamo escano presto le nuove 8900, piuttosto, e che vi siano 128 stream p. anche sull'offerta medio gamma.... purtroppo da una early roadmap sembra che il refresh delle vga sia in realtà solo una riallocazione dei prezzi, senza nuove fuoriclassi!
halduemilauno
11-06-2007, 13:43
buono!
Dite che conviene spendere 160€ per una 8600gts?
ottimo prezzo. che scheda hai ora?
;)
bonzuccio
11-06-2007, 14:05
:eek: :eek: :eek: :eek:
cioè dove sono le basi di realtà di queste affermazioni????
la sfera di cristallo?
cioè scommettere su r600???perche cosi ati ottimizzerà i drivers vero?
e nvidia invece starà a guardare?
Ma quale sfera.. a ogni uscita dei drivers per ati corrisponderà un calo dei prezzi lato nvidia :read:
questa sotto la situazione a un po di tempo fa.. con le rece
http://www.hwupgrade.it/forum/showpost.php?p=17387715&postcount=64
bonzuccio
11-06-2007, 14:06
sprot.. doppio post
quindi fammi capire...compro oggi una scheda che per ora consuma solo un botto e fa un casino per poi fra un anno o piu, FORSE avere qualche frame in piu in dx10 e quindi eguagliare la 8800gtx?
quando si avvererà sta cosa ci saranno schede ben migliori sotto tutti i punti di vista spero.
?
va che mica sto difendendo ATi dicendo che non si possono comparare ora in dx10 sperando i quali miracoli dei driver (anche perchè al massimo sono un fanboy Nvidia.. ma propri ati no di certo).. ATi ha floppato e nessuno può cambiare la cosa a livello software.
resta il fatto che test in dx10 su entrambe le architetture è inutile farle.. questa generazione si userà solo per giochi dx9.
Se un hardware è dx10 compliant perchè non si può usare per le dx10 ?
bonzuccio
11-06-2007, 14:19
?
va che mica sto difendendo ATi dicendo che non si possono comparare ora in dx10 sperando i quali miracoli dei driver (anche perchè al massimo sono un fanboy Nvidia.. ma propri ati no di certo).. ATi ha floppato e nessuno può cambiare la cosa a livello software.
:asd: ma l'hardware senza software è ferraglia, la potenza è nulla senza controllo, si può paragonare r600 ad una maserati che ha le ruote di una fiat bravo..
non è che se tu e qualcunaltro dite flop nessuno può farci niente :asd:
halduemilauno
11-06-2007, 14:22
:asd: ma l'hardware senza software è ferraglia, la potenza è nulla senza controllo, si può paragonare r600 ad una maserati che ha le ruote di una fiat bravo..
non è che se tu e qualcunaltro dite flop nessuno può farci niente :asd:
certo che si. basta presentare un mese dopo un'altra scheda e sperare che quest'ultima vada di più. e cosi via.
bonzuccio
11-06-2007, 14:26
Preferisco avere una scheda che dura qualche anno e che si presenta promettente e su cui ci lavorano a livello software per spremerla a dovere, una scheda dopo l'altra abbassa il valore dei nostri soldi e delle nostre spese.. mica devo lavorare io per giocare ma gli altri :P
:asd: ma l'hardware senza software è ferraglia, la potenza è nulla senza controllo, si può paragonare r600 ad una maserati che ha le ruote di una fiat bravo..
non è che se tu e qualcunaltro dite flop nessuno può farci niente :asd:
si e io vorrei una panda che facessi i 100km con un litro solo aggiornando la centralina..
se l'hardware non è all'altezza della concorrenza puoi scrivere i driver quanto vuoi ma più che una piccola percentuale di guadagno non avrai mai.. puoi mica emulare l'hardware con software :D
Se un hardware è dx10 compliant perchè non si può usare per le dx10 ?
per colpa del mercato del software.. se non ci sono programmi scritti in dx10 nativo per questa generazione la colpa non è di nvidia ne di ati.
Portocala
11-06-2007, 14:37
Se un hardware è dx10 compliant perchè non si può usare per le dx10 ?
finora, nei test con i vari applicativi demo dx10, le schede a malapena garantisco no 35fps a 1280x1024 senza filtri, a volte anche a 1024x768.
quanto pensi che miglioreranno sti drivers? talmente da avere un frame decente a 1600x1200? ne dubito
bonzuccio
11-06-2007, 14:38
si e io vorrei una panda che facessi i 100km con un litro solo aggiornando la centralina..
se l'hardware non è all'altezza della concorrenza puoi scrivere i driver quanto vuoi ma più che una piccola percentuale di guadagno non avrai mai.. puoi mica emulare l'hardware con software :D
Piccolo particolare che una 2900 non è paragonabile a una panda.. quindi il concetto crolla come un castello di carte..
se pensi al contrario e cioè a una ferrari con la centralina di una panda allora il discorso si rigira,
e non è questione di punti di vista purtroppo
sono stanco di vedere schede che consumano 300W e non vengono sfruttate, le dx10 servono a questo..
l'unica cosa buona fatta da microsoft affossata dalla sete di denaro di chi fa uscire una architettura all'anno.. direi basta
Piccolo particolare che una 2900 non è paragonabile a una panda.. quindi il concetto crolla come un castello di carte..
illuditi pure.. ormai resenti il fanboysmo difendendo ati..
bonzuccio
11-06-2007, 14:45
illuditi pure.. ormai resenti il fanboysmo difendendo ati..
ma questo non toglie che il mio non è un discorso da fanboy, dire che la 2900 è come una panda mi sembra non veritiero
è vero il contrario, non esistono parole magiche tipo "flop", "fanboy" che obnubliano le menti degli interlocutori.. non hai questi poteri mi spiace
Io ho provato la 8800 GTX con LOST[quel gioco demo non ricordo perfettamente il titolo] e sebbene mi faccia 38-45 fps [1280x1024] va liscio che è uno spettacolo..poi non so!Pensate che STALKER occasionalmente rallenta..diamine!
ninja750
11-06-2007, 15:32
certo che visto il prezzo retail della ULTRA queste 50€ in meno fanno ridere
ma questo non toglie che il mio non è un discorso da fanboy, dire che la 2900 è come una panda mi sembra non veritiero
è vero il contrario, non esistono parole magiche tipo "flop", "fanboy" che obnubliano le menti degli interlocutori.. non hai questi poteri mi spiace
pensala come vuoi.. se avessi voluto paragonare la x2900 per velocità al panda avrei detto "farla andare a 300 all'ora riprogrammando la centralina".. visto che il paragone fatto riguarda un aspetto di una qualsiasi automobile se dicessi vorrei che la mia bmw grazie ad una riprogrammazione della centralina facesse più 100km con un litro il tuo orgoglio ati ne soffrirebbe meno?
a me che vinca ati o nvidia, che tu compri ati o nvidia, che vendano o meno non cambia nulla.. a me non entra una lira..
haveacigar
11-06-2007, 16:15
ma dai ora come ora dire che la 2900 è una scheda decente è come dire che il sole gira attorno alla terra......
bisogna essere sotto lsd per dire una cosa del genere
La hd 2900 xt è una toppata storica...ha consumi eccessivi,è rumorosa,scalda troppo e ha prestazioni mediocri considerando la data di lancio..
cmq ben venga la diminuzione del prezzo della 8800 ultra...anche se onestamente penso che attualmente la scheda più conveniente sia la 8800 gts 640....
leoneazzurro
11-06-2007, 16:55
Vogliamo evitare di riproporre le solite diatribe inutili?
E soprattutto, evitiamo i commentini come:
bisogna essere sotto lsd per dire una cosa del genere
Altrimenti comincio ad arrabbiarmi.
haveacigar
11-06-2007, 17:16
Vogliamo evitare di riproporre le solite diatribe inutili?
E soprattutto, evitiamo i commentini come:
bisogna essere sotto lsd per dire una cosa del genere
Altrimenti comincio ad arrabbiarmi.
era solo una frase un pò vivace (lo ammetto) per indicare che si deve essere forniti di una fervida fantasia per riuscire a resistere al fascino inevitabile della realtà.....
leoneazzurro
11-06-2007, 17:21
Beh, evitiamole, visto che l'unica cosa che si può far nascere dai commenti "vivaci" sono i flames.
Samuele86
12-06-2007, 00:03
già attendete...e non rompete ehheeh con sto fatto del pompate o non pompate...
la cosa buffa è che quei test su dinoxPC (che poi sono relativi alla sparkle 880+ e non a una 2900 HD) evidenziano quanto la 2900 vada bene solamente senza filtri:D
infatti nei primi test senza AA è sempre tra i primi posti se non prima, appena si attiva AA crolla inesorabilmente, quindi se a uno piacciono le linee trateggiate sembra ideale:D
P.S: sarebbe bello che la favola dei driver fosse vera... ma dovrebbe essere evidente che i driver in dx10 non sono maturi x entrambe le architetture come non lo sono gli engine grafici finora testati quindi quei test non hanno valenza, x quanto riguarda i driver dx9 su XP anche li si può sperare solamente in miracoli
e poi secondo me presentare una scheda video con 8 mesi di ritardo sulla concorenza con driver acerbi (se fosse così vero) vorrebbe dire una IMMENSA lacuna, non un motivo per acquistarla sperando in miracoli
leoneazzurro
12-06-2007, 09:42
La questione dei drivers E' vera, forse semplicemente non si riesce a capire quanto possa essere difficile programmare un'architettura del genere, molto più difficile che non con il G80, per diverse ragioni tecniche che sono state spiegate più volte (dipendenza dal compilatore per assicurare l'efficienza di unità strutturate in 5D superscalare come quelle di R600, dipendenza dai drivers per l'ottimizzazione dei flussi di dati sul ring bus, ecc. ecc).
Magari giova anche ricordarsi che al lancio le 8800 non avevano drivers eccezionali neppure loro, ma dovendosi confrontare unicamente con schede della passata generazione ovviamente brillavano, o meglio brillava la GTX, dato che al lancio in parecchi casi la 8800 GTS si trovava al livello di una X1950XTX, mentre ora si vede che è su un livello superiore (come mai? magari perchè sono usciti drivers affinati? Perchè i nuovi giochi la mettono maggiormente in luce?).
Esempio di casi in cui la 8800 GTS non brillava (e in alcuni casi, come Splinter Cell Chaos Theory, non brilla ancora):
http://www.hwupgrade.it/articoli/skvideo/1608/geforce-8800-gtx-e-gts-la-proposta-asus_6.html
http://www.hwupgrade.it/articoli/skvideo/1608/geforce-8800-gtx-e-gts-la-proposta-asus_8.html
http://www.hwupgrade.it/articoli/skvideo/1608/geforce-8800-gtx-e-gts-la-proposta-asus_9.html
http://www.hwupgrade.it/articoli/skvideo/1608/geforce-8800-gtx-e-gts-la-proposta-asus_10.html
Tutto questo su una scheda meno "difficile" da programmare di una R600.
Con questo non voglio dire che ci saranno miracoli, tuttavia è possibilissimo che le nuove release dei drivers posizionino definitivamente R600 tra le GTS e le GTX, in directX 9, mentre in DirectX10 è ancora presto per fare qualunque discorso perchè bisognerà vedere prima un numero decente di applicazioni in giro, quale sarà la direzione che prenderà lo sviluppo del software, il supporto a determinate features delle schede.
bonzuccio
12-06-2007, 10:30
ok ti ringrazio leone, comunque si vede come l'autorevolezza che viene da sincero rispetto sia un di più che fa risparmiare grandi fatiche e inca**ure.. sarà un mese che cerco di dire la stessa cosa :muro:
ghiltanas
12-06-2007, 11:21
La questione dei drivers E' vera, forse semplicemente non si riesce a capire quanto possa essere difficile programmare un'architettura del genere, molto più difficile che non con il G80, per diverse ragioni tecniche che sono state spiegate più volte (dipendenza dal compilatore per assicurare l'efficienza di unità strutturate in 5D superscalare come quelle di R600, dipendenza dai drivers per l'ottimizzazione dei flussi di dati sul ring bus, ecc. ecc).
Magari giova anche ricordarsi che al lancio le 8800 non avevano drivers eccezionali neppure loro, ma dovendosi confrontare unicamente con schede della passata generazione ovviamente brillavano, o meglio brillava la GTX, dato che al lancio in parecchi casi la 8800 GTS si trovava al livello di una X1950XTX, mentre ora si vede che è su un livello superiore (come mai? magari perchè sono usciti drivers affinati? Perchè i nuovi giochi la mettono maggiormente in luce?).
Esempio di casi in cui la 8800 GTS non brillava (e in alcuni casi, come Splinter Cell Chaos Theory, non brilla ancora):
http://www.hwupgrade.it/articoli/skvideo/1608/geforce-8800-gtx-e-gts-la-proposta-asus_6.html
http://www.hwupgrade.it/articoli/skvideo/1608/geforce-8800-gtx-e-gts-la-proposta-asus_8.html
http://www.hwupgrade.it/articoli/skvideo/1608/geforce-8800-gtx-e-gts-la-proposta-asus_9.html
http://www.hwupgrade.it/articoli/skvideo/1608/geforce-8800-gtx-e-gts-la-proposta-asus_10.html
Tutto questo su una scheda meno "difficile" da programmare di una R600.
Con questo non voglio dire che ci saranno miracoli, tuttavia è possibilissimo che le nuove release dei drivers posizionino definitivamente R600 tra le GTS e le GTX, in directX 9, mentre in DirectX10 è ancora presto per fare qualunque discorso perchè bisognerà vedere prima un numero decente di applicazioni in giro, quale sarà la direzione che prenderà lo sviluppo del software, il supporto a determinate features delle schede.
puoi anche avere ragione sul disc driver (io cmq sono uno di quelli che nn crede al miracolo) questo però è secondo me un aggravante per ati, xkè scusa nn solo ti presenti con mesi di ritardo ma lanci una sola vga, trall'altro ne di fascia alta per vedere le reali prestazioni, ne di fascia media per guadagnare , con i driver immaturi ( se è davvero cosi):muro: :muro: . Per concludere ciliegina sulla torta, nn metti l'uvd sulla 2900 con la patetica scusa che chi si compra quella scheda la abbina a un super procio....
bonzuccio
12-06-2007, 11:27
no, il motivo è che una scheda della potenza della 2900 non ha bisogno di un chip dedicato per le decodifiche, quello serve per la fascia medio bassa
il ritardo è dovuto a svariati motivi: acquisizione, oggettiva difficoltà di far funzionare questa architettura in dx9, ritardo oggettivo nel passaggio da xp a vista per i videogiocatori
ghiltanas
12-06-2007, 11:32
l'uvd serve per sgravare gran parte del carico sul processore durante la riproduzione di flussi video in hd, e la 2900 senza nn credo possa farlo.Cmq io ovviamente spero che l'ati si rialzi in fretta a tutto vantaggio dei consumatori e che lo faccia per settembre ottobre con una nuova architettura (visto che io devo cambiare la mia vga...e pensare che a marzo l'avevo presa come vga di passaggio per la fascia media nvidia :cry: )
DakmorNoland
12-06-2007, 11:48
l'uvd serve per sgravare gran parte del carico sul processore durante la riproduzione di flussi video in hd, e la 2900 senza nn credo possa farlo.Cmq io ovviamente spero che l'ati si rialzi in fretta a tutto vantaggio dei consumatori e che lo faccia per settembre ottobre con una nuova architettura (visto che io devo cambiare la mia vga...e pensare che a marzo l'avevo presa come vga di passaggio per la fascia media nvidia :cry: )
Ha cmq la funzione VIVO, e visto il processore video strapotente non ha bisogno dell'uvd, cioe' di un altro procio dedicato all'acquisizione. :)
Non per dire una cavolata ma vista la potenza la 2900 sgrava la CPU esattamente come le schede dotate di uvd se non meglio!
e visto il processore video strapotente non ha bisogno dell'uvd, cioe' di un altro procio dedicato all'acquisizione. :)
no, il motivo è che una scheda della potenza della 2900 non ha bisogno di un chip dedicato per le decodifiche
Peccato che nelle nuove roadmap diffuse per R650 l'udv sulla fascia top di gamma sia miracolosamente riapparso.. Lo avranno messo solo per far aumentare i costi, il consumo, e la complessità visto che R600 può fare tutto direttamente la gpu grazie alla sua grande parallelità?
bonzuccio
12-06-2007, 12:21
Sarà riapparso perchè l'universal video decoding può essere fatto via shader, poi se ci mettono un chip sarà per scaricare meno codice quando aggiorniamo i driver :)
Sarà riapparso perchè l'universal video decoding può essere fatto via shader, poi se ci mettono un chip sarà per scaricare meno codice quando aggiorniamo i driver :)
Ho più l'impressione che con l'attuale tecnlogia a 80mn e il consumo attuale sarebbe stato praticamente impossibile integrarlo direttamente senza far slittare ulteriormente il progetto.
bonzuccio
12-06-2007, 12:33
Ma non lo metteranno secondo me, è come mettere anche i pedali a una porsche
MiKeLezZ
12-06-2007, 12:40
Il discorso driver non ha alcun senso, uno compra la scheda per quello che attualmente offre, non per quello che POTREBBE offrire.
Nel campo hardware è ben noto che fra 6 mesi vi sarà una soluzione che costa uguale e va il 20% in più, percui se si è disposti ad avere qualcosa nel futuro, è più intelligente non comprare affatto.
Inoltre se parliamo di ottimizzazione driver io do certamente più fiducia a NVIDIA, basti pensare all'incremento che hanno avuto le 8800 (nello stesso Splinter Cell), al PureVideo che release dopo release è riuscito, da posizione di netto svantaggio, a superare l'AVIVO, ai driver LINUX, ai driver Vista, disponibili dal day-one.
Al limite, se proprio i fanatici ATI non riescono a tenere la bocca chiusa, se ne potrebbe riparlare fra 3 mesi, quando presumibilmente i driver saranno maturi (anche se sono certo che ci sarà la solita scusa), inutile farlo ora o anche nell'immediato futuro (diversi set di driver sono usciti per ATI, e non mi pare sia cambiato un bel niente, o quasi).
Infine, il filtro Anti-Aliasing che porta a pesanti decrementi prestazionali non sarà, molto semplicemente, MAI FIXABILE VIA DRIVER...
Il discorso driver non ha alcun senso, uno compra la scheda per quello che attualmente offre, non per quello che POTREBBE offrire.
Nel campo hardware è ben noto che fra 6 mesi vi sarà una soluzione che costa uguale e va il 20% in più, percui se si è disposti ad avere qualcosa nel futuro, è più intelligente non comprare affatto.
Inoltre se parliamo di ottimizzazione driver io do certamente più fiducia a NVIDIA, basti pensare all'incremento che hanno avuto le 8800 (nello stesso Splinter Cell), al PureVideo che release dopo release è riuscito, da posizione di netto svantaggio, a superare l'AVIVO, ai driver LINUX, ai driver Vista, disponibili dal day-one.
Al limite, se proprio i fanatici ATI non riescono a tenere la bocca chiusa, se ne potrebbe riparlare fra 3 mesi, quando presumibilmente i driver saranno maturi (anche se sono certo che ci sarà la solita scusa), inutile farlo ora o anche nell'immediato futuro (diversi set di driver sono usciti per ATI, e non mi pare sia cambiato un bel niente, o quasi).
Quoto completamente tutto.
Ma non lo metteranno secondo me, è come mettere anche i pedali a una porsche.
La Porsche la vedi solo tu e pochi altri.. Io vedo il prodotto per quello che è.. Una pessima scelta d'acquisto attuale e futura (purtroppo).
leoneazzurro
12-06-2007, 13:09
puoi anche avere ragione sul disc driver (io cmq sono uno di quelli che nn crede al miracolo) questo però è secondo me un aggravante per ati, xkè scusa nn solo ti presenti con mesi di ritardo ma lanci una sola vga, trall'altro ne di fascia alta per vedere le reali prestazioni, ne di fascia media per guadagnare , con i driver immaturi ( se è davvero cosi):muro: :muro: . Per concludere ciliegina sulla torta, nn metti l'uvd sulla 2900 con la patetica scusa che chi si compra quella scheda la abbina a un super procio....
Non ho parlato di miracoli, ho parlato di miglioramente prestazionali, magari anche netti in taluni giochi, e molto risicati se non nulli in altri. Comunque il discorso fondamentale è che ATI non poteva aspettare ancora per lanciare la scheda, ha atteso che si raggiungesse un "sufficiente" livello che permettesse di lanciare la scheda. Che i drivers siano immaturi si vede non solo dalle prestazioni (che in alcuni casi sono inferiori o sul livello di una X1950XT pur non essendoci un solo campo nel quale R600 sia inferiore) ma anche dai numerosissimi bugs con diversi giochi. Sull'UVD mi pronuncio di seguito.
l'uvd serve per sgravare gran parte del carico sul processore durante la riproduzione di flussi video in hd, e la 2900 senza nn credo possa farlo.Cmq io ovviamente spero che l'ati si rialzi in fretta a tutto vantaggio dei consumatori e che lo faccia per settembre ottobre con una nuova architettura (visto che io devo cambiare la mia vga...e pensare che a marzo l'avevo presa come vga di passaggio per la fascia media nvidia :cry: )
Io sinceramente sono stato piuttosto deluso non tanto dalla mancanza dell'UVD (che ci può anche stare, per diverse ragioni di marketing, come concorrenza insegna) quanto dalla poca chiarezza che è stata fatta sulla sua presenza o meno. Solo adesso ci sono notizie ufficiali da AMD, mentre ci sarebbe dovuta essere da subito maggiore chiarezza, direttamente al lancio.
Per quanto riguarda l'architettura, la base sarà quella di R600, bisogna invece che ATI si impegni a risolvere i problemi dovuti ai punti deboli di R600 (bassa capacità di filtraggio rispetto a G80) e dei drivers (compilatore, scheduling).
Il discorso driver non ha alcun senso, uno compra la scheda per quello che attualmente offre, non per quello che POTREBBE offrire.
Nel campo hardware è ben noto che fra 6 mesi vi sarà una soluzione che costa uguale e va il 20% in più, percui se si è disposti ad avere qualcosa nel futuro, è più intelligente non comprare affatto.
Inoltre se parliamo di ottimizzazione driver io do certamente più fiducia a NVIDIA, basti pensare all'incremento che hanno avuto le 8800 (nello stesso Splinter Cell), al PureVideo che release dopo release è riuscito, da posizione di netto svantaggio, a superare l'AVIVO, ai driver LINUX, ai driver Vista, disponibili dal day-one.
Al limite, se proprio i fanatici ATI non riescono a tenere la bocca chiusa, se ne potrebbe riparlare fra 3 mesi, quando presumibilmente i driver saranno maturi (anche se sono certo che ci sarà la solita scusa), inutile farlo ora o anche nell'immediato futuro (diversi set di driver sono usciti per ATI, e non mi pare sia cambiato un bel niente, o quasi).
Infine, il filtro Anti-Aliasing che porta a pesanti decrementi prestazionali non sarà, molto semplicemente, MAI FIXABILE VIA DRIVER...
Non a caso ATI ha posizionato la scheda in modo tale che potesse essere appetibile per una parte di pubblico da subito e non dopo 6 mesi quando forse sarà disponibile un refresh.
A parte che caschi male nel caso pensassi che il sottoscritto sia un fanatico ATI (e con che diritto dici agli altri di "tenere la bocca chiusa", ma per stavolta soprassediamo), dato che nella stragrande maggioranza dei casi ho posseduto e possiedo nvidia, compresa la malaugurata serie 5, ma sei sicuro di quello che dici?
Stai paragonando una soluzione che è uscita da non 6, ma da 8 mesi, con una che ha neanche un mese sulle spalle, e che è più difficile da programmare di qualunque architettura finora uscita (quanti set di drivers sono usciti per ATI e quanti per G80 dall'uscita?). Ancora oggi escono driver con miglioramenti prestazionali per R520-R580, figuriamoci se la situazione per R600 non migliorerà.
Ma lo dico chiaramente, per avere drivers che riescano a sfruttare decentemente R600 serviranno non 3 mesi, ma dai 6 mesi all'anno. Se poi convenga o meno attendere questo periodo di tempo è un fattore soggettivo, in ogni caso la scheda ha una sua, pur limitata, competitività.
Il discorso dell'AA può anche essere condivisibile, tuttavia è stato calcolato che nel peggiore dei casi possibili la potenza sottratta agli shaders è inferiore al 10%, ma complica lo scheduling (e qui si rtorna al problema della complessa ottimizzazione dei drivers).
Poi personalmente se dovessi acquistare una scheda non penserei mai alle 2900XT, non tanto per il discorso drivers/prestazioni, quanto per consumi e costi, al di fuori di quello che io considero ragionevole per una VGA, nè comunque ne consiglierei l'acquisto in presenza di soluzioni più mature ed anche in certi casi più economiche.
Nè d'altra parte ne sconsiglierei l'acquisto, essendo comunque la soluzione allineata a ciò che è offerto dal mercato in una certa fascia di prezzo.
Tralascio il resto della propaganda pro-nvidia, ricordandoti che i drivers del day 1 per G80 per Vista sono forse questi:
http://punto-informatico.it/p.aspx?id=1882549
genoaole
12-06-2007, 14:40
Io ho avuto la fortuna di provare prima di acquistare e devo dire che le 8800 gts in sli che possiedo fanno sì che sia con vista che con xp tutto giri alla perfezione. per quanto riguarda la ati, mi dispiace ho sempre acquistato le loro schede ma a sto giro dopo averci sbattutto il naso mi sono dovuto arrendere alla supremazia nvidia..
MiKeLezZ
12-06-2007, 16:29
Non ho parlato di miracoli, ho parlato di miglioramente prestazionali, magari anche netti in taluni giochi, e molto risicati se non nulli in altri. Comunque il discorso fondamentale è che ATI non poteva aspettare ancora per lanciare la scheda, ha atteso che si raggiungesse un "sufficiente" livello che permettesse di lanciare la scheda. Che i drivers siano immaturi si vede non solo dalle prestazioni (che in alcuni casi sono inferiori o sul livello di una X1950XT pur non essendoci un solo campo nel quale R600 sia inferiore) ma anche dai numerosissimi bugs con diversi giochi. Sull'UVD mi pronuncio di seguito.
Io sinceramente sono stato piuttosto deluso non tanto dalla mancanza dell'UVD (che ci può anche stare, per diverse ragioni di marketing, come concorrenza insegna) quanto dalla poca chiarezza che è stata fatta sulla sua presenza o meno. Solo adesso ci sono notizie ufficiali da AMD, mentre ci sarebbe dovuta essere da subito maggiore chiarezza, direttamente al lancio.
Per quanto riguarda l'architettura, la base sarà quella di R600, bisogna invece che ATI si impegni a risolvere i problemi dovuti ai punti deboli di R600 (bassa capacità di filtraggio rispetto a G80) e dei drivers (compilatore, scheduling).
Non a caso ATI ha posizionato la scheda in modo tale che potesse essere appetibile per una parte di pubblico da subito e non dopo 6 mesi quando forse sarà disponibile un refresh.
A parte che caschi male nel caso pensassi che il sottoscritto sia un fanatico ATI (e con che diritto dici agli altri di "tenere la bocca chiusa", ma per stavolta soprassediamo), dato che nella stragrande maggioranza dei casi ho posseduto e possiedo nvidia, compresa la malaugurata serie 5, ma sei sicuro di quello che dici?
Stai paragonando una soluzione che è uscita da non 6, ma da 8 mesi, con una che ha neanche un mese sulle spalle, e che è più difficile da programmare di qualunque architettura finora uscita (quanti set di drivers sono usciti per ATI e quanti per G80 dall'uscita?). Ancora oggi escono driver con miglioramenti prestazionali per R520-R580, figuriamoci se la situazione per R600 non migliorerà.
Ma lo dico chiaramente, per avere drivers che riescano a sfruttare decentemente R600 serviranno non 3 mesi, ma dai 6 mesi all'anno. Se poi convenga o meno attendere questo periodo di tempo è un fattore soggettivo, in ogni caso la scheda ha una sua, pur limitata, competitività.
Il discorso dell'AA può anche essere condivisibile, tuttavia è stato calcolato che nel peggiore dei casi possibili la potenza sottratta agli shaders è inferiore al 10%, ma complica lo scheduling (e qui si rtorna al problema della complessa ottimizzazione dei drivers).
Poi personalmente se dovessi acquistare una scheda non penserei mai alle 2900XT, non tanto per il discorso drivers/prestazioni, quanto per consumi e costi, al di fuori di quello che io considero ragionevole per una VGA, nè comunque ne consiglierei l'acquisto in presenza di soluzioni più mature ed anche in certi casi più economiche.
Nè d'altra parte ne sconsiglierei l'acquisto, essendo comunque la soluzione allineata a ciò che è offerto dal mercato in una certa fascia di prezzo.
Tralascio il resto della propaganda pro-nvidia, ricordandoti che i drivers del day 1 per G80 per Vista sono forse questi:
http://punto-informatico.it/p.aspx?id=1882549
A parte che non ho detto a nessuno di tenere la bocca chiusa... Io sono per i confronti, come si suol dire, apple-to-apple, e questo significa, ad esempio, confrontare i driver ATTUALI di NVIDIA (passabili) con quelli ATTUALI di ATI (vacillanti), e i driver del day-one di Vista di NVIDIA (ok, buggati) con quelli di ATI (peggio, inesistenti, come le schede).
Questo perchè noi viviamo nel presente, non nel futuro... inoltre gli ingegneri ATI nei 6 mesi di "buco" dall'uscita di Vista erano in vacanza? Solo quelli NVIDIA potevano lavorare sui driver? Dovremmo scusare pure questo?
Insomma non riesco a capire per quale motivo dovremmo scusare la X2900XT di tutte le sue varie pecche (più o meno importanti).
Perchè comprare NVIDIA "è cattivo" (così come comprare Intel), visto che è il brand più forte?
Perchè le brochure ATI parlano di specifiche tecniche da capogiro, seppur queste non risultino in uguali performance nei giochi?
Davvero per sperare che un giorno dei driver magici garantiscano il 30% di prestazioni in più?
C'è almeno un motivo?
Siamo razionali, non ha nulla in più della 8800 GTS 640, ha solo cose in meno (o inferiori). Anche la fascia di prezzo in cui è stata posizionata è, nuovamente, errata.
Andrebbe a MENO della 8800 GTS (e in quel caso potrebbe esser davvero appetibile), ma invece è a PIU'! E non solo per un discorso prestazionale, ma anche di funzionalità accessorie (ve ne potrà fregare o no che la scheda consumi più o meno, ma è comunque un fattore che deve concorrere al prezzo finale).
p.s. è un reply interpersonale
leoneazzurro
12-06-2007, 16:57
Non si tratta del fatto che gli ingegneri ATI si siano "girati i pollici". Hanno lavorato come i loro colleghi di Nvidia, che però avevano la scheda a disposizione da più tempo e con un'architettura meno "difficile", non è che i drivers di G80 a Novembre li hanno scritti due giorni prima. Sicuramente la situazione attuale è che i drivers Nvidia sono molto più maturi e stabili di quellI ATI, ma questa situazione verrà a modificarsi in un certo lasso di tempo, attualmente c'è solo 1 (una) revisione ufficiale di Catalyst che supporta le HD2900XT (la 7.5). E comunque dal punto di vista prestazionale, con questi drivers, compete prestazionalmente con le 8800 GTS 640M (non voglio dire molto meglio o peggio, mediamente siamo lì) nella stessa fascia di prezzo. OK, consuma molto. Ma se del consumo a determinati utenti non importa, non cambia la vita scegliere l'una o l'altra. Oltre al consumo non vedo "inferiorità" palesi della HD2900XT, la decodifica video avverrà più o meno sulla falsariga di ciò che avviene con G80 (ma col vantaggio di poter sfruttare un solo cavo invece di due/più), le prestazioni sono lì (lo dicono tutte le recensioni, poi a te potrà sembrare di no, ma questo è quel che dice quasi il 100% dei siti specializzati), con prospettive di miglioramento, i prezzi sono abbastanza allineati, ci sono features interessanti anche se di dubbio utilizzo (tessellatore) mi chiedo allora perchè comprare ATI sia cattivo, nonostante Nvidia sia il brand più forte al momento.
phil anselmo
12-06-2007, 17:14
Non si tratta del fatto che gli ingegneri ATI si siano "girati i pollici". Hanno lavorato come i loro colleghi di Nvidia, che però avevano la scheda a disposizione da più tempo e con un'architettura meno "difficile", non è che i drivers di G80 a Novembre li hanno scritti due giorni prima. Sicuramente la situazione attuale è che i drivers Nvidia sono molto più maturi e stabili di quellI ATI, ma questa situazione verrà a modificarsi in un certo lasso di tempo, attualmente c'è solo 1 (una) revisione ufficiale di Catalyst che supporta le HD2900XT (la 7.5). E comunque dal punto di vista prestazionale, con questi drivers, compete prestazionalmente con le 8800 GTS 640M (non voglio dire molto meglio o peggio, mediamente siamo lì) nella stessa fascia di prezzo. OK, consuma molto. Ma se del consumo a determinati utenti non importa, non cambia la vita scegliere l'una o l'altra. Oltre al consumo non vedo "inferiorità" palesi della HD2900XT, la decodifica video avverrà più o meno sulla falsariga di ciò che avviene con G80 (ma col vantaggio di poter sfruttare un solo cavo invece di due/più), le prestazioni sono lì (lo dicono tutte le recensioni, poi a te potrà sembrare di no, ma questo è quel che dice quasi il 100% dei siti specializzati), con prospettive di miglioramento, i prezzi sono abbastanza allineati, ci sono features interessanti anche se di dubbio utilizzo (tessellatore) mi chiedo allora perchè comprare ATI sia cattivo, nonostante Nvidia sia il brand più forte al momento.
ti quoto in pieno.
ma secondo me la delusione generale dell' "opinione pubblica" è dovuta principalmente al fatto che, essendo un chip uscito molto in ritardo rispetto a quello della controparte, ci si aspettava da esso in effetti qualcosa di più.
inoltre, e questo è un mio pensiero, se una *900XT è destinata a far concorrenza ad una *800GTS chi farà concorrenza alle *900?
e alle *950?
non so se mi sono spiegato...
che la 2900XT se la batta a testa alta con le 8800GTS è un dato di fatto e che ci siano margini di miglioramento sicuramente maggiori rispetto alla rivale anche questo è innegabile, ma forse da una scheda uscita con tutto questo ritardo ci si aspettava qualcosina di più.
un soddisfatto utente ATi ;)
halduemilauno
12-06-2007, 18:34
ti quoto in pieno.
ma secondo me la delusione generale dell' "opinione pubblica" è dovuta principalmente al fatto che, essendo un chip uscito molto in ritardo rispetto a quello della controparte, ci si aspettava da esso in effetti qualcosa di più.
inoltre, e questo è un mio pensiero, se una *900XT è destinata a far concorrenza ad una *800GTS chi farà concorrenza alle *900?
e alle *950?
non so se mi sono spiegato...
che la 2900XT se la batta a testa alta con le 8800GTS è un dato di fatto e che ci siano margini di miglioramento sicuramente maggiori rispetto alla rivale anche questo è innegabile, ma forse da una scheda uscita con tutto questo ritardo ci si aspettava qualcosina di più.
un soddisfatto utente ATi ;)
ma forse da una scheda uscita con tutto questo ritardo ci si aspettava qualcosina di più.
qualcosina in +????? ci si aspettava l'armageddon delle schede video. qualcosina in +
:rotfl: :rotfl: :rotfl:
halduemilauno
12-06-2007, 18:35
A parte che non ho detto a nessuno di tenere la bocca chiusa... Io sono per i confronti, come si suol dire, apple-to-apple, e questo significa, ad esempio, confrontare i driver ATTUALI di NVIDIA (passabili) con quelli ATTUALI di ATI (vacillanti), e i driver del day-one di Vista di NVIDIA (ok, buggati) con quelli di ATI (peggio, inesistenti, come le schede).
Questo perchè noi viviamo nel presente, non nel futuro... inoltre gli ingegneri ATI nei 6 mesi di "buco" dall'uscita di Vista erano in vacanza? Solo quelli NVIDIA potevano lavorare sui driver? Dovremmo scusare pure questo?
Insomma non riesco a capire per quale motivo dovremmo scusare la X2900XT di tutte le sue varie pecche (più o meno importanti).
Perchè comprare NVIDIA "è cattivo" (così come comprare Intel), visto che è il brand più forte?
Perchè le brochure ATI parlano di specifiche tecniche da capogiro, seppur queste non risultino in uguali performance nei giochi?
Davvero per sperare che un giorno dei driver magici garantiscano il 30% di prestazioni in più?
C'è almeno un motivo?
Siamo razionali, non ha nulla in più della 8800 GTS 640, ha solo cose in meno (o inferiori). Anche la fascia di prezzo in cui è stata posizionata è, nuovamente, errata.
Andrebbe a MENO della 8800 GTS (e in quel caso potrebbe esser davvero appetibile), ma invece è a PIU'! E non solo per un discorso prestazionale, ma anche di funzionalità accessorie (ve ne potrà fregare o no che la scheda consumi più o meno, ma è comunque un fattore che deve concorrere al prezzo finale).
p.s. è un reply interpersonale
concordo.
;)
haveacigar
12-06-2007, 18:53
A parte che non ho detto a nessuno di tenere la bocca chiusa... Io sono per i confronti, come si suol dire, apple-to-apple, e questo significa, ad esempio, confrontare i driver ATTUALI di NVIDIA (passabili) con quelli ATTUALI di ATI (vacillanti), e i driver del day-one di Vista di NVIDIA (ok, buggati) con quelli di ATI (peggio, inesistenti, come le schede).
Questo perchè noi viviamo nel presente, non nel futuro... inoltre gli ingegneri ATI nei 6 mesi di "buco" dall'uscita di Vista erano in vacanza? Solo quelli NVIDIA potevano lavorare sui driver? Dovremmo scusare pure questo?
Insomma non riesco a capire per quale motivo dovremmo scusare la X2900XT di tutte le sue varie pecche (più o meno importanti).
Perchè comprare NVIDIA "è cattivo" (così come comprare Intel), visto che è il brand più forte?
Perchè le brochure ATI parlano di specifiche tecniche da capogiro, seppur queste non risultino in uguali performance nei giochi?
Davvero per sperare che un giorno dei driver magici garantiscano il 30% di prestazioni in più?
C'è almeno un motivo?
Siamo razionali, non ha nulla in più della 8800 GTS 640, ha solo cose in meno (o inferiori). Anche la fascia di prezzo in cui è stata posizionata è, nuovamente, errata.
Andrebbe a MENO della 8800 GTS (e in quel caso potrebbe esser davvero appetibile), ma invece è a PIU'! E non solo per un discorso prestazionale, ma anche di funzionalità accessorie (ve ne potrà fregare o no che la scheda consumi più o meno, ma è comunque un fattore che deve concorrere al prezzo finale).
p.s. è un reply interpersonale
quoto e straquoto
sono totalmente d'accordo con te.
la storia dei driver non sta in piedi: uno può dire quello che vuole ma la bontà di una gpu si intuisce subito.Certamente ci saranno dei miglioramenti,ma è assolutamente normale e scontato che sia così:è un discorso che interessa qualsiasi tipo di gpu e quindi perde di concludenza.
si sottolinea una banalità per cercare di salvare una scheda che invece non ha prestazioni che possano essere definite buone. Calcolando i mesi di ritardo si deve addirittura parlare di prestazioni mediocri.
Per non parlare dei consumi, del rumore, della dissipazione termica.
phil anselmo
12-06-2007, 19:53
ma forse da una scheda uscita con tutto questo ritardo ci si aspettava qualcosina di più.
qualcosina in +????? ci si aspettava l'armageddon delle schede video. qualcosina in +
:rotfl: :rotfl: :rotfl:
cercavo di essere delicato... tu invece non sai neanche che significa :asd:
p.s. leggo spesso i tuoi post, non per voler mio ma perché me li ritrovo davanti, spesso ti accusano di faziosità.
non hanno torto ;)
phil anselmo
12-06-2007, 19:55
una scheda che invece non ha prestazioni che possano essere definite buone. Calcolando i mesi di ritardo si deve addirittura parlare di prestazioni mediocri.
Per non parlare dei consumi, del rumore, della dissipazione termica.
su questo non ci piove.
leoneazzurro
12-06-2007, 20:26
La storia dei drivers non sta in piedi per coloro che non hanno la minima cognizione tecnica di come funzioni una GPU. Ovviamente c'è chi avvalora la tesi dei driver imperfetti per puro fanboismo, ma c'è molto di vero nel fatto che i drivers per R600 lasciano parecchio spazio a miglioramenti prestazionali. Facciamo alcuni esempi banali.
L'architettura di G80 è pienamente scalare (sequenziale), il che vuol dire che una operazione vettoriale viene elaborata come una serie di operazioni scalari, ad esempio una operazione vec4 viene eseguita in 4 cicli di clock. Una operazione scalare invece viene eseguita in un singolo ciclo di clock e non ha bisogno di ottimizzazioni particolari. Operazioni scalari dipendenti vengono eseguite senza problemi, dato che se ad esempio ho una istruzione A+B=C e l'istruzione successiva è D=C+E, ciò non mi dà problemi nel flusso di dati. Se non ci sono funzioni speciali (seno, coseno, esponenziale, potenza, che vengono eseguite in un diverso numero di cicli, adesso non ricordo esattamente quale) ho poche possibilità di avere "discontinuità" nel flusso di dati e quindi avrò una efficienza molto elevata a prescindere dai dati in ingresso, sempre che il compilatore e lo scheduler facciano il loro dovere. Avendo poi un'elevata capacità di filtraggio texture, G80 può sostenere agilmente shader con maggiore accesso alle texture filtrate. Un limite (non ancora toccato, forse) delle texture unit di G80 è che se un cluster ha le proprie texture unit occupate, non può (almeno non senza un grosso decadimento prestazionale) utilizzare le texture unit di un altro cluster.
In definitiva, anche senza grossissime ottimizzazioni, G80 riesce ad ottenere una grande efficienza.
Cosa succede in R600? In questo caso le cose sono tutt'altro che semplici. In primo luogo ogni unità shader è superscalare, a 5 componenti, Very Long Instruction Word (VLIW). Cosa significa questo? In primo luogo, significa che R600 può sì eseguire 5 istruzioni per ciclo di clock su 5 dati differenti, ma anche che per sfruttare tutta la potenza dell'unità di shading dati e istruzioni devono essere sempre dati a "blocchi di 5" tutto il tempo, e le operazioni vengono svolte "impacchettando" dati e istruzioni in una macroistruzione (VLIW). Ad esempio una operazione vettoriale Vec4 e una scalare, oppure una Operazione Vec3 e 2 scalari, possono essere svolte in parallelo. Tuttavia questo approccio ha una grossa dipendenza nell'efficienza del compilatore e quindi del driver. Infatti l' "impacchettamento" non è sempre possibile in blocchi di 5 per svariati motivi. Uno di questi è la dipendenza delle istruzioni. Se una istruzione dipende da un'altra (l'esempio precedente di A+B=C e E=C+D) non è possibile svolgerle in parallelo. Nel caso limite di una serie di operazioni scalari e dipendenti la potenza di calcolo di R600 si ridurrebbe al 20% della capacità di picco. Un altro limite è dovuto al fatto che il compilatore deve estrarre dal flusso di istruzioni il livello di parallelismo per poter eseguire sempre il massimo numero di istruzioni in parallelo. Ad esempio anche se ci fosse una serie di istruzioni vec3 dipendenti da eseguire, si perderebbe normalmente circa il 40% della potenza di calcolo. Impacchettando però insieme a queste operazioni delle operazioni scalari indipendenti tra loro e dalle operazioni vettoriali, si può sfruttare meglio la potenza di calcolo a disposizione. Una opzione che ad esempio R600 ha è di gestire i vettori sequenzialmente come a G80, per permettere un migliore scheduling delle istruzioni. Tuttavia questo è semplice solo a parole, dal punto di vista di un driver gestire qualcosa del genere è piuttosto complesso. Come far decidere in automatico come gestire le istruzioni? E se la scelta fatta creasse degli "stalli" che a loro volta creano problemi di scheduling ulteriori? Un parallelo che si può fare in campo informatico è quello di Itanium, che per certi versi adotta lo stesso principio VLIW ed è sotto gli occhi di tutti quanto tempo ci sia voluto per avere un compilatore efficente.
Un'altra questione in R600 è data dal rapporto shaders: texture units.
Se R580 aveva per ogni texture unit 3 shader unit, in R600 abbiamo un rapporto 4:1, ma questo rapporto in realtà può essere visto come maggiore o minore per il fatto che ogni unità in realtà può essere vista come gruppo di 5 sottounità (il che complica ancora il discorso, ma teniamo per buono questo fatto). Questo significa anche che se si eseguono shaders con un rapporto istruzioni matematiche:texture lookup (filtrate) INFERIORE a 4, R600 non può utilizzare al meglio le sue unità shader e quindi alcune unità rimarrebbero ferme in attesa di istruzioni (ancora una volta, il discorso è volutamente semplificato, in realtà è molto più complesso). Questo può essere evidenziato dai test teorici, dove per shader corti e con gran numero di texture lookup R600 perde rispetto a G80, mentre in shader lunghi e matematicamente complessi come il Perlin Noise è decisamente avvantaggiato. Tuttavia R600 ha il vantaggio rispetto a G80 di potere sfruttare meglio le sue unità di texturing, ma vanno opportunamente gestiti la schedulazione ed il traffico dei dati. Questo significa anche che nelle applicazioni reali per sfruttare al massimo le potenzialità della GPU ancora una volta si deve ottimizzare per bene il lavoro -> drivers.
Discorso AA: sinceramente dopo le prime notizie sembrava che "l'AA fosse fatto negli shaders", come incorrettamente riportato da più fonti. In realtà negli shaders è svolta UNA sola operazione necessaria per l'AA (le altre operazioni vengono comunque gestite nelle ROPs), ossia il cosiddetto "resolve", che determina il colore effettivo del pixel da visualizzare. Però questo avviene negli shaders solo quando i colori dei subpixel sono differenti tra loro, non si tutta la scena, ed è stato determinato che nei casi peggiori non dovrebbe andare ad incidere per oltre il 10% della potenza di shading totale. Tuttavia, il fatto di gestire il resolve tramite shaders, complica ulteriormente il discorso di ottimizzazione delle risorse, per cui in sostanza -> drivers.
Questi esempi sono fatti per fare capire che per un'architettura come R600 (che ha certo dei limiti rispetto a G80, ma anche qualche vantaggio) ha bisogno di una notevole ottimizzazione e debugging di drivers e compilatore per potere essere gestita al meglio. Certo, ci saranno comunque scenari nei quali R600 rende più ed altri in cui renderà meno, tuttavia vedere R600 in alcuni casi al livello oppure al di sotto di R580, GPU di ATI meno potente come capacità di calcolo, con minore ed inferiore capacità di texturing (R580 filtra le texture in formato Floating Point negli shaders mentre R600 ha hardware dedicato nelle texture units) e con minore efficienza teorica ottenibile, punta soltanto a problemi nei drivers. Che poi R600 possa o meno stracciare la concorrenza nel futuro è argomanto da fanboy, la mia opinione è che un miglioramento è possibile e probabile, di quanto ce lo dirà solo il tempo. Penso che con la maturità la 2900XT possa prestazionalmente porsi tra le GTS e la GTX, ovvio anche pensare che quando ciò avverrà saranno sul mercato schede più veloci e parsimoniose, magari della stessa ATI. Ritengo che R600 sia soprattutto un test per le schede a venire, un pò come lo è stato la R520 che guarda caso ha avuto problemi simili, anche se in questo caso c'è l'aggravante di avere contro una concorrenza molto più forte di quella rappresentata dalla 7800 dell'epoca.
genoaole
12-06-2007, 20:53
Quante parole sprecate uffa, sono diventato matto a leggere tutto, ho già postato.... se intallo due ati e i giochi vanno male, installo due nvidia e i giochi sembrano veri non c'è più nulla da dire. punto e ripunto. stiamo parlando di società che hanno a disposizione miliardi o più di euro e si sbattono per avere una fetta di mercato da mettersi in tasca. come il fruttivendolo si sbatte per avere la frutta migliore al minor prezzo non trovo possibile accettabile pensabile anche solo teoricamente che ATI (non cippalippa) abbia fatto uscire una scheda video che visto il prezzo non sia minimamente paragonabile alle nvidia. e driver e qui e la, miglioramenti etc se migliorano i driver ati, di certo quelli di nvidia non vanno indietro(anzi sono già più avanti). cavolo possibile che ci debba picchiare così, la ati a fatto una Cag... a fare uscire la scheda in questo modo, poteva aspettare di più oppure venderla ad un prezzo inferiore e dire che era una fascia media e poi fare uscire un top di gamma con i controc.... cioè ciò che io mi aspettavo e speravo. spero solo facciano qualcosa molto in fretta così ci sarà un bel pò di concorrenza e i prezzi scenderanno e si avrà una scelta. meglio una vga o una ega tu cosa compreresti. saluto tutti
bonzuccio
12-06-2007, 21:11
Credo che sia bene dire che la 2900 sta tra la gts640 e la gtx come prestazioni attualmente, a volte supera pure la gtx, su xp non sta mai sotto la gts.
genoaole
12-06-2007, 21:39
e il prezzo e il consumo e il riscaldamento. purtroppo sono da tenere in conto. il mio pc con un alimentatore serio e le due schede gts 640 sembra spento se non fosse per gli hdd. quando ho montato le 2900, brrrr tremava anche la scrivania e ho dovuto per forza montare l'alimentatore serio. xp diceva così la tua scheda video potrebbe non essere sufficientemente alimentata.............. etc (ps il primo alimentatore era un hiper 580w) ora ne ho uno da 700 super silent. con le due gts bastava quello con le ati no. se uno deve aggiungere anche 180 euri per cambiare l'alimentatore. non sembra assurdo???!!!! quando ho detto vga o ega era inteso prestazioni complessive è ovvio vero?
ghiltanas
12-06-2007, 23:54
Ritengo che R600 sia soprattutto un test per le schede a venire, un pò come lo è stato la R520 che guarda caso ha avuto problemi simili, anche se in questo caso c'è l'aggravante di avere contro una concorrenza molto più forte di quella rappresentata dalla 7800 dell'epoca.
anche secondo me è stato un test, però nvidia ha fatto molto meglio i conti:
la serie 8*** è stato un vero test durato mesi, ha avuto modo di studiare bene le dx10 e vista in modo da lanciare la nuova architettura ottimizzata al massimo (almeno spero), ati ha tardato un casino e si è messa a fare test con troppo ritardo.A sto punto doveva lanciare solo le vga di fascia media per nn perdere troppi soldi(visto che è li che si concentrano di + le vendite), e poi a settembre/ottobre sorprendere tutti con la fascia alta e medio/alta con la nuova architettura.Allora si che avrebbe ripreso terreno su Nvidia
bonzuccio
13-06-2007, 07:04
Si non hanno lavorato, sono rimasti con le mani in mano in ati invece in nvidia hanno studiato, lavorato ed ottimizzato al massimo ci manca solo che lo scrivi sui muri tipo "passerotto ti amo" :mbe:
haveacigar
13-06-2007, 08:43
Si non hanno lavorato, sono rimasti con le mani in mano in ati invece in nvidia hanno studiato, lavorato ed ottimizzato al massimo ci manca solo che lo scrivi sui muri tipo "passerotto ti amo" :mbe:
alla Ati hanno lavorato ma hanno lavorato male.
non ci vuole poi molto per caprilo e ammetterlo.
halduemilauno
13-06-2007, 08:44
cercavo di essere delicato... tu invece non sai neanche che significa :asd:
p.s. leggo spesso i tuoi post, non per voler mio ma perché me li ritrovo davanti, spesso ti accusano di faziosità.
non hanno torto ;)
e quelli che mi accusano cosa sono??? e poi cosa fai? dici:
su questo non ci piove.
a questo intervento
quoto e straquoto
sono totalmente d'accordo con te.
la storia dei driver non sta in piedi: uno può dire quello che vuole ma la bontà di una gpu si intuisce subito.Certamente ci saranno dei miglioramenti,ma è assolutamente normale e scontato che sia così:è un discorso che interessa qualsiasi tipo di gpu e quindi perde di concludenza.
si sottolinea una banalità per cercare di salvare una scheda che invece non ha prestazioni che possano essere definite buone. Calcolando i mesi di ritardo si deve addirittura parlare di prestazioni mediocri.
Per non parlare dei consumi, del rumore, della dissipazione termica.
perchè io che dico? io sono fazioso e quelli che dicono le mie stesse cose(e che sono tanti e che tu quoti)anche? o io si e gli altri no perchè io non sono delicato.
:boh:
ghiltanas
13-06-2007, 09:16
Si non hanno lavorato, sono rimasti con le mani in mano in ati invece in nvidia hanno studiato, lavorato ed ottimizzato al massimo ci manca solo che lo scrivi sui muri tipo "passerotto ti amo" :mbe:
la tua ironia è a dir poco patetica :rolleyes: e risposte cosi idiote tientele per te la prossima volta, cosi ci guadagnamo tutti.
leoneazzurro
13-06-2007, 09:20
Lo dico adesso per non ripetermi più: basta flame inutili, quindi piantatela qui, o mi vedo poi costretto ad intervenire.
phil anselmo
13-06-2007, 23:34
e quelli che mi accusano cosa sono??? e poi cosa fai? dici:
a questo intervento
perchè io che dico? io sono fazioso e quelli che dicono le mie stesse cose(e che sono tanti e che tu quoti)anche? o io si e gli altri no perchè io non sono delicato.
:boh:
no, per carità, lo sappiamo tutti che ATi ha fallito, almeno fin' ora, con questo R600; io ho cercato di dirlo in maniera più delicata.
l' unica cosa che forse dà fastidio dei tuoi interventi è proprio la mancanza di questa delicatezza, insomma, a volte potresti sembrare un pò arrogante.
tutto qui ;)
DakmorNoland
14-06-2007, 10:24
e il prezzo e il consumo e il riscaldamento. purtroppo sono da tenere in conto. il mio pc con un alimentatore serio e le due schede gts 640 sembra spento se non fosse per gli hdd. quando ho montato le 2900, brrrr tremava anche la scrivania e ho dovuto per forza montare l'alimentatore serio. xp diceva così la tua scheda video potrebbe non essere sufficientemente alimentata.............. etc (ps il primo alimentatore era un hiper 580w) ora ne ho uno da 700 super silent. con le due gts bastava quello con le ati no. se uno deve aggiungere anche 180 euri per cambiare l'alimentatore. non sembra assurdo???!!!! quando ho detto vga o ega era inteso prestazioni complessive è ovvio vero?
Scusa stiamo parlando di una scheda che ha problemi di driver e tu vai a metterne due in crossfire, e stranamente vanno meglio due GTS in SLI? Ma va e chi l'avrebbe detto! Ovvio Nvidia ha avuto tempo per sistemare lo SLI con le 8800 e molti giochi sono programmati per sfruttarlo, le ATI sono appena uscito e di sicuro molti giochi non sfruttano il crossfire a dovere. Per la questione consumi tu mi paragoni la GTS 640MB alla 2900XT, pero' sarebbe + giusto metterla a confronto con la 8800GTX, perche' come prestazioni siamo li, anche se come fascia di prezzo sta al livello delle GTS 640MB che pero' si vede non ce la fanno a starle dietro.
Cmq mettere due schede di fascia alta o medio-alta in SLI o crossfire e' uno spreco di soldi ed e' un inutile spreco anche di energia, quindi cmq per me il tuo discorso non ha molto senso. Qui parliamo di schede singole, quasi nessuno e' cosi' folle da mettere in parallelo delle schede del genere!
a quando una scheda decente per 100euro?
phil anselmo
14-06-2007, 10:56
a quando una scheda decente per 100euro?
bè, l' 8600GT si trova a 125€, altrimenti ti buttano appresso le 7600GT e le X1650XT a 90-100€, non è che facciano proprio schifo a quel prezzo... :stordita:
genoaole
15-06-2007, 00:59
chiamami folle oppure ho un pò di soldini da parte, da buttar via (dovevo comprarmi un'auto e invece ho preso una bici) per me è uguale. stiamo parlando dell'egregio lavoro svolto da nvidia rispetto ad ati. io ho postato ciò che con mano ho potuto constatare, non come qualcuno che legge le recensioni e giudica. ti dico che è rumorosa ma anche se ti dico quanti decibel è, finchè non provi non puoi capire. non voglio polemizzare ma penso che sia diritto di tutti esprimere opinioni in base alle proprie esperienze. poi se tu riesci a giocare con arma con una sola gts con tutto al massimo sei un grande!!!!!!
DakmorNoland
15-06-2007, 16:38
chiamami folle oppure ho un pò di soldini da parte, da buttar via (dovevo comprarmi un'auto e invece ho preso una bici) per me è uguale. stiamo parlando dell'egregio lavoro svolto da nvidia rispetto ad ati. io ho postato ciò che con mano ho potuto constatare, non come qualcuno che legge le recensioni e giudica. ti dico che è rumorosa ma anche se ti dico quanti decibel è, finchè non provi non puoi capire. non voglio polemizzare ma penso che sia diritto di tutti esprimere opinioni in base alle proprie esperienze. poi se tu riesci a giocare con arma con una sola gts con tutto al massimo sei un grande!!!!!!
So benissimo che la 2900XT fa un macello assurdo! Girava un mp3 di un utente che l'ha registrata, sembra la turbina di un F14! :D Però credo che con qualche programmino si potrebbe abbassare un pò la velocità della ventola e forse diverrebbe accettabile...
Per il discorso dello SLI e crossfire secondo me non convengono mai, piuttosto meglio prendere la GTX al momento e quei 100€ o + che risparmi se avresti preso due GTS 640MB te lo metti da parte per quando ne avrai davvero bisogno. Poi chiaramente sono punti di vista. ;)
genoaole
16-06-2007, 11:43
Purtoppo non avevo a disposizione la gtx ultra perchè sennò avrei messo una sola di quelle. come disponibilità a magazzino in quel momento c'erano le due gts 640 e mi sono accontentato. fidati arma con una sola gts è come avere un 486. non riesco ad immaginare i problemi che avremo a far girare un crysis con tutto al max. secondo me una gtx ultra non basterà. ps sto solo aspettando che la concorrenza crei una gtx ultra che non crashi. un mio amico ne ha presa una e mentre gioca ogni tanto si inchioda per un decimo di secondo. a me va tutto bene e da lui se metto le mie va tutto bene. poi per il momento io gioco a tutto, quando uscirà una 8900 magari ci farò un pensiero...... poi è troppo bello vedere nel case due bambine di dimensioni bibliche e far vedere ai tuoi amici mentre setti tutto al max hi hi.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.