PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

fede27
14-05-2007, 15:55
/Battuta agrodolce

Sta a vedere che tra le 1500 persone licenziate da AMD/ATI c'era chi lavorava davvero alla grande (=sapeva scrivere driver decenti)

:D

Senza "agrodolcezza" è proprio quelo che ipotizzavo io diversi post fà a proposito dell'effetto dell'acquisizione da parte di AMD...

CIaO

dantes76
14-05-2007, 15:55
La verità sta nei driver immaturi. Punto e basta.
Inutile gridare al FLOP e alla FLAP...... :rolleyes:

E' logico che i driver siano immaturi. Anche se hanno avuto 7 mesi di tempo quando mai è successo che una vga uscisse con driver super performanti? La storia insegna sempre, e anche questa volta non ha sbagliato.

E' logico che le g80 nvidia sono più performanti. Hanno 7 mesi di test su xp....vista.....giochi.....e consigli degli utenti (i quali sono importantissimi per loro).

Quindi mettiamoci l'anima in pace ed aspettiamo 4-5 mesi.
Solo ad allora potremo avere una race ad "armi pari" ;)

be quando usci' la 9700[pace all'anima sua, un vero mostro di potenza]bastarono meno di 4 mesi
cosi come quando usci la 5900ultra

sta di fatto, che allo stato attuale Ati, in occasione della presentazione della nuova vga, non ha un modello di punta[cosa che a memoria non ricordo], e per dire di Amd/ati stessa

dantes76
14-05-2007, 15:56
partiiiitiiii :asd: adoro questo sito lol

:confused:

leoneazzurro
14-05-2007, 15:58
...già, come dicevo, ho letto la recensione di B3D e ho capito che R600 è proprio un bel macello da ottimizzare. Tu hai capito la verità sulle ROPs??? perchè W1zzard scrive che il numero è 16*2??? ed il discorso che si faceva prima su B3D, cioè la grave mancanza di hardware dedicato a determinate operazioni nelle ROPs (che spiega purtroppo i cattivi risultati con alto livello di AA attivato) tu come lo giudichi??? potresti spiegarmi meglio??? grazie mille!
:D

Le ROPs sono 16 ma possono lavorare su più sample per clock. Il problema è che secondo B3D utilizzano parte degli shader per effettuare i calcoli sui sample, per cui quando applicano AA in realtà "consumano" potenza degli shader, riducendo il frame rate. E' una scelta volta a risparmiare spazio sul die, ma IMHO a questo punto tanto valeva lasciar perdere il bus a 512 bit e il tessellatore hardware e potenziare maggiormente ROPs e filtraggio.

Per quanto riguarda i pixel shader, trovo stranissimo il test sinterico del 3Dmark 06, dove la Xt è alla pari della GTS, mentre dovrebbe essere parecchio avanti.

webbuffa
14-05-2007, 15:58
impressione mia o la nvidia è molto superiore come qualita' di filtraggio e texturing ? :D?

Crisp
14-05-2007, 15:59
cioè, ho appena finito di leggere la recensione della hd2900xt..
che delusione..pensavo che spaccasse il :ciapet: ad nvidia.:mad:

MaRtH
14-05-2007, 16:04
cioè, ho appena finito di leggere la recensione della hd2900xt..
che delusione..pensavo che spaccasse il :ciapet: ad nvidia.:mad:


Si, mettitela via che prima di un paio di mesi non riuscirai a vedere il potenziale reale di questa scheda...

E' tutto oggi che giro di rece in rece, gente che si lamenta, gente che ne è soddisfatta, siti che pubblicano bench dove la HD2900XT sta sempre davanti alla GTS 640 e delle volte anche alla GTX, dopo ce ne sono come quella di hwu dove la 2900 fa magrissima figura, alcuni dicono che è un flop e altri che i drivers sono ancora acerbi (come successe per la x1950pro ad es)...

Sono sempre più confuso...

Hetfield75
14-05-2007, 16:06
MAh.... qui i pareri sono di tutt'altro tipo......
http://www.pctuner.net/forum/showthread.php?t=81928

Tenendo presente che questa scheda video viaggia con dei driver quantomeno indecenti.....

BieSseA
14-05-2007, 16:06
Cavoli ragazzi.. e mo che fammo?
Aspettiamo ancora e speriamo in qualche sorpresa di funzionamento per la HD 2900XTX??? Può essere che ATi riesca a spingerla ben avanti con le prestazioni contando in un aumento delle frequenze, soprattutto per le RAM che a 1650mhz è un valore piuttosto scandaloso contando il valore della scheda?

Boh staremo a vedere, dopo l'1 luglio.. potremmo parlare con il senno di poi.. vedremo dai..

davide155
14-05-2007, 16:08
be quando usci' la 9700[pace all'anima sua, un vero mostro di potenza]bastarono meno di 4 mesi
cosi come quando usci la 5900ultra

sta di fatto, che allo stato attuale Ati, in occasione della presentazione della nuova vga, non ha un modello di punta[cosa che a memoria non ricordo], e per dire di Amd/ati stessa

Si cmq sono sempre 4 mesi.
Quindi io aspetterei prima di dire flop.

Poi può essere anche che fra 1 anno fa le stesse identiche prestazioni, ma può anche essere che andrà il doppio......... ;)

Defragg
14-05-2007, 16:08
Le ROPs sono 16 ma possono lavorare su più sample per clock. Il problema è che secondo B3D utilizzano parte degli shader per effettuare i calcoli sui sample, per cui quando applicano AA in realtà "consumano" potenza degli shader, riducendo il frame rate. E' una scelta volta a risparmiare spazio sul die, ma IMHO a questo punto tanto valeva lasciar perdere il bus a 512 bit e il tessellatore hardware e potenziare maggiormente ROPs e filtraggio.

Per quanto riguarda i pixel shader, trovo stranissimo il test sinterico del 3Dmark 06, dove la Xt è alla pari della GTS, mentre dovrebbe essere parecchio avanti.

una domanda...

ma secondo te è meglio avere 320 sp a 750Mhz o 128/96sp a 1500/1350mhz?

Marko91
14-05-2007, 16:08
L'ideale per me era prendere questa scheda , che pensavo essere il 5% inferiore al massimo rispetto una GTX, e metterla sotto liquido per portarla a 1 Ghz daily-use... (e da nord-hw dicono che sia pure facile). Ora non so più che fare!
:D

MaRtH
14-05-2007, 16:08
Più che aspettare la XTX io aspetterei dei drivers in condizione da potersi chiamare tali e poi valutare...

PS. Anche io poco fa ho postato il link di pctuner, li sembra un'altra scheda (in positivo)...

RED78
14-05-2007, 16:08
Cazzius, sembra un'altra scheda...

Se andasse realmente come (o di più) rispetto alla rece di pctuner sarebbe la vga da avere...

forse alcuni, me compreso abbiamo parlato troppo presto, tutta colpa di 'sti drivers...

In quel test la raffreddano a liquido....non sò se mi sono capito!!!!!;)
Nella versione di Sapphire le prestazioni vengono incrementate del 20%, in questo caso non lo sò ma se il test l'avessero fatto con sistema di raffreddamento originale ci avrei creduto ma così sono nel dubbio.:confused:

MaRtH
14-05-2007, 16:09
Si cmq sono sempre 4 mesi.
Quindi io aspetterei prima di dire flop.

Poi può essere anche che fra 1 anno fa le stesse identiche prestazioni, ma può anche essere che andrà il doppio......... ;)


Infatti...

Io aspetto...

halduemilauno
14-05-2007, 16:09
le conclusioni su x2900xt di pctuner:

http://www.pctuner.net/articoli/SchedeVideo/593/Jetway_Radeon_HD_2900_XT/17.html

"Anche se la paragoniamo alla 8800 GTS 640, con i drivers in nostro possesso (8.37.4.2), in tutti i test di giochi tranne uno, le prestazioni sono sempre state inferiori alla vga di Nvidia, in qualche caso anche con distacchi importanti."

e Corsini ha gia detto che i famigerati 8.38 servono a ben poco e tra l'altro sono stati usati in una rece con i soliti risultati.
;)

MaRtH
14-05-2007, 16:10
In quel test la raffreddano a liquido....non sò se mi sono capito!!!!!;)
Nella versione di Sapphire le prestazioni vengono incrementate del 20%, in questo caso non lo sò ma se il test l'avessero fatto con sistema di raffreddamento originale ci avrei creduto ma così sono nel dubbio.:confused:


E che cosa centra, la scheda sempre a default è...:rolleyes:

halduemilauno
14-05-2007, 16:10
una domanda...

ma secondo te è meglio avere 320 sp a 750Mhz o 128/96sp a 1500/1350mhz?

le vere frequenze degli shader nvidia sono 1350/1200.

Defragg
14-05-2007, 16:13
le vere frequenze degli shader nvidia sono 1350/1200.
ho sbagliato :doh:
e la ultra? 1500 o 1700? :stordita:

betha
14-05-2007, 16:13
/Battuta agrodolce

Sta a vedere che tra le 1500 persone licenziate da AMD/ATI c'era chi lavorava davvero alla grande (=sapeva scrivere driver decenti)

:D

sicuro che lo hanno assunto nvidia, questo spiega il 30% in + degli ultimi driver

zorco
14-05-2007, 16:15
"Anche se la paragoniamo alla 8800 GTS 640, con i drivers in nostro possesso (8.37.4.2), in tutti i test di giochi tranne uno, le prestazioni sono sempre state inferiori alla vga di Nvidia, in qualche caso anche con distacchi importanti."

e Corsini ha gia detto che i famigerati 8.38 servono a ben poco e tra l'altro sono stati usati in una rece con i soliti risultati.
;)
ah quindi anche con i 8.38 la situazione con cambia?

halduemilauno
14-05-2007, 16:16
ho sbagliato :doh:
e la ultra? 1500 o 1700? :stordita:

la ultra 1500.

belin
14-05-2007, 16:17
...per chi fosse interessato Driver 8.37.4.3 disponibili per il download sul sito:

http://ati.amd.com/support/driver.html

...ciao!

betha
14-05-2007, 16:21
La verità sta nei driver immaturi. Punto e basta.
Inutile gridare al FLOP e alla FLAP...... :rolleyes:

E' logico che i driver siano immaturi. Anche se hanno avuto 7 mesi di tempo quando mai è successo che una vga uscisse con driver super performanti? La storia insegna sempre, e anche questa volta non ha sbagliato.

E' logico che le g80 nvidia sono più performanti. Hanno 7 mesi di test su xp....vista.....giochi.....e consigli degli utenti (i quali sono importantissimi per loro).

Quindi mettiamoci l'anima in pace ed aspettiamo 4-5 mesi.
Solo ad allora potremo avere una race ad "armi pari" ;)
Fino a quel giorno chi crede in questa scheda la compri, altrimenti prenda una g80 le quali sono pur sempre delle ottime schede :O

il problema é che fra 4 o 5 mesi nvidia avrà già risposto, inoltre uscire con una scheda e, se fosse vera l'ipotesi che il problema sono i driver, con queste prestazioni a quel consumo non fà certamente guadagnare immagine a AMD

RED78
14-05-2007, 16:21
E che cosa centra, la scheda sempre a default è...:rolleyes:

Beh quella di sapphire invece che 740MHZ è 750 non credo che siano 10MHZ a dare il 20%.

Chief
14-05-2007, 16:26
Ragazzi onestamente a me sembra molto strano in alcuni test sotto anche la 1950xtx:muro: sinceramente non ci sto capendo niente più:mbe:

leoneazzurro
14-05-2007, 16:27
una domanda...

ma secondo te è meglio avere 320 sp a 750Mhz o 128/96sp a 1500/1350mhz?

In teoria sarebbe meglio averne 320 a 750 MHz che 128 a 1350, ma il problema è che l'organizzazione non è la stessa, dato che le unità di G80 sono scalari pure, mentre quelle di R600 sono raggruppate in gruppi di 5, e possono eseguire al massimo 5 istruzioni per clock sullo stesso pixel.

davide155
14-05-2007, 16:28
il problema é che fra 4 o 5 mesi nvidia avrà già risposto, inoltre uscire con una scheda e, se fosse vera l'ipotesi che il problema sono i driver, con queste prestazioni a quel consumo non fà certamente guadagnare immagine a AMD

Ti dimentichi di una cosa.
La g80 adesso è già spremuta al max in dx9. Lasciamo perdere le dx10 che sono un caso a parte.

Ma per ora le 8800 sono spremute al massimo in win xp e dx9.
Mentre x2900xt in win xp e dx9 è moooolto acerba.
Quindi fra 4-5 mesi ati potrebbe sfornare dei driver veramente performanti, mentre nvidia non potrà fare altro che stare a guardare perchè ormai la sua tecnologia ha già più di 7 mesi sul campo e quindi il margine di miglioramento anche se positivo sarà ben più basso di quello che potrà fare ati.

Non so se mi sono spiegato ;)

MonsterMash
14-05-2007, 16:29
La mia preoccupazione riguarda lo stato di salute presente e futuro dell'amd come azienda.
Si sa già che amd abbia problemi a far quadrare i conti, dopo oltre un anno di strapotere intel, che l'ha costretta a svendere molte sue cpu. L'acquisizione di ati inoltre ha gravato pesantemente sui bilanci.
Ora, dopo una lunga e tribolata gestazione, r600 arriva al pubblico con (meritato o meno) un coro quasi unanime di commenti negativi. Se a questa pessima pubblicità ci unite il fatto che la hd2900xt venga venduta sottocosto (per l'importanza del progetto dubito fortemente infatti che fosse nelle intenzioni iniziali di proporla a meno di 400 euro), probabilmente i prossimi 6 mesi saranno per amd davvero difficili. E saranno anche i mesi decisivi per il progetto k10, che a questo punto potrebbe essere l'ultima loro chance per rimanere in piedi.

Spero veramente che la situazione migliori, altrimenti gli unici a perderci saremo noi consumatori.

Defragg
14-05-2007, 16:29
In teoria sarebbe meglio averne 320 a 750 MHz che 128 a 1350, ma il problema è che l'organizzazione non è la stessa, dato che le unità di G80 sono scalari pure, mentre quelle di R600 sono raggruppate in gruppi di 5, e possono eseguire al massimo 5 istruzioni per clock sullo stesso pixel.

quindi, potresti approfondire ancora il discorso che mi interessa molto :O

p.s. la differenza tra una unità scalare e una vettoriale qual'è? :stordita:

webbuffa
14-05-2007, 16:30
Ti dimentichi di una cosa.
La g80 adesso è già spremuta al max in dx9. Lasciamo perdere le dx10 che sono un caso a parte.

Ma per ora le 8800 sono spremute al massimo in win xp e dx9.
Mentre x2900xt in win xp e dx9 è moooolto acerba.
Quindi fra 4-5 mesi ati potrebbe sfornare dei driver veramente performanti, mentre nvidia non potrà fare altro che stare a guardare perchè ormai la sua tecnologia ha già più di 7 mesi sul campo e quindi il margine di miglioramento anche se positivo sarà ben più basso di quello che potrà fare ati.

Non so se mi sono spiegato ;)

;) Giustissimo!

MaRtH
14-05-2007, 16:30
Beh quella di sapphire invece che 740MHZ è 750 non credo che siano 10MHZ a dare il 20%.


Infatti, ti stai contraddicendo...

Sono identiche...

davide155
14-05-2007, 16:30
Ragazzi onestamente a me sembra molto strano in alcuni test sotto anche la 1950xtx:muro: sinceramente non ci sto capendo niente più:mbe:

Daje.........sono i driver!

Aspettiamo qualche mese e vediamo.
Se continuerà ad andare così per me ati potrà chiudere battenti.
Ma fino ad allora non sbilanciamoci troppo.......

Aspettiamo e basta.
Tanto si sapeva che la completa verità su r600 non veniva data tutta oggi.
Ma solo con una release di driver decenti potremo sapere chi è veramente r600 :O

askani
14-05-2007, 16:31
bene finalmente questo benedetto lunedi è arrivato.
mi spiace sempre quando leggo flemmate per un ask video fra persone, io sono uno di quelli che aveva avuto la fortuna/sfiga di vedere la sk e di parlare di essa con chi l'aveva ai tempi i driver erano i 7.1, che strano io non ho parlato di benck con il possessore ma di pura tecnologia.
questa è una skeda indirizzata al prendere il posto delle aiw, che tutti ben conoscono e quello che mi aveva colpito era che non faceva solo girare i giochi 3d, ma era un prodotto che faceva anche altro sul profili HD.
LO SO CHE NON FREGA A NESSUNO l'alta definizione.
Ora da quello che ho visto in giro mi sembra di essere tornato alla 8500 LE (chi l'aveva si ricorda bene delle smaddonate per i driver, mi craschiava pure SS) poi un bel di la mia 8500le diventa 8500 ed escono i nuovi driver e la sk prende il la verso la concorenza (io l'avevo pure riportata al negozio dicendo è rotta) ma perche a quei tempi avevo preso la 8500 invece di una nvidia, naturalmente per il prezzo 200.000lire contro 400.000 delle nvidia.
Ora è non sono di parte (ho avute nvidia e ati io prendo sempre il miglior rapporto prezzo prestazioni) questa skeda non mi sembra un flop, tranne per il problema delle rops ma bisogna ancora capire bene, ma un nuovo punto di partenza verso un diverso modo di concepire un skda video.
Una cosa pero la devo dire, l'unica cosa che secondo me ha sbagliato ATI e stata la presentazione ma manco il giornalaio sotto casa espone male la sua merce quanto questa nuova amd/ati, qui ne hanno da impare ...........:)

safendi
14-05-2007, 16:33
Daje.........sono i driver!

Aspettiamo qualche mese e vediamo.
Se continuerà ad andare così per me ati potrà chiudere battenti.
Ma fino ad allora non sbilanciamoci troppo.......

Aspettiamo e basta.
Tanto si sapeva che la completa verità su r600 non veniva data tutta oggi.
Ma solo con una release di driver decenti potremo sapere chi è veramente r600 :O

guarda ke appena uscita l'8800gtx bastonava già di brutto la x1950xtx e tutte le skede precedenti, non così poco come la 2900

Defragg
14-05-2007, 16:34
http://www.tomshw.it/graphic.php?guide=20070514
non sò se già postata :)

MaRtH
14-05-2007, 16:35
La mia preoccupazione riguarda lo stato di salute presente e futuro dell'amd come azienda.
Si sa già che amd abbia problemi a far quadrare i conti, dopo oltre un anno di strapotere intel, che l'ha costretta a svendere molte sue cpu. L'acquisizione di ati inoltre ha gravato pesantemente sui bilanci.
Ora, dopo una lunga e tribolata gestazione, r600 arriva al pubblico con (meritato o meno) un coro quasi unanime di commenti negativi. Se a questa pessima pubblicità ci unite il fatto che la hd2900xt venga venduta sottocosto (per l'importanza del progetto dubito fortemente infatti che fosse nelle intenzioni iniziali di proporla a meno di 400 euro), probabilmente i prossimi 6 mesi saranno per amd davvero difficili. E saranno anche i mesi decisivi per il progetto k10, che a questo punto potrebbe essere l'ultima loro chance per rimanere in piedi.

Spero veramente che la situazione migliori, altrimenti gli unici a perderci saremo noi consumatori.


Non essere così tragico, non è che domattina amd fallisce in automatico...

Deviad
14-05-2007, 16:35
Parlando di roba seria, le azioni AMD hanno perso il 50% da Gennaio 2006:
http://finance.google.com/finance?q=AMD
Oggi hanno guadagnato lo 0,6% dopo l'annuncio dei processori quadcore e il lancio di r600 (anche se è un flop).
Ora se una azione perde il 50% non è una cosa bella. Questo perché in matematica finanziaria se una azione vale 100 e poi di colpo vale 50 per ritornare a 100 non bisogna guadagnare il 50% (infatti il 50% di 50 è 25 + 50 che mi sono rimaste = 75) ma quindi il 75%.
Ora mi dite come fa una azienda che potremmo definire tra quelle arrivate a recuperare in poco tempo il 75%? O_o
Ci vorranno anni per recuperare.

zorco
14-05-2007, 16:36
Daje.........sono i driver!

Aspettiamo qualche mese e vediamo.
Se continuerà ad andare così per me ati potrà chiudere battenti.
Ma fino ad allora non sbilanciamoci troppo.......

Aspettiamo e basta.
Tanto si sapeva che la completa verità su r600 non veniva data tutta oggi.
Ma solo con una release di driver decenti potremo sapere chi è veramente r600 :O
probabile che si aprirà un'altro 3d intitolato:x2900xt aspettando i driver:sofico:

MaRtH
14-05-2007, 16:38
http://www.tomshw.it/graphic.php?guide=20070514
non sò se già postata :)


Già vista...

Ecco cosa intendo quando dico che sono sempre più confuso... :confused:

Grey 7
14-05-2007, 16:38
Ti dimentichi di una cosa.
La g80 adesso è già spremuta al max in dx9. Lasciamo perdere le dx10 che sono un caso a parte.

Ma per ora le 8800 sono spremute al massimo in win xp e dx9.
Mentre x2900xt in win xp e dx9 è moooolto acerba.
Quindi fra 4-5 mesi ati potrebbe sfornare dei driver veramente performanti, mentre nvidia non potrà fare altro che stare a guardare perchè ormai la sua tecnologia ha già più di 7 mesi sul campo e quindi il margine di miglioramento anche se positivo sarà ben più basso di quello che potrà fare ati.

Non so se mi sono spiegato ;)

io la penso come te, guardando i grafici ci sono troppe stranezze che fanno capire che il problema è "altrove". D'altronde quando usci g80 erano piu i giochi che non giravano che quelli che invece andavano :asd: non vedo perche non dovrebbe essere piu o meno cosi anche per ati, i margini di miglioramento ci sono e secondo me son maggiori delle 8800 proprio perche sono schede ormai abbastanza ben rodate.
quoto sopra per il thread "aspettando i driver " :ciapet:

Chief
14-05-2007, 16:39
Daje.........sono i driver!

Aspettiamo qualche mese e vediamo.
Se continuerà ad andare così per me ati potrà chiudere battenti.
Ma fino ad allora non sbilanciamoci troppo.......

Aspettiamo e basta.
Tanto si sapeva che la completa verità su r600 non veniva data tutta oggi.
Ma solo con una release di driver decenti potremo sapere chi è veramente r600


Onestamente 3-4 mesi(nvidia avrà fatto gia la sua mossa) per i driver sono davvero eccessivi, io che puntavo molto su questa hd2900xt mi ritrovo ora che non so cosa acquistare, secondo me o si sbrigano a far uscire questi nuovi driver(se sono realmente i driver)o aspettare un refresh da parte di amd/ati e nvidia magari 65 nm

webbuffa
14-05-2007, 16:40
I primi risultati non erano esattamente incoraggianti, ma AMD ci ha detto "ma certo, state usando una scheda DirectX 10 con XP! Una scheda per Vista va usata con Vista"

LOL!

andw7
14-05-2007, 16:40
Ma solo con una release di driver decenti potremo sapere chi è veramente r600 :O

forse hai ragione, e ci spero davvero, ma intanto sappiamo comunque cos'è AMD in questo periodo: un'azienda che lavora male.

MaRtH
14-05-2007, 16:41
Parlando di roba seria, le azioni AMD hanno perso il 50% da Gennaio 2006:
http://finance.google.com/finance?q=AMD
Oggi hanno guadagnato lo 0,6% dopo l'annuncio dei processori quadcore e il lancio di r600 (anche se è un flop).
Ora se una azione perde il 50% non è una cosa bella. Questo perché in matematica finanziaria se una azione vale 100 e poi di colpo vale 50 per ritornare a 100 non bisogna guadagnare il 50% (infatti il 50% di 50 è 25 + 50 che mi sono rimaste = 75) ma quindi il 75%.
Ora mi dite come fa una azienda che potremmo definire tra quelle arrivate a recuperare in poco tempo il 75%? O_o
Ci vorranno anni per recuperare.


E pensare che K10 e R600 dovevano essere la loro rivincita...

Grey 7
14-05-2007, 16:41
guarda ke appena uscita l'8800gtx bastonava già di brutto la x1950xtx e tutte le skede precedenti, non così poco come la 2900

si..ma se ben ti ricordi certi giochi manco partivano, ora la situazione è diversa per sono usciti migliori driver. Si, proprio loro!

leoneazzurro
14-05-2007, 16:42
quindi, potresti approfondire ancora il discorso che mi interessa molto :O

p.s. la differenza tra una unità scalare e una vettoriale qual'è? :stordita:

Una unità scalare lavora su una istruzione e un dato per volta
Una unità vettoriale lavora su una istruzione ma più dati per volta (SIMD - Single instruction multiple data)
Una unità superscalare come quella di R600 lavora su più istruzioni e più dati alla volta MA devono appartenere allo stesso thread

dariox am2
14-05-2007, 16:42
beh occhio che i driver non escano poi troppo tardi,perche se nvdia tirera fuori a breve le 8900, mi sa che per ati sara di nuovo la solita storia...sn troppo indietro...dovevano perlomeno tirare fuori le 2900 in contemporanea con 8800...cosi potevano forse competere....

Deviad
14-05-2007, 16:42
E pensare che K10 e R600 dovevano essere la loro rivincita...

Io la vedo molto buia... a meno che non si fondono con qualche altra azienda...
ma chi è disposto a prendersi una azienda che ha perso il 50%?
Non solo, ciò vuol dire avere parte del capitale a disposizione dimezzato.
Questo vuol dire meno soldi da investire in ricerca, ecc..

Per tornare pienamente in topic secondo me sarebbe una cosa gradita che il corsini e altra gente competente (ci sarà qualcuno con una qualifica seria in elettronica tra noi, non che corsini sia un incompetente, ma ragionando in + persone qualcosa magari salta fuori) aprissero una chat e discutessero approfonditamente di ciò che non va esattamente nella scheda per poter dare un orientamento a chi come me si accinde ad acquistare una scheda video (io ho una x1800xl che su wow fa pena e soffre di texture shimmering come la 7900 del resto, le ho provate tutte e 2).

MaRtH
14-05-2007, 16:43
forse hai ragione, e ci spero davvero, ma intanto sappiamo comunque cos'è AMD in questo periodo: un'azienda che lavora male.


In parte anche perchè i soldi non crescono sugli alberi e loro in questo periodo non ne abbondano...

MaRtH
14-05-2007, 16:45
Io la vedo molto buia... a meno che non si fondono con qualche altra azienda...
ma chi è disposto a prendersi una azienda che ha perso il 50%?
Cioè praticamente vuol dire avere parte del capitale a disposizione dimezzato.


A dire la verità questo è il momento giusto per acquistare azioni AMD, più in basso di così c'è solo il fallimento...

Ti ricordi le azioni della juve quando è andata in B?

Si erano svalutate un casino, quello sarebbe stato il momento ideale per comprarle, perchè si sapeva che peggio di così non sarebbe potuto andare... ;)

Investite in AMD gente! :sofico:

webbuffa
14-05-2007, 16:46
In parte anche perchè i soldi non crescono sugli alberi e loro in questo periodo non ne abbondano...

:cool: Diciamo che ad entrambe le aziende i soldi non abbondano. AMD è stata affossata dallo strapotere Intel con i core2duo, ati invece è stata distrutta dalla grandissima 8800series.
Mica vorranno far raggiungere a intel e nvidia il monopolio LOL ?

JoeLatino
14-05-2007, 16:46
:eek: altro che drivers!!:eek:

http://www.techpowerup.com/reviews/ATI/HD_2900_XT/5

We tested the Radeon HD 2900 XT with ATI's 8.37 driver which is the official benchmarking driver for all R600 reviews. We tried 8.38 and 8.39 too, but they offer only +1% to - 1% performance difference which is within the margin of error of the benchmarks. The only gains you will see in extreme HD resolutions with highest AA and AF settings.

soulseater
14-05-2007, 16:47
Questo scriveva un utente nel thread chiuso :
Originariamente inviato da tony73 Guarda i messaggi
Perchè dal canto mio non riesco proprio a capire il motivo di tutto questo riservo da parte di AMD,cosa aspetta a mostrare le sue carte?? hai una grande scheda per le mani?? vuoi smentire tutte le voci che circoalno da 10 giorni a sta parte?? fallo subito! io da fanatico ATI sin dai tempi di R300 onestamente questo atteggiamento non lo vedo di buon occhio,mi fa solo "disinnamorare" e basta (oltre che fastidioso a prescindere)

Un altro motivo potrebbe essere che la scheda realmente non è niente di che (si fa per dire) rispetto alla concorrenza e fanno di tutto per ritardare la verita',questa ipotesi per me sarebbe ancora piu grave della prima;non puoi avere un ritardo di mesi e mesi ed uscirtene fuori con una GPU cosi' nettamente inferiore (perchè questo sarebbe),non dopo questo tempo! sarebbe la prima volta....bho' alterno giorni di esaltazione a sconforto totale;oggi è la seconda...vediamo Lunedi'.

Sempre è solo IMHO ovviamente.

questo rispondevo io:
E' quello che mi sono chiesto pure io,forse,e dico forse,sapendo che la scheda non è un granchè ripsetto alla concorrenze,non fanno trapelare niente per aumentare l'hype e ottenere quante più prenotazioni possibili degli early adopter,pensa se dicessero da ora che la scheda va come una 8800gts320,chi la prenoterebbe più?.....tutto imho...
Ci abbiamo azzeccato entrambi,purtroppo...
Ai voglia a parlare di driver,quando e se saranno maturi,sarà comunque troppo tardi,come ora è troppo presto per le dx10 e Vista e Halo 2:ciapet: .....

JoeLatino
14-05-2007, 16:48
a proposito di Intel.... a fine luglio ci dovrebbe essere un altro bel taglio dei prezzi delle cpu:D :sofico:

MaRtH
14-05-2007, 16:48
:cool: Diciamo che ad entrambe le aziende i soldi non abbondano. AMD è stata affossata dallo strapotere Intel con i core2duo, ati invece è stata distrutta dalla grandissima 8800series.
Mica vorranno far raggiungere a intel e nvidia il monopolio LOL ?


Si ma di fatto adesso sono una sola grande azienda...

MaRtH
14-05-2007, 16:49
:eek: altro che drivers!!:eek:

http://www.techpowerup.com/reviews/ATI/HD_2900_XT/5

We tested the Radeon HD 2900 XT with ATI's 8.37 driver which is the official benchmarking driver for all R600 reviews. We tried 8.38 and 8.39 too, but they offer only +1% to - 1% performance difference which is within the margin of error of the benchmarks. The only gains you will see in extreme HD resolutions with highest AA and AF settings.


E' per tutta la lunghezza del thread che ne parliamo... :D

Ma sono drivers tutti vicini e AMD non ha potuto avere feedback per riuscire a capire...

Sperem... :rolleyes:

Marko91
14-05-2007, 16:49
In teoria sarebbe meglio averne 320 a 750 MHz che 128 a 1350, ma il problema è che l'organizzazione non è la stessa, dato che le unità di G80 sono scalari pure, mentre quelle di R600 sono raggruppate in gruppi di 5, e possono eseguire al massimo 5 istruzioni per clock sullo stesso pixel.

Quindi più lo shader è complesso, più l'efficenza della Shader Unit aumenta.
G80 invece ha una struttura più dinamica: con shader complessi usa più sp per aumentare le istruzioni eseguite per clock, con shader meno complessi use gli sp per calcolare più pixel.
Giusto?

Defragg
14-05-2007, 16:49
Una unità scalare lavora su una istruzione e un dato per volta
Una unità vettoriale lavora su una istruzione ma più dati per volta (SIMD - Single instruction multiple data)
Una unità superscalare come quella di R600 lavora su più istruzioni e più dati alla volta MA devono appartenere allo stesso thread

chiarissimo! grazie! :)

p.s. hai pvt :)

DartBizu
14-05-2007, 16:50
Iscritto :D Quando esce a 65 nm?? :sofico:

webbuffa
14-05-2007, 16:50
Si ma di fatto adesso sono una sola grande azienda...

:p Cosi' affrontano la causa assieme e spendono meno di parcelle!! LOL! scherzo eh :D

Kharonte85
14-05-2007, 16:54
probabile che si aprirà un'altro 3d intitolato:x2900xt aspettando i driver:sofico:
:sbonk: :sbonk: :sbonk:

In ogni caso ai driver miracolosi ci credo poco.

zorco
14-05-2007, 16:55
:sbonk: :sbonk: :sbonk:

In ogni caso ai driver miracolosi ci credo poco.
sinceramente pure io...

MaRtH
14-05-2007, 16:56
:sbonk: :sbonk: :sbonk:

In ogni caso ai driver miracolosi ci credo poco.


Rimango scettico anch'io, ma continuo a sperare...

Sennò ci sarà un periodo di stallo da paura e con prezzi che rimarranno pressochè invariati sia da amd che da nvidia...

webbuffa
14-05-2007, 16:56
sinceramente pure io...

:) Raga la tecnologia evoluta c'è abbiate pazienza. :D
Alcuni test promettono bene.

Deviad
14-05-2007, 16:58
Va beh, cmq, correzione: oggi AMD ha guadagnato il 4,50% non lo 0.6% per ora.
Quindi vuol dire che il mercato ha gradito particolarmente è l'annuncio dei nuovi processori quadcore e il lancio dell'r600.
Quindi o chi investe in amd è un coglione perché non ha letto come va la scheda, oppure siamo noi dei cretini perché c'è sfuggito qualcosa.

shodan
14-05-2007, 16:58
In teoria sarebbe meglio averne 320 a 750 MHz che 128 a 1350, ma il problema è che l'organizzazione non è la stessa, dato che le unità di G80 sono scalari pure, mentre quelle di R600 sono raggruppate in gruppi di 5, e possono eseguire al massimo 5 istruzioni per clock sullo stesso pixel.

Ma quindi ogni gruppo da 5 può operare solo su un pixel per volta?
Questo significa che se in un determinato rendering basta 1 istruzione per pixel, R600 fornisce solo 1/5 delle sue performance teoriche?

Ciao. :)

7stars
14-05-2007, 16:58
Moderattori scusate davvero per l':ot: ma chiedono insistentemente la linea da San Zero per raffreddare...l'r600

Coppa delle Giovani Promesse - Finale di Andata:

Nvidiosi - DisperAti = 2-0 Marcatori: Dics (9'),Calogero Generato (90°)

Gli Nvidiosi entrano in campo con largo anticipo e iniziano ad allenarsi...una volta scesi in campo i DisperAti non hanno il tempo per fare un buon raffreddamento e vengono dominati dal primo al novantesimo.Ottima la prestazione di Dics che va in gol al 9' e lascia gli avversari nell'Oblivion.Da segnalare un rigore sbagliato da Juarez per i DisperAti.

Finale di Ritorno dopo la Crysis di Agosto 2007

Stay Tuned.

DartBizu
14-05-2007, 16:59
Secondo me con driver ottimizzati bene può stare a ridosso della GTX.... basta vedere certi risultati assurdi che ci sono in giro. Solo non capisco perchè non han aspettato ancora un pò e buttavano fuori scheda e driver tutti in un colpo solo :stordita: . Quello che veramente mi stà sulle balle è che consuma come una ferrari :(

wolf24
14-05-2007, 16:59
un ati supporter deluso in tutto e per tutto... :cry:
penso che di peggio non potevano tirar fuori... una berlina che beve e fa rumore come un ferrari (in questo come il ferrari ci vanno le 8800)

Deviad
14-05-2007, 16:59
Moderatore per favore modera... si sta toccando il ridicolo in questo thread...

Grey 7
14-05-2007, 17:00
:sbonk: :sbonk: :sbonk:

In ogni caso ai driver miracolosi ci credo poco.

io ci spero, ma anche se uscissero, ci stanno sempre quei consumi da centrale nucleare :mc:

webbuffa
14-05-2007, 17:01
io ci spero, ma anche se uscissero, ci stanno sempre quei consumi da centrale nucleare :mc:

:) Pero' nel caso di un netto miglioramento sarebbero giustificati, visto che sono alla portata di una GTX.

gherf
14-05-2007, 17:04
scusate la domanda...

c'è qualke recensione in cui è stato provato seriamente il crossfire??...

xkè ho visto qualke test ma nulla di ke....


grazie mille ;)

ciauzzz

Grey 7
14-05-2007, 17:05
Moderatore per favore modera... si sta toccando il ridicolo in questo thread...

penso che post piu costruttivi ci saranno quando i futuri possessori di questa scheda (ci saranno, non dite di no :asd:)posteranno le loro impressioni qui, al momento è normale che sia cosi...tra l'altro è il giorno di lancio

webbuffa
14-05-2007, 17:05
scusate la domanda...

c'è qualke recensione in cui è stato provato seriamente il crossfire??...

xkè ho visto qualke test ma nulla di ke....


grazie mille ;)

ciauzzz

fino ad ora solo OC e non CF :(

DVD2005
14-05-2007, 17:05
sono al lavoro, non riesco a stare dietro alla quantità di post che scrivete, ma voi non lavorate? con quali soldi la comprate ? :Prrr:

leoneazzurro
14-05-2007, 17:06
Ma quindi ogni gruppo da 5 può operare solo su un pixel per volta?
Questo significa che se in un determinato rendering basta 1 istruzione per pixel, R600 fornisce solo 1/5 delle sue performance teoriche?

Ciao. :)

Si, la cosa è illustrata bene qui:

http://techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=3

webbuffa
14-05-2007, 17:06
penso che post piu costruttivi ci saranno quando i futuri possessori di questa scheda (ci saranno, non dite di no :asd:)posteranno le loro impressioni qui, al momento è normale che sia cosi...tra l'altro è il giorno di lancio

:eek: Mi chiedo con quali driver la lanceranno... quelli ora disponibili sul sito ati ? visto che le schede sono state gia' prodotte.

Grey 7
14-05-2007, 17:07
sono al lavoro, non riesco a stare dietro alla quantità di post che scrivete, ma voi non lavorate? con quali soldi la comprate ? :Prrr:

ma chi la vuole? :asd: io sto cercando di studiare, ma è impossibile, sempre a leggere qui sono, al diavolo gli esami :sofico:

Kharonte85
14-05-2007, 17:07
sono al lavoro, non riesco a stare dietro alla quantità di post che scrivete, ma voi non lavorate? con quali soldi la comprate ? :Prrr:
Tanto (anche se per assurdo :stordita: qualcuno la volesse) nei negozi neanche l'ombra...
ma chi la vuole? :asd: io sto cercando di studiare, ma è impossibile, sempre a leggere qui sono, al diavolo gli esami :sofico:
Idem. :asd:

leoneazzurro
14-05-2007, 17:07
Moderatore per favore modera... si sta toccando il ridicolo in questo thread...

Io non sono il moderatore di sezione, già segnalato comunque a chi di dovere.

MaRtH
14-05-2007, 17:07
Secondo me con driver ottimizzati bene può stare a ridosso della GTX.... basta vedere certi risultati assurdi che ci sono in giro. Solo non capisco perchè non han aspettato ancora un pò e buttavano fuori scheda e driver tutti in un colpo solo :stordita: . Quello che veramente mi stà sulle balle è che consuma come una ferrari :(


Ti riporto l'esempio della mia x1950pro, appena uscita, il famoso shop emiliano, mi aveva fornito in cd separato dalla confezione i drivers beta, anche questi a detta di ati dovevano essere pronti, eppure andavano una ciofeca, i giochi scattavano e a termine di paragone al 3DMark05 totalizzavo sugli 8000 punti, morale della favola a partire dai 6.12 ufficiali la mia scheda sembrava si fosse data una svegliata, avevo guadagnato 2000 e passa punti nell'odioso test e i giochi andavano fluidi, senza crash, e oggi con i 7.4 (rigorosamente CP :D ) vado ancora meglio...

I drivers sono importantissimi....

Chief
14-05-2007, 17:08
Non è possibile che al launch day non si hanno driver decenti per questa scheda video:rolleyes:(ammesso e non concesso che siano realmente i driver,ormai ci credo ben poco) che siano queste le reali potenzialità di r600? non oso immaginare la fascia media :mc:

webbuffa
14-05-2007, 17:09
Non и possibile che al launch day non si hanno driver decenti per questa scheda video:rolleyes:(ammesso e non concesso che siano realmente i driver,ormai ci credo ben poco) che siano queste le reali potenzialitа di r600? non oso immaginare la fascia media :mc:

:) la fascia media, sulla carta, sembra superiore tecnologicamente anche rispetto alla 2900. Quindi una minima speranza rimane. driver permettendo LOL

MaRtH
14-05-2007, 17:10
Non è possibile che al launch day non si hanno driver decenti per questa scheda video:rolleyes:(ammesso e non concesso che siano realmente i driver,ormai ci credo ben poco) che siano queste le reali potenzialità di r600? non oso immaginare la fascia media :mc:


Bisogna solamente aspettare...

La fascia media... Mah misteri, anche qui, vedremo....

Athlon 64 3000+
14-05-2007, 17:10
Non ho capito cosa che non vanno le rop's di R600.
Io penso che con i driver nuovi la situazione della Radeon HD 2900XT migliorerà molto tanto da distanziare per bene la 8800GTS ma credo proprio che la 8800GTX rimarrà in molti giochi molto più performante.

Mister Tarpone
14-05-2007, 17:11
Non è possibile che al launch day non si hanno driver decenti per questa scheda video:rolleyes:(ammesso e non concesso che siano realmente i driver,ormai ci credo ben poco) che siano queste le reali potenzialità di r600? non oso immaginare la fascia media :mc:

ho paura a immaginarmela.... :mc:
mah..

Kharonte85
14-05-2007, 17:12
non oso immaginare la fascia media :mc:
Infatti, se non ci sara' un ribaltamento improvviso prevedo una ecatombe! del resto le caratteristiche delle 2600pro/xt ormai si sanno e sono quasi inferiori alle 8600gts e gt :muro:

Deviad
14-05-2007, 17:12
http://www.pcgameshardware.de/?article_id=601352

Date un occhiata a questi benchmark... anche nvidia non è che brilla in dx10...
e su crysis la situazione è analoga

Chief
14-05-2007, 17:13
la fascia media, sulla carta, sembra superiore tecnologicamente anche rispetto alla 2900. Quindi una minima speranza rimane. driver permettendo LOL
Sulla carta r600 è più innovativa della serie 8xxx ma intanto i test dicono tutt'altra cosa:(

wolf24
14-05-2007, 17:13
ma chi la vuole? :asd: io sto cercando di studiare, ma è impossibile, sempre a leggere qui sono, al diavolo gli esami :sofico:
siamo in due... :ciapet:
cmq non è proprio acquistabile in fatto di rapporto qualità/prezzo...

Tenebra
14-05-2007, 17:15
:) la fascia media, sulla carta, sembra superiore tecnologicamente anche rispetto alla 2900. Quindi una minima speranza rimane. driver permettendo LOL

Si spera, perchè se fra 15 giorni, al termine dell'embargo sui risultati delle 2600/2400, salta fuori che vanno come o peggio delle già pessime 8600, o ancora peggio salta fuori una situazione di caos con driver schifosi come quelli usati per queste recensioni e rimaniamo nel dubbio cira le reali potenzialità, faccio lo sforzo e mi ordino tempo zero una 8800gts320, per quanto poi mi tocchi cambiare scheda madre :muro: (incompatibilità varie, lasciamo stare)

ALMENO che presentino le 2600 con driver semi-decenti. Quindici giorni di feedback da quei poveretti che si prenderanno le 2900xt (ce ne sarà qualcuno, no? :stordita: ) serviranno pure a qualcosa...

FreeMan
14-05-2007, 17:16
Moderattori scusate davvero per l':ot: ma chiedono insistentemente la linea da San Zero per raffreddare...l'r600


non scuso e anzi, sospendo per 5gg

vediamo di mantenere la discussione entro certi binari

>bYeZ<

Mister Tarpone
14-05-2007, 17:17
Infatti, se non ci sara' un ribaltamento improvviso prevedo una ecatombe! del resto le caratteristiche delle 2600pro/xt ormai si sanno e sono quasi inferiori alle 8600gts e gt :muro:

tecnicamente mi sembrano meglio le 2600... però nonostante tutto potrebbero andare peggio delle 8600... ho questa impressione :stordita:

Chief
14-05-2007, 17:18
http://www.pcgameshardware.de/?article_id=601352

Date un occhiata a questi benchmark... anche nvidia non è che brilla in dx10...
e su crysis la situazione è analoga

Se sono reali quei test la 2900xt è un vero flop anche nel dx 10:mc: siamo messi veramente male non ci posso credere dopo tutti i rinvii,dopo tutte le aspettative una scheda come questa introdurla sul mercato è davvero inutile anche come prezzo\prestazioni non brilla per niente...:mbe:

Mister Tarpone
14-05-2007, 17:19
Sulla corte r600 è più innovativa della serie 8xxx ma intanto i test dicono tutt'altra cosa:(

infatti... :fagiano: da qui nascono le mie paure per le medie ati :asd:

wolf24
14-05-2007, 17:20
tecnicamente mi sembrano meglio le 2600... però nonostante tutto potrebbero andare peggio delle 8600... ho questa impressione :stordita:
se il buon giorno si vede dal mattino... :(

webbuffa
14-05-2007, 17:21
Se sono reali quei test la 2900xt è un vero flop anche nel dx 10:mc: siamo messi veramente male non ci posso credere dopo tutti i rinvii,dopo tutte le aspettative una scheda come questa introdurla sul mercato è davvero inutile anche come prezzo\prestazioni non brilla per niente...:mbe:

:) Cmq AMD/ATI l'obbiettivo l'ha raggiunto. La scheda si è piazzata in mezzo alle due concorrenti, anche se ha qualche piccolo picco in basso (driver del casso). Quindi con costo non eccessivo ha prodotto una scheda buona.

Vediamola in questi termini lol altrimenti rosichiamo solamente :doh:

JoeLatino
14-05-2007, 17:21
http://www.pcgameshardware.de/?article_id=601352

Date un occhiata a questi benchmark... anche nvidia non è che brilla in dx10...
e su crysis la situazione è analoga

a dir il vero Nvidia batte AMD di brutto....:D

Kharonte85
14-05-2007, 17:22
http://www.pcgameshardware.de/?article_id=601352

Date un occhiata a questi benchmark... anche nvidia non è che brilla in dx10...
e su crysis la situazione è analoga
Ovviamente bisogna considerare che quello è un gioco di Nvidia, pero' la HD2900xt fa davvero una fiuraccia...:mc:

wolf24
14-05-2007, 17:23
Se sono reali quei test la 2900xt è un vero flop anche nel dx 10:mc: siamo messi veramente male non ci posso credere dopo tutti i rinvii,dopo tutte le aspettative una scheda come questa introdurla sul mercato è davvero inutile anche come prezzo\prestazioni non brilla per niente...:mbe:
infatti è proprio quello che mi preoccupa... l'inutilità di questa scheda...che fetta di mercato si prende...quella dei pazzi o quella degli occhi foderati? a sto punto era meglio attendere altri 6 mesi...sembra più la mossa della disperazione...:O

webbuffa
14-05-2007, 17:23
a dir il vero Nvidia batte AMD di brutto....:D

Pwned! assolutamente, cavolo manco la meta' degli FPS fa!!

A-ha
14-05-2007, 17:25
a sto punto era meglio attendere altri 6 mesi...sembra più la mossa della disperazione...:O

non credo che i clienti AMD/Ati sarebbero stati molto contenti di vedere chi ha NVidia giocare ai nuovi giochi in DX10 (o ai vecchi con patch DX10) ed essere costretti invece a giocare in DX9

Mister Tarpone
14-05-2007, 17:26
se il buon giorno si vede dal mattino... :(

..... :cry:
spero vadono il giusto. perchè io non ho nessuna intenzione di cacciare più di 200 carte per una scheda video ;) ma assolutamente.
quindi spero che almeno queste 2600 siano un buon affare ;)

DVD2005
14-05-2007, 17:26
ho controllato presso un mio fornitore che tratta anche materiale pc, ne ha in arrivo 116 della Sapphire ed il prezzo è di 299.90 + Iva

Chief
14-05-2007, 17:29
:) Cmq AMD/ATI l'obbiettivo l'ha raggiunto. La scheda si è piazzata in mezzo alle due concorrenti, anche se ha qualche piccolo picco in basso (driver del casso). Quindi con costo non eccessivo ha prodotto una scheda buona.

Vediamola in questi termini lol altrimenti rosichiamo solamente :doh:

Non mi sembra in alcuni giochi va peggio della x1950xtx è vero sto rosicando ma amd\ati ha sbagliato a lanciare questa scheda in questo momento,,,non ho capito tanto hype e poi driver catastrofici come si dici in giro,ma da quello che ha detto il Corsini con il nuovo set di driver non cambia assolutamente nulla,solamente in oblivion c'è un'aumento di prestazioni da quello che ho potuto capire quindi non so che pensare e sopratutto, mi tengo la mia 1900xtx per il momento

webbuffa
14-05-2007, 17:29
ho controllato presso un mio fornitore che tratta anche materiale pc, ne ha in arrivo 116 della Sapphire ed il prezzo è di 299.90 + Iva

:) Prezzo molto corretto.

microcip
14-05-2007, 17:29
in .de le gecube si trovano disponibili a 389€

wolf24
14-05-2007, 17:30
non credo che i clienti AMD/Ati sarebbero stati molto contenti di vedere chi ha NVidia giocare ai nuovi giochi in DX10 (o ai vecchi con patch DX10) ed essere costretti invece a giocare in DX9
io che sono un cliente amd ati dopo averlo visto con i miei occhi penso che forse sarò costretto a comperare la mia prima nvidia a malincuore se queste sono le premesse... vabbè che uno è propenso per una casa, ma ciecato no... per quasi 400 euro ci prendo una gts da 640 anche oc o oc2...ed è proprio questo che mi delude più di tutti, il rapporto prezzo/prestazioni che ati ha sempre avuto, a mancare del tutto in questo prodotto...

webbuffa
14-05-2007, 17:31
in .de le gecube si trovano disponibili a 389€

questa volta le abbiamo meno noi in ITA!

Defragg
14-05-2007, 17:31
ho controllato presso un mio fornitore che tratta anche materiale pc, ne ha in arrivo 116 della Sapphire ed il prezzo è di 299.90 + Iva

buono :)

webbuffa
14-05-2007, 17:32
io che sono un cliente amd ati dopo averlo visto con i miei occhi penso che forse sarò costretto a comperare la mia prima nvidia a malincuore se queste sono le premesse... vabbè che uno è propenso per una casa, ma ciecato no...:(

:) quale sceglieresti tra GTS 320 GTS 640 e GTX?

Mister Tarpone
14-05-2007, 17:32
:) Prezzo molto corretto.

mah....:stordita: però se penso che si trovano le gtx a 460€....
questa scheda io la metterei a 300/330€ :fagiano:

DVD2005
14-05-2007, 17:33
:) Prezzo molto corretto.

buono :)

bene, è un fornitore onesto allora ;)

webbuffa
14-05-2007, 17:34
mah....:stordita: perт se penso che si trovano le gtx a 460Ђ....
questa scheda io la metterei a 300/330Ђ :fagiano:

:) Se la GTX per "anzianità" smantellasse un po' i prezzi ci farebbe cosa gradita lol. Visto che ora è UP da 7 mesi. E metterebbe anche in serissima difficoltà ATI.

leoneazzurro
14-05-2007, 17:34
http://www.anandtech.com/video/showdoc.aspx?i=2988

"In a wild bout of pure speculation on our part, we would have to guess about one other problem that popped up during R600's creation. It seems to us that AMD was unable to get their MSAA hardware to work properly and was forced to use shader hardware to handle MSAA rather than go back for yet another silicon revision. Please know that this is not a confirmed fact, but just an educated guess."

Sigh... direi che questo spiegherebbe parecchio.
Se fosse vero, c'è da dire che non è detto che le 2600 e le 2400 soffrano degli stessi problemi, e si spera che anche R650 possa risolvere il problema.

Mister Tarpone
14-05-2007, 17:36
:) Se la GTX per "anzianità" smantellasse un po' i prezzi ci farebbe cosa gradita lol. Visto che ora è UP da 7 mesi.

infatti è passata dai 700€ iniziali ai 500/460€ attuali :)

webbuffa
14-05-2007, 17:37
infatti è passata dai 700€ iniziali ai 500/460€ attuali :)

:) diciamo che ci ha messo un bel pò LOL

wolf24
14-05-2007, 17:41
:) quale sceglieresti tra GTS 320 GTS 640 e GTX?
boh... una che rientra anche nel mio budget... una gts 320 a 270 euro non è malaccio...a meno che ati non abbassasse i prezzi alla grande... tipo un 300 per questa scheda... allora ci potrei stare anche se tengo molto anche al resto (consumi e rumorosità che di certo non sono a favore di ati):(

Defragg
14-05-2007, 17:41
:) diciamo che ci ha messo un bel pò LOL

beh...sei mesi senza concorrenza sono un incentivo a tenere il prezzo alto ;)

Chief
14-05-2007, 17:43
http://www.anandtech.com/video/showdoc.aspx?i=2988

"In a wild bout of pure speculation on our part, we would have to guess about one other problem that popped up during R600's creation. It seems to us that AMD was unable to get their MSAA hardware to work properly and was forced to use shader hardware to handle MSAA rather than go back for yet another silicon revision. Please know that this is not a confirmed fact, but just an educated guess."

Sigh... direi che questo spiegherebbe parecchio.
Se fosse vero, c'è da dire che non è detto che le 2600 e le 2400 soffrano degli stessi problemi, e si spera che anche R650 possa risolvere il problema.

Speriamo che sia effetivamente così perchè altrimenti la vedo molto male per amd\ati comunque il 15 maggio uscira la demo di lost planet vedremo cosa succederà

DVD2005
14-05-2007, 17:44
:) diciamo che ci ha messo un bel pò LOL

diciamo che dal loro punto di vista hanno fatto bene non avendo concorrenza.

webbuffa
14-05-2007, 17:44
beh...sei mesi senza concorrenza sono un incentivo a tenere il prezzo alto ;)

:) Giustissimo.
Spero però che Nvidia capisca il momento di grave stallo del concorrente e gli dia la mazzata finale mettendo ad un prezzo competitivo nell'ordine dei 400ˆ la GTX e 500-550ˆ la ultra. Sicuramente se lo facesse non ci sarebbe scelta per noi acquirenti.

halduemilauno
14-05-2007, 17:45
Speriamo che sia effetivamente così perchè altrimenti la vedo molto male per amd\ati comunque il 16 maggio uscira la demo di lost planet vedremo cosa succederà

mi pare il 15 alle 18.
;)

Grey 7
14-05-2007, 17:46
Giustissimo.
Spero però che Nvidia capisca il momento di grave stallo del concorrente e gli dia la mazzata finale mettendo ad un prezzo competitivo nell'ordine dei 400ˆ la GTX e 500-550ˆ la ultra. Sicuramente se lo facesse non ci sarebbe scelta per noi acquirenti.
ma capisci, non ha bisogno di questo...ci sono gia le 2 8800gts che possono tranquillamente togliere il mercato a questa ati. Ripeto, se la situazione va avanti cosi, saranno tempi duri. Una piccola dimostrazione nvidia l'ha gia data, chi vuol capire capisca

Mister Tarpone
14-05-2007, 17:46
:) diciamo che ci ha messo un bel pò LOL

e vabbè... si vede che li valeva tutti però... ;) infatti ancora adesso è la vga più potente che c'è, insieme alla ultra ;)

jp77
14-05-2007, 17:53
altra recensione fatta molto bene

http://www.anandtech.com/video/showdoc.aspx?i=2988&p=1

Chief
14-05-2007, 18:00
altra recensione fatta molto bene

http://www.anandtech.com/video/showdoc.aspx?i=2988&p=1

Appena vengono abilitati i filtri le prestazione scendono in modo assurdo...c'è qualcosa che non va :doh:

jok3r87
14-05-2007, 18:01
http://www.anandtech.com/video/showdoc.aspx?i=2988

"In a wild bout of pure speculation on our part, we would have to guess about one other problem that popped up during R600's creation. It seems to us that AMD was unable to get their MSAA hardware to work properly and was forced to use shader hardware to handle MSAA rather than go back for yet another silicon revision. Please know that this is not a confirmed fact, but just an educated guess."

Sigh... direi che questo spiegherebbe parecchio.
Se fosse vero, c'è da dire che non è detto che le 2600 e le 2400 soffrano degli stessi problemi, e si spera che anche R650 possa risolvere il problema.

Quanto potrebbe influire questo sulle prestazioni della scheda ?

Grey 7
14-05-2007, 18:02
altra recensione fatta molto bene

http://www.anandtech.com/video/showdoc.aspx?i=2988&p=1

su r6 vegas se l'è cavata abbastanza bene...ma ci sono dei cali che tutt'ora non riesco a spiegarmi.

jp77
14-05-2007, 18:03
Appena vengono abilitati i filtri le prestazione scendono in modo assurdo...c'è qualcosa che non va :doh:

come è già stato detto dagli "esperti" R600 soffre molto l'applicazione dell' antialiasing (AA)

Deviad
14-05-2007, 18:06
cmq su molti altri forum ci sono appena 3 pagine di thread in croce dedicati al lancio della scheda o al max una decina...
questi benchmark non hanno fatto "molto scalpore"... nel senso che mi sarei aspettato pagine e pagine di "fuck ATI" e robe così...
in + oggi il titolo AMD guadagna... può essere che i driver che stanno per uscire siano davvero miracolosi?

Tenebra
14-05-2007, 18:09
Quanto potrebbe influire questo sulle prestazioni della scheda ?

In pratica, se fosse come dicono loro, con AA HD2900xt andrebbe a cannibalizzare sè stessa visto che l'unità che dovrebbe farlo non va, utilizzando gli shader per calcolarlo, e quindi perdendo da una parte quello che ci guadagna dall'altra.
Sembra plausibile come ipotesi... ma sarebbe una mezza truffa mettere sul mercato una scheda con unità difettose già di progetto.

Grey 7
14-05-2007, 18:09
come è già stato detto dagli "esperti" R600 soffre molto l'applicazione dell' antialiasing (AA)

e dire che il filtraggio era uno dei punti di forza delle schede ati..bah :muro:

in + oggi il titolo AMD guadagna... può essere che i driver che stanno per uscire siano davvero miracolosi?

no..è una ovvia conseguenza della borsa

pierluigi86
14-05-2007, 18:09
cmq su molti altri forum ci sono appena 3 pagine di thread in croce dedicati al lancio della scheda o al max una decina...
questi benchmark non hanno fatto "molto scalpore"... nel senso che mi sarei aspettato pagine e pagine di "fuck ATI" e robe così...
in + oggi il titolo AMD guadagna... può essere che i driver che stanno per uscire siano davvero miracolosi?

se i futuri driver fossero miracolosi probabilmente avrebbero rimandato il lancio.
ormai è chiaro r600 non è stato un buon progetto.

dariox am2
14-05-2007, 18:14
amd deve solo pregare che come gia detto da alcuni utenti, la nvdia non mette la gtx sull ordine dei 400 euri...altrimenti si metterebbe moolto peggio.....e nn e detto che nvidia non lo faccia...non manca molto alla soglia dei 400....

Deviad
14-05-2007, 18:15
Io vorrei vedere una ultra sui 500 € :(

jok3r87
14-05-2007, 18:19
In pratica, se fosse come dicono loro, con AA HD2900xt andrebbe a cannibalizzare sè stessa visto che l'unità che dovrebbe farlo non va, utilizzando gli shader per calcolarlo, e quindi perdendo da una parte quello che ci guadagna dall'altra.
Sembra plausibile come ipotesi... ma sarebbe una mezza truffa mettere sul mercato una scheda con unità difettose già di progetto.

Ma quindi l'unità c'è ma non funziona a dovere a causa di problemi fisici, oppure, a causa di problemi software? E quindi, in un futuro non troppo lontano si potrebbe riuscire a farla funzionare. Certo che è molto strano che abbiano presentato una vga con un simile problema.

pierluigi86
14-05-2007, 18:19
amd deve solo pregare che come gia detto da alcuni utenti, la nvdia non mette la gtx sull ordine dei 400 euri...altrimenti si metterebbe moolto peggio.....e nn e detto che nvidia non lo faccia...non manca molto alla soglia dei 400....

una 8800 gtx a 400 euro!!! tra 1 mese potrebbe pure avvenire.

leoneazzurro
14-05-2007, 18:20
Quanto potrebbe influire questo sulle prestazioni della scheda ?

Parecchio. In pratica più si sale di risoluzione e di sample più gli shader sono sottoposti a maggiore "fatica". Ossia mentre il carico di lavoro per G80 cresce "linearmente" con la risoluzione con R600 crescerebbe "esponenzialmente", ed è per questo motivo che pur avendo un grande vantaggio in termini di banda passante le prestazioni comparative peggiorano al salire di risoluzione e AA.
Poi questa situazione va a pesare sullo scheduling degli shader già abbastanza incasinato di per sè. Ho una mezza idea che se non fosse per questo motivo, vedremmo ben altri risultati ad alte risoluzioni con filtri attivati.
Immagino che i drivers successivi miglioreranno la situazione (specialmente dove R600 è indietro perfino alla X1950XTX) ma direi che in queste condizioni la GTX è semplicemente inarrivabile.
Ora, la cosa è stata fatta di proposito o no? Nel primo caso, direi che gli ingegneri ATI sono dei begli esempi di "Tafazzeria". Nel secondo caso, direi che senza questo problema R600 non avrebbe avuto grosse difficoltà a competere con G80 ad alte risoluzioni/con AA, il che lascerrebbe ben sperare per il respin a 65 nm.

jok3r87
14-05-2007, 18:33
Parecchio. In pratica più si sale di risoluzione e di sample più gli shader sono sottoposti a maggiore "fatica". Ossia mentre il carico di lavoro per G80 cresce "linearmente" con la risoluzione con R600 crescerebbe "esponenzialmente", ed è per questo motivo che pur avendo un grande vantaggio in termini di banda passante le prestazioni comparative peggiorano al salire di risoluzione e AA.
Poi questa situazione va a pesare sullo scheduling degli shader già abbastanza incasinato di per sè. Ho una mezza idea che se non fosse per questo motivo, vedremmo ben altri risultati ad alte risoluzioni con filtri attivati.
Immagino che i drivers successivi miglioreranno la situazione (specialmente dove R600 è indietro perfino alla X1950XTX) ma direi che in queste condizioni la GTX è semplicemente inarrivabile.
Ora, la cosa è stata fatta di proposito o no? Nel primo caso, direi che gli ingegneri ATI sono dei begli esempi di "Tafazzeria". Nel secondo caso, direi che senza questo problema R600 non avrebbe avuto grosse difficoltà a competere con G80 ad alte risoluzioni/con AA, il che lascerrebbe ben sperare per il respin a 65 nm.

Forse pensano di poter limitare i danni via software, perchè, magari farlo via hardware avrebbe portato un ulteriore ritardo.

Alexkidd85
14-05-2007, 18:34
Parecchio. In pratica più si sale di risoluzione e di sample più gli shader sono sottoposti a maggiore "fatica". Ossia mentre il carico di lavoro per G80 cresce "linearmente" con la risoluzione con R600 crescerebbe "esponenzialmente", ed è per questo motivo che pur avendo un grande vantaggio in termini di banda passante le prestazioni comparative peggiorano al salire di risoluzione e AA.
Poi questa situazione va a pesare sullo scheduling degli shader già abbastanza incasinato di per sè. Ho una mezza idea che se non fosse per questo motivo, vedremmo ben altri risultati ad alte risoluzioni con filtri attivati.
Immagino che i drivers successivi miglioreranno la situazione (specialmente dove R600 è indietro perfino alla X1950XTX) ma direi che in queste condizioni la GTX è semplicemente inarrivabile.
Ora, la cosa è stata fatta di proposito o no? Nel primo caso, direi che gli ingegneri ATI sono dei begli esempi di "Tafazzeria". Nel secondo caso, direi che senza questo problema R600 non avrebbe avuto grosse difficoltà a competere con G80 ad alte risoluzioni/con AA, il che lascerrebbe ben sperare per il respin a 65 nm.

Io sono d'accordissimo con te (anche perché ne capisco poco :p) e ho capito il concetto ma una cosa mi viene in mente:
Ma gli ingegneri ati,non si sono accorti di questo problema!?Non pensi lo abbiano notato? E allora cosa è successo? NOn sono riusciti a cambiare tutto il progetto e l'hanno fatta uscire così lo stesso?

[KS]Zanna
14-05-2007, 18:38
Nel secondo caso, direi che senza questo problema R600 non avrebbe avuto grosse difficoltà a competere con G80 ad alte risoluzioni/con AA, il che lascerrebbe ben sperare per il respin a 65 nm.

Mi auguro che sia effettivamente come dici, anche se la prima considerazione va ai test con STALKER (senza AA e con HDR "di serie") e direi che il confronto, anche senza anti aliasing, è impietoso.

leoneazzurro
14-05-2007, 18:42
Forse pensano di poter limitare i danni via software, perchè, magari farlo via hardware avrebbe portato un ulteriore ritardo.

Credo di si, del resto AMD punta a utilizzare R600 anche come coprocessore per i calcoli matematici, quindi era interessata a farlo uscire il prima possibile.

Io sono d'accordissimo con te (anche perché ne capisco poco :p) e ho capito il concetto ma una cosa mi viene in mente:
Ma gli ingegneri ati,non si sono accorti di questo problema!?Non pensi lo abbiano notato? E allora cosa è successo? NOn sono riusciti a cambiare tutto il progetto e l'hanno fatta uscire così lo stesso?

Avrebbero dovuto rifare un ulteriore respin della GPU, quindi altri 3 mesi minimo di ritardo (sempre se c'è un difetto e non si tratta di una scelta progettuale). Siccome a questo punto è probabile che R650 esca in autunno, è altrettanto probabile che AMD abbia fatto uscire la scheda nonostante il difetto posizionandola in una fascia inferiore per evitare di rimetterci del tutto. Del resto la scheda è comunque superiore alla X1950XTX.

Io propendo per il difetto di fabbricazione, perchè avere 512 bit di bus e non poterli sfruttare a causa della mancanza di circuiteria MSAA mi sembra troppo palese per essere un errore di progetto.

leoneazzurro
14-05-2007, 18:44
Zanna;17120692']Mi auguro che sia effettivamente come dici, anche se la prima considerazione va ai test con STALKER (senza AA e con HDR "di serie") e direi che il confronto, anche senza anti aliasing, è impietoso.

Mancano anche molte ottimizzazioni, se è vero che ci sono stati parecchi respin della CPU, è ipotizzabile che il personale che si occupa dei drivers non abbia avuto in realtà le schede su cui lavorare 7 mesi fa, ma molto più tardi. Il che spiegherebbe anche lo stato molto "beta" dei drivers.

belin
14-05-2007, 18:50
Le ROPs sono 16 ma possono lavorare su più sample per clock. Il problema è che secondo B3D utilizzano parte degli shader per effettuare i calcoli sui sample, per cui quando applicano AA in realtà "consumano" potenza degli shader, riducendo il frame rate. E' una scelta volta a risparmiare spazio sul die, ma IMHO a questo punto tanto valeva lasciar perdere il bus a 512 bit e il tessellatore hardware e potenziare maggiormente ROPs e filtraggio.

Per quanto riguarda i pixel shader, trovo stranissimo il test sinterico del 3Dmark 06, dove la Xt è alla pari della GTS, mentre dovrebbe essere parecchio avanti.

http://www.anandtech.com/video/showdoc.aspx?i=2988

"In a wild bout of pure speculation on our part, we would have to guess about one other problem that popped up during R600's creation. It seems to us that AMD was unable to get their MSAA hardware to work properly and was forced to use shader hardware to handle MSAA rather than go back for yet another silicon revision. Please know that this is not a confirmed fact, but just an educated guess."

Sigh... direi che questo spiegherebbe parecchio.
Se fosse vero, c'è da dire che non è detto che le 2600 e le 2400 soffrano degli stessi problemi, e si spera che anche R650 possa risolvere il problema.

In pratica più si sale di risoluzione e di sample più gli shader sono sottoposti a maggiore "fatica". Ossia mentre il carico di lavoro per G80 cresce "linearmente" con la risoluzione con R600 crescerebbe "esponenzialmente", ed è per questo motivo che pur avendo un grande vantaggio in termini di banda passante le prestazioni comparative peggiorano al salire di risoluzione e AA.
Poi questa situazione va a pesare sullo scheduling degli shader già abbastanza incasinato di per sè. Ho una mezza idea che se non fosse per questo motivo, vedremmo ben altri risultati ad alte risoluzioni con filtri attivati.
Immagino che i drivers successivi miglioreranno la situazione (specialmente dove R600 è indietro perfino alla X1950XTX) ma direi che in queste condizioni la GTX è semplicemente inarrivabile.

...mmm...mmm...mumble...molto interessante quello che hai scritto, grazie. :) Tutto ciò mi fa molto pensare, soprattutto dopo aver visto questi risultati:

http://techreport.com/reviews/2007q2/radeon-hd-2900xt/gpu-3dm-vertex-simple.gif

http://techreport.com/reviews/2007q2/radeon-hd-2900xt/gpu-3dm-vertex-complex.gif

http://techreport.com/reviews/2007q2/radeon-hd-2900xt/gpu-3dm-pixel-1600.gif

http://techreport.com/reviews/2007q2/radeon-hd-2900xt/gpu-3dm-particles.gif

http://techreport.com/reviews/2007q2/radeon-hd-2900xt/gpu-3dm-perlin.gif

...c'è qualcosa che non torna...dove cavolo finisce tutta questa capacità di calcolo??? :confused:

appleroof
14-05-2007, 18:50
come è già stato detto dagli "esperti" R600 soffre molto l'applicazione dell' antialiasing (AA)

Se si pensa che era il punto di forza delle Ati delle ultime generazioni, mi sembra un grosso regresso, obiettivamente....

se i futuri driver fossero miracolosi probabilmente avrebbero rimandato il lancio.
ormai è chiaro r600 non è stato un buon progetto.

I driver possono molto, lo dimostrano gli ultimi 8.38 per Ati e gli ultimi 158.42 per Nvidia, margini di miglioramento ci sono da entrambe le parti, ma ovviamente quello da solo non basta...

Deviad
14-05-2007, 18:56
http://www.hardforum.com/showthread.php?t=1189142&page=12
Giudicate voi le differenze... sono veramente minime.
Io ho notato sul mio 19" LCD che i cavi, i pali, la linea dell'orizzonte si vedono meglio con la ATI, sono + definiti; mentre il capannone in basso a destra non si può guardare, quelle fasce che percorrono la tettoia sono zigzagate mentre la gtx applica un effetto blur tipo che elimina questo problema.

Blindman
14-05-2007, 18:57
L'unica speranza è che i driver riescano col tempo a portare ALMENO un 10-15% in più di prestazioni.....

A quel punto....sotto i 400 euro potrebbe avere un senso

leoneazzurro
14-05-2007, 18:58
http://www.hardforum.com/showthread.php?t=1189142&page=12
Guardate le 2 immagini, guardate i cavi dei tralicci.
L'AA della gtx è molto meglio.

Per una buona comparativa con screenshot delle nuove modalità AA, dai un'occhiata alla recensione di Tech Report, e ricorda che i risultati variano da applicazione a applicazione.

Iantikas
14-05-2007, 19:03
aldilà se sia un buon aquisto o meno...ma negli shop on-line italiani si trova già???...in quelli ke conosco io nn se ne vede traccia...ma la disponibilità era x oggi o è data x un altro giorno?...ciao

belin
14-05-2007, 19:04
http://www.hardforum.com/showthread.php?t=1189142&page=12
Guardate le 2 immagini, guardate i cavi dei tralicci.
L'AA della gtx è molto meglio.

...l'abbiamo già detto cento volte, quelle immagini non sono indicative in quanto compresse in modo differente. Tutte le recensioni di oggi riportano un AA di R600 sostanzialmente pari o leggermente migliore di G80 (già di per se ottimo).

Guarda qui, si capisce molto bene: Antialiasing image quality - GPUs side by side (http://techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=7)

:)

Deviad
14-05-2007, 19:08
...l'abbiamo già detto cento volte, quelle immagini non sono indicative in quanto compresse in modo differente. Tutte le recensioni di oggi riportano un AA di R600 sostanzialmente pari o leggermente migliore di G80 (già di per se ottimo).

Guarda qui, si capisce molto bene: Antialiasing image quality - GPUs side by side (http://techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=7)

:)

Veramente quella è la "loseless" version (PNG lossless version) delle immagini che avevo linkato ieri, da cui si deduce quello che hai detto tu... ^^

pierluigi86
14-05-2007, 19:09
analisi tecnica r600 su tom (http://www.tomshw.it/graphic.php?guide=20070515)

Deviad
14-05-2007, 19:19
Letta... cmq mi aspettavo un commento sul forum dal corsini...

CiAoRaGa1
14-05-2007, 19:21
http://img402.imageshack.us/img402/2226/dscn1696us2.th.jpg (http://img402.imageshack.us/my.php?image=dscn1696us2.jpg)

Ormai erano prenotate....vedremo come vanno in crossfire su 975...

Verro
14-05-2007, 19:26
http://img402.imageshack.us/img402/2226/dscn1696us2.th.jpg (http://img402.imageshack.us/my.php?image=dscn1696us2.jpg)

Ormai erano prenotate....vedremo come vanno in crossfire su 975...


cavolo, le avevi prenotato senza sapere come andavano!?? hai rischiato di brutto, cmq complimenti e speriamo bene!!:D

Mister Tarpone
14-05-2007, 19:26
http://img402.imageshack.us/img402/2226/dscn1696us2.th.jpg (http://img402.imageshack.us/my.php?image=dscn1696us2.jpg)

Ormai erano prenotate....vedremo come vanno in crossfire su 975...

:( ...

Skullcrusher
14-05-2007, 19:27
http://img402.imageshack.us/img402/2226/dscn1696us2.th.jpg (http://img402.imageshack.us/my.php?image=dscn1696us2.jpg)

Ormai erano prenotate....vedremo come vanno in crossfire su 975...

Molto bene, finalmente qualcuno che le può testare di persona :D

Alexkidd85
14-05-2007, 19:29
http://img402.imageshack.us/img402/2226/dscn1696us2.th.jpg (http://img402.imageshack.us/my.php?image=dscn1696us2.jpg)

Ormai erano prenotate....vedremo come vanno in crossfire su 975...

Molto belle...mi piacerebbe sapere anche la questione "8 pin" come vanno o meno...

Ma si trovano sti adattatori!?

Scrambler77
14-05-2007, 19:30
Certo che con questa prima disfatta con R600 e con ciò che sta facendo la concorrenza, per AMD si profila un futuro davvero burrascoso: http://www.tomshw.it/news.php?newsid=10054

Scrambler77
14-05-2007, 19:31
Molto bene, finalmente qualcuno che le può testare di persona :D

Perchè scusa HWUpgrade le ha testate per telefono?? :rolleyes:

Grey 7
14-05-2007, 19:32
che c'entra, l'analisi piu approfondita la fa sempre l'utente a casa sua, perche puo provare piu giochi, smanettare con i settaggi, ecc :mbe:

Scrambler77
14-05-2007, 19:33
che c'entra, l'analisi piu approfondita la fa sempre l'utente a casa sua, perche puo provare piu giochi, smanettare con i settaggi ecc :mbe:

Si ma la fa anche "a modo suo"... ;)

Pat77
14-05-2007, 19:34
Come ho scritto nel commento alla review si grida al vento troppo facilmente, sta tra una GTS e una GTX come era previsto e nell'unico mezzo titolo dx10, a parte il basso frame rate, fa vedere buone cose.
Che consumava si diceva da 4 mesi.

Io dico, e se domani che, giorno che guarda caso esce la Demo di Lost Planet, giusto giusto pensato per uno sfruttamento migliore delle dx10, superando la versione console (che era una sorta di dx 9,5), i risultati dovessero essere un tantino diversi?

La cosa che mi scoccia è l'NDA sulle prestazioni di x2600xt che si vocifera avesse problemi di driver ancora peggiori.
Driver perchè quando si hanno risultati scostanti è ovvio che siano in parte loro i colpevoli, oltre il supporto dei giochi che manco sanno che scheda sia la x2900.

Pk77

halduemilauno
14-05-2007, 19:35
Perchè scusa HWUpgrade le ha testate per telefono?? :rolleyes:

questa è buona.
:D

CiAoRaGa1
14-05-2007, 19:37
http://img525.imageshack.us/img525/3060/dscn1700kb4.th.jpg (http://img525.imageshack.us/my.php?image=dscn1700kb4.jpg)

Questi gli accessori di sapphire, niente adattatori 6-8pin

Alexkidd85
14-05-2007, 19:39
http://img525.imageshack.us/img525/3060/dscn1700kb4.th.jpg (http://img525.imageshack.us/my.php?image=dscn1700kb4.jpg)

Questi gli accessori di sapphire, niente adattatori 6-8pin

Triste conferma....questa IMHO è una gran paranoia...e purtroppo per ora si trovano solo queste in italia...
Mi sa che neanche la his li darà...mia amaaaata :D :(

Stig
14-05-2007, 19:40
http://img525.imageshack.us/img525/3060/dscn1700kb4.th.jpg (http://img525.imageshack.us/my.php?image=dscn1700kb4.jpg)

Questi gli accessori di sapphire, niente adattatori 6-8pin

cavolo si so proprio sprecati!! nemmeno gli sdoppiatori normali ci hanno messo!:rolleyes:

bluefrog
14-05-2007, 19:41
Deviad senza offesa, penso tu abbia bisogno di un bel paio d'occhiali :)

L'antialiasing nella foto dei tralicci è migliore quello di ATI se guardi BENE (e in alcune zone neanche di poco se vogliamo essere pignoli) e non il contrario (può darsi anche tu sia sbagliato...vabbè)

aprendo le foto (oppure scaricandole - c'è lo zip da 4mb nel sito) ti accorgerai che c'è scritto "xt" e "gtx".... ricontrolla ;)

jp77
14-05-2007, 19:42
http://img525.imageshack.us/img525/3060/dscn1700kb4.th.jpg (http://img525.imageshack.us/my.php?image=dscn1700kb4.jpg)

Questi gli accessori di sapphire, niente adattatori 6-8pin

quando farai le tue prove puoi dedicare un po di tempo alle differenze prestazionali collegando 2 6pin rispetto a 6pin+8pin soprattutto in overclock...grazie :)

Alessio.16390
14-05-2007, 19:43
http://img525.imageshack.us/img525/3060/dscn1700kb4.th.jpg (http://img525.imageshack.us/my.php?image=dscn1700kb4.jpg)

Questi gli accessori di sapphire, niente adattatori 6-8pin

Oscura i CD-Key :ciapet:

Grey 7
14-05-2007, 19:44
azz..è vero :asd: :asd:

Deviad
14-05-2007, 19:44
Deviad senza offesa, penso tu abbia bisogno di un bel paio d'occhiali :)

L'antialiasing nella foto dei tralicci è migliore quello di ATI se guardi BENE (e in alcune zone neanche di poco se vogliamo essere pignoli) e non il contrario (può darsi anche tu sia sbagliato...vabbè)

aprendo le foto (oppure scaricandole - c'è lo zip da 4mb nel sito) ti accorgerai che c'è scritto "xt" e "gtx".... ricontrolla ;)

Ma e' quello che ho detto. Dove ho scritto che gtx fa meglio?
Ho solo detto che il capannone in basso a destra non si puo' vedere... per il resto la ati va bene. ;)
Lo vedi che le linee di quelle fasce gialle sul capannone sono tipo a zizag? La nvidia risolve grossolanamente il problema usando un effetto blur.
Se si va a vedere i cavi e ad esempio il primo traliccio vicino alla sinistra dello schermo è lampante che le immagini con la ATI sono + nitide.

webbuffa
14-05-2007, 19:45
:) Complimenti dell'acquisto e buon testing! :D Dacci piu' conferme e smentite possibili eh :D

jok3r87
14-05-2007, 19:46
http://img525.imageshack.us/img525/3060/dscn1700kb4.th.jpg (http://img525.imageshack.us/my.php?image=dscn1700kb4.jpg)

Questi gli accessori di sapphire, niente adattatori 6-8pin

Ma che te ne fai di due black box ? :D

CiAoRaGa1
14-05-2007, 19:47
I cd key del power dvd6 ve li regalo :D

webbuffa
14-05-2007, 19:48
I cd key del power dvd6 ve li regalo :D

:p lol anche quello del treddi' mark mi sa lol

bluefrog
14-05-2007, 19:48
Ma e' quello che ho detto. Dove ho scritto che gtx fa meglio?
Ho solo detto che il capannone in basso a destra non si puo' vedere... per il resto la ati va bene. ;)

Prendendolo dal quote di leoneazzurro, questo è quanto hai scritto

Originariamente inviato da Deviad
http://www.hardforum.com/showthread....189142&page=12
Guardate le 2 immagini, guardate i cavi dei tralicci.
L'AA della gtx è molto meglio. <---sbagliato!

CiAoRaGa1
14-05-2007, 19:49
quando farai le tue prove puoi dedicare un po di tempo alle differenze prestazionali collegando 2 6pin rispetto a 6pin+8pin soprattutto in overclock...grazie :)

ho cambiato l'ali per spingerle a manetta subito, e mi vuoi togliere questo piacere? ;)

CiAoRaGa1
14-05-2007, 19:49
:p lol anche quello del treddi' mark mi sa lol

azzo che vista sopraffina....

webbuffa
14-05-2007, 19:51
azzo che vista sopraffina....

LOL copri tutto prima che si facciano razzie di cd key! :D

jp77
14-05-2007, 19:51
ho cambiato l'ali per spingerle a manetta subito, e mi vuoi togliere questo piacere? ;)

assolutamente ;) spremile per bene...ma se avanzi tempo tieni presente la richiesta :read:
ciao

CiAoRaGa1
14-05-2007, 19:52
assolutamente ;) spremile per bene...ma se avanzi tempo tieni presente la richiesta :read:
ciao

in test da mercoledì sera ;)

jp77
14-05-2007, 19:53
Prendendolo dal quote di leoneazzurro, questo è quanto hai scritto

Originariamente inviato da Deviad
http://www.hardforum.com/showthread....189142&page=12
Guardate le 2 immagini, guardate i cavi dei tralicci.
L'AA della gtx è molto meglio. <---sbagliato!

le differenze (che non ci sono IMHO) tra AA di R600 e G80 si vedono bene da qui

http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=7

dantes76
14-05-2007, 19:53
AMD/ATI tesselation demo shown on R600 tech days in Tunisia.

http://www.youtube.com/watch?v=SgQj4JRgMo0

Deviad
14-05-2007, 19:54
Prendendolo dal quote di leoneazzurro, questo è quanto hai scritto

Originariamente inviato da Deviad
http://www.hardforum.com/showthread....189142&page=12
Guardate le 2 immagini, guardate i cavi dei tralicci.
L'AA della gtx è molto meglio. <---sbagliato!

OK, questo è quello che è successo: originariamente avevo scritto quello, quando ho riletto mi sono accorto di aver commesso un errore ed ho corretto.
Nel frattempo qualcuno ha quotato quello che avevo scritto, tutto qua. ;)

Scrambler77
14-05-2007, 19:54
Azz i numeri di serie li vedete subito, mentre quelli dei benchmarks molti fanno fatica a vederli... :asd:

Athlon 64 3000+
14-05-2007, 19:55
Io proprio non riesco a capire il problema dell'AA che quando attivato fa crollare le prestazioni,pensare ha un difetto hardware mi sembra assurdo.
Io spero che sia un problema software.

webbuffa
14-05-2007, 19:55
le differenze (che non ci sono IMHO) tra AA di R600 e G80 si vedono bene da qui

http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=7

Fantastico il SuperAA 16X ATI :)

Simon82
14-05-2007, 19:59
http://img402.imageshack.us/img402/2226/dscn1696us2.th.jpg (http://img402.imageshack.us/my.php?image=dscn1696us2.jpg)

Ormai erano prenotate....vedremo come vanno in crossfire su 975...

Che ali prendi? :stordita:

bluefrog
14-05-2007, 20:00
OK, questo è quello che è successo: originariamente avevo scritto quello, quando ho riletto mi sono accorto di aver commesso un errore ed ho corretto.
Nel frattempo qualcuno ha quotato quello che avevo scritto, tutto qua. ;)

Ok, nessun prob ;)
Il fatto è che non ho trovato il tuo msg originale e quindi non ho visto le eventuali correzioni ;)

ciao :mano:

Athlon 64 3000+
14-05-2007, 20:01
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=6
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=7
Penso che siano inventati:
La HD 2900XT anche con i filtri è più veloce della 8800GTX.
:confused:

CiAoRaGa1
14-05-2007, 20:01
Che ali prendi? :stordita:

Enermax galaxy dxx 1kw....per non avere alcun problema :D
già preso, in viaggio...

garbage
14-05-2007, 20:02
tienici aggiornato!!! nn so perche ma questa vga mi fa piu gola della 8800 gtx:muro:

Alessio.16390
14-05-2007, 20:02
Dove si puo' ordinare la x2900 :help:

fireradeon
14-05-2007, 20:04
A me il dato che ha più impressionato sono stati i test DX10. Ora non so se dipende dalla cattiva ottimizzazione della demo usata, dai driver o non so cos'altro, ma se funzionano così male tutte le schede, allora mi sa che evito di comprare qualsiasi cosa e rimanderò tutto a quando si sapranno i dati CERTI del funzionamento di queste schede (o altre schede) con le DX10.
Se mi prendo una 8800GTX adesso (ad esempio) e poi con Crysis scatta, allora è meglio risparmiarli questi soldi e vedere quello che ci sarà sul mercato verso Settembre/Ottobre.
Voi cosa ne pensate?

Simon82
14-05-2007, 20:04
Enermax galaxy dxx 1kw....per non avere alcun problema :D
già preso, in viaggio...

Accidenti complimenti per il sistema e per la spesa totale. ;)

halduemilauno
14-05-2007, 20:07
A me il dato che ha più impressionato sono stati i test DX10. Ora non so se dipende dalla cattiva ottimizzazione della demo usata, dai driver o non so cos'altro, ma se funzionano così male tutte le schede, allora mi sa che evito di comprare qualsiasi cosa e rimanderò tutto a quando si sapranno i dati CERTI del funzionamento di queste schede (o altre schede) con le DX10.
Se mi prendo una 8800GTX adesso (ad esempio) e poi con Crysis scatta, allora è meglio risparmiarli questi soldi e vedere quello che ci sarà sul mercato verso Settembre/Ottobre.
Voi cosa ne pensate?

ma questi il gioco lo devono vendere. ma ti pare che lo fanno scattare con una 8800gtx??? dimmi tu chi se lo comprerebbe???

Deviad
14-05-2007, 20:08
Io ho da venerdì scorso l'enermax galaxy 1KW. Grande alimentatore! :D

Athlon 64 3000+
14-05-2007, 20:08
tienici aggioranto!!! nn so perche ma questa vga mi fa piu gola della 8800 gtx:muro:

ho guardato la recensione per bene di dinoxpc e in diversi benchmark rivaleggiava con la 8800GTX,mentre in 2 era sotto la X1950XTX.
Se dite che la recensione è inaffidabile io non me la prendo.
Questa recensione mi ha mandato ancora più in confusione.

MEDi0MAN
14-05-2007, 20:11
mi tengo stretta la mia 7800gtx almeno fino all'uscita dei titoli dx10 è inutile al momento aggiornare il sistema video............

piperprinx
14-05-2007, 20:11
mamma mia che tragedia....a memoria non ricordo una debacle simile per una scheda di nuova generazione...il livello sonoro prodotto poi e' imbarazzante, improponibile...

e' veramente triste perche' ora Nvidia potra' vivere sugli allori, sia economicamente che tecnologicamente.

Se aggiungiamo sto disastro di scheda a quanto AMD sta gia' soffrendo sul fronte CPU, credo che stasera anche in Intel brinderanno, preparandosi assieme a Nvidia a farci un mazzo cosi'...

nikkolla
14-05-2007, 20:15
Enermax galaxy dxx 1kw....per non avere alcun problema :D
già preso, in viaggio...

sicuro che il 975x te lo gestisce il nuovo crossfire di ati/amd ? due x1950xtx per certo ci vanno sul 975x ma ad esempio di 2 x1650 che usano il nuovo crossfire non ho mai sentito

Gioman
14-05-2007, 20:17
La questione dell'AA può anche essere vera ma come mi spiegate che all'aumentare della risoluzione (senza filtri) la gtx scende percentualmente meno
della xt nonostante quest'ultima abbia più banda passante?

garbage
14-05-2007, 20:17
mi tengo stretta la mia 7800gtx almeno fino all'uscita dei titoli dx10 è inutile al momento aggiornare il sistema video............

credo di termi anche io la mia fedele 7800gtx512 fino a crysis

Defragg
14-05-2007, 20:18
ma questi il gioco lo devono vendere. ma ti pare che lo fanno scattare con una 8800gtx??? dimmi tu chi se lo comprerebbe???
tutti gli altri milioni di utenti senza una 8800GTX
;) :O

:asd:

CiAoRaGa1
14-05-2007, 20:19
sicuro che il 975x te lo gestisce il nuovo crossfire di ati/amd ? due x1950xtx per certo ci vanno sul 975x ma ad esempio di 2 x1650 che usano il nuovo crossfire non ho mai sentito

http://ati.amd.com/technology/crossfire/buildyourown1.html
la d975xbx2 è certificata crossfire; se non funziona faccio una strage!

garbage
14-05-2007, 20:29
http://ati.amd.com/technology/crossfire/buildyourown1.html
la d975xbx2 è certificata crossfire; se non funziona faccio una strage!

ahahhahahaha dai magari con altri driver asd!

MEDi0MAN
14-05-2007, 20:29
mamma mia che tragedia....a memoria non ricordo una debacle simile per una scheda di nuova generazione...il livello sonoro prodotto poi e' imbarazzante, improponibile...

..


Non dimentichiamo la FX Nvidia (NV30):mc: :mc:

ai tempi avevo acquistato uno dei primi esemplari delle 9700 pro ho goduto quasi 2 anni con quella scheda attiavando tutti i filitri si mangiava tutte le geoforce 4 con i filtri disattivati! poi all'uscita di nv30 riusciva a fargli mangiare la polvere overclockandola poi nv30 era già passata alla storia prima di nascere, fu l'hardware + azzecato mai acquistato!!!

triste vedere questi test......

nikkolla
14-05-2007, 20:34
partono da 368 euri sui motori di ricerca dei prezzi tedeschi,con questi prezzi andranno a ruba ,considerando che poi Ati sui prezzi scende prima di Nvidia ,per giugno staranno sui 300-330 euro

Deviad
14-05-2007, 20:38
Io aspetto fiducio i prossimi giorni.

Karl87
14-05-2007, 20:43
un sito italiano dove comprarla??

belin
14-05-2007, 20:43
partono da 368 euri sui motori di ricerca dei prezzi tedeschi,con questi prezzi andranno a ruba ,considerando che poi Ati sui prezzi scende prima di Nvidia ,per giugno staranno sui 300-330 euro

Situazione Italia: in una delle più famose (e care...) catene di negozi si trova la Sapphire a 399€, in un'altra catena di shop siamo già a 367€.

:)

Karl87
14-05-2007, 20:45
Situazione Italia: in una delle più famose (e care...) catene di negozi si trova la Sapphire a 399€, in un'altra catena di shop siamo già a 367€.

:)

dove 367 euro?

appleroof
14-05-2007, 20:48
A me il dato che ha più impressionato sono stati i test DX10. Ora non so se dipende dalla cattiva ottimizzazione della demo usata, dai driver o non so cos'altro, ma se funzionano così male tutte le schede, allora mi sa che evito di comprare qualsiasi cosa e rimanderò tutto a quando si sapranno i dati CERTI del funzionamento di queste schede (o altre schede) con le DX10.
Se mi prendo una 8800GTX adesso (ad esempio) e poi con Crysis scatta, allora è meglio risparmiarli questi soldi e vedere quello che ci sarà sul mercato verso Settembre/Ottobre.
Voi cosa ne pensate?

Quel test vale solo relativamente: fà vedere cosa possono fare ad esempio nuovi dirver per queste architetture, d'altra parte è scritto in tutte le salse nella rece, basta leggerla con un minimo di attenzione...

belin
14-05-2007, 20:48
dove 367 euro?

...ti mando un pvt perchè non si possono (giustamente) dare link di shop nelle discussioni.

:)

ps. non mandatemi altri pvt perchè non rispondo. Il negozio si trova facilmente con un motore di ricerca. E non mi piace consigliare tutto il giorno dove acquistare. :)

ATi7500
14-05-2007, 20:49
The HD 2000 series also features two levels of Video decoder/acceleration technology. On the 2600/2400 cards we have a universal video decoder which has full acceleration of HD/BD content. This should allow for very low CPU usage as demonstrated by the Geforce 8500/8600 series, however at this time we have not received a sample of either Radeon card to confirm the performance. The 2600/2400 also have the ability to perform various post processing tasks such as De-interlacing and colour correction. On the Radeon 2900, disappointingly, the full acceleration of BD/HD is not present and as a result the CPU usage is greater when watching a high-definition movie. We will look at the performance of the 2900 XT in Video Playback later in the review. Clearly AMD must have known that the XT was not going to beat the GTS and with the delays in launch they had time to rethink the product and add some unique selling points. One such point could have been the inclusion of full high definition video decoding such as that which will be featured in lower spec 2000 series products. Instead we have a card which when combined with any CPU other than the fastest available (high end dual core conroe) struggles with 1080p content. Even when trying to implement unique features things didn’t go well.

Fonte: DriverHeaven

bYeZ!

Mister Tarpone
14-05-2007, 20:50
Quel test vale solo relativamente: fà vedere cosa possono fare ad esempio nuovi dirver per queste architetture, d'altra parte è scritto in tutte le salse nella rece, basta leggerla con un minimo di attenzione...

speriamo sia così.... non vorrei ritrovarmi gli stessi risultati con un Crysis :asd:


:sob:

Deviad
14-05-2007, 20:54
Dal forum di guru3d:

Quote:
Originally Posted by roguesn1per View Post
It looks like its stil behind the GTS, even with AA on.
Did you read Hilbert's review? Allow me....
Quote:
"Hilbert: Why in some AA cases does your performance on the Radeon X1950 beat that of the Radeon HD 2900 XT?

ATI: We've identified a performance problem on R6xx with Adaptive AA enabled, which lowers performance more than expected in some games. This can lead to cases where HD 2000 boards perform lower than previous generations. We are currently looking at a fix for this."

Se questo fosse vero, invece di disabilitare l'AA si potrebbe semplicemente disabilitare l'adaptive AA dalle impostazioni del CCC e usare il normale AA oppure attivare quel nuovo tipo di AA che era in testing fino a poco tempo fa...
c'è ancora un barlume di speranza secondo me alla luce di ciò.

Prego coloro che hanno questa scheda di fare questa prova. :)

A.L.M.
14-05-2007, 20:59
ma questi il gioco lo devono vendere. ma ti pare che lo fanno scattare con una 8800gtx??? dimmi tu chi se lo comprerebbe???

Lost Planet (praticamente made in NVidia) scatta pure con una Ultra (24fps medi) a 1280x960 AA4x e ombre al max.
Benvenuti nell'HD Gaming... :asd:

Mister Tarpone
14-05-2007, 21:01
Lost Planet (praticamente made in NVidia) scatta pure con una Ultra (24fps medi) a 1280x960 AA4x e ombre al max.
Benvenuti nell'HD Gaming... :asd:

io ho paura di "una nuova sorpresona" con i giochi in dx10 infatti.... sia per nvidia che per ati.... :stordita:
staremo a vedere..

TecnoWorld8
14-05-2007, 21:01
mi piacerebbe capire perchè, nei giorni scorsi, c'era qualcuno che sosteneva che i test apparsi prima dello scadere dell'NDA fossero sbagliati e che oggi ci saremmo tutti dovuti ricredere...

sinceramente, sono molto deluso da questa scheda...

Athlon 64 3000+
14-05-2007, 21:03
Lost Planet (praticamente made in NVidia) scatta pure con una Ultra (24fps medi) a 1280x960 AA4x e ombre al max.
Benvenuti nell'HD Gaming... :asd:

vedremo domani quando uscira la demo come va con la HD 2900XT e le 8800GTS e GTX.
Hai visto la recensione di dinoxpc?
Da risultati in alcuni punti diversi da hwupgrade.
Non metto assolutamente in dubbio quelli di hwupgrade perchè li reputo affidabili.

appleroof
14-05-2007, 21:06
Lost Planet (praticamente made in NVidia) scatta pure con una Ultra (24fps medi) a 1280x960 AA4x e ombre al max.
Benvenuti nell'HD Gaming... :asd:

Link al test please? (cmq questo è il tread della 2900XT...)

Kharonte85
14-05-2007, 21:06
vedremo domani quando uscira la demo come va con la HD 2900XT e le 8800GTS e GTX.

Perche' aspettare domani?

http://www.pcgameshardware.de/screenshots/medium/LP_DX10_Snow.JPG

http://www.pcgameshardware.de/screenshots/original/LP_DX10_Snow.JPG

http://www.pcgameshardware.de/screenshots/medium/LP_DX10_Cave.JPG

http://www.pcgameshardware.de/screenshots/original/LP_DX10_Cave.JPG

;)

belin
14-05-2007, 21:07
Dal forum di guru3d:

"Hilbert: Why in some AA cases does your performance on the Radeon X1950 beat that of the Radeon HD 2900 XT?

ATI: We've identified a performance problem on R6xx with Adaptive AA enabled, which lowers performance more than expected in some games. This can lead to cases where HD 2000 boards perform lower than previous generations. We are currently looking at a fix for this."

...interessante...attendiamo notizie.

...sempre da Guru3D: post 142 (http://forums.guru3d.com/showpost.php?p=2262338&postcount=142)

:help:

Verro
14-05-2007, 21:10
...interessante...attendiamo notizie.

...sempre da Guru3D: post 142 (http://forums.guru3d.com/showpost.php?p=2262338&postcount=142)

:help:

sembra assurdo, qui non resta che aspettare

Bersy76
14-05-2007, 21:10
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/

:eek: :eek: :eek: :eek:

Miracoli dei driver! No dico!:eek: :eek: :eek:

Sta 2900xt me convince sempre di piu'

Mister Tarpone
14-05-2007, 21:10
ottimi risultati con LostPlanet.
OK. i dubbi di colpo son volati via :oink:
Ottimi risultati anche per la gts.
Vale la pena prendersela... non c'è seghe ;)

Kharonte85
14-05-2007, 21:13
ottimi risultati con LostPlanet.
OK. i dubbi di colpo son volati via :oink:
Ottimi risultati anche per la gts.
Vale la pena prendersela... non c'è seghe ;)
1280 liscio eh...:)
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/

:eek: :eek: :eek: :eek:

Miracoli dei driver! No dico!:eek: :eek: :eek:

Sta 2900xt me convince sempre di piu'
Ma quelli non sono i soliti driver? :mbe:

appleroof
14-05-2007, 21:14
sembra assurdo, qui non resta che aspettare

Assurdo riferito al resto della tua frase credo proprio sia la parola giusta,a questo punto...

appleroof
14-05-2007, 21:15
Perche' aspettare domani?

http://www.pcgameshardware.de/screenshots/medium/LP_DX10_Snow.JPG

http://www.pcgameshardware.de/screenshots/original/LP_DX10_Snow.JPG

http://www.pcgameshardware.de/screenshots/medium/LP_DX10_Cave.JPG

http://www.pcgameshardware.de/screenshots/original/LP_DX10_Cave.JPG

;)

Ottimo :) , spero solo che i server domani non scoppino...:rolleyes:

ATi7500
14-05-2007, 21:15
...interessante...attendiamo notizie.

...sempre da Guru3D: post 142 (http://forums.guru3d.com/showpost.php?p=2262338&postcount=142)

:help:

un flop eh? :asd:
strano però che il .2 vada meglio del .3

bYeZ!

Mister Tarpone
14-05-2007, 21:16
1280 liscio eh...:)


ahhh!!! :eek: :sob: :fagiano:

la xt ne fa 19...

MEDi0MAN
14-05-2007, 21:17
Pc tuner l'ha testata sotto l' AzotA:D


28790 punti:eek:


"Temperature di -115°C sulla scheda video e -135°C sul processore.
Coldbug accertato attorno ai -120°C ma solo quando la scheda si trova in 2D. Mentre lavora, infatti, regge tranquillamente anche frequenze superiori ai 1000 MHz sul core ma occorrono almeno -140°C per mantenerla stabile.
A quella temperatura pero', non appena si rientra in 2D, si perde lo schermo e bisogna resettare.
980 MHz sul core e 1050 MHZz sulle ram comunque non sono male e lasciano ben sperare in un sicuro aumento delle prestazioni non appena sarà possibile aumentare i voltaggi sulla GPU e sulle memorie.
Per il momento accontentiamoci" ...

http://www.pctuner.net/Sezione%20Hardware/Recensioni%20Hw/Immagini/R600/28790small.jpg


sulla rece di pctuner usando gli ultimi driver con i filtri attivati qualche volta la spunta sulla 8800 gtx

http://www.pctuner.net/articoli/SchedeVideo/593/Jetway_Radeon_HD_2900_XT/12.html

Kharonte85
14-05-2007, 21:18
un flop eh? :asd:
strano però che il .2 vada meglio del .3

bYeZ!

Leggete qua (tradotto dalla recensione):

The fact that the driver plays a not less important role with modern diagram maps than new construction units is recently well-known. We again more exactly regarded the three different, newest driver versions, which are for the ATi Radeon hp 2900 XT at present in the circulation. Since one cannot write and evaluate an article with this extent in three days in used manners, we accomplished our test with the driver 8.37.4 already renewed. A Vorabversion 8,36 was put by ATi directly ad acta, since offered these too many errors and very small performance. On Friday, knappe three days before the Launch, dispatches the Reviewern the newest beta driver 8.37.4.2 to ATi. With these two models today again the driver 8.37.4.3 published from official side associates. Reason of enough to throw once an exact view of the differences between the three versions. The driver 8.37.4.2 eliminates some performance break-downs of the origin version, but only in some selected plays. Primarily the programs selected by ATi the adaptive anti- Aliasing in was improved clearly, as those of bench mark of us show in the dissolution of 1280x1024 pixels with 4xAAA/16xAF. The further 15 plays and programs, which are not specified, but in our article, could not register performance increase.

:read:

Esattamente cio' che diceva Corsini.

Superpelo
14-05-2007, 21:18
ma sto famoso bech di call of juarez si puo' scaricare da qualche parte che ho per le mani una 8660gts e una 8800gts 320 e sono curioso di vedere dal vivo come vanno in dx10??

leoneazzurro
14-05-2007, 21:19
Anche su DinozPC hanno utilizzato quei drivers per la recensione ed i risultati sono meno brutti per la 2900: in certi casi supera anche la GTX, in altri ci sono problemucci. Mi sembra che il 22 maggio escano i drivers non-beta...

voffi
14-05-2007, 21:19
uhm questa scheda è un mistero,
ha un'architettura (sulla carta migliore)e frequenze più alte ma va meno della 8800 gtx,è costruita a 80 nm ma consuma e scalda più della gtx che è a 90 nm, va a prendere il posto della 1950xtx e a volte le busca pure da quella:mbe:
eppure....eppure.....
mi affascina molto più della 8800:doh: !
sarò diventato un fan boy ati(:eek: inconcepibile affezzionarsi ad una marca!)
però se dovessi prendere una scheda ora prenderei questa.

perchè mi pare che abbia delle potenzialità nascoste;che sia come una panda con motore ferrari che non riesce a scaricare a terra la sua potenza (passatemi il paragone orrendo che son stanco:rolleyes: ), che può solo migliorare mentre le nvida 8800 ormai sono state ottimizzate e più di tanto non possono dare.

e poi due parole sull'azienda ati/amd
io spero che questa scheda sia solo di transizione(che l'abbiano buttata fuori per coprire il buco anche se non perfetta) che abbiano individuato gli errori e che in un futuro mooolto vicino tirino fuori una versione potenziata e ottimizzata tanto per ora con gtr2 la mia x1800xt basta e avanza.

Defragg
14-05-2007, 21:20
un flop eh? :asd:
strano però che il .2 vada meglio del .3

bYeZ!

massì dai :D

Pat77
14-05-2007, 21:22
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=6
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=7
Penso che siano inventati:
La HD 2900XT anche con i filtri è più veloce della 8800GTX.
:confused:

Dinox Windows xp
Hwupgrade Vista 32

La differenza sta nel So, in Xp i catalyst saranno più ottimizzati.

Pk77

MaBru
14-05-2007, 21:23
Imho sta scheda è un mistero.

appleroof
14-05-2007, 21:24
uhm questa scheda è un mistero,
ha un'architettura (sulla carta migliore)e frequenze più alte ma va meno della 8800 gtx,è costruita a 80 nm ma consuma e scalda più della gtx che è a 90 nm, va a prendere il posto della 1950xtx e a volte le busca pure da quella:mbe:
eppure....eppure.....
mi affascina molto più della 8800:doh: !
sarò diventato un fan boy ati(:eek: inconcepibile affezzionarsi ad una marca!)
però se dovessi prendere una scheda ora prenderei questa.

perchè mi pare che abbia delle potenzialità nascoste;che sia come una panda con motore ferrari che non riesce a scaricare a terra la sua potenza (passatemi il paragone orrendo che son stanco:rolleyes: ), che può solo migliorare mentre le nvida 8800 ormai sono state ottimizzate e più di tanto non possono dare.

e poi due parole sull'azienda ati/amd
io spero che questa scheda sia solo di transizione(che l'abbiano buttata fuori per coprire il buco anche se non perfetta) che abbiano individuato gli errori e che in un futuro mooolto vicino tirino fuori una versione potenziata e ottimizzata tanto per ora con gtr2 la mia x1800xt basta e avanza.

Ricordo solo che alle nvidia (in generale, quindi anche 8600) manca ancora di dimostrare un "piccolo pezzo": le performance in dx10. Nel bene e nel male non si può assolutamente affermare questo (e il test di hwupgrade con la patch dx10 di coj e gli ultimi 158.42, per quanto parzialissimo, stà a dimostrare proprio questo). Questo vale anche per la 2900XT

;)

leoneazzurro
14-05-2007, 21:26
Dinox Windows xp
Hwupgrade Vista 32

La differenza sta nel So, in Xp i catalyst saranno più ottimizzati.

Pk77

Sono diversi i drivers. Mah. Anceh su computerbase i miglioramenti prestazionali si sono registrati con quella release. Comunque, il 22 a quanto ho letto esce la versione non-beta.

ATi7500
14-05-2007, 21:27
Leggete qua (tradotto dalla recensione):

The fact that the driver plays a not less important role with modern diagram maps than new construction units is recently well-known. We again more exactly regarded the three different, newest driver versions, which are for the ATi Radeon hp 2900 XT at present in the circulation. Since one cannot write and evaluate an article with this extent in three days in used manners, we accomplished our test with the driver 8.37.4 already renewed. A Vorabversion 8,36 was put by ATi directly ad acta, since offered these too many errors and very small performance. On Friday, knappe three days before the Launch, dispatches the Reviewern the newest beta driver 8.37.4.2 to ATi. With these two models today again the driver 8.37.4.3 published from official side associates. Reason of enough to throw once an exact view of the differences between the three versions. The driver 8.37.4.2 eliminates some performance break-downs of the origin version, but only in some selected plays. Primarily the programs selected by ATi the adaptive anti- Aliasing in was improved clearly, as those of bench mark of us show in the dissolution of 1280x1024 pixels with 4xAAA/16xAF. The further 15 plays and programs, which are not specified, but in our article, could not register performance increase.

:read:

Esattamente cio' che diceva Corsini.
quindi la scheda via software può recuperare parecchio terreno. Speriamo bene.

bYeZ!

ATi7500
14-05-2007, 21:29
Anche su DinozPC hanno utilizzato quei drivers per la recensione ed i risultati sono meno brutti per la 2900: in certi casi supera anche la GTX, in altri ci sono problemucci. Mi sembra che il 22 maggio escano i drivers non-beta...

beh, risultati "meno brutti" per una scheda che compete con la GTS e si avvicina alla GTX non mi sembra malaccio, anzi :)
Ho letto con interesse ciò che hai postato dal forum di B3D, sul problema dell'antialiasing a carico delle shading units, ma quello che non ho capito è: è un problema relativo all'antialiasing in generale o solo all'adaptive?
E l'adaptive è abilitato di default nei driver?
Aggiungo che IMHO con il respin a 65nm si assisterà ad un boost notevole. La 2900XT io (e probabilmente la stessa ATi/AMD) la vedo come una scheda tampone, in attesa di introdurre fascia media (2600) e medio alta (2900XL/Pro).

bYeZ!

Kharonte85
14-05-2007, 21:30
quindi la scheda via software può recuperare parecchio terreno. Speriamo bene.

bYeZ!

Non è affatto detto che i margini siano ampi, li' si parla chiaramente di risoluzioni di alcuni problemi, mentre negli altri test tutto rimane immutato ;)

voffi
14-05-2007, 21:31
Ricordo solo che alle nvidia (in generale, quindi anche 8600) manca ancora di dimostrare un "piccolo pezzo": le performance in dx10. Nel bene e nel male non si può assolutamente affermare questo (e il test di hwupgrade con la patch dx10 di coj e gli ultimi 158.42, per quanto parzialissimo, stà a dimostrare proprio questo). Questo vale anche per la 2900XT

;)

questo è vero, ho ragionato in ottica attuale, xp con dx9.

perchè come già detto probabilmente quando ci saranno giochi dx10 le schede di cui parleremo saranno altre,
magari si potessero giocare in modo soddisfacente già con queste!!