View Full Version : Niente UVD per le schede video ATI Radeon HD 2900 XT
Redazione di Hardware Upg
28-05-2007, 14:49
Link alla notizia: http://www.hwupgrade.it/news/skvideo/21341.html
A dispetto delle iniziali informazioni, emerge in modo chiaro come tra le caratteristiche delle GPU R600 di ATI non vi sia l'Universal Video Decoder
Click sul link per visualizzare la notizia.
Non mi sembra così fondamentale sto UVD.....:boh:
Effettivamente questa scheda ne sta passando di tutti i colori: oltre alle prestazioni inaffidabili, consumi elevati (a dir poco), e dissipazione da turbina 747, ora spunta che è castrata anche come tecnologia UDV (e che ci mettono una toppa via software);
Ma AMD-Ati nn risolve la bruttissima figura verso tutti i partner che hanno stampato nelle caratteristiche anche il PIENO SUPPORTO UDV.
...niente da dire, sono scioccato; che brutta fine che ha fatto Ati entrando in Amd
P.S....in ritardo, l'ho letta stamattina su Tom's HW....:D
Effettivamente questa scheda ne sta passando di tutti i colori: oltre alle prestazioni inaffidabili, consumi elevati (a dir poco), e dissipazione da turbina 747, ora spunta che è castrata anche come tecnologia UDV (e che ci mettono una toppa via software);
Ma AMD-Ati nn risolve la bruttissima figura verso tutti i partner che hanno stampato nelle caratteristiche anche il PIENO SUPPORTO UDV.
...niente da dire, sono scioccato; che brutta fine che ha fatto Ati entrando in Amd
P.S....in ritardo, l'ho letta stamattina su Tom's HW....:D
Non esageriamo. Non è una cosa così vitale questo UVD. ;)
The_EclipseZ
28-05-2007, 15:07
una volta le nuove tecnologie si applicavano ai top di gamma...mah...:boh:
ErminioF
28-05-2007, 15:08
Perchè credi che il progetto dell'r600 non fosse quasi totalmente pronto prima dell'entrata di ati in amd?
Knighhell
28-05-2007, 15:21
Da fan di Ati posso dire:
1° non puoi far credere a tutti che introduci una tecnologia e dopo tirarti indietro, "scusate ci è stato un incomprensione" chi ha comprato la sk ha diritto di far causa come truffa, tutti i siti di shopping riportavano la funzione mancante
2° AMD\ATI mi vuol far credere che nessun tecnico conosca le schede Nvidia , che i test con 3dmark e giochi li fa solo HWupgrade. Ma come si puo mettere in commercio una scheda deludente in tutti i fronti. E' una vergogna.
PS
Sembra che AMD\ATI siano ditte italiane dove i tecnici non contano nulla e sono i politici a prendere le decisioni anche tecnice , ovviamente sbaglaite.
gianni1879
28-05-2007, 15:21
parlando del UVD la dikiarazione ufficiale di ATI riassumendo è: la skeda nn ha UVD (chip apposito x la piena codifica dei flussi video) ma tali funzionalità potranno cmq essere implementate sfruttando la GPU tramite future versioni dei driver, al momento attuale la HD2900XT ha le stesse funzionalità della "vekkia" serie X1x00...
le cose dovrebbero stare così
Commento # 3 di: MaerliN
no, obiettivamente se uno (come me) ha un vecchio P4 2400 ht e per vedere determinati video (anche a 720-1080p) si compra una scheda UVD, può ancora farla durare quella macchina come media center: prova tu a veder un video H264 1080p col carico alla sola cpu, vedrai che schifo di fluidità ne esce fuori (lo dico perchè ho già testato con un trailer di spiderman a 1080p)
inoltre è indiscutibile la figuraccia verso i partner (che invece sapevano del pieno supporto); vaglielo a spiegare.....
Lud von Pipper
28-05-2007, 15:25
Altra dimostrazione che la "vera 2900" non la vedremo fino all'introduzione dei 65nm.
Guarda caso sia la serie 2600 che quella 2400 usciranno direttamente con tecnologia produttiva a 65nm.
inoltre è indiscutibile la figuraccia verso i partner (che invece sapevano del pieno supporto); vaglielo a spiegare.....
Beh, insomma, dubito che gli ingegneri alla Asus, Sapphire e Powercolor si accontentino di una Brochure di ATi per pubblicarne le caratteristiche :asd:
Commento # 9 di: Lud von Pipper
...nn tocchiamo quell'altro tasto dolente, che con 4 gatti di Sp e 64-128 bit, nn oso pensare che prestazioni ne vengon fuori....
nn mettere il dito nella piaga..... ;)
MiKeLezZ
28-05-2007, 15:29
Un elogio alla redazione per questa (necessaria) correzione.
In pratica in questo falso marketing ci sono cascati tutti, produttori di schede compresi. Alla faccia della trasparenza. AMD/ATI in questi ultimi mesi non sta che scavandosi la fossa, con certe dichiarazioni e promesse da "famoso politico italiano".
Una doccia fredda per chi sperava in un utilizzo polivalente anche su HTPC... pure la mancanza di driver per abilitare AVIVO non è poco.
Kharonte85
28-05-2007, 15:31
A dispetto delle iniziali informazioni, emerge in modo chiaro come tra le caratteristiche delle GPU R600 di ATI non vi sia l'Universal Video Decoder
Per quanto possa essere inutile questa caratteristica per una scheda dedicata al puro gamer quello che fa arrabbiare è che come al solito si sponsorizzano features che poi in realta' non ci sono...:mad:
X tutti.... tanto per dare una chiara idea della magra figura di Amd-Ati
http://www.tomshw.it/news.php?newsid=10223
io sta HD 2900 XT non l'ho proprio capita... ma che vuole fare l'AMD??? :mc:
HackaB321
28-05-2007, 15:38
Se amd si è resa colpevole di pubblicità ingannevole o cattiva informazione sperò verrà punita nelle sedi opportune (potrebbe anche partire una class action che in america le aziende temono come la peste)
Per quanto riguarda la scheda invece riassumiamo i fatti:
1. E' uscita con 7 mesi di ritardo rispetto alla controparte. La scusa era "non ci sono le dx10". Nel frattempo però le 8xxx frantumavano ogni record prestazionale con i giochi in dx9.
2.COME PRESTAZIONI NEI GIOCHI ad oggi è allineata con la terza-quarta (gts a 640-320mb) scheda più veloce della controparte.
3.COME CALORE-CONSUMO-RUMOROSITA' stabilisce invece dei record assoluti.
4. In alcuni casi va peggio delle migliori ATI della generazione precedente
5 I nuovi driver. Questo santo graal che tutti aspettiamo prima di definire R600 un totale fallimento ancora non si vedono. Nel frattempo vedi il punto 4.
6. Si chiama HD ma non ha il supporto HD completo.
Di questi 6 punti il sesto è quello che mi interessa meno. E' il resto che mi fa temere per la concorrenza perchè da quando esistono le serie Geforce e Radeon non si era mai visto uno squilibrio simile fra le due case.
Detto questo però mi fanno sorridere i commenti di quegli utenti che magari in firma hanno un quad core e si lamentano della mancanza dell'UVD: Ma che .zzo dovete farci con un procio mentre guardate un film in HD? calcolare il numero dei pianeti nell'universo?
MiKeLezZ
28-05-2007, 15:39
25/5/2007: meglio tardi che mai
http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=27824
Certo che quei furbacchioni di AMD/ATI potevano svegliarsi un mese prima :)
bonzuccio
28-05-2007, 15:41
In una scheda con quella potenza non serve il chip dedicato all'UVD come per la fascia medio bassa, il decoding verrà casomai effettuato via drivers
Sul sito amd era e rimane chiaro
[...]
Una doccia fredda per chi sperava in un utilizzo polivalente anche su HTPC... pure la mancanza di driver per abilitare AVIVO non è poco.
Una scheda di 200W in un HTPC? :mbe:
Jon_Snow
28-05-2007, 15:56
quindi viene pure a cadere la tesi di qualcuno secondo la quale c'era stato uno spreco di transistor per questo decoder hardware.
bonzuccio
28-05-2007, 15:58
Se amd si è resa colpevole di pubblicità ingannevole o cattiva informazione sperò verrà punita nelle sedi opportune (potrebbe anche partire una class action che in america le aziende temono come la peste)
E la marò.. ma a che serve un chip di decodifica in una scheda del genere? Forse la colpa è dei recensori che si sono fatti ingannare dalle slide di r600 senza verificare che la hd2900 avesse quel chip
Per quanto riguarda la scheda invece riassumiamo i fatti:
1. E' uscita con 7 mesi di ritardo rispetto alla controparte. La scusa era "non ci sono le dx10". Nel frattempo però le 8xxx frantumavano ogni record prestazionale con i giochi in dx9.
Infatti essendo una vera dx10 a differenza di g80 (le 8xxx) hanno aspettato anche a fronte di ritardi nell'implementazione dei driver essendo che una dx10 in dx9 va praticamente emulata come se fosse una dx9, di qui la difficoltà
2.COME PRESTAZIONI NEI GIOCHI ad oggi è allineata con la terza-quarta (gts a 640-320mb) scheda più veloce della controparte.
Smettiamola di disinformare, la 2900xt in alcuni giochi (4 su 11 mi pare) batte la 8800gtx, in altri praticamente è pari: questo avviene su windows XP su dx9 e con drivers aggiornati e non i pre-alpha usati da questo sito e da tom's, i bench coi driver aggiornati su xp li trovi su dinoxpc
3.COME CALORE-CONSUMO-RUMOROSITA' stabilisce invece dei record assoluti.
4. In alcuni casi va peggio delle migliori ATI della generazione precedente
5 I nuovi driver. Questo santo graal che tutti aspettiamo prima di definire R600 un totale fallimento ancora non si vedono. Nel frattempo vedi il punto 4.
6. Si chiama HD ma non ha il supporto HD completo.
Nemmeno le 8800 hanno il Purevideo2 delle sorelline minori e non mi pare si sia fatto gran baccano, tanto il pure video sulle 6800 colca che lo hanno messo e infatti io ancora a fidarmi di nvidia.. credo che ati sia più seria in questo senso
Detto questo però mi fanno sorridere i commenti di quegli utenti che magari in firma hanno un quad core e si lamentano della mancanza dell'UVD: Ma che .zzo dovete farci con un procio mentre guardate un film in HD? calcolare il numero dei pianeti nell'universo?
Ecco appunto, solo che qualcuno vorrebbe mettere una dx10 su un processore "normale"
Mercuri0
28-05-2007, 15:58
Riporto questo post che ho trovato su un altro sito. Dice in sostanza che AMD non ha messo il chip UVD sulla X2900 pensando che su quella scheda la decodifica si possa fare usando la sua capacità con gli shader, anziché aggiungendo un componente apposta.
There are basically 2 approaches - the way ATI did it in the last generation where they use their existing shader hardware to do the acceleration, and the NVIDIA way which is to add a seperate chip on the card which exclusively handles it.
The former way is cheaper in terms of silicon but requires a lot of shader power, especially for HD content. AMD is saying that the 2900XT has enough horsepower to do it that way, but the drivers haven't been finished yet. On the other hand, they had to add another chip (UVD) to the lower end parts because they wouldn't have been able to do it. This is what everyone seemed to assume the 2900 had as well, and is really the better solution because it would use less power due to the specially designed hardware being more efficient for the task and would also almost certainly use less CPU as well due to the drivers having to do less work.
In una scheda con quella potenza non serve il chip dedicato all'UVD come per la fascia medio bassa, il decoding verrà casomai effettuato via drivers
Sul sito amd era e rimane chiaro
quoto:cool:
bonzuccio
28-05-2007, 16:03
quoto:cool:
Minchia che fatica.. un po di equilibrio cribbio :)
dai basta infierire capita a tutti di fare un aborto di gpu è successo anche a nvidia in passato.. si riprenderà...
bonzuccio
28-05-2007, 16:19
Io ricorderei a tutti le serie 8000 che iniziarono nello stesso modo
poi le 9000
poi le serie 1000
insomma ci sono tutte le premesse perchè si continui con le danze, vai col soca soca maestro!
dai basta infierire capita a tutti di fare un aborto di gpu è successo anche a nvidia in passato.. si riprenderà...
5800:2 = 2900
vai col soca soca maestro!
bastaaa.... :rolleyes:
Secondo me i pescivendoli dovrebbero fare i pescivendoli e basta e non iniziare a vendere anche carne... pena una diminuzione di incassi anche sul pesce... Spero di aver reso l'idea :P :P :P
Knighhell
28-05-2007, 16:26
http://www.tomshw.it/news.php?newsid=10232
AMD RISPONDE
[CIT:] "La tecnologia UVD (Universal Video Decoder) è una delle tante innovazioni che fanno parte della nuova famiglia di processori grafici ATI Radeon HD 2000 e i diversi prodotti, sia per desktop che notebook, incorporano le differenti tecnologie a seconda del mercato a cui si indirizzano."
"Il processore grafico ATI Radeon HD 2900XT è stato realizzato per soddisfare le esigenze di una utenza gamers che richiede il massimo numero di unified shaders e per permettere agli appassionati di giocare con i titoli più recenti e con altissime prestazioni grafiche."
"Per rispondere alle richieste di questo segmento di mercato" conclude Giuseppe Amato "si è preferito quindi dare priorità ad altri requisiti rimuovendo il blocco UVD, che è invece presente nei processori mainstream ATI Radeon 2400 e 2600 perchè diretti a una utenza che richiede prestazioni multimediali non così spinte come gli utenti della ATI Radeon HD 2900 XT".
HackaB321
28-05-2007, 17:04
E la marò.. ma a che serve un chip di decodifica in una scheda del genere? Forse la colpa è dei recensori che si sono fatti ingannare dalle slide di r600 senza verificare che la hd2900 avesse quel chip
Che non serve sono d'accordo. Però tutti i siti d'informazione del mondo avevano "capito male". E la correzione ufficiale di AMD arriva solo adesso due settimane dopo le recensioni. Se non ci sarà azione di nessun tipo (ma almeno di pubblicità ingannevole qualcuno ne parla http://www.tomshw.it/news.php?newsid=10223)l'ennesimo danno di immagine è evidente.
Infatti essendo una vera dx10 a differenza di g80 (le 8xxx) hanno aspettato anche a fronte di ritardi nell'implementazione dei driver essendo che una dx10 in dx9 va praticamente emulata come se fosse una dx9, di qui la difficoltà
Non mi interessa se g80 è una dx10 vera o emulata. Io guardo al prezzo e ai risultati.
Smettiamola di disinformare, la 2900xt in alcuni giochi (4 su 11 mi pare) batte la 8800gtx, in altri praticamente è pari: questo avviene su windows XP su dx9 e con drivers aggiornati e non i pre-alpha usati da questo sito e da tom's, i bench coi driver aggiornati su xp li trovi su dinoxpc
Quello che dici succede in una recensione su un cento. Sulle altre la GTX è nel 90% dei giochi irraggiungibile.Ma ammettiamo pure che i risultati siano quelli che dici tu. Tu acquisteresti o consiglieresti una scheda con questi consumi e questa rumorosità? Con l'enigma dei drivers? Con R650 alle porte? Chi ha comprato G80 5-6 mesi fa l'ha pagato caro ma ha fatto un acquisto che come longevità prestazionale non ha eguali nella storia recente delle schede video. La 2900xt è un prodotto immaturo nato da un progetto ambiziosissimo che avrebbe bisogno dei 65nm come dell'aria.
bonzuccio
28-05-2007, 17:27
Di R650 alle porte non se ne è mai sentito parlare, hanno talmente tanto da lavorare su queste R600 che non credo abbiano nemmeno il tempo di pensare a una cosa del genere, una nuova archi in casa ati credo proprio che uscirà a dx10 avanzate e ce ne vorrà di tempo..
ammesso che prendano piede poi visto che a vista xp ie da na pista.. (slogan da pescivendolo lo so)
gianni1879
28-05-2007, 17:45
Che non serve sono d'accordo. Però tutti i siti d'informazione del mondo avevano "capito male". E la correzione ufficiale di AMD arriva solo adesso due settimane dopo le recensioni. Se non ci sarà azione di nessun tipo (ma almeno di pubblicità ingannevole qualcuno ne parla http://www.tomshw.it/news.php?newsid=10223)l'ennesimo danno di immagine è evidente.
Non mi interessa se g80 è una dx10 vera o emulata. Io guardo al prezzo e ai risultati.
Quello che dici succede in una recensione su un cento. Sulle altre la GTX è nel 90% dei giochi irraggiungibile.Ma ammettiamo pure che i risultati siano quelli che dici tu. Tu acquisteresti o consiglieresti una scheda con questi consumi e questa rumorosità? Con l'enigma dei drivers? Con R650 alle porte? Chi ha comprato G80 5-6 mesi fa l'ha pagato caro ma ha fatto un acquisto che come longevità prestazionale non ha eguali nella storia recente delle schede video. La 2900xt è un prodotto immaturo nato da un progetto ambiziosissimo che avrebbe bisogno dei 65nm come dell'aria.
a parte che non è solo dinoxpc, ma anche in altre rece, dove sotto XP sp2 la scheda nonostante i driver molto acerbi dimostra le sue potenzialità, superando nettamente la 8800gts ed in alcuni casi lottando con la gtx.
Sotto Vista la scheda ha notevoli problemi, speriamo nei nuovi driver.
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Ti ricordo che all'inizio i driver delle 8800 era scandalosi specie sotto vista, ora chiaramente hanno raggiunto un'ottima maturazione, vedremo se ati sarà altrettanto in gamba.
R650 alle porte?? madove??
leddlazarus
28-05-2007, 18:06
non capisco le idee di molte persone.
non voglio difendere ati o nvidia ma solo il mio portafoglio, da qui partono le mie considerazioni.
1) la 2900 è al pari della 8800 gts come prestazioni, e anche come prezzo quindi non vedo dove sia il problema. si poteva gridare allo scandalo solo se il prezzo fosse + alto. Ma a questo punto sulle 400€ non vedo perchè uno debba preferire la 8800 gts rispetto all 2900 xt (al + per i watt)
2) se la 2900 xt fosse stata simile alla 8800gtx lo sarebbe stato anche il prezzo, quindi ricadiamo nel caso 1.
3) se voglio le prestazioni top vado sulla 8800gtx e le pago, ma poi in sincerità quanti di noi possono (o vogliono) permettersi di spendere 500 € solo per giocare.
4) tutte e due le case hanno toppato clamorosamente la fascia media. e questo il punto + grave, perchè è un parco aperto a moltissimi utenti (80%) producendo schede con prestazioni medie a prezzi alti.
5) forse chi critica ati inconsciamente rosica perchè avrebbe voluto + guerra tra le case con i prezzi e poter acquistare schede valide a prezzi bassi.
Infatti essendo una vera dx10 a differenza di g80 (le 8xxx) hanno aspettato anche a fronte di ritardi nell'implementazione dei driver
Mi spieghi perché G80 dovrebbe essere una falsa DX10? :mbe:
bonzuccio
28-05-2007, 18:09
Mi spieghi perché G80 dovrebbe essere una falsa DX10? :mbe:
Perchè ad esempio non ha un engine dedicato ai geometry shaders
dragonheart81
28-05-2007, 18:40
Che tristezza...era bella solo per avere l'UVD adesso che non é vero che é implementato NVIDIA é proprio l'acquisto da fare...
fustacchione90
28-05-2007, 18:43
oh ma sentite io da fanboy ati vorrei dire solo 4 cose:
1.che problemi vi fate se siete dei moddatori validi a sentire un po piu di rumopre della sk video quando ci piantate su nel case 350 ventole tutte piene di neon?
2.la scheda è uscita ok, ma senza driver non si concude una cippa!! non so forse se vi ricordate le 8800gtx senza driver come erano...se vogliamo fare un paragone decente prendiamo i PRIMISSIMI driver usciti per 8800gtx e installiamoli...poi vediamo quanto bene vanno ste 8800gtx...
3.330€ nuova da negozio online su ebay...che chiedete di piu?
4.non so se avete notato quel vero e unico bench dx10 di call of juarez...con 330 € ti becchi la sk video che in ambiente dx10 con i driver praticamente nulli riesce a battere una 8800gtx che costa il doppio e che ha driver che dopo mezzo anno dall'uscita sono perfetti!!!
Evangelion01
28-05-2007, 19:12
oh ma sentite io da fanboy ati vorrei dire solo 4 cose:
1.che problemi vi fate se siete dei moddatori validi a sentire un po piu di rumopre della sk video quando ci piantate su nel case 350 ventole tutte piene di neon?
2.la scheda è uscita ok, ma senza driver non si concude una cippa!! non so forse se vi ricordate le 8800gtx senza driver come erano...se vogliamo fare un paragone decente prendiamo i PRIMISSIMI driver usciti per 8800gtx e installiamoli...poi vediamo quanto bene vanno ste 8800gtx...
3.330€ nuova da negozio online su ebay...che chiedete di piu?
4.non so se avete notato quel vero e unico bench dx10 di call of juarez...con 330 € ti becchi la sk video che in ambiente dx10 con i driver praticamente nulli riesce a battere una 8800gtx che costa il doppio e che ha driver che dopo mezzo anno dall'uscita sono perfetti!!!
1 : non vedo perchè giustificare un difetto STRUTTURALE della scheda. Quando ho preso la mia, avevo interesse che fosse anche silenziosa, nonostante avessi 6 ventole da 120 nel case, e sono rimasto soddisfatto. Chi vuole un pc silenzioso scarterà questa vga a priori, perchè sarebbe costretto a rinunciare a una caratteristica importante, ergo è un DIFETTO , comunque la si guardi.
2 : quando uscì la 8800gtx, il salto prestazionale fu ENORME rispetto alla generazione precedente, nonostante i drivers immaturi. Certo, c'erano alcuni bug con determinati titoli, ma fin da subito si vide la differenza. Ora invecie è uscita sta 2900, con SETTE mesi di ritardo ( :doh: ), che avrebbe dovuto surclassare di brutto la 8800, cosa che invecie non è avvenuta. E non si può dare la colpa solo ai drivers. O forse vi aspettate che con la prossima release le prestazioni raddoppieranno? I drivers possono migliorarla notevolmente , ma non trasformare l' anatroccolo in cigno. E oltretutto nel contempo anche i drivers nvidia migliorano.
3 : il prezzo non è malvagio, considerando la vga nell' insieme. Ma sinceramente penso che chi arrivi a spendere queste cifre, si aspetti qualcosa di meglio. E viste le prestazioni, a quel punto imho è meglio una 8800gts320mb, che a fronte di prestazioni non di molto inferiori ( e consumi e calore e rumore migliori ) , ha un prezzo decisamente più allettante.
4 : in coj con l' ultima release dei driver nvidia, la 2900 non batte la gtx ma è sotto. E comunque è troppo presto per giudicare queste schede sotto dx10. Ci vogliono più giochi. La gtx poi non costa il doppio ma sta scendendo verso i 450€.
E i drvers della 8800 sarebbero perfetti ??? MA LOL ! Basta vedere tra una release e l' altra il salto prestazionale che c'è stato. Non diciamo scemenze per favore....:rolleyes:
sia come sia,
AMD/ATI è nella mXrda... ogni giorno di più, tra un balla e l'altra.
NB: io non sono fan di alcuno, constato.
Per fustacchione90, il discorso non è ne il rumore ne l'ottimizzazione dei driver il discorso è nvidia sforna la sua scheda top, tutti aspettano la risposta di ati/amd, facendo sogni e supposizioni e paragani ancor prima dell'uscita...
e normale dopo aver aspettato tanto e ancora tanto vedere la risposta in un flop madornale, quindi rimanere come dire delusi, l'aver abbassato il prezzo è come dire:
" va beh! non celabbiamo fatta vendiamo sto aborto almeno in modo da non doverci straperdere"...
ATI/AMD ha toppato ed io per sto girone non ne avevo dubbi... (essendo spasimante Nvidia come daltronde lo sono anche di AMD)
I driver miglioreranno qualcosa e miglioreranno anche le performance della 8800gtx con altri driver nvidia ma i problemi di fondo resteranno...
Per voi SpasimATnI questo girone lo avete perso... Vedremo cosa succederà con l'r700/g90
byez
Evangelion01
28-05-2007, 19:26
E poi finiamola di fare discorsi fanboystici... tanto alla fine, la sconfitta di una o dell' altra casa, vuol dire solo prezzi più alti per noi consumatori. E la situazione che si presenta è questa : nvidia OGGI non ha concorrenza nella fascia ultra high, e non ne avrà nella fascia media fino all' uscita delle 2600. E ciò è solo UN MALE per tutti. C'è poco da festeggiare.... :(
MiKeLezZ
28-05-2007, 19:32
Riporto questo post che ho trovato su un altro sito. Dice in sostanza che AMD non ha messo il chip UVD sulla X2900 pensando che su quella scheda la decodifica si possa fare usando la sua capacità con gli shader, anziché aggiungendo un componente apposta.La volpe e l'uva... La stessa scusa usata per l'AA
Il problema è solo uno: usare gli Shader significa far decadere le performance, e questo avviene sia nel reparto video sia nel reparto ludico
Per cui, invece che una giustificazione, appare solo come una scelta stupida.
Una scheda di 200W in un HTPC? :mbe:Nei commenti riguardanti la recensione della X2900XT non erano pochi quelli che enfatizzavano tale feature... un HTPC/Console, forse? A me per esempio sarebbe utile
JohnPetrucci
28-05-2007, 19:46
Amd/Ati sta proprio giocando sporco, spacciano una scheda come se avesse l'UVD e poi si viene a scoprire l'amara sorpresa, che si aggiunge a tutte le magagna precedenti di questo prodotto, poco "fortunato" e soprattutto poco valido.:O
Conan_81
28-05-2007, 21:04
ogni giorno mi convinco sempre di più che sta 2900 è solo una 1950 overcloccata e con le istruzioni dx10 in più.. mah o_O
ormai l'ho comprata.. me frega un cavolo se il processore viene utilizzato maggiormente (non siamo al tempo dei 486dx che facevano scattare gli mp3.. se un C2D [tanto per citare a caso un dual core] viene utilizzato per il 5% in più non muore nessuno! se invece mi venite a dire che la qualità grafica sarà più bassa allora è un'altro discorso)
Frankant
28-05-2007, 22:23
Quoto tutto questo in particolare..;)
4) tutte e due le case hanno toppato clamorosamente la fascia media. e questo il punto + grave, perchè è un parco aperto a moltissimi utenti (80%) producendo schede con prestazioni medie a prezzi alti.
by_xfile™
29-05-2007, 00:21
mi dispiace vedere tutte queste lamentele ma da Ati Fun non vedo dove sia il problema .
io le ati le ho avute quasi tutte a partire dalla serie 7000 all in wonder radeo alla mia penultima 9800Pro all in wonder, e adesso ho la x1950Pro 512 Mb ram ddr3 ed è una bomba , ho avuto a che fare con le Gforce di nvidia ma aimè che delusione e che problemi di configurazione , ma per me ATI e solo ATI . :D
ThePunisher
29-05-2007, 07:00
Ma bonzuccio che recensioni ha letto?
Non le stesse che abbiano letto tutti noi, evidentemente.
ThePunisher
29-05-2007, 07:02
mi dispiace vedere tutte queste lamentele ma da Ati Fun non vedo dove sia il problema .
io le ati le ho avute quasi tutte a partire dalla serie 7000 all in wonder radeo alla mia penultima 9800Pro all in wonder, e adesso ho la x1950Pro 512 Mb ram ddr3 ed è una bomba , ho avuto a che fare con le Gforce di nvidia ma aimè che delusione e che problemi di configurazione , ma per me ATI e solo ATI . :D
Questi sono solo punti di vista... i dati oggettivi lasciamoli dare agli esperti e mi sembra che in questo caso non ci sia nulla da dire apparte flop.
wolfnyght
29-05-2007, 08:03
io invece me la faccio questa hd2900xt!
problemi per il rumore?e perchè scalda?
Me ne frego!piazzo il liquido(con refrigeratore)e via!
Non supporta a pieno l'hd?arimene frego.
Se non bastan 4giga di x6800....per sto video ad alta definizione mi sparo!ahahah
Ps tanto per il prezzo che viene,per come sale in overclock appena gli dai freddo,secndo me non è così aborto!anzi!
e parlo dopo aver visto 8800gts in sli e 8800gtx in sli(con procio sotto azoto e vga ad acqua fredda)
tanto tempo un paio di settimane arriveranno driver più maturi....
ps 330 contro 450 eurosdifferenza di prezzo di 120 sacchi a casa mia(tra 2900xt e 8800gtx)e non son pochi!;) con quegli eurozzi ai voglia di pagarne di corrente!ehehehehe
Cazzabbubbolo
29-05-2007, 08:12
Lupettino, fossi in te più che per il raffreddamento ad acqua, mi trasferirei in Groenlandia... :D
P.S.: Ma dove sta il problema?? Quando tocca all'Nvidia essere prima e quando all'Ati...:fagiano:
£$%&/@#!!!!!!!!!!!!!
Io sarei stato disposto a comprarla solo per l'UVD!!!!!>_________<
Portocala
29-05-2007, 08:30
cosè sto UVD?
io aspetto che scendano i prezzi e che facciano vedere i nuovi drivers. chi sà ... magari le prestazioni raddoppiano
sempre più fogna sta scheda.
ma cosa mi combinano T_T
nonikname
29-05-2007, 13:14
Perchè ad esempio non ha un engine dedicato ai geometry shaders
Engine dedicato ai geometry shaders????????
Stendiamo un velo pietoso su questo commento.... e quello precetente riguardante il fatto che il g80 non è DX10....
P.S. Ci sono tre tipi di istruzioni disponibili : pixel shaders , vertex shaders e geometry shaders... e tutti e tre sono tranquillamente processabili da uno dei 128/96 (GTX/GTS) stream processor disponibili.
Nella generazione pre DX10 le pipeline erano esclusivamente dedicate a eseguire calcoli sui pixel (pixel shader pipeline) o sui vertici (vertex shader pipeline)... Con l'avvento delle DX10 nVIDIA , anche avendo preannunciato il contrario , ha costruito una architettura a shader unificati che , come dice il nome , permette al programmatore di scrivere istruzioni che riguardano pixel , vertici e dalle dx10 anche geometria (molto utili per sgravare la cpu dai calcoli sulla fisica) eseguibili liberamente dagli stream processor che suddividono il carico a seconda della complessità della scena...
Forse tu parlavi del "Programmable tessellation unit" che è stato copiato e incollato dallo xenos come feature aggiuntiva che certo non guasta , ma che fino alle DX10.1-10.2 non sarà praticamente usata...
Quando ho appreso la notizia che l'R600 aveva il Tasselation unit on-board la mia mente è volata all'SDK per la 360 e la relativa semplificazione per i coders della console microsoft di gestire i porting 360-PC .. dalle DX10.1 in avanti ... ;)
Evangelion01
29-05-2007, 13:42
Engine dedicato ai geometry shaders????????
Stendiamo un velo pietoso su questo commento.... e quello precetente riguardante il fatto che il g80 non è DX10....
P.S. Ci sono tre tipi di istruzioni disponibili : pixel shaders , vertex shaders e geometry shaders... e tutti e tre sono tranquillamente processabili da uno dei 128/96 (GTX/GTS) stream processor disponibili.
Nella generazione pre DX10 le pipeline erano esclusivamente dedicate a eseguire calcoli sui pixel (pixel shader pipeline) o sui vertici (vertex shader pipeline)... Con l'avvento delle DX10 nVIDIA , anche avendo preannunciato il contrario , ha costruito una architettura a shader unificati che , come dice il nome , permette al programmatore di scrivere istruzioni che riguardano pixel , vertici e dalle dx10 anche geometria (molto utili per sgravare la cpu dai calcoli sulla fisica) eseguibili liberamente dagli stream processor che suddividono il carico a seconda della complessità della scena...
Forse tu parlavi del "Programmable tessellation unit" che è stato copiato e incollato dallo xenos come feature aggiuntiva che certo non guasta , ma che fino alle DX10.1-10.2 non sarà praticamente usata...
Quando ho appreso la notizia che l'R600 aveva il Tasselation unit on-board la mia mente è volata all'SDK per la 360 e la relativa semplificazione per i coders della console microsoft di gestire i porting 360-PC .. dalle DX10.1 in avanti ... ;)
Quoto in toto.. e basta con sta storia che g80 non è dx10, che fa ridere ! Cerchiamo di non fare disinformazione plz.
mettiamola così...per ora nvidia è "superiore" ad ati, ma la sfida nn è mica finita qui...
prima o poi ci sarà il grande ritorno magari con un R600 un pò revisionato...
cosè sto UVD?
Il chip che doveva sgravare completamente la CPU dalla decodifica di qualsiasi filmato, compresi ovviamente e soprattutto quelli HD.
Io invece resto dell'idea che questa generazione di VGA sia da saltare a piè pari (difatti ho cambiato la mia X800Xl con una 1950 Pro) per tirare avanti fino a primi dell'anno 2008 e di vedere le vere schede Dx10 ..8che che ne dite i test fatti con le demo di lost Planet (ottimizzato nVidia) e COJ fanno pena sia ATI che nVidia...o sbaglio?
Cazzabbubbolo
29-05-2007, 23:51
Io invece resto dell'idea che questa generazione di VGA sia da saltare a piè pari (difatti ho cambiato la mia X800Xl con una 1950 Pro) per tirare avanti fino a primi dell'anno 2008 e di vedere le vere schede Dx10 ..8che che ne dite i test fatti con le demo di lost Planet (ottimizzato nVidia) e COJ fanno pena sia ATI che nVidia...o sbaglio?
Io dico che è na cavolata, con rispetto parlando:D
Sai perchè? Le varie nvidia 7xxx e ati 1xxx non sono che evoluzioni, o meglio, esaltazioni delle tecnologie impiegate dall'uscita dello slot PCI-Ex. Infatti sono tutte studiate e sviluppate attorno ad un identico pcb (basta vedere le 6600 e le 7600, identiche...)tranne che in alcuni casi (vedi 7950 e 1950) e, soprattutto, sono nate per funzionare con le dx9. Quindi, se vogliamo parlare di spesa fattibile per campare non dico molto, ma almeno 1 annetto tranquilli, l'acquisto di una dx10 è un must. Ragion per cui, non è una generazione da saltare a pié pari, anzi! Chi si ricorda quando si passò dal PCI (con le mitiche voodoo 2, primissimo sistema sli, grazie 3DFX!!!!) all'agp? Stessi problemi: costi alti, tecnologia nuova, drivers non ottimali e grandi divari prestazionali tra le configurazioni pci e agp. Ma chi si tuffò subito in quella nuova tecnologia ha potuto partecipare pienamente alla sua eccezionale evoluzione! Oggi noi ci troviamo, più o meno, nelle stesse condizioni: certo, non si cambia piattaforma, ma semplicemente (ma neanche così tanto:D ) le dx... Ragion per cui, per stare al passo coi tempi, sacrificare qualche spicciolo in più e comprare una bella x2xxx o 8xxx non è poi così brutto...
Non volete evolvervi?;)
una volta le nuove tecnologie si applicavano ai top di gamma...mah...:boh:
oggi invece il top di gamma serve solo a spennare i giocatori incalliti :read:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.