PDA

View Full Version : ATI Radeon HD 4850, test e analisi architettura


Pagine : 1 2 [3] 4

Lithium_2.0
26-06-2008, 01:10
Buongiorno, ops, buonanotte (primo post..)


Volevo innanzitutto fare i complimenti alla redazione per l'articolo, anche se altri siti hanno forse fatto meglio,
ma comunque nei prossimi giorni c'è tutto il tempo per pubblicare ulteriori test e analizzare meglio la 'schedona' di ATi.

Condivido del tutto le considerazioni finali dell'articolo, in fondo se nVidia ha confermato il ribasso dei prezzi non ha senso confrontare i prezzi attuali quando
(probabilmente tra 2 o 3 settimane) troveremo le 9800GTX a ~150 euro, in fondo i negozi hanno a magazzino le schede pagate a prezzo 'pieno'
quindi ci sarà da aspettare un po', ma è del tutto normale.

Comunque IMHO è preferibile la 4850,
che probabilmente acquisterò a giorni
(appena ne trovo una con dissipatore a doppio slot però!)

BlueKnight
26-06-2008, 01:21
Aspetto di avere conferme se gli agganci sono gli stessi della serie 3000 e poi mi compro un bel AC Accelero S1 e lo monto su questo gioiellino..

tanto se non aveva problemi a tenere a bade le 8800 GT che sono più "calde", figuriamoci questa schedozza.

BlueKnight
26-06-2008, 01:24
Ah, tanto per fare rodere ancora un pò gli nVidiosi :D , vi posto questa bella news:

http://www.techpowerup.com/63966/ATI_Radeon_HD4850_Transcodes_Four_1080p_Video_Files_Simultaneously_in_Real-Time.html


Anche per chi non mastica l'inglese, il titolo mi sembra comunque esplicativo:

ATI Radeon HD4850 Transcodes Four 1080p Video Files Simultaneously in Real-Time

calabar
26-06-2008, 01:28
Ora Ati ha messo a segno una bel punto, ma non deve abbassare la guardia: secondo me nvidia non è stata a dormire, ha rirato fuori con il minimo sforzo due vga dalle alte prestazioni (che per prestazioni assolute e per la nomea nvidia comunque venderanno),migliorando di poco e niente ciò che già aveva in mano, perchè sta già concentrando gli sforzi sulla nuova architettura.

Personalmente ritengo le Ati attuali una spanna avanti a livello tecnologico, ma la buona architettura nvidia nata con la serie 8xxx ha permesso a questa azienda di tirare avanti senza portare novità, e dedicarsi a quella che presumibilmente sarà un'architettura dx11.

Poi, come è ovvio in questi casi, chi vivrà vedrà. La mia speranza è che anche AMD abbia già in mano un buon progetto per la prossima generazione, per non rischiare di rimanere indietro di nuovo, con le pessime conseguenze relative ad innovazione e prezzi che abbiamo vissuto fino a poco tempo fa.

BlueKnight
26-06-2008, 02:01
Sinceramente non si è ancora sentiro parlare di nessuno dei 2 futuri chip di entrambi le case.. e di solito qualcosa trapela sempre sulle generazioni future al lancio delle nuove schede.
Inoltre le DX11 usciranno fra molto tempo, quindi fidati che altre schede ci saranno e come prima dell'avvento delle nuove librerie.

Comunque credo che entrambi le architetture sono arrivate un pò al limite.. è vero che ATI ha sorpreso con questa nuova revision, ma a parte alcuni miglioramenti per ora si può migliorare qualcosa solo abbassando il processk produttivo, così come ha fatto nVidia con la 9800 GTX+.. ma i risultati non sono stati fenomali a quanto si è visto.

Speriamo che entrambi le case sfornino qualche nuova idea rivoluzionarie, e che le case produttrici si adeguino presto alle nuove features (vedi DX10.1 e Geometry Shaders)
.

Free Gordon
26-06-2008, 02:15
http://www.techpowerup.com/63966/ATI_Radeon_HD4850_Transcodes_Four_1080p_Video_Files_Simultaneously_in_Real-Time.html
Anche per chi non mastica l'inglese, il titolo mi sembra comunque esplicativo:
ATI Radeon HD4850 Transcodes Four 1080p Video Files Simultaneously in Real-Time


Spettacolo!
Chissà però quando vedremo programmi "free" che fanno cose simili...

Sarebbe bello che ATI integrasse nell'Avivo queste funzionalità, in modo semplice.. (e non sfruttando la CPU, come ha fatto finora...)

ciccio357
26-06-2008, 06:28
io nn ti posto proprio nnt ne avete mandati a migliaia di siti mai sentiti in burundi di recensioni dove una 4870 va piu di una gtx280 quindi riguardati le pagine ma cmq io il mio 3way sli di xfx 280gtx xxx edition nn me lo toglie nessuno... poi ognuno pensa a se stesso.. ciao

a rockefeller ma vedi di finirla :D

Blake86
26-06-2008, 07:56
a rockefeller ma vedi di finirla :D
Quot e aggiungo, visto che tu sei un tipo di faati e non parole appena lo monti ci mandi una fto con tanto di alimetatore da 1300W!!!!!
:D http://nonciclopedia.wikia.com/wiki/Bimbominkia
http://nonciclopedia.wikia.com/wiki/Immagine:Bimbiminkia.gif

Cappej
26-06-2008, 08:29
BOIA!
bene, anzi, BENISSIMO! se non altro le 9800 GTX sono calate del 50% di prezzo... la supremazia Nvidia inizia a crollare... e NOI tutti (fanboy di qualsiasi colore e/o fazione) ci guadagnamo e non poco... cmq sarei davvero curioso di provarla... dopotutto... come TUTTE LE SCHEDE VIDEO CHE VEDO IN TEST!
ma stavolta ci crediamo! AMD ci ha sfornato un paio di chicche niente male... prima il TURION con la sua piattaforma PUMA che sembra davvero essere una gnazata, adesso questa serie 4800... che dire... :sperem:

Mr_Paulus
26-06-2008, 09:04
beh intel nel frattempo che aveva successo con i c2 ha anche preparato nehalem e probabilmente altre cose interessanti (per es larrabee, anche se probabilmente progetto sensibilmente più lontano da una qualche forma
commerciale)

dopo il debutto di questo rv770 forse in parte sorprendente per noi utenti, guardando dall'altra parte a noi profani rimane magari la sensazione che nv abbia "dormito" sugli allori un po' di più di quanto avrebbe dovuto, ma al momento non mi sembra si possa trovare una forte analogoia sul fronte amd/intel, quantomeno in ambito cpu

ma secondo te all'idf di quest'autunno riusciremo a vedere qualcosa di concreto a proposito di larrabee?

killer978
26-06-2008, 09:20
Ah, tanto per fare rodere ancora un pò gli nVidiosi :D , vi posto questa bella news:

http://www.techpowerup.com/63966/ATI_Radeon_HD4850_Transcodes_Four_1080p_Video_Files_Simultaneously_in_Real-Time.html


Anche per chi non mastica l'inglese, il titolo mi sembra comunque esplicativo:

ATI Radeon HD4850 Transcodes Four 1080p Video Files Simultaneously in Real-Time

Nella notizia da te postata sotto c'è un link che apre un video di Youtube, a quanto pare anche le nuove Nvidia hanno questa features ;)
La cosa strana è come avrà fatto ATI ad infilarci tutto sto popò di roba in quel chippettino :asd:

Chissà quanto è aumentato il divario in ambito professionale, ricordo che le vecchie VGA ATI con R600 davano la polvere alle Nvidia serie 8, nei giochi era il contrario, chissà adesso come stanno le cose?

ghiltanas
26-06-2008, 09:38
quoto, anche se..., credi lo facciano di proposito? io non credo..(o almeno spero... non vedo l'utilità)

nn lo so proprio...

imho, mobo p45(ma di quelle con gli attributi anche in ottica oc, semmai ti ci volessi divertire) + penryn, dual/quad/clock dipende ovviamente da quanto sei disposto consumare; (non significa ovviamente che secondo me anche chipset+cpu amd non possano assolvere al compito)
hd4870 se ti interessa abbstanza giocare tanto mettere in preventivo la maggiore spesa (questo rv770 è venuto veramente un signor chip, lo vedo un po' troppo col freno tirato in versione hd4850 per i miei gusti :D), e cmq anche col reference design è raffreddata meglio della hd4850

il tutto condito con una tv full-hd retroilluminata a led è ancora più bello :O
:D



no non dovrebbe far male 1GB di vram, in un altro thread recentemente anche utenti molto più esperti di me in ambito gpu, leoneazzurro e yossarian, dicevano che ad alte risoluzioni già con i titoli attuali può capitare che il framebuffer da 512MB si esaurisca e diventi un collo di bottiglia per la prestazione della gpu

però è altrettanto vero che ora la nota dolente delle gddr5 sono i prezzi, non saprei dire a quando hd4870 da 1GB a prezzi umani, ma azzrederi cmq mesi, non prima dei botti autunno/inverno

in caso di cf, io punterei allora più sulla nuova x2 (magari non subito appena esce; ma se trattasi sempre di htpc, di una hd4870, magari da 1GB, io mi accontenterei :D)

per il sistema hai centrato in pieno la mia idea, solo hai sbagliato la periferica video, il sogno sarebbe prendermi l'epson tw1000 ;) (oggi è giovedi sarà bene giocare al superenalotto :asd:)
per la memoria video anch'io sostenevo nello stesso thread di cui parlavi che 512 mb possono diventare stretti già a risoluzioni di 1680*1050 con i filtri.
Il cross effettivamente può essere una soluzione nn indicata sia per i consumi sia per l'eccessivo rumore in un htpc anche se da gioco, mentre le soluzioni x2 nn mi piacciono.
Grazie cmq dell'interessamento :) , avrei cmq un dubbione sull'audio. Com'è il comparto audio di queste schede? ( a me basta che sia di buona qualità)
e inoltre se per esempio collego la gpu a un videoproiettore l'audio come lo mando ad un sistema multicanale? hanno un'uscita ottica a se queste schede?:confused:

MenageZero
26-06-2008, 09:39
ma secondo te all'idf di quest'autunno riusciremo a vedere qualcosa di concreto a proposito di larrabee?

non ne ho idea :D

cmq a prescindere dall'idf, il recente accordo con amd affinché future release di havok usino le radeon per i calcoli di "simulazione fisica" potrebbe far pensare che eventuali gpu basate su quel progetto siano ancora cosa lontana, commercialmente.
(ma ovviamente potrebbe anche essere un mi impressione del tutto errata)

Stefem
26-06-2008, 09:46
il tuo link

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=22

dice che la 4850 consuma 158,9 watt in idle, mentra la gtx+ ne consuma 187,9.
ovvero la schedina nvidia consuma 29 watt in più, e conferma come tu abbia torto

sei un burlone, vero ;-)

Ma che diamine:mad: rileggi!!!!!!!!

Ho detto che in idle la 260 GTX consuma meno della 4850(per sbaglio avevo scritto 280 che consuma praticamente lo stesso)!

Quindi burlone dillo a tua sorella ;-)

Mr_Paulus
26-06-2008, 09:46
non ne ho idea :D

cmq a prescindere dall'idf, il recente accordo con amd affinché future release di havok usino le radeon per i calcoli di "simulazione fisica" potrebbe far pensare che eventuali gpu basate su quel progetto siano ancora cosa lontana, commercialmente.
(ma ovviamente potrebbe anche essere un mi impressione del tutto errata)

o magari intel vuole diffondere il più possibile la piattaforma havok in modo che quando mamma microsoft integri delle api legate alla fisica nelle dx (11 o che..) prenda spunto da qualcosa che è già diffuso invece di inventarsi qualcosa di nuovo e incompatibile (tanto si sa che se microsoft mette uno standard per la fisica nelle directx i vari havok e pysix sono destinati a sparire)..
possibile sta cosa?:stordita:

NeoTheMatrix27
26-06-2008, 09:58
Beh, è quasi un semestre che non posto ... ma ATI con questa serie 4000 mi spinge obbligatoriamente a postare. Penso sia il prodotto dell'anno, tanto per il prezzo, tanto per la bontà di questa 4850.
ho letto che qualcuno faceva riferimento alla 8800gtx.. beh, ex top di gamma surclassato dalla fascia media di ati e che un prezzo decisamente inferiore.. ben tornata ATI e via la concorrenza... giocare bene si può anche a basso prezzo.
in luglio sostituiro la mia x1950pro con una bella 4870
P.S. ci sono bench attendibili sulla 4870???

MenageZero
26-06-2008, 10:06
nn lo so proprio...



per il sistema hai centrato in pieno la mia idea, solo hai sbagliato la periferica video, il sogno sarebbe prendermi l'epson tw1000 ;) (oggi è giovedi sarà bene giocare al superenalotto :asd:)
per la memoria video anch'io sostenevo nello stesso thread di cui parlavi che 512 mb possono diventare stretti già a risoluzioni di 1680*1050 con i filtri.
Il cross effettivamente può essere una soluzione nn indicata sia per i consumi sia per l'eccessivo rumore in un htpc anche se da gioco, mentre le soluzioni x2 nn mi piacciono.
Grazie cmq dell'interessamento :) , avrei cmq un dubbione sull'audio. Com'è il comparto audio di queste schede? ( a me basta che sia di buona qualità)
e inoltre se per esempio collego la gpu a un videoproiettore l'audio come lo mando ad un sistema multicanale? hanno un'uscita ottica a se queste schede?:confused:

non so se queste nuove radeon fungano da scheda audio a tutti gli effetti. cmq l'audio lo puoi sempre mandare ad un decoder/amp esterno tramite l'hdmi della radeon (poi i modelli recenti di tali scatolotti dovrebbero avere a loro volta un'uscita hdmi per girare il segnale video alla tv) o tramite l'uscita digitale (ottica o coassiale che sia)di periferiche audio più "tradizionali" (non so però se quest'ultima interfaccia possa arrivare a trasportare anche dolby true-hd e dts-hd)

per quel che riguarda le tipiche schede audio da pc, basandomi sulle ultime news di hwupg (non sono quindi informatissimo in generale sull schede audio), attualmente lo stato dell'arte, con un occhio di riguardo appunto all' home theater, potrebbe essere questa:
http://www.hwupgrade.it/news/multimedia/auzentech-nuova-scheda-audio-x-fi-con-hdmi-13_25669.html
(soprattutto se effettivamente il chip x-fi usato è, come si menziona, una revision che risolve i problemi con il pci-e)
poi non mi chiedere che giro fanno esattamente i segnali con la doppia interfaccia hdmi di questa scheda xché non credo di averlo capito bene :stordita:

... cmq, siamo molto, molto OT :fagiano:

ps: com'è che, in generale, ti piaccione le config cf ma non le schede x2 ? :D
e "strano", tanto più che con la prossima x2 ci dovrebbero essere novità nell'implementazioen rispetto al passato (e forse anche rispetto ad un attuale cf normale di rv770, ma non sono sicurissimo)

Blake86
26-06-2008, 10:12
non so se queste nuove radeon fungano da scheda audio a tutti gli effetti. cmq l'audio lo puoi sempre mandare ad un decoder/amp esterno tramite l'hdmi della radeon (poi i modelli recenti di tali scatolotti dovrebbero avere a loro volta un'uscita hdmi per girare il segnale video alla tv) o tramite l'uscita digitale (ottica o coassiale che sia)di periferiche audio più "tradizionali" (non so però se quest'ultima interfaccia possa arrivare a trasportare anche dolby true-hd e dts-hd)

per quel che riguarda le tipiche schede audio da pc, basandomi sulle ultime news di hwupg (non sono quindi informatissimo in generale sull schede audio), attualmente lo stato dell'arte, con un occhio di riguardo appunto all' home theater, potrebbe essere questa:
http://www.hwupgrade.it/news/multimedia/auzentech-nuova-scheda-audio-x-fi-con-hdmi-13_25669.html
(soprattutto se effettivamente il chip x-fi usato è, come si menziona, una revision che risolve i problemi con il pci-e)
poi non mi chiedere che giro fanno esattamente i segnali con la doppia interfaccia hdmi di questa scheda xché non credo di averlo capito bene :strodita:

... cmq, siamo molto, molto OT :fagiano:

ps: com'è che, in generale, ti piaccione le config cf ma non le schede x2 ? :D
e "strano", tanto più che con la prossima x2 ci dovrebbero essere novità nell'implementazioen rispetto al passato (e forse anche rispetto ad un attuale cf normale di rv770, ma non sono sicurissimo)

se ci fossero le stesse possibilità effettive che ci saranno sulla x2, driver uguali e quindi 0 problemi lo vedrei mglio un cross di due sched sigole.
primo perchè puoi mettere per es, una 50 e una 70, inoltre se hai un x38-48 pui sfruttare le 2 linee 16x, a poi ancora, anche se consumano un po di più, due schede singole si occano di sicuro di più...

killer978
26-06-2008, 10:15
La serie HD38xx e 48XX hanno l'audio integrato direttamente nella GPU , quindi basta collegare l'uscita HDMI ad un televisore HD x avere sorgente Audio/Video senza bisogno di una scheda audio on board da collegare a sua volta alla TV ;)

MenageZero
26-06-2008, 10:29
o magari intel vuole diffondere il più possibile la piattaforma havok in modo che quando mamma microsoft integri delle api legate alla fisica nelle dx (11 o che..) prenda spunto da qualcosa che è già diffuso invece di inventarsi qualcosa di nuovo e incompatibile (tanto si sa che se microsoft mette uno standard per la fisica nelle directx i vari havok e pysix sono destinati a sparire)..
possibile sta cosa?:stordita:

ad ora riguardo alllo scenario futuro a cui ti riferisci è ancora tutto molto "fumoso", credo quindi che per il momento in teoria tutto o quasi sia possibile

certo che, se l'accordo che mezionavo avrà seguito, amd avrà il "suo" middleware per "fisica-su-gpu" senza doverci lavorare direttamente, quindi nel momento in cui dovesse implementare in un nuvo chip le specifiche dx11, anche se queste includeranno delle api per la fisica il passaggio ad un nuovo middleware o ad una nuova versione di havok scritta con le nuove api per amd potrebbe essere del tutto "trasaparente", appunto xché il lavoro per il chip dx11 avrebbe dovuto farlo cmq.

mentre la vedo dura far rinunciare nv a physix in toto(se future dx dovresse includere anche un middleware "standard" per la fisica) o anche "solo" a cuda(se le futiure dx integreranno appunto delle api stile cuda, cosa forse più probabile, piuttosto che direttamente un "engine fisico") e quindi vederla poi riscrivere physix con le nuove api by ms
(anche xché attualmente nv mi pare ci stia proprio puntando anche commercialmente su physix e su cuda in generale, e non solo in ambito game)

cmq, io per primo, non siamo esattamente IT, qui bisognerebbe parlare di hd4850 o al limite di rv770 in generale :D

Blake86
26-06-2008, 10:37
pero quello sceen or'lie...mi sembra un attimo di parte!
43% è troppo! e poi con che test...va bene che ati col 3d marck va a braccetto, ma sono il primo a dire di non contarlo...

MenageZero
26-06-2008, 10:40
o magari intel vuole diffondere il più possibile la piattaforma havok in modo che quando mamma microsoft integri delle api legate alla fisica nelle dx (11 o che..) prenda spunto da qualcosa che è già diffuso invece di inventarsi qualcosa di nuovo e incompatibile (tanto si sa che se microsoft mette uno standard per la fisica nelle directx i vari havok e pysix sono destinati a sparire)..
possibile sta cosa?:stordita:

ad ora riguardo alllo scenario futuro a cui ti riferisci è ancora tutto molto "fumoso", credo quindi che per il momento in teoria tutto o quasi sia possibile

certo che, se l'accordo che mezionavo avrà seguito, amd avrà il "suo" middleware per "fisica-su-gpu" senza doverci lavorare direttamente, quindi nel momento in cui dovesse implementare in un nuvo chip le specifiche dx11, anche se queste includeranno delle api per la fisica il passaggio ad un nuovo middleware o ad una nuova versione di havok scritta con le nuove api per amd potrebbe essere del tutto "trasaparente", appunto xché il lavoro per il chip dx11 avrebbe dovuto farlo cmq.

mentre la vedo dura far rinunciare nv a physix in toto(se future dx dovresse includere anche un middleware "standard" per la fisica) o anche "solo" a cuda(se le futiure dx integreranno appunto delle api stile cuda, cosa forse più probabile, piuttosto che direttamente un "engine fisico") e quindi vederla poi riscrivere physix con le nuove api by ms
(anche xché attualmente nv mi pare ci stia proprio puntando anche commercialmente su physix e su cuda in generale, e non solo in ambito game)

cmq, io per primo, non siamo esattamente IT, qui bisognerebbe parlare di hd4850 o al limite di rv770 in generale :D

ghiltanas
26-06-2008, 10:48
ps: com'è che, in generale, ti piaccione le config cf ma non le schede x2 ? :D
e "strano", tanto più che con la prossima x2 ci dovrebbero essere novità nell'implementazioen rispetto al passato (e forse anche rispetto ad un attuale cf normale di rv770, ma non sono sicurissimo)

veramente le soluzioni cf o sli in generale nn mi piacciono moltissimo, mentre le soluzioni x2 mi fanno proprio schifo come sono concepite attualmente, nn le vedo affatto come un'evoluzione visto che sono solo 2 gpu prese e appioppate li, quando realizzeranno una soluzione x2 stile proci attuali allora si che mi piaceranno

MenageZero
26-06-2008, 10:54
se ci fossero le stesse possibilità effettive che ci saranno sulla x2, driver uguali e quindi 0 problemi lo vedrei mglio un cross di due sched sigole.
primo perchè puoi mettere per es, una 50 e una 70, inoltre se hai un x38-48 pui sfruttare le 2 linee 16x, a poi ancora, anche se consumano un po di più, due schede singole si occano di sicuro di più...

certo, ha senso anche questo ;)

può anche darsi però, almeno con la prossima, che sulla x2 il cf si riveli un po' più efficente

poi se avere due connessioni x16(una per ogni scheda/gpu) anziché solo una connession x16(smistata 2*x8) sia un fattore che influensi le prestazioni non lo so, dovrei documentarmi.

tieni però conto che nel momento in cui viene evntualmente esaurita la vram on board, è cmq altamente probabile che le prestazioni colino a picco indipendentemente da quante lane pci-e hai

bonzuccio
26-06-2008, 10:56
Il setting più gettonato dai videogiocatori: 1600x1200 AA8x AF16x - Media su 14 giochi:

http://img204.imageshack.us/img204/1043/orlyjm9.th.jpg (http://img204.imageshack.us/my.php?image=orlyjm9.jpg)

La HD4850 risulta più performante della 9800GTX+ (che ha un prezzo consigliato di 30$ superiore) del 43%. Alla 9800GTX va ancora peggio. 43%. O'Rly?! :asd:



Azz lo hai accoltellato senza pietà..
la 9800gtx+ risulta più lenta della 8800gtx lol

belin
26-06-2008, 11:00
Quando mi chiedo perchè ho smesso di frequentare assiduamente questo forum trovo la risposta leggendo i commenti nelle recensioni delle schede video. Purtroppo.
Alcuni utenti (pochissimi) fanno davvero tenerezza per quanto sono fanboy e di parte. Evidentemente alla loro giovane età è d'obbligo fare il tifo in tutto i campi della vita, anche in quello inutile delle schede video. Inutile se non ci lavori, ovviamente.

Nel momento in cui in tutto il mondo informatico (tutto) le HD4850 e HD4870 vengono valutatate molto molto positivamente da tutte le testate giornaliste e specializzate, qui sul "nostro" forum i soliti fanboy dicono il contrario e scatenano la solita guerra sulle vga. Siete noiosi.
Pure Fudzilla ha dato un parere molto positivo su queste schede. Siete riusciti a prendere il suo posto. LOL!

Tutti i siti rimarcano le novità, le prestazioni, l'ottimo rapporto prezzo prestazioni, ma alcuni di voi no, andate a cercare dei singoli benchmark che vi esaltano e portate avanti la vostra noiosa battaglia per dimostrare che la vga che avete nel case ce l'ha più lungo. Crescete, state parlando di pezzi di silicio.

Riquoto il mio post per la Redazione sperando che non si perda nella guerra dei post.
Si parlava del chipset usato per la prossima recensione.

Ottimo, era una delle "richieste" che volevo proporvi anche io. In futuro magari, se potete, sarebbe interessante utilizzare sempre un X48, preferibile secondo me al 790i. Buon lavoro per l'ennesima nuova recensione.

Solo una domanda: come mai utilizzate PT Boats? non mi pare un gran test, non sarebbe meglio il 3DMark Vantage se vogliamo rimanere nell'ambito "benchmark"? Oblivion, non toglietelo dalle recensioni, è ancora un gran gioco graficamente!

:)

Per quanto riguarda le nuove vga, direi che il titolo di una recensione inglese dice tutto: The Radeon HD 4870 & 4850: AMD Wins at $199 and $299. Ottime vga proposte ad un prezzo ottimo.

goldorak
26-06-2008, 11:00
3DMark06: +6%
COD4: -2% (con AA4x)
Clive Barker's Jericho: +253% (qui G92 muore passando da AA4x ad AA8x :asd: )
F.E.A.R.: +11%
Rainbow Six Vegas: +88%
Unreal Tournament 3: +73%
Call of Juarez: +21%
Company of Heroes: +11%
Lost Planet: +10%
World in Conflict: +26% (con AA4x)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/#abschnitt_einleitung


Ma pensa te cosa si riesce a fare con soli 150 €. :Perfido:

Blake86
26-06-2008, 11:02
certo, ha senso anche questo ;)

può anche darsi però, almeno con la prossima, che sulla x2 il cf si riveli un po' più efficente

poi se avere due connessioni x16(una per ogni scheda/gpu) anziché solo una connession x16(smistata 2*x8) sia un fattore che influensi le prestazioni non lo so, dovrei documentarmi.

tieni però conto che nel momento in cui viene evntualmente esaurita la vram on board, è cmq altamente probabile che le prestazioni colino a picco indipendentemente da quante lane pci-e hai

lo so. Però quando sfrutti la mobo al 100% fa piacere e poi se hai una parete completamente trasparente come la mia due schedozze fanno più impressione!!!!:sofico:
http://i32.tinypic.com/2d7a7uu.jpg (http://i29.tinypic.com/28h2xxt.jpg)

stecrysis
26-06-2008, 11:22
era proprio computerbase.de il sito del burundi.. mah..

MiKeLezZ
26-06-2008, 11:28
Visto l'ottuso accanimento che leggo su queste pagine di commenti anche contrario ad ogni evidenza mi son sforzato di andare a consultare la mia possente biblioteca...



Giusto per dare la giusta dimensione al personaggio. Nega e negherà anche sotto tortura, quindi lasciatelo perdere.:o)

gutti
26-06-2008, 11:28
... CUT CUT CUT...

Il setting più gettonato dai videogiocatori: 1600x1200 AA8x AF16x - Media su 14 giochi:

http://img204.imageshack.us/img204/1043/orlyjm9.th.jpg (http://img204.imageshack.us/my.php?image=orlyjm9.jpg)

La HD4850 risulta più performante della 9800GTX+ (che ha un prezzo consigliato di 30$ superiore) del 43%. Alla 9800GTX va ancora peggio. 43%. O'Rly?! :asd:

... CUT CUT CUT...


Ma che dici! :doh:
Si vede benissimo dal grafico che la 4850 è subito sotto la 9800GTX+...
e la stacca anche di un bel 10%!

a proposito, qualcuno mi sa dire cosa vuol dire la sigla SLI?

...

...

...

:sbonk:

goldorak
26-06-2008, 11:28
Visto l'ottuso accanimento che leggo su queste pagine di commenti anche contrario ad ogni evidenza mi son sforzato di andare a consultare la mia possente biblioteca...



Giusto per dare la giusta dimensione al personaggio. Nega e negherà anche sotto tortura, quindi lasciatelo perdere.


Mah che tristezza che e' diventato il forum di hwupgrade, siti tradizionalmente verdi come Anandtech e Hardforum hanno promosso a pieni voti le nuove schede ATI. E sebbene i loro forum siano pieni di fanboy, sono fanboy che sanno ragionare e ammettono quando una soluzione e' migliore della loro scheda del cuore.
Qui invece si tifa anche contro i dati oggettivi, tristezza e delusione.

Stefem
26-06-2008, 11:47
Ma che dici! :doh:
Si vede benissimo dal grafico che la 4850 è subito sotto la 9800GTX+...
e la stacca anche di un bel 10%!

a proposito, qualcuno mi sa dire cosa vuol dire la sigla SLI?

...

...

...

:sbonk:

SLI è l'acronimo di Scalable Link Interface

killer978
26-06-2008, 11:47
Visto l'ottuso accanimento che leggo su queste pagine di commenti anche contrario ad ogni evidenza mi son sforzato di andare a consultare la mia possente biblioteca...



Giusto per dare la giusta dimensione al personaggio. Nega e negherà anche sotto tortura, quindi lasciatelo perdere.

He he hai colpito nel segno!!

mai dire gatto prima di averlo nel sacco :asd:

la 4870 è mediamente un 10/15% sotto la GTX280 senza filtri, con i filtri il divario si accorcia, in alcuni titoli la scheda è sopra :eek: parliamo di una scheda che costa meno della metà ripsetto al mooostro Nvidia.

killer978
26-06-2008, 11:49
lo so. Però quando sfrutti la mobo al 100% fa piacere e poi se hai una parete completamente trasparente come la mia due schedozze fanno più impressione!!!!:sofico:
http://i32.tinypic.com/2d7a7uu.jpg (http://i29.tinypic.com/28h2xxt.jpg)

Piccolo OT:

Butta ALICE e passa a Fastweb :asd:

Io ho fatto il passaggio e ne sono entusiasta

fine OT

bonzuccio
26-06-2008, 11:50
Mah che tristezza che e' diventato il forum di hwupgrade, siti tradizionalmente verdi come Anandtech e Hardforum hanno promosso a pieni voti le nuove schede ATI. E sebbene i loro forum siano pieni di fanboy, sono fanboy che sanno ragionare e ammettono quando una soluzione e' migliore della loro scheda del cuore.
Qui invece si tifa anche contro i dati oggettivi, tristezza e delusione.

Il ragionamento di Ratasok è più che giusto
questo è tradizionalmente il destino che prima o poi si compie verso chi ha dato prova di poca lucidità nei giudizi diciamo che è una simpatica maniera di additare chi si è sbilanciato forse troppo nei giudizi :asd:

gutti
26-06-2008, 11:53
SLI è l'acronimo di Scalable Link Interface

Grazie Stefem!
In realtà so cos'è lo SLI... nel post volevo fare solo una battutaccia: dai grafici la 4850 è solo il 10% in meno di due 9800GTX+ in SLI...
Grazie mille però, perchè l'acronimo preciso non lo sapevo!

gianni1879
26-06-2008, 11:53
Visto l'ottuso accanimento che leggo su queste pagine di commenti anche contrario ad ogni evidenza mi son sforzato di andare a consultare la mia possente biblioteca...



Giusto per dare la giusta dimensione al personaggio. Nega e negherà anche sotto tortura, quindi lasciatelo perdere.
ho avuto molti battibecchi con quell'utente, alcuni finiti pure con la sua sospensione!

mi da enormemente fastidio che alcuni utenti, i soliti e i fake account neghino la realtà, la dura realtà per loro è questa, ovviamente negheranno sempre e comunque, che una vga da 140euro batte o cmq lotta alla pari con una vga da 70euro in più, i tagli di prezzi annunciati da Nvidia da Noi non si sono ancora visti, chissà quando li vedremo... ecco anche il mio leggero disaccordo con le conclusioni di questo articolo

DjLode
26-06-2008, 11:57
Ma io non capisco, che lo ammettano o no, che abbiano ragione o no, a voi che vi torna in tasca? Dopo 3 o 4 volte che cercate di spiegare le cose, se sono in disaccordo con voi o lasciate perdere o accettate le loro opinioni. Per quanto sbagliate o giuste saranno ben liberi di pensare come vogliono? E se i post mirano solo a scatenare flame... basta ignorarli.

ghiltanas
26-06-2008, 12:02
ratatosk potresti attendere l'uscita di versioni con dissi nn reference :)

gutti
26-06-2008, 12:03
In attesa della recensione di questo sito, riguardo la 4870, vi riporto questo:

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/8162-palit-radeon-hd4870-512mb-graphics-card-review.html#post64086

In particolar modo (questa recensione l'ho trovata proprio cercando ulteriori informazioni su quello che riporto sotto) a pagina 21:

Hanno provato a montarci un Thermalright HR-03 GT, con questo risultato estetico:

http://images.hardwarecanucks.com/image/skymtl/GPU/PALIT-HD4870/LARGE/PALITHD4870-30.jpg

Installazione del tutto priva di problemi, il dissipatore è perfettamente compatibile, questo fa supporre (era qualcosa di praticamente certo già prima) che tutti gli aftermarket compatibili con RV670 lo siano con RV770.

Il risultato in termini pratici è il seguente:

...

Alcune mie considerazioni:

1. Lo stock cooler gira lentamente per mantenere bassi i livelli di rumorosità.
2. Un dissipatore aftermarket consente di abbattere le temperature di esercizio mantenendo bassi livelli di rumore.
3. Questa volta voglio esagerare e mi prenderò una 4870 con Thermalright HR-03 GT, ma visto che sono in vena di spese ci monto anche una ventola Noctua invece di quella Thermalright.

Ma dai!
Non ci credo!
Quello nella foto è un dissi passivo? Se è così per avere quei risultati l'hanno provato dentro la galleria del vento!

Se è vero mi piglio scheda e dissi appena li trovo disponibili!

edit:
Dall'articolo linkato
Please note that this is with a single Zalman 92MM fan operating at 1600RPM along with Arctic Cooling MX-2 applied to the base.
Non è proprio passivo, ma il risultato è lo stesso stupefacente!

killer978
26-06-2008, 12:03
Sono sempre + convinto che queste schedozza alla fine non scaldino una cippa, basta qualche piccolo accorgimento x tenerle al disotto dei 60°, altrimenti ATI avrebbe messo qualche heatpipes nei dissy o almeno avrebbe aumentato i giri delle ventole, una ventola da 6cm che gira al 37% a 90° non fa che affermare i miei presupposti!!!

MiKeLezZ
26-06-2008, 12:04
3. Questa volta voglio esagerare e mi prenderò una 4870 con Thermalright HR-03 GT, ma visto che sono in vena di spese ci monto anche una ventola Noctua invece di quella Thermalright.se ti avanzano 20 euro ti posso anche dare il mio numero di postepay...
comunque imho il dissipatore della 4870 non va male. ha il buon vantaggio di buttare il calore fuori dal case, anzichè lasciarlo girare dentro (come questi enormi dissipatori fanno), e quindi permette di far girare più lente anche le ventole del sistema in estrazione e espulsione

halduemilauno
26-06-2008, 12:04
Aspetto molto impazientemente la recensione sulla 4870, visto che dalle recensioni viste in giro sembra una vincitrice assoluta, e non solo in price/performance, alla mia risoluzione di elezione, 1680x1050, senza essere limitata in alcun modo dalla dimensione del framebuffer :>



Punto uno: i veri soldi si fanno in fascia performance, non nella mainstream, per quanto riguarda le schede video. Nella fascia mainstream i soldi li fai con il video integrato ;)



Potrai attestare che è l'unica cosa su cui sono critico (in idle, in full chissenefrega) e che ho detto più volte che la parola "crysis" andrebbe autocensurata sul forum e bannato di controbalzo chi solo ne parla :asd:



Lo switch serve a far si che ognuna delle due GPU utilizzi solo 8 delle lanes PCIe offerte dallo slot x16, come fossero due schede separate su due slot PCIe x8 elettrici.

Le due GPU comunicano attraverso una connessione CF, in pratica il pettine è stampato sul PCB. Quanto e come e soprattutto se le cose miglioreranno con il CF inchiodato all'hub non mi è dato saperlo.







Il setting più gettonato dai videogiocatori: 1600x1200 AA8x AF16x - Media su 14 giochi:

http://img204.imageshack.us/img204/1043/orlyjm9.th.jpg (http://img204.imageshack.us/my.php?image=orlyjm9.jpg)

La HD4850 risulta più performante della 9800GTX+ (che ha un prezzo consigliato di 30$ superiore) del 43%. Alla 9800GTX va ancora peggio. 43%. O'Rly?! :asd:



Questa frase è priva di qualunque senso.



Per il momento sono solo speculazioni. Non so chi abbia lanciato la discussione, ricordarsi chi lo ha fatto potrebbe dare una dimensione della possibilità che ciò sia reale ;)



Q.F.E.


una cosa il setting + gettonato è sempre con i filtri 4/16. non certo 8/16.

ghiltanas
26-06-2008, 12:05
ma con riva si può tranquillamente aumentare la % di rotazione della ventola come si fa con le nvidia?

Stefem
26-06-2008, 12:06
Grazie Stefem!
In realtà so cos'è lo SLI... nel post volevo fare solo una battutaccia: dai grafici la 4850 è solo il 10% in meno di due 9800GTX+ in SLI...
Grazie mille però, perchè l'acronimo preciso non lo sapevo!

Cerchiamo di non essere di parte, e non andare a cercare recensioni strane...

Su Tom's nei risultati combinati, la 9800 GTX+ è sempre superiore a una 4850, e la GTX+ ha problemi di driver dato che a volte va meno di una GTX normale, quindi dubito che questi risultati siano attendibili

ghiltanas
26-06-2008, 12:08
se ti avanzano 20 euro ti posso anche dare il mio numero di postepay...
comunque imho il dissipatore della 4870 non va male. ha il buon vantaggio di buttare il calore fuori dal case, anzichè lasciarlo girare dentro (come questi enormi dissipatori fanno), e quindi permette di far girare più lente anche le ventole del sistema in estrazione e espulsione

quoto, questo tipo di dissapazione è molto utile xkè permette anche di evitare far aumentare ulteriormente la temperatura interna del case

killer978
26-06-2008, 12:08
ma con riva si può tranquillamente aumentare la % di rotazione della ventola come si fa con le nvidia?

Appena esce la nuova versione ;) x adesso c'è un programmino della ASUS che permette di aumentare i giri a piacimento, basta il 53% x stare sotto i 70° in full con questo caldo, oltretutto pare essere ancora mooolto silenziosa a quei giri ;) parlo della 4850

stecrysis
26-06-2008, 12:09
Cerchiamo di non essere di parte, e non andare a cercare recensioni strane...

Su Tom's nei risultati combinati, la 9800 GTX+ è sempre superiore a una 4850, e la GTX+ ha problemi di driver dato che a volte va meno di una GTX normale, quindi dubito che questi risultati siano attendibili
finalmente una persona k capisce e sa di cosa parla :|

MiKeLezZ
26-06-2008, 12:09
Cerchiamo di non essere di parte, e non andare a cercare recensioni strane...

Su Tom's nei risultati combinati
c'è un errore di incoerenza nella tua frase

ghiltanas
26-06-2008, 12:12
Appena esce la nuova versione ;) x adesso c'è un programmino della ASUS che permette di aumentare i giri a piacimento, basta il 53% x stare sotto i 70° in full con questo caldo, oltretutto pare essere ancora mooolto silenziosa a quei giri ;) parlo della 4850

quella temp in full con questa tamb è ottima ;)

gutti
26-06-2008, 12:13
Cerchiamo di non essere di parte, e non andare a cercare recensioni strane...

Su Tom's nei risultati combinati, la 9800 GTX+ è sempre superiore a una 4850, e la GTX+ ha problemi di driver dato che a volte va meno di una GTX normale, quindi dubito che questi risultati siano attendibili

la mia era una battuta... per sdrammatizzare... è evidente che i dati sono di parte... altrimenti la battuta non si poteva mica fare...

stecrysis
26-06-2008, 12:13
c'è un errore di incoerenza nella tua frase
punto primo: tom's hdw nn è di parte :rolleyes: anzi parla bene della 4850..beh allora vai sui siti nn di parte :rolleyes: tipo computerbase.de il sito migliore:sofico: k da ragione alla tua scheda del cuore :stordita: :ciapet:

Stefem
26-06-2008, 12:14
c'è un errore di incoerenza nella tua frase

Guarda che Tom,s parla benissimo della nuova serie 4800, come qui su HardwareUpgrade del resto, quindi forse e meglio se ti guardi allo specchio quando cerchi qualcuno di parte

Stefem
26-06-2008, 12:14
la mia era una battuta... per sdrammatizzare... è evidente che i dati sono di parte... altrimenti la battuta non si poteva mica fare...

Ora l'ho capita...:D

Zermak
26-06-2008, 12:15
Punto uno: i veri soldi si fanno in fascia performance, non nella mainstream, per quanto riguarda le schede video. Nella fascia mainstream i soldi li fai con il video integrato ;)
E quale sarebbe la fascia performance (in dollari)?
Per mainstream ed inferiori intendo la fascia sotto i $200.

Forse stiamo dicendo la stessa cosa ma non ci capiamo :D

goldorak
26-06-2008, 12:23
una cosa il setting + gettonato è sempre con i filtri 4/16. non certo 8/16.

Beh ma per valutare schede da 500 e passa € non ci si puo' limitare ad usare un banale 4x/16. Non credi ?
E come usare un monitor da 1280x1024 per valutare la GTX280.
Bisogna portarle al punto critico queste schede, altrimenti che testi a fare ? :)

gianni1879
26-06-2008, 12:25
Guarda che Tom,s parla benissimo della nuova serie 4800, come qui su HardwareUpgrade del resto, quindi forse e meglio se ti guardi allo specchio quando cerchi qualcuno di parte

mi sa che non conosci Mike......e nemmeno Tom's
non vorrei essere nei tuoi panni adesso

capitan_crasy
26-06-2008, 12:25
punto primo: tom's hdw nn è di parte :rolleyes: anzi parla bene della 4850..beh allora vai sui siti nn di parte :rolleyes: tipo computerbase.de il sito migliore:sofico: k da ragione alla tua scheda del cuore :stordita: :ciapet:

Fidati il caro vecchio Tom's è mooooolto di parte...:O

Guarda che Tom,s parla benissimo della nuova serie 4800, come qui su HardwareUpgrade del resto, quindi forse e meglio se ti guardi allo specchio quando cerchi qualcuno di parte

Tom's non cè la mica con ATI, cè la con AMD... :D

padsi
26-06-2008, 12:28
In attesa della recensione di questo sito, riguardo la 4870, vi riporto questo:

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/8162-palit-radeon-hd4870-512mb-graphics-card-review.html#post64086

In particolar modo (questa recensione l'ho trovata proprio cercando ulteriori informazioni su quello che riporto sotto) a pagina 21:

Hanno provato a montarci un Thermalright HR-03 GT, con questo risultato estetico:

http://images.hardwarecanucks.com/image/skymtl/GPU/PALIT-HD4870/LARGE/PALITHD4870-30.jpg

Installazione del tutto priva di problemi, il dissipatore è perfettamente compatibile, questo fa supporre (era qualcosa di praticamente certo già prima) che tutti gli aftermarket compatibili con RV670 lo siano con RV770.

Il risultato in termini pratici è il seguente:

http://images.hardwarecanucks.com/image/skymtl/GPU/PALIT-HD4870/PALITHD4870-84.jpg

Alcune mie considerazioni:

1. Lo stock cooler gira lentamente per mantenere bassi i livelli di rumorosità.
2. Un dissipatore aftermarket consente di abbattere le temperature di esercizio mantenendo bassi livelli di rumore.
3. Questa volta voglio esagerare e mi prenderò una 4870 con Thermalright HR-03 GT, ma visto che sono in vena di spese ci monto anche una ventola Noctua invece di quella Thermalright.


Guarda io HR03GT lo ho appena venduto per un motivo di spazio, con la ventola montata arriva ad occupare quasi 5 slot(un po' troppi) e' vero pero' che mi teneva la 8800GT in dile a 25/28 gradi con ventola al minimo pero' e' davvero troppo troppo grosso, se lo si tiene passivo si risparmia un po' di spazio^^

Zermak
26-06-2008, 12:33
Cerchiamo di non essere di parte, e non andare a cercare recensioni strane...

Su Tom's nei risultati combinati, la 9800 GTX+ è sempre superiore a una 4850, e la GTX+ ha problemi di driver dato che a volte va meno di una GTX normale, quindi dubito che questi risultati siano attendibili
finalmente una persona k capisce e sa di cosa parla :|
Secondo quella tabella la 9800GTX (con una media di 42,6 FPS) è più veloce, di meno dell'1%, di una HD4850 (media di 42,2 FSP) alla risoluzione di 1680x1050 con AA 4x e AF 16x, ovvero risoluzione e filtri adeguati per schede di questa fascia di prezzo.
La 9800GTX+ con i driver beta in quei test pare vada meno ma comunque non è ancora in commercio e sarà venduta ad un prezzo superiore alla 9800GTX.
Il confronto deve essere fatto tra HD4850 e 9800GTX che, secondo i listini ufficiali, sono vendute a $199.

Stefem
26-06-2008, 12:33
Fidati il caro vecchio Tom's è mooooolto di parte...:O



Non cè la mica con ATI, cè la con AMD... :D

Resta il fatto che parla molto bene della 4850, quindi non credo proprio sia di parte in QUESTA recensione

Mister Tarpone
26-06-2008, 12:35
mi sa che non conosci Mike......e nemmeno Tom's
non vorrei essere nei tuoi panni adesso

oddio perchè cosa accadrà??? verrà torturato?? :confused:

:asd:

capitan_crasy
26-06-2008, 12:37
Resta il fatto che parla molto bene della 4850, quindi non credo proprio sia di parte in QUESTA recensione

Il problema non è questa recensione in particolare, ma è tutta la coerenza del sito che spesso e volentieri vacilla arrivando al limite della decenza...:O
comunque è meglio chiudere qui questo OT... ;)

gianni1879
26-06-2008, 12:39
oddio perchè cosa accadrà??? verrà torturato?? :confused:

:asd:

peggio :asd:

Stefem
26-06-2008, 12:51
peggio :asd:

Non mi fara mica montare sul mio una ATI HD3870 !

Beee.... che schifo

stecrysis
26-06-2008, 12:54
:angel: se tom's è di parte allora voi andate a vedere computerbase.de
li si k si è veramente neutrali nella recensione:what: e vi basate su quella:rolleyes:
E POI SIAMO NOI I FANBOY:friend: :grrr:

Stefem
26-06-2008, 12:58
Computerbase è il sito di riferimento tedesco, fa recensioni molto variegate e utilizzando molti giochi a risoluzioni molto variabili, è tutto fuorché poco attendibile.

Tom's invece si guadagna la pagnotta traducendo male e sbagliando i copia incolla da altri siti, e si è spesso messo in luce per l'incompetenza dei suoi recensori. La cosa che forse è ancora più grave è che ci sono siti nototiamente allineati, diciamo simpatizzanti, per un marchio o l'altro, ma che non hanno mai vacillato in quanto a competenze tecniche (posso pensare ad Anandtech, per esempio) e che infatti in questo frangente non hanno avuto esitazioni o remore a decretare il successo di RV770, mentre invece Tom's non so se sia schierato in qualche modo, perché l'incompetenza regna e oscura ogni possibilità di essere faziosi.

Infatti ho notato che su computerbase.de hanno usato Driver nvidia vecchi di mesi!
Questa si che è competenza...

stecrysis
26-06-2008, 12:59
Infatti ho notato che su computerbase.de hanno usato Driver nvidia vecchi di mesi!
Questa si che è competenza...
già ma poi siamo noi gli ignoranti :mbe: :read:

yossarian
26-06-2008, 13:04
punto primo: tom's hdw nn è di parte :rolleyes: anzi parla bene della 4850..beh allora vai sui siti nn di parte :rolleyes: tipo computerbase.de il sito migliore:sofico: k da ragione alla tua scheda del cuore :stordita: :ciapet:

e da quando Mike sarebbe diventato un fanATic? :confused:

stecrysis
26-06-2008, 13:05
e da quando Mike sarebbe diventato un fanATic? :confused:

:help:

yossarian
26-06-2008, 13:07
nn è diventato un fanati ho detto k ne parla bene e basta :| :help:

hai parlato di scheda del cuore; sono tue testuali parole. Non credo che Mikelezz possa essere tacciato di partigianeria nei confronti di ATi

MiKeLezZ
26-06-2008, 13:11
e da quando Mike sarebbe diventato un fanATic? :confused:io sono un fanboy amd e intel, nvidia e ati :o
per ora mi scampo VIA (maiuscolo..)...

zerothehero
26-06-2008, 13:31
A questo giro Amd è stata più furbetta..hanno usato un bus a 256bit e un processo produttivo più raffinato e più o meno sono riusciti ad avere le medesime prestazioni di schede con bus a 512bit, il doppio della memoria e con il costo unitario per chip più elevato.
L'unica cosa che mi fa storcere il naso però è sia il crossfire che lo sli...non c'è modo di fare delle multigpu senza usare queste due tecnologie? (un pò come nei processori)

killer978
26-06-2008, 13:34
e da quando Mike sarebbe diventato un fanATic? :confused:

QUesta sarebbe il massimo :D

Mike sta dando a cesare ciò che è di cesare , come feci io quando usci quella ciofeca di HD2900XT :muro: era palese la supremazia di Nvidia, quando uscì la 3870 le cose migliorarono specie nei consumi ma la 8800GT restava da preferire anche se veniva qualche euro in + !!!

Io ho una 3870 nel case al posto della 8800GT

1° perche mi fu regalata dalle mie sorelle ed era l'unica scheda disponibile da Essedì qui in citta sotto i 200€ :asd:
2° ero intenzionato a fare un crossfire utilizzando la mia MB quindi espressi parere favorevole alle mie sorelle :D idea abbandonata data le pessime prestazioni tra Pci-e 16 + 4x, config della mia MB :(

zerothehero
26-06-2008, 13:35
Esatto. E a vantaggio di noi tutti.
Tra pochi mesi vedremo prezzi molto molto interessanti. Ati vuole assolutamente riprendersi marketshader, Nvidia non vorrà perderlo... GTX280 nelle confezioni dei cheerios! :D

Forse solo quando cambieranno processo produttivo e miglioreranno le rese. :p

Stefem
26-06-2008, 13:37
Fidati il caro vecchio Tom's è mooooolto di parte...:O



Tom's non cè la mica con ATI, cè la con AMD... :D

Infatti nella recensione della ATI HD2900XT scriveva:

"Con l'arrivo della X2900XT le forze in campo si riequilibrano, anche se Nvidia ha avuto ben sei mesi per vendere le proprie schede, e ora dispone di una completa linea di prodotti, mentre AMD si è limitata a schierare solo il "centravanti".
Dal punto di vista dell'architettura la HD 2900 è sicuramente il prodotto più interessante sul mercato, grazie agli shader unificati, alla compatibilità più completa possibile con DirectX 10, alla nuova implementazioni di Avivo e alla connettività HDMI con controller audio integrato."

" La scheda AMD di fatto battaglia con la Nvidia 8800 GTS, uscendo molte volte vincitrice e solo in alcuni casi infastidisce il predominio della 8800GTX."

"Concludendo, la Radeon HD 2900 XT è, al momento, una splendida promessa in termini di tecnologia e compatibilità con le più moderne librerie grafiche e tecnologie di rendering in tempo reale."

"Che fare quindi, investire nella scheda del futuro o rimanere legati alla realtà del momento? Meglio l'uovo oggi o la gallina domani?
A chi preferisce l'uovo, consigliamo la GeForce 8800GTS da 640 o 320 MB, veloce e silenziosa.
A chi opta per la gallina, consigliamo comunque di attendere il modello HD 2900 (XTX?) con 1GB di GDDR4 prima di decidere il prossimo acquisto. Inoltre, in tutti questi discorsi non abbiamo considerato le contromosse di Nvidia, che non si faranno attendere."

Pentium Devvi
26-06-2008, 13:38
beh che dire, dopo aver visto tutti questi test su internet, sono veramente felicie...finalmente la AMD\ATI ha tirato fuori qualcosa di ottimo....
4850 che combatte con la 9800 gtx+
e la 4870 che è sotto di neanche di troppo alla gt280....

bene bene , sento già il rumore dei prezzi che calano.....

se amd riesce a fare una magia come questa anche con i processori....

yossarian
26-06-2008, 13:46
A questo giro Amd è stata più furbetta..hanno usato un bus a 256bit e un processo produttivo più raffinato e più o meno sono riusciti ad avere le medesime prestazioni di schede con bus a 512bit, il doppio della memoria e con il costo unitario per chip più elevato.
L'unica cosa che mi fa storcere il naso però è sia il crossfire che lo sli...non c'è modo di fare delle multigpu senza usare queste due tecnologie? (un pò come nei processori)

chiamalo sli o crossfire o come ti pare, però per fare multigpu ci vuole sempre un bus attraverso cui le gpu comunichino (come avviene per le cpu multicore). Il principio è lo stesso

Stefem
26-06-2008, 13:51
chiamalo sli o crossfire o come ti pare, però per fare multigpu ci vuole sempre un bus attraverso cui le gpu comunichino (come avviene per le cpu multicore). Il principio è lo stesso

Già, tra l'altro le GPU sono multicore nativi

capitan_crasy
26-06-2008, 13:54
Infatti nella recensione della ATI HD2900XT scriveva:

"Con l'arrivo della X2900XT le forze in campo si riequilibrano, anche se Nvidia ha avuto ben sei mesi per vendere le proprie schede, e ora dispone di una completa linea di prodotti, mentre AMD si è limitata a schierare solo il "centravanti".
Dal punto di vista dell'architettura la HD 2900 è sicuramente il prodotto più interessante sul mercato, grazie agli shader unificati, alla compatibilità più completa possibile con DirectX 10, alla nuova implementazioni di Avivo e alla connettività HDMI con controller audio integrato."

" La scheda AMD di fatto battaglia con la Nvidia 8800 GTS, uscendo molte volte vincitrice e solo in alcuni casi infastidisce il predominio della 8800GTX."

"Concludendo, la Radeon HD 2900 XT è, al momento, una splendida promessa in termini di tecnologia e compatibilità con le più moderne librerie grafiche e tecnologie di rendering in tempo reale."

"Che fare quindi, investire nella scheda del futuro o rimanere legati alla realtà del momento? Meglio l'uovo oggi o la gallina domani?
A chi preferisce l'uovo, consigliamo la GeForce 8800GTS da 640 o 320 MB, veloce e silenziosa.
A chi opta per la gallina, consigliamo comunque di attendere il modello HD 2900 (XTX?) con 1GB di GDDR4 prima di decidere il prossimo acquisto. Inoltre, in tutti questi discorsi non abbiamo considerato le contromosse di Nvidia, che non si faranno attendere."

così di certo non aiuti Tom's... :asd:

zerothehero
26-06-2008, 13:58
chiamalo sli o crossfire o come ti pare, però per fare multigpu ci vuole sempre un bus attraverso cui le gpu comunichino (come avviene per le cpu multicore). Il proncipio è lo stesso

Certo che ci vuole il bus, per comunicare...quello che dico è un'altra cosa: è possibile fare in modo che duegpu vengano visti dal driver come un'unica gpu con le sue unità in parallelo (400 stream processor gp1->HT<- 400 stream processor gp2=core monolitico con 800 stream processor)?

:D

zerothehero
26-06-2008, 14:03
1-Sarebbe troppo lungo da spiegare in un unico post, se restringi il campo posso darto qualche info.
2-Il DVI non potrebbe portare anche l'audio ma, usando i pin inutilizzati nella conversione DVI-HDMI (DVI-D è un connettore DVI con segnale digitale, DVI-A è un connettore con segnale analogico e il DVI-I è sia analogico che digitale, tutti i connettori sono fisicamente identici) quelli dedicati ai segnali analogici, vengono usati per trasportare l'audio.
3-Entrambi i parametri vengono gestiti dal BIOS, ma i driver sono in grado di modificare la frequenza dialogando con esso.

Infatti sul plasma ho messo nell'hdmi 2 un cavo dvi-to hdmi (collegato al chipset x1250 radeon usando la porta dvi) e oltre a portare il video porta anche l'audio..e pensare che avevo anche il cavetto audio, che evidentemente non serve. :D

Stefem
26-06-2008, 14:07
così di certo non aiuti Tom's... :asd:

Era per farti capire che non hanno nulla contro ATI

yossarian
26-06-2008, 14:08
Già, tra l'altro le GPU sono multicore nativi

e infatti hanno più bus di comunicazione interni tra i vari gruppi di unità.
Una volta ottimizzata la comunicazione tra gpu, avere lo stesso numero di unità di calcolo distribuito su più core fisici sarà quasi equivalente, a livello di prestazioni rispetto all'averle tutte su un unico core, mentre l'affidabilità sarà la stessa. Inoltre ci saranno evidenti vantaggi in termini di economie di scala e di scalabilità (per avere un chip più potente mi basta aggiungere il numero necessario di core (sempre tenendo conto dei limiti del tipo di connessione utilizzata)

Stefem
26-06-2008, 14:09
Poi anche qui su HardwareUpgrade hanno detto lo stesso riguardo il confronto tra 4850 e 9800GTX

Stefem
26-06-2008, 14:17
e infatti hanno più bus di comunicazione interni tra i vari gruppi di unità.
Una volta ottimizzata la comunicazione tra gpu, avere lo stesso numero di unità di calcolo distribuito su più core fisici sarà quasi equivalente, a livello di prestazioni rispetto all'averle tutte su un unico core, mentre l'affidabilità sarà la stessa. Inoltre ci saranno evidenti vantaggi in termini di economie di scala e di scalabilità (per avere un chip più potente mi basta aggiungere il numero necessario di core (sempre tenendo conto dei limiti del tipo di connessione utilizzata)

Esatto, ma molti non lo capiscono, nemmeno se glie lo spieghi con calma, e ogni volta tirano in ballo una fantomatica GPU dualcore che secondo loro sarebbe un passo avanti rivoluzionario

zerothehero
26-06-2008, 14:22
Nella notizia da te postata sotto c'è un link che apre un video di Youtube, a quanto pare anche le nuove Nvidia hanno questa features ;)
La cosa strana è come avrà fatto ATI ad infilarci tutto sto popò di roba in quel chippettino :asd:

Chissà quanto è aumentato il divario in ambito professionale, ricordo che le vecchie VGA ATI con R600 davano la polvere alle Nvidia serie 8, nei giochi era il contrario, chissà adesso come stanno le cose?

A me basterebbe la codifica in hardware di qualsiasi flusso h264 in 1080i/p con dei codec gratuiti ATI, feature che sarebbe stata molto utile per questi europei.
Per quanto riguarda la fantomatica condifica di 4 flussi h264, beh, finchè non vedo non credo, visto le continue fregature su questo ambito. :D

DarKilleR
26-06-2008, 14:41
Cioè gente...Tom's è un sito che leggo quotidianamente come questo ed altri...e ogni tanto pubblicano belle notizie, però c'è da dubitare molto sulle loro competenze...

ESEMPIO PALESE PALESE...

Hanno fatto i test della HD4850 (e sono stati quelli dove la HD4850 ha brillato meno di tutti in assoluto...ok potevano avere usato i driver 8.5 (anzi mi sembra proprio di si)...

Poi visto che hanno usato driver che non supportavano la scheda, hanno avuto problemi con giochi tipo GRID (gioco dove le ATI vanno di gran lunga meglio...)...e hanno totalizzato 0 FPS perchè nn sono riusciti a far partire il test...

OMG e loro cosa hanno fatto??

Nella media pesata delle prestazioni delle VGA, hanno messo in conto anche i test dove le HD4850 hanno totalizzato 0 FPS...

OMG...e non ci sono altre parole per descrivere il tutto...

XmontyX
26-06-2008, 14:47
4 bravo,come hai fatto!!!Quindi?Dicevi?:D

no nulla, era così per dire... io ad es. ne ho 2...:rolleyes:
ma posso farti una domanda?: cosa ci fai con 4 pc?

Carciofone
26-06-2008, 15:48
Mi convince a parità di prestazioni l'assorbimento elettrico di assoluto rilievo. In questo modo non dovrei sostituire l'alimentatore attuale da 660 W cambiando la vecchia 8600GT con la 4870 più performante.
Le temperature mi lasciano un pò perplesso.

yossarian
26-06-2008, 15:59
Esatto, ma molti non lo capiscono, nemmeno se glie lo spieghi con calma, e ogni volta tirano in ballo una fantomatica GPU dualcore che secondo loro sarebbe un passo avanti rivoluzionario

non è la tecnologia dual core o dual gpu ad essere rivoluzionaria, ma l'idea che c'è alla base: al posto di un chip monolitico, di dimensioni sempre più grandi (è vero che diminuendo il processo produttivi calano le dimensioni, ma è altrettanto vero che la sempre maggior esigenza di potenza di calcolo richiede un numero sempre maggiore di unità allocate all'interno del chip e ottimizzazioni che permettano a queste unità di lavorare con la massima efficienza possibile e senza colli di bottiglia), più chip di dimensioni ridotte. Nel campo delle gpu non è una novità assoluta ma lo è come approccio sistematico e non episodico.
AMD ha puntato ad un approccio multigpu di tipo sistemico, questo è il motivo petr cui non ha interesse a produrre un chip monoltico grande due volte RV770 (ovvero delle stesse dimensioni di GT200), con il doppio delle unità di calcolo. Il motivo è semplice: è antieconomico farlo e con 2 (o più) gpu si possono ottenere gli stessi risultati a costi decisamente più contenuti.

Poi, le novità tecnologiche di RV770 stanno altrove e ormai (dopo aver visto cosa è cambiato con RV770) dovrebbero essere anche chiari i motivi del rendimento di R600 e di RV6x0 al di sotto delle attese

Stefem
26-06-2008, 16:24
non è la tecnologia dual core o dual gpu ad essere rivoluzionaria, ma l'idea che c'è alla base: al posto di un chip monolitico, di dimensioni sempre più grandi (è vero che diminuendo il processo produttivi calano le dimensioni, ma è altrettanto vero che la sempre maggior esigenza di potenza di calcolo richiede un numero sempre maggiore di unità allocate all'interno del chip e ottimizzazioni che permettano a queste unità di lavorare con la massima efficienza possibile e senza colli di bottiglia), più chip di dimensioni ridotte. Nel campo delle gpu non è una novità assoluta ma lo è come approccio sistematico e non episodico.
AMD ha puntato ad un approccio multigpu di tipo sistemico, questo è il motivo petr cui non ha interesse a produrre un chip monoltico grande due volte RV770 (ovvero delle stesse dimensioni di GT200), con il doppio delle unità di calcolo. Il motivo è semplice: è antieconomico farlo e con 2 (o più) gpu si possono ottenere gli stessi risultati a costi decisamente più contenuti.

Poi, le novità tecnologiche di RV770 stanno altrove e ormai (dopo aver visto cosa è cambiato con RV770) dovrebbero essere anche chiari i motivi del rendimento di R600 e di RV6x0 al di sotto delle attese

Su questo mi trovi completamente d'accordo

Free Gordon
26-06-2008, 16:33
Visto l'ottuso accanimento che leggo su queste pagine di commenti anche contrario ad ogni evidenza mi son sforzato di andare a consultare la mia possente biblioteca...
Giusto per dare la giusta dimensione al personaggio. Nega e negherà anche sotto tortura, quindi lasciatelo perdere.

:asd:
Però dai, bisogna concederglielo...questi sono giorni difficili per gli aficionados della casa americana.

Il fatto è che R600 ha fatto dimenticare loro che ATI le sa fare per bene le GPU... :D

stecrysis
26-06-2008, 16:40
:D :D
qualcuno disse: "ride ben chi ride ultimo!" :D
continuate a fare gli spacconi :sofico: :ciapet:

Blake86
26-06-2008, 16:46
rosica che ti rosica....
Ps,non mi sono mica dimenticato di te...

3DMark79
26-06-2008, 16:50
Davvero complimenti ad ATI a fatto davvero un ottimo lavoro con queste schede senza trascurare il lato del prezzo...e non può che far che bene a noi consumatori!:cool:

A.L.M.
26-06-2008, 17:09
A questo giro Amd è stata più furbetta..hanno usato un bus a 256bit e un processo produttivo più raffinato e più o meno sono riusciti ad avere le medesime prestazioni di schede con bus a 512bit, il doppio della memoria e con il costo unitario per chip più elevato.
L'unica cosa che mi fa storcere il naso però è sia il crossfire che lo sli...non c'è modo di fare delle multigpu senza usare queste due tecnologie? (un pò come nei processori)

Beh, il bus a 512bit/512bit di NVidia è molto meno avanzato del 256bit/2048bit di ATI. :)
Nel primo hai sì il vantaggio di una banda passante gigantesca anche con le GDDR3, ma i 512bit interni costituiscono un collo di bottiglia non da poco.
Hanno infatti 128*2200*512=140.8GB/s di banda verso l'esterno, ma solo 128*602(clock del core)*512=39.4GB/s di banda interna. Mi sembra ovvio che ci sia un grosso collo di bottiglia nel MC.
La HD4870 ha invece una banda verso l'esterno di 128*256*3600=115.2GB/s, ma un bus interno di 128*2048*750=192GB/s. Niente colli di bottiglia. ;)

Visto l'ottuso accanimento che leggo su queste pagine di commenti anche contrario ad ogni evidenza mi son sforzato di andare a consultare la mia possente biblioteca...

:asd:

killer978
26-06-2008, 17:15
Sono scomparsi un po di utenti ultimamente :asd:

Mr_Paulus
26-06-2008, 17:20
Beh, il bus a 512bit/512bit di NVidia è molto meno avanzato del 256bit/2048bit di ATI. :)
Nel primo hai sì il vantaggio di una banda passante gigantesca anche con le GDDR3, ma i 512bit interni costituiscono un collo di bottiglia non da poco.
Hanno infatti 128*2200*512=140.8GB/s di banda verso l'esterno, ma solo 128*602(clock del core)*512=39.4GB/s di banda interna. Mi sembra ovvio che ci sia un grosso collo di bottiglia nel MC.
La HD4870 ha invece una banda verso l'esterno di 128*256*3600=115.2GB/s, ma un bus interno di 128*2048*750=192GB/s. Niente colli di bottiglia. ;)



:asd:

scusa mi puoi spiegare come calcoli la banda? l'ultimo valore è l'ampiezza del bus, il secondo è il clock e il primo (il 128) cosa rappresenta?

Mr_Paulus
26-06-2008, 17:21
Sono scomparsi un po di utenti ultimamente :asd:

beh..uno continua a insistere :asd:

Gildor
26-06-2008, 17:28
Davvero una bella recensione (ancora non ho finito di leggerla)

Mi sarebbe piaciuto, però, inserire nei test sulla "scalabilità" dell'AA anche una o due delle schede nvidia..

A.L.M.
26-06-2008, 17:34
scusa mi puoi spiegare come calcoli la banda? l'ultimo valore è l'ampiezza del bus, il secondo è il clock e il primo (il 128) cosa rappresenta?

E' uno dei modi, anche se a rigore poi devi pure dividere per 1024 e poi per mille per ottenere il valore in GB/s.
Puoi anche fare (ampiezza bus*clock memorie effettivo)/8000, ed ottieni il valore in GB/s. :)

gianni1879
26-06-2008, 17:36
:D :D
qualcuno disse: "ride ben chi ride ultimo!" :D
continuate a fare gli spacconi :sofico: :ciapet:

perchè fino ad adesso cos'avete fatto??

Blake86
26-06-2008, 17:40
Sono scomparsi un po di utenti ultimamente :asd:

:D

DjLode
26-06-2008, 17:43
Su questo mi trovi completamente d'accordo

Essere in disaccordo con yossarian è vietato dal regolamento :)ù
Ciao Yoss, è bello rivederti ogni tanto!!!

Stefem
26-06-2008, 17:46
rosica che ti rosica....
Ps,non mi sono mica dimenticato di te...

Ma smettetela!

Sembrate marmocchi dell'asilo

Stefem
26-06-2008, 17:48
Essere in disaccordo con yossarian è vietato dal regolamento :)ù
Ciao Yoss, è bello rivederti ogni tanto!!!

Non in quello che ho sottoscritto io :)

Mr_Paulus
26-06-2008, 17:54
E' uno dei modi, anche se a rigore poi devi pure dividere per 1024 e poi per mille per ottenere il valore in GB/s.
Puoi anche fare (ampiezza bus*clock memorie effettivo)/8000, ed ottieni il valore in GB/s. :)

grazie :)

Blake86
26-06-2008, 17:54
Ma smettetela!

Sembrate marmocchi dell'asilo

va bhe, senti chi parla...però in linea di maasima hai ragione.:D

Stefem
26-06-2008, 18:05
va bhe, senti chi parla...però in linea di maasima hai ragione.:D

Nei miei post non ho insultato ne preso per il :ciapet: nessuno

yossarian
26-06-2008, 18:18
Beh, il bus a 512bit/512bit di NVidia è molto meno avanzato del 256bit/2048bit di ATI. :)
Nel primo hai sì il vantaggio di una banda passante gigantesca anche con le GDDR3, ma i 512bit interni costituiscono un collo di bottiglia non da poco.
Hanno infatti 128*2200*512=140.8GB/s di banda verso l'esterno, ma solo 128*602(clock del core)*512=39.4GB/s di banda interna. Mi sembra ovvio che ci sia un grosso collo di bottiglia nel MC.
La HD4870 ha invece una banda verso l'esterno di 128*256*3600=115.2GB/s, ma un bus interno di 128*2048*750=192GB/s. Niente colli di bottiglia. ;)



:asd:

il discorso relativo alla banda passante è un po' come quello relativo alla potenza di calcolo: un conto è quella teorica (frequenza delle ram*ampiezza del bus/8 per avere la misura in GB/sec) un altro quella realmente fruibile. Per conoscere quest'ultima occorre conoscere i colli di bottiglia dell'architettura di un determinato MC (e quello di G8x/GT2x0 non è idoneo a lavorare con ram ad alto bitrate, motivo per cui, prima o poi, nVidia sarà costretta ad abbandonarlo, riprogettandone l'architettura)

yossarian
26-06-2008, 18:19
Essere in disaccordo con yossarian è vietato dal regolamento :)ù
Ciao Yoss, è bello rivederti ogni tanto!!!

ciao Dj; è più piacevole incontrarsi a cena :)

yossarian
26-06-2008, 18:22
:D :D
qualcuno disse: "ride ben chi ride ultimo!" :D
continuate a fare gli spacconi :sofico: :ciapet:

perchè qualcuno dovrebbe ridere? Siamo a zelig o nella sezione schede video di un forum di hardware? :mbe:

Blake86
26-06-2008, 18:28
perchè qualcuno dovrebbe ridere? Siamo a zelig o nella sezione schede video di un forum di hardware? :mbe:

appunto...nella sezione video, ma sono capitati dei fatti ironici negli ultimi gg, non per tutti,certo...:D

Ilbaama
26-06-2008, 18:54
Beh, il bus a 512bit/512bit di NVidia è molto meno avanzato del 256bit/2048bit di ATI. :)
Nel primo hai sì il vantaggio di una banda passante gigantesca anche con le GDDR3, ma i 512bit interni costituiscono un collo di bottiglia non da poco.
Hanno infatti 128*2200*512=140.8GB/s di banda verso l'esterno, ma solo 128*602(clock del core)*512=39.4GB/s di banda interna. Mi sembra ovvio che ci sia un grosso collo di bottiglia nel MC.
La HD4870 ha invece una banda verso l'esterno di 128*256*3600=115.2GB/s, ma un bus interno di 128*2048*750=192GB/s. Niente colli di bottiglia. ;)



:asd:

Scusa la mia ignoranza, quindi stai dicendo che il core della gpu ati (rv770) lavora a 2048 bit?

yossarian
26-06-2008, 20:04
Scusa la mia ignoranza, quindi stai dicendo che il core della gpu ati (rv770) lavora a 2048 bit?

no; lavora a 512 bit. Solo che, se calcoli la velocità di trasferimento dati, devi tener conto che, a parità di frequenza, il MC di RV770 è almeno 4 volte più veloce di quello di GT2x0 (da considerare che i MC lavorano solitamente a frequenza più elevate di quelle del resto del chip e che quello di RV770 lavora anche a frequenza ben più elevata rispetto a quello di GT2x0).
Questo è il motivo per cui, dall'uscita di G80, continuo a ripetere che il MC fa da collo di bottiglia.

skadex
26-06-2008, 20:20
Rileggendo i post sono andato a curiosare nei test di tom's hw ma anche lì la gtx + esce con le ossa rotte contro la hd4850
http://www.tomshardware.com/reviews/radeon-hd-4850,1957-25.html
esistono test più aggiornati ?

goldorak
26-06-2008, 20:25
Sono scomparsi un po di utenti ultimamente :asd:


Saranno stati rapiti dagli omini verdi. http://upload.wikimedia.org/wikipedia/commons/f/f1/LittleGreenMen.png :sofico:

Iantikas
26-06-2008, 20:41
Quando mi chiedo perchè ho smesso di frequentare assiduamente questo forum trovo la risposta leggendo i commenti nelle recensioni delle schede video. Purtroppo.
Alcuni utenti (pochissimi) fanno davvero tenerezza per quanto sono fanboy e di parte. Evidentemente alla loro giovane età è d'obbligo fare il tifo in tutto i campi della vita, anche in quello inutile delle schede video. Inutile se non ci lavori, ovviamente.

Nel momento in cui in tutto il mondo informatico (tutto) le HD4850 e HD4870 vengono valutatate molto molto positivamente da tutte le testate giornaliste e specializzate, qui sul "nostro" forum i soliti fanboy dicono il contrario e scatenano la solita guerra sulle vga. Siete noiosi.
Pure Fudzilla ha dato un parere molto positivo su queste schede. Siete riusciti a prendere il suo posto. LOL!

Tutti i siti rimarcano le novità, le prestazioni, l'ottimo rapporto prezzo prestazioni, ma alcuni di voi no, andate a cercare dei singoli benchmark che vi esaltano e portate avanti la vostra noiosa battaglia per dimostrare che la vga che avete nel case ce l'ha più lungo. Crescete, state parlando di pezzi di silicio.

Riquoto il mio post per la Redazione sperando che non si perda nella guerra dei post.
Si parlava del chipset usato per la prossima recensione.



quoto...in effetti se ne leggono proprio di tutti i colori...affermazioni ke vanno prioprio oltre l'inconcepibile :D ...


...e questo nei 3d ufficiali o nei commenti alla rece...nn oso immagginare a questo punto cosa accada in :oink:"consigli":oink: x gli acquisiti...ma lì x tenermi stretto gli ultimi (poki :help: ) neuroni ke mi rimangono nn ci metto + piede da una vita...ciao

ghiltanas
26-06-2008, 20:54
Beh, il bus a 512bit/512bit di NVidia è molto meno avanzato del 256bit/2048bit di ATI. :)
Nel primo hai sì il vantaggio di una banda passante gigantesca anche con le GDDR3, ma i 512bit interni costituiscono un collo di bottiglia non da poco.
Hanno infatti 128*2200*512=140.8GB/s di banda verso l'esterno, ma solo 128*602(clock del core)*512=39.4GB/s di banda interna. Mi sembra ovvio che ci sia un grosso collo di bottiglia nel MC.
La HD4870 ha invece una banda verso l'esterno di 128*256*3600=115.2GB/s, ma un bus interno di 128*2048*750=192GB/s. Niente colli di bottiglia. ;)



:asd:

interessante spiegazione, una cosa che nn sapevo :)
Scusa mi diresti MC per cosa sta?

M4R1|<
26-06-2008, 20:57
He he hai colpito nel segno!!

mai dire gatto prima di averlo nel sacco :asd:

la 4870 è mediamente un 10/15% sotto la GTX280 senza filtri, con i filtri il divario si accorcia, in alcuni titoli la scheda è sopra :eek: parliamo di una scheda che costa meno della metà ripsetto al mooostro Nvidia.

infatti quel mostro di gt200 nn è proprio un mostro è solo grande grosso e fregnone :sofico:
la realtà è che nvidia ha creduto che amd ancora cannasse anche queste generazione ed invece ha fatto ma le perchè una volta presa la batosta si deve radrizzare il tiro e ati ne è l'esempio ;)

Il problema non è questa recensione in particolare, ma è tutta la coerenza del sito che spesso e volentieri vacilla arrivando al limite della decenza...:O
comunque è meglio chiudere qui questo OT... ;)

concordo, personalmente uso tom's per prendere alcune immagini ma quello che scrivono molte volte sa o di mazzette oppure chi lo scrive nn sa un'H di ciò che fa.....

quoto...in effetti se ne leggono proprio di tutti i colori...affermazioni ke vanno prioprio oltre l'inconcepibile :D ...


...e questo nei 3d ufficiali o nei commenti alla rece...nn oso immagginare a questo punto cosa accada in :oink:"consigli":oink: x gli acquisiti...ma lì x tenermi stretto gli ultimi (poki :help: ) neuroni ke mi rimangono nn ci metto + piede da una vita...ciao


:asd: concordo in pieno ;)

Ilbaama
26-06-2008, 21:02
[...]
Scusa mi diresti MC per cosa sta?

MC = Memory Controller

ghiltanas
26-06-2008, 21:16
MC = Memory Controller

quello che pensavo :D

leoneazzurro
26-06-2008, 23:59
mah....... cmq primo :O

Sospeso un giorno: si è già detto tante volte che i post numerici sono vietati.

zap65
27-06-2008, 00:00
no nulla, era così per dire... io ad es. ne ho 2...:rolleyes:
ma posso farti una domanda?: cosa ci fai con 4 pc?

Vuoi sapere cosa ci faccio con 4 pc?Il mio gioco preferito è saltare da uno all'altro lavorandoci.Scherzo ne uso solo 3 per questo gioco,con il quarto invece ci faccio tutto,quindi quando upgrado il preferito,semplicemente,invece di svendere o buttare l'hardware,lo passo su uno degli altri tre.Ecco perchè non ho problemi a cambiare la 3850 presa 4 mesi fà.Tutto qua,soddisfatto?:D ;)

leoneazzurro
27-06-2008, 00:06
sbaglio o hai volutamente tralasciato crisis in dx10 e CoD4 o ti sei solo dimenticato?
Intanto la differenza non è 30 o 40€, la 50 costa 140-150 ivata, la gtx+ sui 240€
inoltre in alcuni grafici che hai postato si puo vedere che sono praticamente alla perie la 50 con i filtri è mediamente più veloce...non ti infognare dai!
(buffone)

Non si può dare del buffone agli alti utenti del forum, speravo si fosse capito, ma evidentemente non è così. Quindi sospeso 3 giorni.

Sarik
27-06-2008, 00:10
Non ricordo se ho gia' fatto questo post o me l'ha annullato quando il forum era in manutanzione...:confused:

Volevo fare i complimenti per l'articolo, davvero fatto bene, complimenti. ;) :)
Ora nn mi resta ke attendere la 4870 e vedere ke risultato dara'. :)

XmontyX
27-06-2008, 00:12
Vuoi sapere cosa ci faccio con 4 pc?Il mio gioco preferito è saltare da uno all'altro lavorandoci.Scherzo ne uso solo 3 per questo gioco,con il quarto invece ci faccio tutto,quindi quando upgrado il preferito,semplicemente,invece di svendere o buttare l'hardware,lo passo su uno degli altri tre.Ecco perchè non ho problemi a cambiare la 3850 presa 4 mesi fà.Tutto qua,soddisfatto?:D ;)

beh, nulla da dire se non complimenti:)
avrai in questo modo 4 pc tutti quanti abbastanza aggiornati,(in effetti così hai pure la possibilità di farti i Lan Party a casa :D, mica male), ma prima o poi a furia di cambiare pezzi ti ritroverai qualche parte hw sfuso che non sai dove mettere e che rischia di fare la muffa a meno che non lo vendi (oppure ci si fa un 5° PC :eek: ) o sbaglio?

XmontyX
27-06-2008, 00:17
Non ricordo se ho gia' fatto questo post o me l'ha annullato quando il forum era in manutanzione...:confused:

Volevo fare i complimenti per l'articolo, davvero fatto bene, complimenti. ;) :)
Ora nn mi resta ke attendere la 4870 e vedere ke risultato dara'. :)

quoto
Pure io somo molto curioso sulle prestazioni di questa 4870...
possiedo una 8800gt e sto pensando seriamente di venderla per passare a questa sheda ATI, però c'è da vedere se davvero conviene rispetto ad una 4850.
vedremo, vedremo...

Voi come lo vedete un possibile passaggio dalla 8800gt alla hd4850 con 10€ di aggiunta (e forse neppure quelli) a quello che ricavo dalla vendita di quella che ho ora?
(volevo capire se il gioco vale la candela, poichè mi ritrovo a rivedere più volte la recenzione e noto sempre più che forse i guadagni sono quasi minimi; insomma, rimane cmq una scheda dall'ottimo rapporto qualità prezzo, ma non so se è poi così indicata a chi come me ha una 8800gt o superiore...)

zap65
27-06-2008, 00:25
beh, nulla da dire se non complimenti:)
avrai in questo modo 4 pc tutti quanti abbastanza aggiornati,(in effetti così hai pure la possibilità di farti i Lan Party a casa :D, mica male), ma prima o poi a furia di cambiare pezzi ti ritroverai qualche parte hw sfuso che non sai dove mettere e che rischia di fare la muffa a meno che non lo vendi (oppure ci si fa un 5° PC :eek: ) o sbaglio?

Non tutti sono così aggiornati,ho anche pezzi da museo,ma ho come l'impressione di andare OT,sennò ti avrei fatto anche una lista completa di tutti i componenti.Magari ti mando un pm,domani quando vado in negozio,intanto quello in firma è il preferito.Ah dimenticavo,non mi piace rivendere i miei pezzi,semplicemente perchè se non va più bene per me,non vedo come possano andar bene per altri.Ti saluto XmontyX,buonanotte.:ciapet:

XmontyX
27-06-2008, 00:31
Non tutti sono così aggiornati,ho anche pezzi da museo,ma ho come l'impressione di andare OT,sennò ti avrei fatto anche una lista completa di tutti i componenti.Magari ti mando un pm,domani quando vado in negozio,intanto quello in firma è il preferito.Ah dimenticavo,non mi piace rivendere i miei pezzi,semplicemente perchè se non va più bene per me,non vedo come possano andar bene per altri.Ti saluto XmontyX,buonanotte.:ciapet:

concordo sulla rivendita dei pezzi, è difficile trovare persone interessate a pezzi zecchiotti (fose per quelle persone che si cimentano per la prima volta con un PC e vogliono imparare ad usarlo forse si...ma cmq solo queste persone forse:rolleyes: ) cmq hai ragione, meglio non continuare per non andare troppo OT che poi sono guai!:Prrr: tanti saluti zap65, ricambio la buona notte:)

stecrysis
27-06-2008, 01:00
io ho avuto 2 schede ATI x600 pro appena uscite le 800 xt e poi appena uscita mi sono preso una x1800xt(ottima schda) ma da quando è uscita 8800 le carte in tavola sono cambiate e ATI a sfornato solo fesserie(compresa sta serie :rolleyes: ) nn ditemi k sono un fan ma i risultati si commentano da soli(certo nn su computerbase.de-.-)
:read:

leoneazzurro
27-06-2008, 01:14
1)Caro il mio bimbo io a differenza di te nel mio case sono entrate schede nvidia e ati
2) prima di dire c......e vai a vedere un po di rece e dimmi sulle 4850/70 e poi semmai parla.


è li che ti sbagli caro il mio paulus io non faccio recensioni le leggo e l'imparzialità mi sta sul culo.....................

Vediamo di darci una regolata: ammonizione

Che dire...

Una buona scheda questa 4850 (ottima in rapporto al prezzo) ma nel 90% dei test (di questa recensione) la 9800GTX+ risulta superiore ed è dunque giusto che costi quei 30-40€ in più. E' inutile attaccare la redazione con accuse infondate... Nvidia è sempre davanti (in termini di prestazioni assolute) e questo è un dato di fatto.


(SEMPRE SOTTO signori miei)

Ormai ATI si è candidata come azienda incapace di aggredire il mercato sul piano delle prestazioni.. della potenza.. semplicemente perchè non ci riesce ed usa l'aggressività dei prezzi (buon per noi cmq) per nascondere quello che altrimenti si rivelerebbe un insuccesso.

Ancora? L'ho scritto a chiare lettere qual è il problema. Rileggiti il post. Il fatto che una soluzione sia tecnologicamente meno avanzata, RIPETO, non è un problema in sè, lo diventa quando porta ripercussioni nel suo utilizzo.

Ci sono 8 test (nella recensione, perchè è di questo che stiamo parlando) e ne ho postati 7. Se vuoi ti posto anche l'ultimo così non farò altro che avvalorare ciò che ho precedentemente affermato dicendo nel 90% dei casi.
Mi spiace se ci sei rimasto male ma la recensione (dati oggettivi) è sotto gli occhi di tutti (i vedenti :) ).

Dai dai.. che domani avrai già dimenticato tutto. ;)

E' la verità e come tale dura da accettare in fase adolescenziale ;)

Ginger e Punisher, vedo che state creando dei flame inutili. Quelìè il problema? Che si deve dimostrare che le schede ATI "Stanno sotto"? Questo non è il forum Ultras.it (e bisognerebbe capirlo una buona volta) ma è un forum tecnico che si chiama hwupgrade, e piacerebbe vedere dei commenti meno di parte nel commentare gli articoli.
Altrettanto purtroppo si deve dire di altri utenti che purtroppo non vedono altro che "rosso" senza badare alla sostanza delle cose. Intanto Ammonizione.

guarda.. sinceramente credo k dovresti informarti e aspettare altre recensioni :| anche perchè per queste recensioni hanno usato driver vecchi :| (per 9800gtx) per 280 gtx non sono vecchi ma sono dei beta :| queste schede hanno molto altro da tirare fuori.. nn dico altro.. non so se vi siete visti le tech demo delle nuove schede vi assicuro che sono impressionanti.. per quanto riguarda lo SLI nn diciamo cavolate un crossfire nn ha mai raggiunto un +100% di prestazioni.. invece lo SLI direi k è tutta un' altra cosa con 3d mark vantage ha un incremento del + 114% (nn mi invento nulla) aspettate i nuovi driver e vedrete..
se nn ricordate rinfrescatevi le idee: http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_index.html
qui una 8800 gtx appena uscita era minore di prestazioni rispetto a 1 7950gx2(guardate i bench) e ora com'è?:rolleyes:
ripeto: aspettate qualche settimana e vedrete;)
e nn tirate fuori k è la stessa tecnologia di g92
e poi un'altra cosa.. se paragonate una 4850 a una 9800gtx e una 4870 a una gtx+ le 280 gtx a cosa le comparate a un crossfire di 4870:rolleyes:
una scheda cosi a singola gpu nn si era mai vista.. siete voi k sbagliate a paragonare :|
(4870= 4850+20%) io credo k neanke con un CF si arrivi alla potenza di una 280gtx
VI PREGO RIFATE I TEST QUANDO ESCONO I NUOVI DRIVER UFFICIALI per 280gtx e rifate i test anke con le 9800gtx con i 175.19
cosi un po di persone si rendono conto di qll k stanno scrivendo :muro: un sacco di boiate..
:rolleyes:
grazie
saluti.

mi sa k fai confusione:rolleyes:
per l'altro intelligentone uno sli può superare il 100% :rolleyes:
quello di 3dmark vantage era solo un esempio;)

vi impuntate su cose k nn sapete neanke di cosa parlate :mc:
guarda..nn credo k risponderò piu.. xk è inutile farvi ragionare.. siete di granito :muro:

no è perchè quando le persone non hanno voglia di capire mi cascano i co****ni
volete avere ragione? bene nn rompete a me io vi ho detto come stanno le cose..
p.s: continuate a spammare cavolate tipo k la 4850 è una bestia :| nn so se lo sapete ma uno sli di 4850 consuma di piu di uno sli di 280 gtx e va la metà
ma per voi è la scheda definitiva... :rolleyes:
saluti

ho sbagliato :| tu nn sbagli mai vero?il fatto è k a scrivere a persone ignoranti divento ignorante anke io :muro: e impara a scrivere k sembri un analfabeta..

io ti consiglio di andare a coltivare banane in bangladesh(consiglio d'amico);) siete tutti fanboy ati k nn sanno neanke di cosa parlano :| :read:

Bei post, rappresentano l'esempio perfetto di quello che si deve evitare in una discussione. Sospeso 4 giorni.

Dipende su quali software basi la tua media...

SLI a un rendimento anche superiore al 100%, certo, per i barboni non è adatto, ci vuole gente un po' skilled, scommetto che pochissimi (anche tra i posessori) sanno che c'è una modalità SFR per sfruttarlo anche con software non ottimizzato.

Evitiamo di dare epiteti offensivi alla gente. Ammonizione

Visto l'ottuso accanimento che leggo su queste pagine di commenti anche contrario ad ogni evidenza mi son sforzato di andare a consultare la mia possente biblioteca...
Giusto per dare la giusta dimensione al personaggio. Nega e negherà anche sotto tortura, quindi lasciatelo perdere.

Ed evitiamo di aprire polemiche personali verso altri utenti. Ammonizione.


Per il resto, vedo che c'è chi è capace di discutere civilmente: invito tutti quindi a seguire l'esempio e ad evitare inutili faziosità (e conseguenti comportamenti scorretti).

damon75
27-06-2008, 01:16
Vi segnalo che su Eprice è apparsa anche la 4870, per ora, come da copione, non è ancora disponibile ma aldilà di tutto è MOLTO interessante notare il prezzo, € 239 (iva inclusa ovviamente)!:D

Ho trovato chi sostituirà la mia 7950GT!:p

Bye!

A.L.M.
27-06-2008, 03:12
no; lavora a 512 bit. Solo che, se calcoli la velocità di trasferimento dati, devi tener conto che, a parità di frequenza, il MC di RV770 è almeno 4 volte più veloce di quello di GT2x0 (da considerare che i MC lavorano solitamente a frequenza più elevate di quelle del resto del chip e che quello di RV770 lavora anche a frequenza ben più elevata rispetto a quello di GT2x0).
Questo è il motivo per cui, dall'uscita di G80, continuo a ripetere che il MC fa da collo di bottiglia.

Boh, io mi ero basato su questo stralcio dell'articolo di Anandtech... :) :stordita: :fagiano:

With the move to a hub, AMD increased their internal bus width to 2kbits wide (which is huge). Maximum bandwidth has increased to 192GB/s (in 4870) but this depends on clock speeds.

BlueKnight
27-06-2008, 03:23
Questa notizia è un pò OT, ma mi ha fatto piegare dalle risate... x carità, non voglio scatenare alcun flame, ma la notizia è di riguardo.


PhysX Runs On RV670, Scores 22,000 CPU Marks in 3DMark Vantage

http://www.techpowerup.com/64042/PhysX_Runs_On_RV670_Scores_22_000_CPU_Marks_in_3DMark_Vantage.html

BlackJack485
27-06-2008, 04:48
ESATTO!!

Ora non dico che la 4850 sia una scheda di merda, ma da qui a gridare il miracolo...

cosa vuoi?? una scheda che costa 70€ e che vada il doppio della 280??

Sarik
27-06-2008, 08:54
Non lo so se gia' l'avete visto, ma guardate un po. :D

http://www.sapphireitaly.com/content/view/407/ (http://www.sapphireitaly.com/content/view/407/)

:O

k.graphic
27-06-2008, 09:56
Questa notizia è un pò OT, ma mi ha fatto piegare dalle risate... x carità, non voglio scatenare alcun flame, ma la notizia è di riguardo.


PhysX Runs On RV670, Scores 22,000 CPU Marks in 3DMark Vantage

http://www.techpowerup.com/64042/PhysX_Runs_On_RV670_Scores_22_000_CPU_Marks_in_3DMark_Vantage.html

pensate sia possibile? mmmh... però se sono veramente riusciti, e fosse possibile anche sulla serie 4800.. beh.. sarebbe moooooolto interessante ;)

Revenge81
27-06-2008, 11:16
Secondo me le prestazioni delle nuove schede di ATI(x me rimarrà sempre ATI)vanno considerate principalmente in base al prezzo, è inutile scannarsi su quale sia la + potente tra 4870 e gt280 perkè sarebbe come confrontare una 9800 gtx con una 3850!!

la rivale in, termini di mercato, della 4870 è molto + la gt260 e mi pare ke quest'ultima le prenda in molti benchmark dalla "rivale",inoltre quello ke hanno scritto un pò ovunque è ke la nuova architettura di ATI è molto valida, ma necessita di codice "ottimizzato" per le sue unità d calcolo ke se ben sfruttate(come in the witcher o bioshock) nn ce n'è per nessuno(gt280 compresa)!!

infine, c'è da considerare il fattore driver,le skede ati son uscite da pokissimo sul mercato,stesso dicasi per quelle nvidia, quindi a mio avviso,ppur comprendendo l'importanza del fare informazione, trovo inutile fare confronti adesso....

yossarian
27-06-2008, 11:23
Scusa la mia ignoranza, quindi stai dicendo che il core della gpu ati (rv770) lavora a 2048 bit?

no; lavora a 512 bit. Solo che, se calcoli la velocità di trasferimento dati, devi tener conto che, a parità di frequenza, il MC di RV770 è almeno 4 volte più veloce di quello di GT2x0 (da considerare che i MC lavorano solitamente a frequenza più elevate di quelle del resto del chip e che quello di RV770 lavora anche a frequenza ben più elevata rispetto a quello di GT2x0).
Questo è il motivo per cui, dall'uscita di G80, continuo a ripetere che il MC fa da collo di bottiglia.

Boh, io mi ero basato su questo stralcio dell'articolo di Anandtech... :) :stordita: :fagiano:

ok, tutto chiaro: tu ti riferivi al solo MC mentre la domanda di Ilbaama sembrava riferirsi all'architettura del core della gpu

ghiltanas
27-06-2008, 11:27
Vi segnalo che su Eprice è apparsa anche la 4870, per ora, come da copione, non è ancora disponibile ma aldilà di tutto è MOLTO interessante notare il prezzo, € 239 (iva inclusa ovviamente)!:D

Ho trovato chi sostituirà la mia 7950GT!:p

Bye!

interessante il prezzo, penso sia piuttosto aggressivo per essere quello di lancio,se cala un pò + in la potrei farci un pensierino.
Al di la della 4870x2 ati per un pò nn dovrebbe avere niente in serbo giusto? e neanche nvidia?

ghiltanas
27-06-2008, 11:29
Secondo me le prestazioni delle nuove schede di ATI(x me rimarrà sempre ATI)vanno considerate principalmente in base al prezzo, è inutile scannarsi su quale sia la + potente tra 4870 e gt280 perkè sarebbe come confrontare una 9800 gtx con una 3850!!

la rivale in, termini di mercato, della 4870 è molto + la gt260 e mi pare ke quest'ultima le prenda in molti benchmark dalla "rivale",inoltre quello ke hanno scritto un pò ovunque è ke la nuova architettura di ATI è molto valida, ma necessita di codice "ottimizzato" per le sue unità d calcolo ke se ben sfruttate(come in the witcher o bioshock) nn ce n'è per nessuno(gt280 compresa)!!

infine, c'è da considerare il fattore driver,le skede ati son uscite da pokissimo sul mercato,stesso dicasi per quelle nvidia, quindi a mio avviso,ppur comprendendo l'importanza del fare informazione, trovo inutile fare confronti adesso....

imho ati deve cercare anche di riprendersi qualche partenership, che magari in tanti casi possono avere solo uno scopo commerciale, però nn sempre, possono essere utili a mio avviso, anche per sviluppare driver + efficienti e per avere un'immagine + forte ;)

k.graphic
27-06-2008, 12:03
imho ati deve cercare anche di riprendersi qualche partenership, che magari in tanti casi possono avere solo uno scopo commerciale, però nn sempre, possono essere utili a mio avviso, anche per sviluppare driver + efficienti e per avere un'immagine + forte ;)

ecco appunto ;)
"schede ati radeon hd4800 anche per gainward" (http://www.hwupgrade.it/news/skvideo/schede-ati-radeon-hd-4800-anche-per-gainward_25784.html)

MenageZero
27-06-2008, 12:21
ok, tutto chiaro: tu ti riferivi al solo MC mentre la domanda di Ilbaama sembrava riferirsi all'architettura del core della gpu

quindi ricapitolando, qual'è il bus interno con 2048 bit dati e quello con 512 ? :stordita:
(sempre riferendomi all'arch. di rv770 ovviamente)

Stefem
27-06-2008, 12:24
cosa vuoi?? una scheda che costa 70€ e che vada il doppio della 280??

No, ma non considero un miracolo raggiungere le prestazioni di una 9800 GTX+

MenageZero
27-06-2008, 12:26
ecco appunto ;)
"schede ati radeon hd4800 anche per gainward" (http://www.hwupgrade.it/news/skvideo/schede-ati-radeon-hd-4800-anche-per-gainward_25784.html)

oddio va bene startegie commerciali, immagine etc, ma dubito che i costruttori di schede contribuiscano allo sviluppo dei drv per le gpu :D

padsi
27-06-2008, 12:31
No, ma non considero un miracolo raggiungere le prestazioni di una 9800 GTX+

Con un prezzo cosi basso, meno consumi e frequenze nettamente + basse e gestione dei filtri migliore direi che un mezzo miracolo lo na fatto.
Oltre alle barratte delgi FPS che sono salite di tantissimo rispetto all serie 3800 c'e' molto in questa serie 4800.

Baboo85
27-06-2008, 13:28
...

Che carneficina :)

Piuttosto a quando la recensione della 4870 con differenze prestazionali tra 260 e 280? Sono proprio curioso di vedere costi e prestazioni per decidere se varebbe la pena cambiare scheda o no...

Mr_Paulus
27-06-2008, 13:29
Che carneficina :)

Piuttosto a quando la recensione della 4870 con differenze prestazionali tra 260 e 280? Sono proprio curioso di vedere costi e prestazioni per decidere se varebbe la pena cambiare scheda o no...

ha detto il corsini che la 4870 gli è arrivata in ritardo quindi tempo qualche giorno e avremo la rece.;)

Free Gordon
27-06-2008, 13:41
Questa notizia è un pò OT, ma mi ha fatto piegare dalle risate... x carità, non voglio scatenare alcun flame, ma la notizia è di riguardo.

PhysX Runs On RV670, Scores 22,000 CPU Marks in 3DMark Vantage

http://www.techpowerup.com/64042/PhysX_Runs_On_RV670_Scores_22_000_CPU_Marks_in_3DMark_Vantage.html

Yoss... secondo te è possibile una cosa del genere?

Questo tizio pare esser riuscito a portare il physX su una 3870... (tramite CUDA :mbe: ).

E poi,secondo te:
quale delle due architetture (tra R600/G80 e Rv770/GT200)) è più adatta a macinare calcoli fisici?
Dovrebbe essere abbastanza avvantaggiata ATI, giusto? Dato che i calcoli sui vertici sfruttano nativamente tutte e 5 le unità disponibili negli SP a disposizione delle architetture ATI...



Poi, le novità tecnologiche di RV770 stanno altrove e ormai (dopo aver visto cosa è cambiato con RV770) dovrebbero essere anche chiari i motivi del rendimento di R600 e di RV6x0 al di sotto delle attese

Ma perchè non ci sono state 32TU in R600? :D
Perchè non uscire già a 65nm... se ormai il ritardo era cosa nota?? :)

Per me è palese che il problema di R600...era nelle 16TU e nel fatto che diversi transistor sono stati sprecati...

Con un ipotetico raddoppio delle TU rispetto a R600, tolgliendo le unità inutili (troppi texture samplers e le 16 unità non filtranti che non son servite a granchè), credo che il chip ATI sarebbe stato almeno pari di G80, nei giochi del periodo... (e cmq più veloce nei giochi shader-bounded).
Oltretutto la maggiore potenza dello shader core di R600, sarebbe stata più sfruttabile con più TU a disposizione.. no?

Defragg
27-06-2008, 14:15
Yoss... secondo te è possibile una cosa del genere?

Questo tizio pare esser riuscito a portare il physX su una 3870... (tramite CUDA :mbe: ).

E poi,secondo te:
quale delle due architetture (tra R600/G80 e Rv770/GT200)) è più adatta a macinare calcoli fisici?
Dovrebbe essere abbastanza avvantaggiata ATI, giusto? Dato che i calcoli sui vertici sfruttano nativamente tutte e 5 le unità disponibili negli SP a disposizione delle architetture ATI...





Ma perchè non ci sono state 32TU in R600? :D
Perchè non uscire già a 65nm... se ormai il ritardo era cosa nota?? :)

Per me è palese che il problema di R600...era nelle 16TU e nel fatto che diversi transistor sono stati sprecati...

Con un ipotetico raddoppio delle TU rispetto a R600, tolgliendo le unità inutili (troppi texture samplers e le 16 unità non filtranti che non son servite a granchè), credo che il chip ATI sarebbe stato almeno pari di G80, nei giochi del periodo... (e cmq più veloce nei giochi shader-bounded).
Oltretutto la maggiore potenza dello shader core di R600, sarebbe stata più sfruttabile con più TU a disposizione.. no?

Sono molto interessato pure io! :)

yossarian
27-06-2008, 14:59
quindi ricapitolando, qual'è il bus interno con 2048 bit dati e quello con 512 ? :stordita:
(sempre riferendomi all'arch. di rv770 ovviamente)

l'interfaccia dei MC verso l'interno è complessivamente di 2048 bit (il doppio rispetto a RV670); 512 bit è l'architettura interna del chip e dfinisce il numero di registri per alu che posono essere utilizzati contemporaneamente (ogni registro è a 32 bit, quindi 512 bit permettono di utilizzare 4 registri per ciclo.

Stefem
27-06-2008, 15:14
Con un prezzo cosi basso, meno consumi e frequenze nettamente + basse e gestione dei filtri migliore direi che un mezzo miracolo lo na fatto.
Oltre alle barratte delgi FPS che sono salite di tantissimo rispetto all serie 3800 c'e' molto in questa serie 4800.

Infatti secondo me la serie 4800 è un ENORME passo avanti rispetto alla 3800, ma non si può parlare nemmeno di mezzo miracolo, la 7900 fece lo stesso con la 1900, dove le prestazioni molto molto vicine ma i consumi e le dimensioni del die premiavano la soluzione nvidia(un SLI di 7900GTX[196mm2] consumava poco più di una singola 1900XTX[352mm2])

XmontyX
27-06-2008, 15:23
Che carneficina :)

Piuttosto a quando la recensione della 4870 con differenze prestazionali tra 260 e 280? Sono proprio curioso di vedere costi e prestazioni per decidere se varebbe la pena cambiare scheda o no...

già, pure io vorrei sapere se ne vale la pena, con una 8800gt tra le mani la scelta deve essere molto curata, non vorrei combinare castronerie...prima voglio essere sicuro al 101% :D

yossarian
27-06-2008, 16:07
Yoss... secondo te è possibile una cosa del genere?

Questo tizio pare esser riuscito a portare il physX su una 3870... (tramite CUDA :mbe: ).



yes, we can :D

[B]

E poi,secondo te:
quale delle due architetture (tra R600/G80 e Rv770/GT200)) è più adatta a macinare calcoli fisici?
Dovrebbe essere abbastanza avvantaggiata ATI, giusto? Dato che i calcoli sui vertici sfruttano nativamente tutte e 5 le unità disponibili negli SP a disposizione delle architetture ATI...



dipende dal tipo di codice che si usa. Con istruzioni, tipo quelle geometriche, che tendono a privilegiare il calcolo parallelo, sicuramente l'architettura dei chip ATi è più performante, in alcuni casi anche di molto.



Ma perchè non ci sono state 32TU in R600? :D
Perchè non uscire già a 65nm... se ormai il ritardo era cosa nota?? :)


perchè R600 ha 4 gruppi di 16 sp con 4 tu ciascuno, con un rapporto sp/tu di 4:1, mentre RV770 ha 10 gruppi di 16 sp con 4 tmu ciascuno, con un rapporto sp/tu sempre di 4:1. Quindi l'architettura non è stata modificata.



Con un ipotetico raddoppio delle TU rispetto a R600, tolgliendo le unità inutili (troppi texture samplers e le 16 unità non filtranti che non son servite a granchè), credo che il chip ATI sarebbe stato almeno pari di G80, nei giochi del periodo... (e cmq più veloce nei giochi shader-bounded).


perchè ritieni le tsu inutili? Avere un numero di texture samplers unit maggiore rispetto a quello delle texture filtering unit e delle texture address unit, permette, insieme a cache di tipo fully associative, di minimizzare le latenze per le operazioni diaccesso alle texture; per questo scopo, sia R600 che i chip seguenti, sono dotati di funzionalità memexport e memimport, per permettere alle unità di calcolo, qualora fosse necessario, di accedere direttamente alla vram senza necessità di caricare i dati nei registri.
Le 16 unità "non filtranti" erano state messe lì per le operazioni di vertex texturing per i giochi shader bounded il discorso da fare è un po' più lungo e complesso; in sintesi si può dire che dipende da come il gioco è programmato: se vuoi favorire in maniera spudorata nVidia, allora compili un codice con tante iastruzioni di tipo float mad serial; se, al contrario, intendi favorire ATi, allora utilizzi codice che preveda il massimo parallelismo possibile. In parole povere, tante istruzioni seriali con istruzioni di tipo dependent read che non possono essere assemblate in macro istruzioni esaltano l'architettura nVidia e frenao quella ATi; thread con più istruzioni "legate" tra loro, tipo calcoli su vettori, fanno rendere al massimo l'architettura ATi e fanno piantare quella nVidia. Questo perchè il singolo sp di G8x/GT2x0 è pensato per operare in maniera seriale, mentre il singolo sp di R600 e derivati in modalità parallela


Per me è palese che il problema di R600...era nelle 16TU e nel fatto che diversi transistor sono stati sprecati...

non sarei così sicuro del fatto che il problema fosse legato solo alle 16 tmu :D




Oltretutto la maggiore potenza dello shader core di R600, sarebbe stata più sfruttabile con più TU a disposizione.. no?

la maggior potenza dello shader core di R600 ha più bisogno di codice ottimizzato rispetto al meno potente G80 e non solo a causa del minor numero di tmu.
Le modifiche fatte al MC dovrebbe farti capire qualcosa di più. Pensa a quello che ti dicevo a proposito del numero massimo di gruppi di unità che era possibile servire senza avere colli di bottiglia o senza rendere impervia la programmazione del mc con un ring bus. E pensa a quante unità o gruppi di unità serve il ring bus di R600 e di RV6x0 (non parlo solo di alu) e chiediti a cosa serva l'hub in RV770.

mondino
27-06-2008, 16:19
Raga, ho appena montato una 4850... Dire che scalda è un po' riduttivo... :eek:
In confronto le 8800GTX sembrano dei condizionatori d'aria....

padsi
27-06-2008, 16:23
Infatti secondo me la serie 4800 è un ENORME passo avanti rispetto alla 3800, ma non si può parlare nemmeno di mezzo miracolo, la 7900 fece lo stesso con la 1900, dove le prestazioni molto molto vicine ma i consumi e le dimensioni del die premiavano la soluzione nvidia(un SLI di 7900GTX[196mm2] consumava poco più di una singola 1900XTX[352mm2])

Be ma io intendevo in casa AMD/ATI aa fatto un mezzo miracolo dopo il floppo della 2900XT e della serie 3800 con grossi problemi di gestione dei filtri :)

ghiltanas
27-06-2008, 17:21
ecco appunto ;)
"schede ati radeon hd4800 anche per gainward" (http://www.hwupgrade.it/news/skvideo/schede-ati-radeon-hd-4800-anche-per-gainward_25784.html)

oddio va bene startegie commerciali, immagine etc, ma dubito che i costruttori di schede contribuiscano allo sviluppo dei drv per le gpu :D

avete frainteso forse il mio post, io intendevo partnership con le software house sviluppatrici di videogiochi :p

ghiltanas
27-06-2008, 17:24
Raga, ho appena montato una 4850... Dire che scalda è un po' riduttivo... :eek:
In confronto le 8800GTX sembrano dei condizionatori d'aria....

mi sa tanto che punto + sulla 4870 quando cala, cosi ha il dissi doppio slot ebutta l'aria fuori ;)
cmq sia anche la 8800gt penso sia quasi improponibile lasciare la ventola a default, alzando la % di rotazione di quest'ultima il problema temp si risolve? (ovviamente intendo in maniera accettabile, nn che la ventola debba stare fissa al 100% e produrre il rumore di un jet :doh: )

Be ma io intendevo in casa AMD/ATI aa fatto un mezzo miracolo dopo il floppo della 2900XT e della serie 3800 con grossi problemi di gestione dei filtri :)

punto interessante: oggettivamente con le 4xxx i filtri come si comportano?

Stefem
27-06-2008, 17:28
Be ma io intendevo in casa AMD/ATI aa fatto un mezzo miracolo dopo il floppo della 2900XT e della serie 3800 con grossi problemi di gestione dei filtri :)

Allora abbiamo detto la stessa cosa:)

mondino
27-06-2008, 17:31
mi sa tanto che punto + sulla 4870 quando cala, cosi ha il dissi doppio slot ebutta l'aria fuori ;)
cmq sia anche la 8800gt penso sia quasi improponibile lasciare la ventola a default, alzando la % di rotazione di quest'ultima il problema temp si risolve? (ovviamente intendo in maniera accettabile, nn che la ventola debba stare fissa al 100% e produrre il rumore di un jet :doh: )


Ho appena installato il programma della Asus "Smart Doctor" che permette di regolare il regime di rotazione della ventola. Al 50% la temperatura è già calata notevolmente... ;)

padsi
27-06-2008, 17:33
mi sa tanto che punto + sulla 4870 quando cala, cosi ha il dissi doppio slot ebutta l'aria fuori ;)
cmq sia anche la 8800gt penso sia quasi improponibile lasciare la ventola a default, alzando la % di rotazione di quest'ultima il problema temp si risolve? (ovviamente intendo in maniera accettabile, nn che la ventola debba stare fissa al 100% e produrre il rumore di un jet :doh: )



punto interessante: oggettivamente con le 4xxx i filtri come si comportano?

Anche io punto sulla 4870 intanto che aspetto e vedo come andra' la 4870x2, dopodiche decido se tenere la 4870 o la 4870x2 e metto a liquido la VGA che mi tengo^^

Sulla sereie 3800 era meglio nn metterli i filtri, se senza una 3870 stava dietro bene e alle alte risoluzioni andava quasi una 8800GT coi filtri attivati perdeva un botto^^
Cona la serie 4800, vedendo i vari test che stanno facendo i molti utenti del nostro forum che hanno acquistato la 4850, direi che quasi se ne sbatte dei filtri perdendo veramente poco.

ghiltanas
27-06-2008, 17:36
Ho appena installato il programma della Asus "Smart Doctor" che permette di regolare il regime di rotazione della ventola. Al 50% la temperatura è già calata notevolmente... ;)

e il rumore come si mantiene?

Anche io punto sulla 4870 intanto che aspetto e vedo come andra' la 4870x2, dopodiche decido se tenere la 4870 o la 4870x2 e metto a liquido la VGA che mi tengo^^

Sulla sereie 3800 era meglio nn metterli i filtri, se senza una 3870 stava dietro bene e alle alte risoluzioni andava quasi una 8800GT coi filtri attivati perdeva un botto^^

bene, allora forse appena sta intorno ai 200 ci faccio un pensierino, in fondo le 3870 sono calate velocemente, queste mi sa un pò meno per via delle memorie costosette

Baboo85
27-06-2008, 17:39
ha detto il corsini che la 4870 gli è arrivata in ritardo quindi tempo qualche giorno e avremo la rece.;)

Ho letto ho letto... Infatti attendo impaziente (ma tanto poi la mia scheda la tengo finche' dura)

già, pure io vorrei sapere se ne vale la pena, con una 8800gt tra le mani la scelta deve essere molto curata, non vorrei combinare castronerie...prima voglio essere sicuro al 101% :D

Cambi la tua 8800GT? Ma lol!!! :mbe: E io che ancora mi tengo la mia 8600GTS... Forse sono un illuso :Prrr:

Raga, ho appena montato una 4850... Dire che scalda è un po' riduttivo... :eek:
In confronto le 8800GTX sembrano dei condizionatori d'aria....

Be' metteranno il supporto per la regolazione della ventola nei driver... Tiri su qualche rpm, fara' piu' rumore ma poi la temp si dovrebbe abbassare...
E poi sicuramente usciranno dissipatori per 4850 a doppio slot...

padsi
27-06-2008, 17:41
bene, allora forse appena sta intorno ai 200 ci faccio un pensierino, in fondo le 3870 sono calate velocemente, queste mi sa un pò meno per via delle memorie costosette

Io la prendo appena mi fanno la nota di credito per l'RMA della XFX780i(210€ di mobo durata meno di un mese) e al max ci metto 2 lire di differenza, una cosa pero' che mi incuriosice e vedere la verisone da 1GB come va cioe', questa con 512 a 1920 nn fa assolutamente fatica e perde molto meno delle GTX200 che hanno 1GB, a sto punto nn capisco bene la differenza tra 1GB e 512, magari a risoluzioni ancora + alte si noteranno differenze di ampia veduta bo^^

ghiltanas
27-06-2008, 17:46
Io la prendo appena mi fanno la nota di credito per l'RMA della XFX780i(210€ di mobo durata meno di un mese) e al max ci metto 2 lire di differenza, una cosa pero' che mi incuriosice e vedere la verisone da 1GB come va cioe', questa con 512 a 1920 nn fa assolutamente fatica e perde molto meno delle GTX200 che hanno 1GB, a sto punto nn capisco bene la differenza tra 1GB e 512, magari a risoluzioni ancora + alte si noteranno differenze di ampia veduta bo^^

idem :sofico: , solo che proprio per via della gddr5 ho paura bisognerà attendere un pò...cmq 1 gb per una vga del genere nn sono affatto inutili anzi, specie se moddi anche i giochi si possono rivelare utilissimi, inoltre rende la scheda a mio avviso + longeva, visto che neanche con il crossfire si può incrementare la memoria video

mondino
27-06-2008, 17:52
Non bisogna superare il 50% della velocità della ventola... Al 60% dà parecchio fastidio...
Con la ventola a 50% la temperatura si aggira sui 58° in idle e il rumore è più che accettabile.

Zermak
27-06-2008, 17:55
punto interessante: oggettivamente con le 4xxx i filtri come si comportano?
Con due rapidi calcoli, sui test di computerbase, a 1600x1200 con AA4x e AF16x, la HD4850 è circa il 34% più lenta dei test senza filtri.
E' un valore indicativo infatti in alcuni casi va peggio ed in altri meglio.

MenageZero
27-06-2008, 18:21
Yoss... secondo te è possibile una cosa del genere?

Questo tizio pare esser riuscito a portare il physX su una 3870... (tramite CUDA :mbe: ).

yes, we can :D

:eek:

adesso ci devi dire anche come si fa :O

edit:
visto che siamo in argomento "fisica" & radeon, si sa per caso di una qualche sorta di roadmap in seguito all'accordo, riportato da una recente news, tra havok(intel :D ) ed amd per far usare all'omonimo middleware le gpu radeon per i calcoli di simulazione fisica ?

gianni1879
27-06-2008, 18:27
Raga, ho appena montato una 4850... Dire che scalda è un po' riduttivo... :eek:
In confronto le 8800GTX sembrano dei condizionatori d'aria....

vai sul thread ufficiale e troverai un pò di soluzioni alle alte temp ;)

zap65
27-06-2008, 19:38
A quanto pare si stanno vendendo alla grande stè scheduzze,a parte le temperature,mi sa tanto che passerò al liquido,già per raffreddare la mia 3850 ho dovuto cambiare case installare rivatuner e con il ventilatore a due metri per raffreddare me,mi sembra di essere nella galleria del vento.Comunque,a stò punto dato che le premesse sono già buone con la 4850,penso proprio che aspetterò la 4870,intanto matureranno driver e verranno collaudate meglio.A proposito,ho visto un articolo,diceva che Gainward,noto sostenitore NVidia,abbia messo le mani su questo ottimo prodotto,segno che stavolta Ati ha fatto centro.:D :D :D

MiKeLezZ
27-06-2008, 20:34
Nella recensione di xbitlabs la 4850 in idle consuma 41W, mentre la 3870 consuma solo 19W

http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_14.html#sect0

Mi chiedo se è possibile la colpa sia dei driver che non attivano correttamente il Powerplay, oppure se effettivamente il consumo delle 4850 in idle è quello.

Capisco bene il load, ma 20W in più in idle sono tanti (considerato che il transistor count non è aumentato neppure del 50%), e xbitlabs sono gli unici per cui mi fida ciecamente delle misurazioni.

gianni1879
27-06-2008, 20:48
Nella recensione di xbitlabs la 4850 in idle consuma 41W, mentre la 3870 consuma solo 19W

http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_14.html#sect0

Mi chiedo se è possibile la colpa sia dei driver che non attivano correttamente il Powerplay, oppure se effettivamente il consumo delle 4850 in idle è quello.

Capisco bene il load, ma 20W in più in idle sono tanti (considerato che il transistor count non è aumentato neppure del 50%), e xbitlabs sono gli unici per cui mi fida ciecamente delle misurazioni.
si esatto il problema è quello, addirittura sembra che la MSI riduca attraverso il bios anche voltaggi e frequenze, non ci dimentichiamo che non ci sono driver che supportano rv770, la stessa cosa era successa con la 3870

from_hell
27-06-2008, 21:20
secondo me piuttosto che prendersi la 4850 converrebbe la 4870! Questa si che è una schedona. Missà che l'unica possibilità che nvidia ha di rimediare è di abbassare drasticamente il prezzo della gtx260 in modo da renderla competitiva con la hd4870. Portandola da 400 a 300 dollari potrebbero riuscirci! Speriamo!!

from_hell
27-06-2008, 21:29
Anzi quello che faranno secondo me sarà: abbassare il prezzo della 9800gtx+ per metterla in competizione con la hd4850 ; come dicevo prima, abbassare il prezzo della gtx260 per competere con la hd4870. Scommetto le mutande di gianni che sarà cosi!

bonzuccio
27-06-2008, 21:31
..Scommetto le mutande di gianni che sarà cosi!

:eek: :mbe:

Zermak
27-06-2008, 22:18
Anzi quello che faranno secondo me sarà: abbassare il prezzo della 9800gtx+ per metterla in competizione con la hd4850 ; come dicevo prima, abbassare il prezzo della gtx260 per competere con la hd4870. Scommetto le mutande di gianni che sarà cosi!
La 9800GTX+ avrà una sua fascia di prezzo ($229) mentre la 9800GTX se la vedrà con l'HD4850.
Sicuramente nVidia dovrà fare qualcosa con la sua GTX260 visto il rapporto prezzo/prestazioni molto sfavorevole nei confronti dell'HD4870.

XmontyX
27-06-2008, 22:21
Cambi la tua 8800GT? Ma lol!!! :mbe: E io che ancora mi tengo la mia 8600GTS... Forse sono un illuso :Prrr:

Beh, non è detto che la cambi... devo vedere se veramente ne vale la pena...
io mi ritrovo spesso a giocare a risoluzioni alte (spesso e volentieri in HD) e per carità, con la mia zotac 8800gt AMP non ho problemi di alcun tipo ora come ora, solo che probabilmente posso venderla anche a 150€ così poi potrei passare a costo zero ad un 4850, o ancora meglio con qualche aggiunta alla 4870 (li però aspetto che cala almeno a 200€ così da aggiungerne solo 50 monete:rolleyes: ), così da avere maggiori possibilità con i giochi attuali e maggiori garanzie con quelli futuri; :)
Ripeto, ora come ora mi ci trovo bene, ma se con una piccola aggiunta posso scambiarla con una pari alla gtx260(alcune volte meglio, altre peggio), beh, non credo che sia una cattiva idea :sofico:
Però come ho detto prima aspetto la rece con la 4870 poichè non vorrei combinare cavolate, e magari prenderne una anche peggio (poco probabile ma non impossibile) .

cmq non sei un'illuso, se con la tua ti ci trovi... il mio si potrebbe considerare un possibile investimento per il futuro, dato che per il presente la 8800gt è ottima.

XmontyX
27-06-2008, 22:38
..... non ci dimentichiamo che non ci sono driver che supportano rv770, la stessa cosa era successa con la 3870

fammi capire bene...
non ci sono driver che supportano l'RV770?:confused:
Io credevo che fossero usciti con i 8.6 (anche se acora tutti da rivedere)...
quindi saremo destinati a vedere prestazioni molto diverse per queste schede quando usciranno quello che lo supportano al 100%:eek: (come se le prestazioni di adesso sono basse...) speriamo speriamo...

XmontyX
27-06-2008, 23:03
mi sa tanto che punto + sulla 4870 quando cala, cosi ha il dissi doppio slot ebutta l'aria fuori ;)
cmq sia anche la 8800gt penso sia quasi improponibile lasciare la ventola a default, alzando la % di rotazione di quest'ultima il problema temp si risolve? (ovviamente intendo in maniera accettabile, nn che la ventola debba stare fissa al 100% e produrre il rumore di un jet :doh: )

puntiamo alla stessa scheda allora.:cool:

Cmq io con la 8800gt lascio alla scheda decidere la velocità ventola, non l'ho scelgo io ma solo perchè l'ho provato e non mi sembra una buona idea e lo dico per esperienza personale:

Solo con l'SO avviato la ventola mi va da sola al 33% mantenendo una temperatura di 53-54° con 30° in ambiente, quando invece gioco con crysis o con grid (quest'ultimo in HD dettagli massimi e filtro a 4x) mi raggiunge i 75°MAX, e appena esco mi precipita subito a 64° che poi, piano piano, mi ritorna sui 54...(Per le temperature tengo sempre aperto l'applicativo HWmonitor, credo si chiami così)

Ora, io ho provato a mettere la ventola già di mio al 50% e questo è il risultato:
temp minima con windows a 53-52°, quindi il miglioramento, anche se irrisorio, c'è stato, però sempre con crysis e con grid mi raggiunge i 80-81°MAX, che poi precipitano inesorabilmentequando esco; giunto a questa verifica, decisi di lasciare alla sheda la gestione della ventola poichè il 50% di regime può essere buono (forse inutile) fuori da applicativi 3D, ma tropo poco quando li uso..infatti in alcuni frangenti sento che la scheda aumenta più del 50% la velocita della ventola, (ma non per tutto il tempo così che nel complesso non risulti troppo fastidiosa, senza considerare che uno preso dal gioco e credo anche con le casse accese, non lo nota neppure, a meno che non ci va a fare attenzione; poi cmq il concetto di rumore è soggettivo:D ) Il tutto con dissy stock ovviamente.

Lud von Pipper
27-06-2008, 23:04
aggiungerei un fatto a cui nessuno ha fatto caso.

Queste eccellenti HD48X0 sono entrambe a 256 bit a dimostrazione che questa configurazione del bus va alla stragrande con margini ancora disponibili e permettendo di abbassare adeguatamente i costi di produzione

A maggior ragione si dimostra come i 512Bit fossero solo uno specchietto per le allodole :rolleyes:

Zermak
27-06-2008, 23:09
puntiamo alla stessa scheda allora.:cool:

Cmq io con la 8800gt lascio alla scheda decidere la velocità ventola, non l'ho scelgo io ma solo perchè l'ho provato e non mi sembra una buona idea e lo dico per esperienza personale:

Solo con l'SO avviato la ventola mi va da sola al 33% mantenendo una temperatura di 53-54° con 30° in ambiente, quando invece gioco con crysis o con grid (quest'ultimo in HD dettagli massimi e filtro a 4x) mi raggiunge i 75°MAX, e appena esco mi precipita subito a 64° che poi, piano piano, mi ritorna sui 54...(Per le temperature tengo sempre aperto l'applicativo HWmonitor, credo si chiami così)

Ora, io ho provato a mettere la ventola già di mio al 50% e questo è il risultato:
temp minima con windows a 53-52°, quindi il miglioramento, anche se irrisorio, c'è stato, però sempre con crysis e con grid mi raggiunge i 80-81°MAX, che poi precipitano inesorabilmentequando esco; giunto a questa verifica, decisi di lasciare alla sheda la gestione della ventola poichè il 50% di regime può essere buono (forse inutile) fuori da applicativi 3D, ma tropo poco quando li uso..infatti in alcuni frangenti sento che la scheda aumenta più del 50% la velocita della ventola, (ma non per tutto il tempo così che nel complesso non risulti troppo fastidiosa, senza considerare che uno preso dal gioco e credo anche con le casse accese, non lo nota neppure, a meno che non ci va a fare attenzione; poi cmq il concetto di rumore è soggettivo:D ) Il tutto con dissy stock ovviamente.
L'8800GT con dissipatore stock è nota per il rumore della ventola ad alti regimi quando è sotto stress.

MenageZero
27-06-2008, 23:16
aggiungerei un fatto a cui nessuno ha fatto caso.

Queste eccellenti HD48X0 sono entrambe a 256 bit a dimostrazione che questa configurazione del bus va alla stragrande con margini ancora disponibili e permettendo di abbassare adeguatamente i costi di produzione

A maggior ragione si dimostra come i 512Bit fossero solo uno specchietto per le allodole :rolleyes:

va be' che vuol dire dai ... :D

non che i valori massimi teorici dicano tutto, ma num di bit dati della connessione mc/vram e clock della vram sono "mezzi" comnplementari per un "fine": ottenere un certo valore di data-rate; chiaro che se ati mette gddr5, con il clock che hanno, (ed un nuovo mc adatto ad usarle), il bus da 256 si ritrova ad aver ancora del "margine" anche ad alti livelli ;)

(infatti non è detto che l'rv770 in versione hd4850, che ha gddr3, non sia bandwidth limited)

ps: il bus da 512 di gt200 non è uno specchietto per le allodole, era stato detto da persone molto competenti che anche g92 in alcune circostanze può essre un po' bandwidth limited, dare a gt200 un bus da 256 avrebbe con ogni probabilità "tolto molto ossigeno" a questa gpu (appunto perché a quanto pare tale gpu va abbinata a gddr3)

XmontyX
27-06-2008, 23:25
L'8800GT con dissipatore stock è nota per il rumore della ventola ad alti regimi quando è sotto stress.

ah beh, questo lo so, credo di conoscere quasi tutti gli handicap che girano sul web riguardo la 8800gt, io cmq ad es. ho la zotac 8800gt AMP ed. rev.2, ovvero quella con la ventola maggiorata (quella più larga di diametro e trasparente, diversamente dalla rev 1 con ventola nera e diametro minore che oltre a raffreddare meno fa più rumore) che credo possa favorire la situazione, poi cmq ripeto: il concetto di rumore è soggettivo, io con quello che ho non trovo grossi fastidi...(poi non lo so... sarò sordo io, ma non credo + di tanto:stordita: )

A.L.M.
27-06-2008, 23:55
va be' che vuol dire dai ... :D

non che i valori massimi teorici dicano tutto, ma num di bit dati della connessione mc/vram e clock della vram sono "mezzi" comnplementari per un "fine": ottenere un certo valore di data-rate; chiaro che se ati mette gddr5, con il clock che hanno, (ed un nuovo mc adatto ad usarle), il bus da 256 si ritrova ad aver ancora del "margine" anche ad alti livelli ;)

(infatti non è detto che l'rv770 in versione hd4850, che ha gddr3, non sia bandwidth limited)

ps: il bus da 512 di gt200 non è uno specchietto per le allodole, era stato detto da persone molto competenti che anche g92 in alcune circostanze può essre un po' bandwidth limited, dare a gt200 un bus da 256 avrebbe con ogni probabilità "tolto molto ossigeno" a questa gpu (appunto perché a quanto pare tale gpu va abbinata a gddr3)

Beh, in un certo senso Lud non ha tutti i torti... La banda verso l'esterno non è tutto, se non curi anche la banda del memory controller comunque avrai un collo di bottiglia: che senso ha avere 140GB/s di banda verso la memoria se quando poi i dati tornano nella gpu per essere processati si trovano strozzati da una banda che è ampia quasi un quarto? Si rischia di bruciare bandwidth inutilmente. ;)

gianni1879
27-06-2008, 23:57
Anzi quello che faranno secondo me sarà: abbassare il prezzo della 9800gtx+ per metterla in competizione con la hd4850 ; come dicevo prima, abbassare il prezzo della gtx260 per competere con la hd4870. Scommetto le mutande di gianni che sarà cosi!
io scommetto il tuo sedere...... 9800gtx vs hd4850, 9800gtx+ vs hd4870

Zermak
28-06-2008, 00:00
io scommetto il tuo sedere...... 9800gtx vs hd4850, 9800gtx+ vs hd4870
No, c'è anche una slide della stessa nVidia.
Come ho spiegato la 9800GTX+ avrà una sua fascia di prezzo ($229) mentre la 9800GTX se la vedrà (vede) con l'HD4850 (entrambe date a $199).
L'HD4870 ($299) è un bel colpo per AMD e la nVidia, secondo me, dovrà correre ai ripari abbassando almeno il costo della GTX260 (attualmente a $399) e, magari, allineando la GTX280 ai nuovi prezzi.

gianni1879
28-06-2008, 00:04
fammi capire bene...
non ci sono driver che supportano l'RV770?:confused:
Io credevo che fossero usciti con i 8.6 (anche se acora tutti da rivedere)...
quindi saremo destinati a vedere prestazioni molto diverse per queste schede quando usciranno quello che lo supportano al 100%:eek: (come se le prestazioni di adesso sono basse...) speriamo speriamo...

si esatto, gli 8.6 non supportano rv770, per adesso ci sono degli hotfix, ma ancora i problemi rimangono, come appunto il mancato powerplay, lo vedremo probabilmente negli 8.7 come credo un miglioramento nelle performance, rv770 è cmq diverso da rv670, certo non ci aspettiamo miracoli. il CF non funziona ancora benone con queste schede.

Free Gordon
28-06-2008, 03:06
Infatti secondo me la serie 4800 è un ENORME passo avanti rispetto alla 3800, ma non si può parlare nemmeno di mezzo miracolo, la 7900 fece lo stesso con la 1900, dove le prestazioni molto molto vicine ma i consumi e le dimensioni del die premiavano la soluzione nvidia(un SLI di 7900GTX[196mm2] consumava poco più di una singola 1900XTX[352mm2])



Prestazioni molto molto vicine più o meno...

Con i giochi vecchi poteva anche essere (senza però considerare le features in meno della 7900... ;) ), ma man mano che si va avanti il divario aumenta considerevolmente:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/28/#abschnitt_performancerating

A certe res, considerando i 10 giochi dx9 testati, la 7900GTX è persino sotto la 1950PRO.. (altro che XT).
Prendi il caso della 16x12 con AA4x... (addirittura quì la x1950 è il 75% più veloce della GTX).

E più si sale di res, più il gap si allarga.

A.L.M.
28-06-2008, 03:19
Prestazioni molto molto vicine più o meno...

Con i giochi vecchi poteva anche essere (senza però considerare le features in meno della 7900... ;) ), ma man mano che si va avanti il divario aumenta considerevolmente:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/28/#abschnitt_performancerating

A certe res, considerando i 10 giochi dx9 testati, la 7900GTX è persino sotto la 1950PRO.. (altro che XT).
Prendi il caso della 16x12 con AA4x... (addirittura quì la x1950 è il 75% più veloce della GTX).

E più si sale di res, più il gap si allarga.

Già, R580 è stato un chip che è migliorato col tempo... Ma in generale credo tutta la serie X1k rispetto alla serie 7 di NVidia ha mostrato una maggiore longevità: come i giochi hanno iniziato a diventare più pesanti sugli shaders hanno iniziato a performare nettamente meglio delle loro pari fascia. ;)

Free Gordon
28-06-2008, 04:10
yes, we can :D

:eek: :eek: :eek:



dipende dal tipo di codice che si usa. Con istruzioni, tipo quelle geometriche, che tendono a privilegiare il calcolo parallelo, sicuramente l'architettura dei chip ATi è più performante, in alcuni casi anche di molto.

Bona. ^_^
Ora vogliamo un bench fisico ben fatto...e che sia superpartes! :D



perchè R600 ha 4 gruppi di 16 sp con 4 tu ciascuno, con un rapporto sp/tu di 4:1, mentre RV770 ha 10 gruppi di 16 sp con 4 tmu ciascuno, con un rapporto sp/tu sempre di 4:1. Quindi l'architettura non è stata modificata.

Ma prima...la x1900 era 3:1...
Dato che R600 andava benissimo se prodotto nel giro di 9 mesi dall'R580+ (uscita a metà 2006..), mi chiedo perchè non si sia ancora mantenuto quel rapporto...privilegiando però l'aumento di TMU!

Caspita...era da R420 che eravamo fermi a 16!!! :cry:

Per me R600 doveva essere: 32TMU, 96SP, 16 ROPs e 65nm!!! :sofico:

Questo sì che era un bel salto da R580! Ed Rv670 avrebbe potuto essere un semplice die shrink a 55... (come poi alla fine è stato, anche se son cambiate alcune cose mi pare... :p ).

Rv770 invece mi pare va bene già così com'è!! :D :D :D



perchè ritieni le tsu inutili? Avere un numero di texture samplers unit maggiore rispetto a quello delle texture filtering unit e delle texture address unit, permette, insieme a cache di tipo fully associative, di minimizzare le latenze per le operazioni di accesso alle texture; per questo scopo, sia R600 che i chip seguenti, sono dotati di funzionalità memexport e memimport, per permettere alle unità di calcolo, qualora fosse necessario, di accedere direttamente alla vram senza necessità di caricare i dati nei registri.

Memexport che però non è nemmeno utilizzato su R500...figuriamoci se lo useranno su R600 e derivati... (o hai succose news in merito? :D ).



Le 16 unità "non filtranti" erano state messe lì per le operazioni di vertex texturing per i giochi shader bounded il discorso da fare è un po' più lungo e complesso;

Vertex texturing che su R500 viene usato bene a quanto ne so...
Non capisco perchè su PC non sia stato così!



in sintesi si può dire che dipende da come il gioco è programmato: se vuoi favorire in maniera spudorata nVidia, allora compili un codice con tante iastruzioni di tipo float mad serial; se, al contrario, intendi favorire ATi, allora utilizzi codice che preveda il massimo parallelismo possibile. In parole povere, tante istruzioni seriali con istruzioni di tipo dependent read che non possono essere assemblate in macro istruzioni esaltano l'architettura nVidia e frenao quella ATi; thread con più istruzioni "legate" tra loro, tipo calcoli su vettori, fanno rendere al massimo l'architettura ATi e fanno piantare quella nVidia. Questo perchè il singolo sp di G8x/GT2x0 è pensato per operare in maniera seriale, mentre il singolo sp di R600 e derivati in modalità parallela

Sei stato chiarissimo come sempre.



non sarei così sicuro del fatto che il problema fosse legato solo alle 16 tmu :D

Tenendo ferma l'architettura di RV670 (per cui MC a 256bit), mi piacerebbe fare una simulazione di quel chip di cui sopra (32TU ecc.. :D ).
Son convinto che darebbe del filo da torcere anche a G92...



Le modifiche fatte al MC dovrebbe farti capire qualcosa di più. Pensa a quello che ti dicevo a proposito del numero massimo di gruppi di unità che era possibile servire senza avere colli di bottiglia o senza rendere impervia la programmazione del mc con un ring bus. E pensa a quante unità o gruppi di unità serve il ring bus di R600 e di RV6x0 (non parlo solo di alu) e chiediti a cosa serva l'hub in RV770.

Quì mi sono perso un pò... è notte fonda quì in Italia... :sofico:

Free Gordon
28-06-2008, 04:11
yes, we can :D

:eek: :eek: :eek:



dipende dal tipo di codice che si usa. Con istruzioni, tipo quelle geometriche, che tendono a privilegiare il calcolo parallelo, sicuramente l'architettura dei chip ATi è più performante, in alcuni casi anche di molto.

Bona. ^_^
Ora vogliamo un bench fisico ben fatto...e che sia superpartes! :D



perchè R600 ha 4 gruppi di 16 sp con 4 tu ciascuno, con un rapporto sp/tu di 4:1, mentre RV770 ha 10 gruppi di 16 sp con 4 tmu ciascuno, con un rapporto sp/tu sempre di 4:1. Quindi l'architettura non è stata modificata.

Ma prima...la x1900 era 3:1...
Dato che R600 andava benissimo se prodotto nel giro di 9 mesi dall'R580+ (uscita a metà 2006..), mi chiedo perchè non si sia ancora mantenuto quel rapporto...privilegiando però l'aumento di TMU!

Caspita...era da R420 che eravamo fermi a 16!!! :cry:

Per me R600 doveva essere: 32TMU, 96SP, 16 ROPs e 65nm!!! :sofico:

Questo sì che era un bel salto da R580! Ed Rv670 avrebbe potuto essere un semplice die shrink a 55... (come poi alla fine è stato, anche se son cambiate alcune cose mi pare... :p ).

Rv770 invece mi pare va bene già così com'è!! :D :D :D



perchè ritieni le tsu inutili? Avere un numero di texture samplers unit maggiore rispetto a quello delle texture filtering unit e delle texture address unit, permette, insieme a cache di tipo fully associative, di minimizzare le latenze per le operazioni di accesso alle texture; per questo scopo, sia R600 che i chip seguenti, sono dotati di funzionalità memexport e memimport, per permettere alle unità di calcolo, qualora fosse necessario, di accedere direttamente alla vram senza necessità di caricare i dati nei registri.

Memexport che però non è nemmeno utilizzato su R500...figuriamoci se lo useranno su R600 e derivati... (o hai succose news in merito? :D ).



Le 16 unità "non filtranti" erano state messe lì per le operazioni di vertex texturing per i giochi shader bounded il discorso da fare è un po' più lungo e complesso;

Vertex texturing che su R500 viene usato bene a quanto ne so...
Non capisco perchè su PC non sia stato così!



in sintesi si può dire che dipende da come il gioco è programmato: se vuoi favorire in maniera spudorata nVidia, allora compili un codice con tante iastruzioni di tipo float mad serial; se, al contrario, intendi favorire ATi, allora utilizzi codice che preveda il massimo parallelismo possibile. In parole povere, tante istruzioni seriali con istruzioni di tipo dependent read che non possono essere assemblate in macro istruzioni esaltano l'architettura nVidia e frenao quella ATi; thread con più istruzioni "legate" tra loro, tipo calcoli su vettori, fanno rendere al massimo l'architettura ATi e fanno piantare quella nVidia. Questo perchè il singolo sp di G8x/GT2x0 è pensato per operare in maniera seriale, mentre il singolo sp di R600 e derivati in modalità parallela

Sei stato chiarissimo come sempre.



non sarei così sicuro del fatto che il problema fosse legato solo alle 16 tmu :D

Tenendo ferma l'architettura di RV670 (per cui MC a 256bit), mi piacerebbe fare una simulazione di quel chip di cui sopra (32TU ecc.. :D ).
Son convinto che darebbe del filo da torcere anche a G92...



Le modifiche fatte al MC dovrebbe farti capire qualcosa di più. Pensa a quello che ti dicevo a proposito del numero massimo di gruppi di unità che era possibile servire senza avere colli di bottiglia o senza rendere impervia la programmazione del mc con un ring bus. E pensa a quante unità o gruppi di unità serve il ring bus di R600 e di RV6x0 (non parlo solo di alu) e chiediti a cosa serva l'hub in RV770.

Quì mi sono perso un pò... è notte fonda quì in Italia... :sofico:

yossarian
28-06-2008, 06:50
Ma prima...la x1900 era 3:1...
Dato che R600 andava benissimo se prodotto nel giro di 9 mesi dall'R580+ (uscita a metà 2006..), mi chiedo perchè non si sia ancora mantenuto quel rapporto...privilegiando però l'aumento di TMU!

Caspita...era da R420 che eravamo fermi a 16!!! :cry:




tu ragioni solo guardando all'immediato; progettare un chip con lo stesso rapporto alu/tmu di R580 avrebbe significato essere costretti a progettare un nuovo chip a breve di stanza di tempo; invece RV770 è solo un'evoluzione di R600.



Per me R600 doveva essere: 32TMU, 96SP, 16 ROPs e 65nm!!! :sofico:


e perchè non 32 tmu, 128 sp e 16 rop's?:D



Questo sì che era un bel salto da R580! Ed Rv670 avrebbe potuto essere un semplice die shrink a 55... (come poi alla fine è stato, anche se son cambiate alcune cose mi pare... :p ).



si, qualche modifica c'è stata :D



Rv770 invece mi pare va bene già così com'è!! :D :D :D



si può fare di meglio, magari aumentando ancora il numero di gruppi di alu (e stavolta anche di tmu :D )



Memexport che però non è nemmeno utilizzato su R500...figuriamoci se lo useranno su R600 e derivati... (o hai succose news in merito? :D ).



chi dice che all'occorrenza non possa essere utilizzato indipendentemente dal fatto che il SW lo preveda o meno?



Vertex texturing che su R500 viene usato bene a quanto ne so...
Non capisco perchè su PC non sia stato così!



se è per questo, neppure i GS o il deferred rendering (e l'AA via shader) mi pare siano molto utilizzati, ma il motivo lo si dovrebbe chiedere alle SW, dato che il vertex texturing era previsto sin dallo SM3.0 e gli altri sono delle feature molto sbandierate e poco o per nulla utilizzate dello SM4.0.




Tenendo ferma l'architettura di RV670 (per cui MC a 256bit), mi piacerebbe fare una simulazione di quel chip di cui sopra (32TU ecc.. :D ).
Son convinto che darebbe del filo da torcere anche a G92...

Quì mi sono perso un pò... è notte fonda quì in Italia... :sofico:

opinione diffusa su questo forum era che i problemi di R600 derivassero dal numero di tmu e di rop's insufficienti. RV770 ha lo stesso numero di rop's di R600 eppure sembra andare decisamente meglio: quindi il problema sembrerebbe non essere imputabile alle rop's.

Facciamo qualche rapido calcolo; nel passaggio da hd3870 ad hd4850 si sono avuti i seguenti incrementi:

da 12400 a 25000 Gtexels (+101,61%)
da 496000 Gflops a 1 Tflops (+101,61%)

secondo i test di HW.fr

a 1680*1050 l'incremento medio è stato del 53,7%
a 1920*1200 del 59,26%
a 1680*1050 con AA4x dell'84,49%
a 1920*1200 con AA4x dell'87,84%

E' evidente che, al di là delle modifiche fatte sulle rbe (che migliorano le prestazioni con AA attivo ma sono ottimizzate soprattutto per l'AA8x mentre nel test è utilizzato il 4x), hd3870, dal test fatto con i filtri, sembrerebbe risultare bandwidth limited; in ofìgni caso, avendo più che raddoppiato il numero di tmu (e lo stesso dicasi per le alu, in modo da non dover risultare limitati dalla capacità di calcolo) non si ha un raddoppio delle prestazioni (anzi nei test senza AA si è ben distanti da questo raddoppio).
Quindi, appare evidente che il limite non era imputabile alle sole tmu, ma solo in minima parte ad esse

yossarian
28-06-2008, 06:52
:eek:

adesso ci devi dire anche come si fa :O


CUDA è stato sviluppato adattando Open64 all'architettura di una gpu. Open64 è un compilatore open source, progettato per le architetture IA64, Opteron e IA32 e quindi in grado di lavorare in maniera eccellente, con le dovute ottimizzazioni, su architeture piuttosto differenti tra loro (vliw la prima, superscalare la seconda, superpipelined la terza). Ovviamente la versione che è in grado di funzionare su ATi è un po' differente da quella progettata per le gpu nVidia. Quindi, non entrando nel merito della veridicità di quel punteggio, la cosa è, comunque, fattibile.

netcrusher
28-06-2008, 08:41
Guardate i vostri modi di porvi fanno solo capire una cosa, siete delle persone poco obiettive e superficiali, tenetevi le vostre gtx280 e non rompete le scatole a chi vuole acquistare una ati, io farò un bel crossfire con due hd 4850 e sinceramente sarò molto soddisfatto delle prestazioni avendo speso almeno 200 euro in meno e sarò lì con le prestazioni quindi fatevi un pò due conti su chi realmente conquisterà terreno adesso, non per caso ci sono una bella parte di utenti del forum che magicamente stanno abbandonando le loro gtx280 appena acquistate......per comprare cosa secondo voi?????

Vi saluto allocchi!!!

gianni1879
28-06-2008, 09:06
No, c'è anche una slide della stessa nVidia.
Come ho spiegato la 9800GTX+ avrà una sua fascia di prezzo ($229) mentre la 9800GTX se la vedrà (vede) con l'HD4850 (entrambe date a $199).
L'HD4870 ($299) è un bel colpo per AMD e la nVidia, secondo me, dovrà correre ai ripari abbassando almeno il costo della GTX260 (attualmente a $399) e, magari, allineando la GTX280 ai nuovi prezzi.

infatti i prezzi ufficiali danno 9800gtx = HD4850, da noi non si sono ancora abbassati ma lo faranno presto.

Per questo scommettevo il suo sedere, già sapendo in partenza la situazione dei prezzi. :) :D

MiKeLezZ
28-06-2008, 10:38
aggiungerei un fatto a cui nessuno ha fatto caso.

Queste eccellenti HD48X0 sono entrambe a 256 bit a dimostrazione che questa configurazione del bus va alla stragrande con margini ancora disponibili e permettendo di abbassare adeguatamente i costi di produzione

A maggior ragione si dimostra come i 512Bit fossero solo uno specchietto per le allodole :rolleyes:il canale dati delle ram delle schede madri amd/intel è 64-bit, che sale a 128 nel dual channel... 512-bit per le gpu è proprio fare gli sboroni, poi con le rambus e gddr5 perde ancora più di senso

Lud von Pipper
28-06-2008, 12:17
ps: il bus da 512 di gt200 non è uno specchietto per le allodole, era stato detto da persone molto competenti che anche g92 in alcune circostanze può essre un po' bandwidth limited, dare a gt200 un bus da 256 avrebbe con ogni probabilità "tolto molto ossigeno" a questa gpu (appunto perché a quanto pare tale gpu va abbinata a gddr3)
Si ma credo sia la scelta più sbagliata per recuperare banda rispetto ad altre soluzioni.
Il bus a 512bit è uno dei talloni d'achille quando si vuole produrre schede per le masse e sia ATI con la 2900 che nVidia hanno dimostrato quanto queste schede siano difficili da rendere molto competitive in termini di prezzo per colpa della complessità intrinseca del PCB.
L'arrivo delle 8800GT e delle 3870 hanno dimostrato come un bus a 256bit sia molto più azzeccato quando si vuole posizionare un prodotto nella fascia 150/300€ e come ogni altro componente informatico, le Gddr5 scenderanno rapidamente di prezzo a mano a mano che la produzione entrerà a regime.
Credo che il bus troppo ampio sia tra le cause dei prezzi improponibili della serie G200 e uno degli ostacoli ad un loro riallineamento, anche dopo un eventuale "die shrink" da parte delle fonderie taiwanesi.
Per ora, se bene implementati i 256bit bastano e avanzano per una scheda ad ampia diffusione.
Per i 512bit c'è ancora tempo.

from_hell
28-06-2008, 12:35
ma no dai non ha senso che la nvidia metta la 9800gtx+ a competere con la 4870! Quest'ultima è molto più potente!

leoneazzurro
28-06-2008, 12:39
Guardate i vostri modi di porvi fanno solo capire una cosa, siete delle persone poco obiettive e superficiali, tenetevi le vostre gtx280 e non rompete le scatole a chi vuole acquistare una ati, io farò un bel crossfire con due hd 4850 e sinceramente sarò molto soddisfatto delle prestazioni avendo speso almeno 200 euro in meno e sarò lì con le prestazioni quindi fatevi un pò due conti su chi realmente conquisterà terreno adesso, non per caso ci sono una bella parte di utenti del forum che magicamente stanno abbandonando le loro gtx280 appena acquistate......per comprare cosa secondo voi?????

Vi saluto allocchi!!!

Sospeso 3 giorni. Avevo detto niente flame, nè da una parte, nè dall'altra.

CoolBits
28-06-2008, 13:05
ma no dai non ha senso che la nvidia metta la 9800gtx+ a competere con la 4870! Quest'ultima è molto più potente!

ma infatti la 9800gtx+ sarà in competizione (adeguatamente prezzata) con la 4850...imho la 9800gtx tempo un mese sparirà dal mercato

yossarian
28-06-2008, 13:09
Si ma credo sia la scelta più sbagliata per recuperare banda rispetto ad altre soluzioni.
Il bus a 512bit è uno dei talloni d'achille quando si vuole produrre schede per le masse e sia ATI con la 2900 che nVidia hanno dimostrato quanto queste schede siano difficili da rendere molto competitive in termini di prezzo per colpa della complessità intrinseca del PCB.
L'arrivo delle 8800GT e delle 3870 hanno dimostrato come un bus a 256bit sia molto più azzeccato quando si vuole posizionare un prodotto nella fascia 150/300€ e come ogni altro componente informatico, le Gddr5 scenderanno rapidamente di prezzo a mano a mano che la produzione entrerà a regime.
Credo che il bus troppo ampio sia tra le cause dei prezzi improponibili della serie G200 e uno degli ostacoli ad un loro riallineamento, anche dopo un eventuale "die shrink" da parte delle fonderie taiwanesi.
Per ora, se bene implementati i 256bit bastano e avanzano per una scheda ad ampia diffusione.
Per i 512bit c'è ancora tempo.

un chip come GT200, con quel MC (incapace, tra l'altro di gestire le gddr5) e un bus a 256 sarebbe stato fortemente penalizzato dalla bandwidth

majorebola
28-06-2008, 13:16
Ragazzi...

qualcuno sa darmi informazioni su come si comportano queste schede in CrossFireX...

Ho una bellissima mobo con chipset 790fx e mi piacerebbe buttarci su un bel CrossFireX...


(ma quanto tirerebbe un quadcrossfireX di HD4870?? questa è una mia curiosità)

Marko91
28-06-2008, 14:57
si può fare di meglio, magari aumentando ancora il numero di gruppi di alu (e stavolta anche di tmu :D )



Ma virtualmente è possibile aumentare a dismisura i SIMD senza incontrare problemi con le latenze?
Perchè se passano con RV870 al pp a 40nm e continuano ad usare l MC a 256bit ci sarà un sacco di spazio disponibile. Magari anche per altri 20 (!!) SIMD, in quanto il passaggio da 40nm a 55nm sembra che porti ad un raddoppio della densità dei transistor, anche se non migliora di molto il consumo energetico.

yossarian
28-06-2008, 15:09
Ma virtualmente è possibile aumentare a dismisura i SIMD senza incontrare problemi con le latenze?
Perchè se passano con RV870 al pp a 40nm e continuano ad usare l MC a 256bit ci sarà un sacco di spazio disponibile. Magari anche per altri 20 (!!) SIMD, in quanto il passaggio da 40nm a 55nm sembra che porti ad un raddoppio della densità dei transistor, anche se non migliora di molto il consumo energetico.

l'architettura deve essere sempre equilibrata; questo è uno dei motivi per cui, passando da 64 a 160 sp (ossia da 320 a 800 alu) è stata modificata l'architettura del MC con conseguente raddoppio dell'ampiezza dell'interfaccia verso l'interno del chip. C'è anche da fare una considerazione: l'architettura vliw è sicuramente meno efficiente, a livello di parallelizzazione dei calcoli su un'architettura capace di autobilanciare i carichi di lavoro (come sono i chip a shader unificati); questo significa che mentre le alu di G8x e di GT2x0 sono quasi sempre occupate, lo stesso può non valere per quelle di R6x0 e RV7x0; questo, apparentemente, rappresenta uno spreco di transistor; nei fatti, un'architettura vliw, però, richiede molti mano transistor per lo shader core (impiega molti meno registri) ed è decisamente meno "affamata" di banda passante. Questo potrebbe implicare che sia ancora sufficiente un bus a 256 bit, ovviamente reingegnerizzato, oppure potrà essere opportuno passare ai 512 bit

ghiltanas
28-06-2008, 16:43
le chicche tecniche di yossarian mi piaciono molto :sofico:
due cose vorrei sapere: architettura vliw x cosa sta? seconda cosa, come si vede (da quali scenari diciamo) che il bandwidth è limitante per una gpu?

leoneazzurro
28-06-2008, 16:56
le chicche tecniche di yossarian mi piaciono molto :sofico:
due cose vorrei sapere: architettura vliw x cosa sta? seconda cosa, come si vede (da quali scenari diciamo) che il bandwidth è limitante per una gpu?

VLIW sta per Very Long Instruction Word, è una tecnica di esecuzione delle istruzioni: in pratica le 5 ALU MADD che compongono una Shader Unit di RV6XX-7XX (che condividono lo stesso scheduler e gli stessi registri perchè in pratica sono una unità sola, anche se vettoriale susperscalare) vengono "alimentate" accorpando le istruzioni da eseguire su ciascuna ALU in una unica "macro-istruzione" (appunto la Very Long Instruction Word) che viene passata in un sol colpo all'unità. L'accorpamento tuttavia non è gestito in automatico, ma è il compilatore che si occupa di gestire "l'assemblaggio" delle istruzioni.

Free Gordon
28-06-2008, 16:59
opinione diffusa su questo forum era che i problemi di R600 derivassero dal numero di tmu e di rop's insufficienti. RV770 ha lo stesso numero di rop's di R600 eppure sembra andare decisamente meglio: quindi il problema sembrerebbe non essere imputabile alle rop's

Non ho mai pensato che il problema di R600 derivasse dalle 16rops, al massimo ho pensato che potevano esserci dei problemi a fare l'AA nello shader core per i giochi che non lo prevedevano (per cui, grosso calo con AA attivo). Cosa che cmq mi sa che un pò è vera...sopratutto per R600, meno per Rv670.



Facciamo qualche rapido calcolo; nel passaggio da hd3870 ad hd4850 si sono avuti i seguenti incrementi:
da 12400 a 25000 Gtexels (+101,61%)
da 496000 Gflops a 1 Tflops (+101,61%)
secondo i test di HW.fr
a 1680*1050 l'incremento medio è stato del 53,7%
a 1920*1200 del 59,26%
a 1680*1050 con AA4x dell'84,49%
a 1920*1200 con AA4x dell'87,84%

Con AA4x, non è il doppio perchè la 4850 è limitata dalla banda..



E' evidente che, al di là delle modifiche fatte sulle rbe (che migliorano le prestazioni con AA attivo ma sono ottimizzate soprattutto per l'AA8x mentre nel test è utilizzato il 4x), hd3870, dal test fatto con i filtri, sembrerebbe risultare bandwidth limited; in ofìgni caso, avendo più che raddoppiato il numero di tmu (e lo stesso dicasi per le alu, in modo da non dover risultare limitati dalla capacità di calcolo) non si ha un raddoppio delle prestazioni (anzi nei test senza AA si è ben distanti da questo raddoppio).
Quindi, appare evidente che il limite non era imputabile alle sole tmu, ma solo in minima parte ad esse

E' la 4850 che è limitata dalla banda, non la 3870 (volevi dire 4850 e hai scritto male, no?)
Infatti se prendi 4870 vs 3870 (che stavolta hanno frequenze simili e nè l'una nè l'altra è limitata dalla banda...), vedi che le prestazioni son raddoppiate per davvero e anche di più! ;)

Io confermerei che il limite MAGGIORE di R600 e derivati, era nelle sole 16 TU... :ciapet: (ovviamente lo shader core doveva seguire, per cui, a 90nm, non ci sarebbero mai state 96 o 128 shader unit -perlomeno per l'idea di GPU che aveva ATI- per mantenere i rapporti ALU/TEX...ed è stato quello il vero problema di ATI, imho).
Nvidia facendo uno shader core più piccolo, con frequenze molto alte, è riuscita a mettere nel chippone più TU (32 o 64 che dir si voglia) e ad avere un vantaggio enorme nel tex-fillrate rispetto ad R600...)

Ora cmq mi è più chiaro il fatto che ATI, già con R600, stava andando in una direzione molto diversa rispetto ad Nvidia, perchè G80 è cmq più grosso di R600, considerando le dimensioni dei die e il chip NVIO...
Quindi le 32TU non ci sono state, anche perchè si sarebbe dovuti andare subito sui 65nm e perchè era già in previsione "un" Rv770 e l'approccio multiGPU..

Marko91
28-06-2008, 17:02
l'architettura deve essere sempre equilibrata; questo è uno dei motivi per cui, passando da 64 a 160 sp (ossia da 320 a 800 alu) è stata modificata l'architettura del MC con conseguente raddoppio dell'ampiezza dell'interfaccia verso l'interno del chip. C'è anche da fare una considerazione: l'architettura vliw è sicuramente meno efficiente, a livello di parallelizzazione dei calcoli su un'architettura capace di autobilanciare i carichi di lavoro (come sono i chip a shader unificati); questo significa che mentre le alu di G8x e di GT2x0 sono quasi sempre occupate, lo stesso può non valere per quelle di R6x0 e RV7x0; questo, apparentemente, rappresenta uno spreco di transistor; nei fatti, un'architettura vliw, però, richiede molti mano transistor per lo shader core (impiega molti meno registri) ed è decisamente meno "affamata" di banda passante. Questo potrebbe implicare che sia ancora sufficiente un bus a 256 bit, ovviamente reingegnerizzato, oppure potrà essere opportuno passare ai 512 bit

Un bus di 512bit su RV870 è l'ultima cosa che mi aspetterei. Dipenderà molto dall'ingresso su mercato di queste soluzioni ma se ATI rispetta i tempi adottati finora potremmo vederlo verso giugno 2009 e per quel periodo credo che saranno disponibili GDDR5 capaci di frequenze molto elevate.
Di sicuro ATI ha parecchie possibilità grazie a questa architettura che si sta dimostrando sempre più solida. Potrebbero scegliere di continuare su questa strada con RV870, cioè singola gpu per fascia performance e doppia gpu per fascia high-end (magari nel medesimo package), oppure seguire la strada del multi-core "pesante". Quindi singolo core nella fascia mainstream, dual-core nella fascia performance e tri/quad-core nella fascia high-end. Nel primo caso potremmo avere un chip simil-RV770 molto spinto, quindi con 256bit di bus, e il doppio o il triplo dei SIMD, nel secondo caso magari un RV770 potenziato e riorganizzato con bus di 128bit.
Però è anche vero che nel primo caso servirebbe un potenziamento anche del bus interno.. 256/4096bit? :D



Oggi hanno annunciato Diablo 3, speriamo sia Dx10.1...

ghiltanas
28-06-2008, 17:03
VLIW sta per Very Long Instruction Word, è una tecnica di esecuzione delle istruzioni: in pratica le 5 ALU MADD che compongono una Shader Unit di RV6XX-7XX (che condividono lo stesso scheduler e gli stessi registri perchè in pratica sono una unità sola, anche se vettoriale susperscalare) vengono "alimentate" accorpando le istruzioni da eseguire su ciascuna ALU in una unica "macro-istruzione" (appunto la Very Long Instruction Word) che viene passata in un sol colpo all'unità. L'accorpamento tuttavia non è gestito in automatico, ma è il compilatore che si occupa di gestire "l'assemblaggio" delle istruzioni.

grazie della spiegazione ;) , per il secondo punto invece?

okorop
28-06-2008, 17:41
Oggi hanno annunciato Diablo 3, speriamo sia Dx10.1...

:asd: lòa blizzard si è messa d'accordo con ati quindi quasi sicuramente lo sara :sofico:

s12a
28-06-2008, 18:17
Una domanda, come potenza bruta di calcolo, a che livello e` questa scheda video, ossia quanti GFLOPs riesce a fare?
Considerato che per certi tipi di calcoli le GPU attuali hanno potenze spropositate rispetto alle CPU e che il futuro del calcolo assistito dalla GPU e` molto roseo, sarebbe interessante conoscere questo dato (che almeno su Wikipedia, e` presente per tutte le schede video prodotte da Nvidia).

Marko91
28-06-2008, 18:31
Una domanda, come potenza bruta di calcolo, a che livello e` questa scheda video, ossia quanti GFLOPs riesce a fare?
Considerato che per certi tipi di calcoli le GPU attuali hanno potenze spropositate rispetto alle CPU e che il futuro del calcolo assistito dalla GPU e` molto roseo, sarebbe interessante conoscere questo dato (che almeno su Wikipedia, e` presente per tutte le schede video prodotte da Nvidia).

1000 Gigaflops per la HD4850
1200 Gigaflops per la HD4870

:)

s12a
28-06-2008, 18:33
1000 Gigaflops per la HD4850
1200 Gigaflops per la HD4870

:)

Grazie. Dove hai trovato questo dato (mi sembra un po' troppo "preciso" pero`)? Mi chiedevo se ci fosse anche per le altre schede Ati.

Ma quindi la capacita` di calcolo della HD4850 e` maggiore di quella della GTX280 (dichiarata per 933 GFLOPs massimi teorici)? Certo che con un cluster di simili GPU sarebbero possibili potenze di calcolo spropositate con relativamente poco costo.

Marko91
28-06-2008, 18:57
Grazie. Dove hai trovato questo dato (mi sembra un po' troppo "preciso" pero`)? Mi chiedevo se ci fosse anche per le altre schede Ati.

Ma quindi la capacita` di calcolo della HD4850 e` maggiore di quella della GTX280 (dichiarata per 933 GFLOPs massimi teorici)? Certo che con un cluster di simili GPU sarebbero possibili potenze di calcolo spropositate con relativamente poco costo.

RV770 ha 10 SIMD da 16 Shader Unit (e 4 TMU). Ogni Shader Unit può eseguire 5 istruzioni di tipo maad (ognuna equivale a 2 flops) per ciclo di clock. Quindi RV770 può eseguire 1,6 Kflops ad ogni ciclo di clock. Moltiplichi questo dato per la frequenza della scheda (625Mhz per la HD4850 e 750Mhz per la HD4870) e ottieni la potenza di calcolo teorica di questa scheda.
La GTX280 ha invece 10 Shader Cluster ognuno contenente 24 ALU capaci di 1 istruzione di tipo maad (equivale a 2 flops) + 1 di tipo mul (equivale a 1 flops) per ciclo di clock.
Perciò può eseguire 720 flops per ciclo di clock. Gli shader della GTX280 lavorano a 1296Mhz -> 933 Gigaflops.
Tutto ciò in precisione singola, in precisione doppia i numeri sono sensibilmenti più bassi, pari a 78 Gigaflops per la GTX280 e intorno ai 200 Gigaflops per RV770.
La potenza di calcolo di queste schede permette di creare workstation e super-computer di laboratorio con una spesa irrisoria sia in termini economici che energetici. Però il degrado prestazionale in doppia precisione è molto grosso, e ne inficia l'utilizzo (per ora) in certi ambiti dove è molto richiesto.

s12a
28-06-2008, 19:03
Grazie per la spiegazione.
Allora se i valori sono cosi` precisi non e` per caso, magari alla Ati si sono dati internamente quegli obiettivi di potenza quando hanno progettato le schede. A proposito, dove si puo` vedere che tipo di istruzioni puo` eseguire una shader unit o simile e a quanti FLOPs equivalgono? Nelle solite schede da Wikipedia non mi sembra sia menzionato cio`.

Nitroz
28-06-2008, 19:25
Buongiorno a tutti sono nuovo di questo forum, volevo acquistare 2 ati radeon hd4870 disponibili tra qualche giorno e fare un bel crossfire, ma dite che mi conviene aspettare agosto e prendere la ati radeon hd4870x2?

Non e' un problema di soldi, quindi volevo sapere da voi che ne sapete piu' di me, se e' piu' potente un crossfire di hd4870 o una hd 4870x2.

Grazie in anticipo per le risposte.

yossarian
28-06-2008, 19:32
Non ho mai pensato che il problema di R600 derivasse dalle 16rops, al massimo ho pensato che potevano esserci dei problemi a fare l'AA nello shader core per i giochi che non lo prevedevano (per cui, grosso calo con AA attivo). Cosa che cmq mi sa che un pò è vera...sopratutto per R600, meno per Rv670.



se è vera per R600 dovrebbe esserlo anche per RV6x8, dato che né il numero né l'architettura delle tmu sono cambiati e comunque le tu non c'entrano nulla con il circuito di resolve dell'AA aggiunto su RV6x0.



Con AA4x, non è il doppio perchè la 4850 è limitata dalla banda..


anche a 1680*1050? E allora perchè salendo a 1920*1200 il divario non si riduce?



E' la 4850 che è limitata dalla banda, non la 3870 (volevi dire 4850 e hai scritto male, no?)
Infatti se prendi 4870 vs 3870 (che stavolta hanno frequenze simili e nè l'una nè l'altra è limitata dalla banda...), vedi che le prestazioni son raddoppiate per davvero e anche di più! ;)



no, intendevo proprio la hd3870 che è bandwidth limited.
Infatti, paragonandola con la hd4870 (che non dovrebbe essere bandwidth limited), il guadagno dovrebbe attestarsi, nella peggiore delle ipotesi, sul 142% circa, ovvero un 55% in più di quanto fatto registrare da hd4850



Io confermerei che il limite MAGGIORE di R600 e derivati, era nelle sole 16 TU... :ciapet: (ovviamente lo shader core doveva seguire, per cui, a 90nm, non ci sarebbero mai state 96 o 128 shader unit -perlomeno per l'idea di GPU che aveva ATI- per mantenere i rapporti ALU/TEX...ed è stato quello il vero problema di ATI, imho).



continuo a non esserne così sicuro :D




Nvidia facendo uno shader core più piccolo, con frequenze molto alte, è riuscita a mettere nel chippone più TU (32 o 64 che dir si voglia) e ad avere un vantaggio enorme nel tex-fillrate rispetto ad R600...)


lo shader core di nVidia ha meno sp ma non è affatto più piccolo. Ogni alu di G80, con i suoi registri e i circuiti di trasmissione e controllo, occupa circa 2,5/3 volte lo spazio di una alu di R600. Il grosso vantaggio Nvidia lo ha nel filtraggio delle texture, ma un'operazione di texturing non si limita al solo filtraggio, ma necessità di altre operazioni (texture sampling, texture fetch) per cui R600 presenta più ottimizzazioni rispetto a G80 che gli permettono di mascherare meglio le latenze (texture cache fully associative, gran numero di texture sampling unit).


Un bus di 512bit su RV870 è l'ultima cosa che mi aspetterei. Dipenderà molto dall'ingresso su mercato di queste soluzioni ma se ATI rispetta i tempi adottati finora potremmo vederlo verso giugno 2009 e per quel periodo credo che saranno disponibili GDDR5 capaci di frequenze molto elevate.
Di sicuro ATI ha parecchie possibilità grazie a questa architettura che si sta dimostrando sempre più solida. Potrebbero scegliere di continuare su questa strada con RV870, cioè singola gpu per fascia performance e doppia gpu per fascia high-end (magari nel medesimo package), oppure seguire la strada del multi-core "pesante". Quindi singolo core nella fascia mainstream, dual-core nella fascia performance e tri/quad-core nella fascia high-end. Nel primo caso potremmo avere un chip simil-RV770 molto spinto, quindi con 256bit di bus, e il doppio o il triplo dei SIMD, nel secondo caso magari un RV770 potenziato e riorganizzato con bus di 128bit.
Però è anche vero che nel primo caso servirebbe un potenziamento anche del bus interno.. 256/4096bit? :D



diciamo che l'approccio multicore o multigpu è pressoche scontato.

grazie della spiegazione ;) , per il secondo punto invece?

quando all'aumentare della risoluzione e/o con l'adozione dei filtri si ha, da una determinata risoluzione in poi, un crollo delle prestazioni, allora si è bandwidth limited o frame buffer limited; qualora il quantitativo di vram è sufficiente per quella risoluzione e con quella tipologia e qualità di filtraggio, allora si è certamente bandwidth limited

killer978
28-06-2008, 19:35
Nella recensione di xbitlabs la 4850 in idle consuma 41W, mentre la 3870 consuma solo 19W

http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_14.html#sect0

Mi chiedo se è possibile la colpa sia dei driver che non attivano correttamente il Powerplay, oppure se effettivamente il consumo delle 4850 in idle è quello.

Capisco bene il load, ma 20W in più in idle sono tanti (considerato che il transistor count non è aumentato neppure del 50%), e xbitlabs sono gli unici per cui mi fida ciecamente delle misurazioni.

Nelle slide di AMD, ne ho viste diverse ma ora non ricordo dove, mostra i consumi in idle e full di entrambe le schede, nell'immagine c'era un < 10W x entrambe, quindi credo che i consumi che si vedono oggi tra le varie recensioni siano fuorvianti!!!

Nessuno è riuscito a far andare il powerplay e le schede testate restano fisse a frequenze e voltaggi 3D. Io direi di aspettare i prox driver, sto giro il powerplay è gestito tramite control panel, quindi driver/software, non + bios come prima

Iantikas
28-06-2008, 19:46
RV770 ha 10 SIMD da 16 Shader Unit (e 4 TMU). Ogni Shader Unit può eseguire 5 istruzioni di tipo maad (ognuna equivale a 2 flops) per ciclo di clock. Quindi RV770 può eseguire 1,6 Kflops ad ogni ciclo di clock. Moltiplichi questo dato per la frequenza della scheda (625Mhz per la HD4850 e 750Mhz per la HD4870) e ottieni la potenza di calcolo teorica di questa scheda.
La GTX280 ha invece 10 Shader Cluster ognuno contenente 24 ALU capaci di 1 istruzione di tipo maad (equivale a 2 flops) + 1 di tipo mul (equivale a 1 flops) per ciclo di clock.
Perciò può eseguire 720 flops per ciclo di clock. Gli shader della GTX280 lavorano a 1296Mhz -> 933 Gigaflops.
Tutto ciò in precisione singola, in precisione doppia i numeri sono sensibilmenti più bassi, pari a 78 Gigaflops per la GTX280 e intorno ai 200 Gigaflops per RV770.
La potenza di calcolo di queste schede permette di creare workstation e super-computer di laboratorio con una spesa irrisoria sia in termini economici che energetici. Però il degrado prestazionale in doppia precisione è molto grosso, e ne inficia l'utilizzo (per ora) in certi ambiti dove è molto richiesto.

in DP mi sembra siano 90 e 240 rispettivamente x nvidia e ati...ciao

s12a
28-06-2008, 19:53
in DP mi sembra siano 90 e 240 rispettivamente x nvidia e ati...ciao

Come mai questa differenza?
(fra parentesi una PS3 nei calcoli a doppia precisione arriva a poco piu` di 100 GFLOPs, se ricordo bene)

yossarian
28-06-2008, 20:06
in DP mi sembra siano 90 e 240 rispettivamente x nvidia e ati...ciao

quasi 78 per GT200 e 200 per RV770 con clock versione hd4850 (240 per la versione con clock della hd4870)

Foglia Morta
28-06-2008, 20:12
opinione diffusa su questo forum era che i problemi di R600 derivassero dal numero di tmu e di rop's insufficienti. RV770 ha lo stesso numero di rop's di R600 eppure sembra andare decisamente meglio: quindi il problema sembrerebbe non essere imputabile alle rop's.

Facciamo qualche rapido calcolo; nel passaggio da hd3870 ad hd4850 si sono avuti i seguenti incrementi:

da 12400 a 25000 Gtexels (+101,61%)
da 496000 Gflops a 1 Tflops (+101,61%)

secondo i test di HW.fr

a 1680*1050 l'incremento medio è stato del 53,7%
a 1920*1200 del 59,26%
a 1680*1050 con AA4x dell'84,49%
a 1920*1200 con AA4x dell'87,84%

E' evidente che, al di là delle modifiche fatte sulle rbe (che migliorano le prestazioni con AA attivo ma sono ottimizzate soprattutto per l'AA8x mentre nel test è utilizzato il 4x), hd3870, dal test fatto con i filtri, sembrerebbe risultare bandwidth limited; in ofìgni caso, avendo più che raddoppiato il numero di tmu (e lo stesso dicasi per le alu, in modo da non dover risultare limitati dalla capacità di calcolo) non si ha un raddoppio delle prestazioni (anzi nei test senza AA si è ben distanti da questo raddoppio).
Quindi, appare evidente che il limite non era imputabile alle sole tmu, ma solo in minima parte ad esse

Gli interpolatori che funzione hanno ?

RV770 ne dovrebbe avere 32 , in una qualche maniera dovrebbero essere ricollegabili al numero di tmu ( 40 )

avevo letto che RV770 avrebbe dovuto avere 32 tmu , poi le altre 8 sono arrivate grazie al fatto che l'architettura costava poco in termini di mm2 . Sono state aumentate le tmu ma non gli interpolatori , che non so cosa siano , magari è quello uno dei colli di bottiglia di RV770 ora ?

32 x 625 curiosamente salta fuori quel 60% in più circa rispetto alla 3870 a 1920x1200

MenageZero
28-06-2008, 20:31
Beh, in un certo senso Lud non ha tutti i torti... La banda verso l'esterno non è tutto, se non curi anche la banda del memory controller comunque avrai un collo di bottiglia: che senso ha avere 140GB/s di banda verso la memoria se quando poi i dati tornano nella gpu per essere processati si trovano strozzati da una banda che è ampia quasi un quarto? Si rischia di bruciare bandwidth inutilmente. ;)
chiaro, ma io mi riferivo seplicemente ai bit dati dell'interfaccia gpu/vram, in quanto lud di quelli parlava

non mi sono fatto i conti su gt200 e non prendevo proprio in esame se abbia o meno una forte "strozzatura" a monte dle mc;

ma sei sicuro che a monte del mc i colli di bottiglia siano tali da ridurre la badwidth disponibile a circa 1/4 di quella "esterna" ? considerato che pare ababstanza assodato che a gt220 abbia giovato anche il bus da 512la conseguente plausibile bandwidth in più, una riduzione ad 1/4 sembrerebbe tanto e "discordante"
:wtf:


Si ma credo sia la scelta più sbagliata per recuperare banda rispetto ad altre soluzioni.
Il bus a 512bit è uno dei talloni d'achille quando si vuole produrre schede per le masse e sia ATI con la 2900 che nVidia hanno dimostrato quanto queste schede siano difficili da rendere molto competitive in termini di prezzo per colpa della complessità intrinseca del PCB.
L'arrivo delle 8800GT e delle 3870 hanno dimostrato come un bus a 256bit sia molto più azzeccato quando si vuole posizionare un prodotto nella fascia 150/300€ e come ogni altro componente informatico, le Gddr5 scenderanno rapidamente di prezzo a mano a mano che la produzione entrerà a regime.
Credo che il bus troppo ampio sia tra le cause dei prezzi improponibili della serie G200 e uno degli ostacoli ad un loro riallineamento, anche dopo un eventuale "die shrink" da parte delle fonderie taiwanesi.
Per ora, se bene implementati i 256bit bastano e avanzano per una scheda ad ampia diffusione.
Per i 512bit c'è ancora tempo.

non era assolutamente mia intenzione distinguere sulla strada giusta o sbagliata :D
(inoltre, infatti, almeno per il momento, il gt200 nv non ce l'ha mica messo nella fascia di prezzo che citi)

principalmente io volevo solo richiamare il concetto che al gt200 quei 512 bit (o almeno una parte di essi maggiore di 256 - e forse con meno di 512 non potevano arrivare ad 1GB di vram, ma non sono sicuro) di bus servono e non sono slo un appiglio per il marketing, concetto il quale

un chip come GT200, con quel MC (incapace, tra l'altro di gestire le gddr5) e un bus a 256 sarebbe stato fortemente penalizzato dalla bandwidth

infatti non era mica una mia "pensata" :sofico:

yossarian
28-06-2008, 20:37
Gli interpolatori che funzione hanno ?

RV770 ne dovrebbe avere 32 , in una qualche maniera dovrebbero essere ricollegabili al numero di tmu ( 40 )

avevo letto che RV770 avrebbe dovuto avere 32 tmu , poi le altre 8 sono arrivate grazie al fatto che l'architettura costava poco in termini di mm2 . Sono state aumentate le tmu ma non gli interpolatori , che non so cosa siano , magari è quello uno dei colli di bottiglia di RV770 ora ?

32 x 625 curiosamente salta fuori quel 60% in più circa rispetto alla 3870 a 1920x1200

hanno il compito di interpolare i valori relativi alle primitive: gradienti dei vari colori e della luminanza, coordinate delle relative texture, distanza dal punto di osservazione (asse z), ecc.

Free Gordon
28-06-2008, 21:06
se è vera per R600 dovrebbe esserlo anche per RV6x8, dato che né il numero né l'architettura delle tmu sono cambiati e comunque le tu non c'entrano nulla con il circuito di resolve dell'AA aggiunto su RV6x0.

Chi ha mai parlato di TU? :D
Io parlavo di Rops.

Come ho detto sopra, non ho mai pensato che le rops fossero un grosso problema per R600 (a parte il fatto che non permettevano di fare AA in modo classico),
ma 16 TMU sì...perchè son pochissime in confronto a G80 e texture, sempre più pesanti, sono ancora molto usate nei giochi (e sempre lo saranno probabilmente).


se è vera per R600 dovrebbe esserlo anche per RV6x8,
infatti anche Rv670 perde assai con l'AA fino al 4x..
Cmq mi sembra che perda meno che R600...non so perchè ma probabilmente qualcosina è cambiato dall'uno all'altro, no? :D



anche a 1680*1050? E allora perchè salendo a 1920*1200 il divario non si riduce?

Questa non l'ho capita.. :(



no, intendevo proprio la hd3870 che è bandwidth limited.

Ma scusa eh...se la 3870 con 72GB/s di banda è bdw-limited, allora la HD4850 (che ne ha 64..) cos'è?!?!?! :D
Hypermega maxi bandwith limited...per quello performa così "poco" :D in più rispetto alla 3870...mica perchè l'incremento di TU non abbia giovato il dovuto...



Infatti, paragonandola con la hd4870 (che non dovrebbe essere bandwidth limited), il guadagno dovrebbe attestarsi, nella peggiore delle ipotesi, sul 142% circa, ovvero un 55% in più di quanto fatto registrare da hd4850

Torno a non capire...
Per me il fatto che 3870 e 4870 abbiano distacchi "corretti" (perchè la 8470 và ben più del doppio della 3870), è solo dovuto al fatto che tutti e due i chip si esprimono al massimo potenziale, senza colli di bottiglia verso la memoria..



lo shader core di nVidia ha meno sp ma non è affatto più piccolo. Ogni alu di G80, con i suoi registri e i circuiti di trasmissione e controllo, occupa circa 2,5/3 volte lo spazio di una alu di R600. Il grosso vantaggio Nvidia lo ha nel filtraggio delle texture, ma un'operazione di texturing non si limita al solo filtraggio, ma necessità di altre operazioni (texture sampling, texture fetch) per cui R600 presenta più ottimizzazioni rispetto a G80 che gli permettono di mascherare meglio le latenze (texture cache fully associative, gran numero di texture sampling unit).

Come fa allora ad andare così veloce (1.5ghz)...e a consumare così poco? :eek:
La 8800GTX consuma abbastanza meno della 2900XT...pur essendo G80 nel complesso un bel pò più grosso... (vebbè che ATI per la 2900 ha usato un processo produttivo davvero scandaloso... :sofico: )

Pensavo che il vantaggio del chip G80, fosse proprio nel fatto che il suo shader core poteva essere più piccolo, meno dispendioso energeticamente e per cui viaggiare a frequenze più alte!

A.L.M.
28-06-2008, 21:13
chiaro, ma io mi riferivo seplicemente ai bit dati dell'interfaccia gpu/vram, in quanto lud di quelli parlava

non mi sono fatto i conti su gt200 e non prendevo proprio in esame se abbia o meno una forte "strozzatura" a monte dle mc;

ma sei sicuro che a monte del mc i colli di bottiglia siano tali da ridurre la badwidth disponibile a circa 1/4 di quella "esterna" ? considerato che pare ababstanza assodato che a gt220 abbia giovato anche il bus da 512la conseguente plausibile bandwidth in più, una riduzione ad 1/4 sembrerebbe tanto e "discordante"
:wtf:

(512bit*602MHz, dato che il MC è clockato come il core, non dovrebbe essere nella parte del chip dedicata agli shaders)/8000=38.5GB/s, almeno stando ai dati trapelati per G200 in versione GTX280

(448bit*576MHz)/8000=32.2GB/s, per GTX260

Il problema sta nel fatto che man mano che la banda vs la vram aumenta, più forte diviene il collo di bottiglia interno, mantenendo un ampiezza del MC pari a quella del bus esterno. Naturalmente è meglio avere un bus ampio anche se strozzato a livello di MC che strozzato anche vs le memorie. :D
Però può portare man mano a sfruttare sempre meno i vantaggi derivanti da una banda "esterna" enorme.
G92 imho pativa meno questo effetto, essendo già strozzato verso le memorie (poco più di
Pur non usando tutta la banda a disposizione, mi pare logico ipotizzare che una quantità di dati almeno pari alla metà (per usare una stima molto conservativa) di quella che transita vs le memorie "giri" all'interno del chip attraverso il MC...
E' uno dei motivi per cui in ATI iniziarono ad usare il ringbus con diversa ampiezza (con l'interna doppia che l'esterna).
Con RV770 hanno portato all'estremo quel principio con una banda interna 8 volte più ampia dell'esterna.

A.L.M.
28-06-2008, 21:17
Come fa allora ad andare così veloce (1.5ghz)...e a consumare così poco? :eek:
La 8800GTX consuma abbastanza meno della 2900XT...pur essendo G80 nel complesso un bel pò più grosso... (vebbè che ATI per la 2900 ha usato un processo produttivo davvero scandaloso... :sofico: )

Credo che in R600 il vampiro di corrente fosse il ringbus a 512bit. Lo shader core di R600 e derivati è molto più piccolo di G80 & Co., ed è anche per quello che in ATI sono riusciti a raddoppiare la potenza di calcolo incrementando di poco la die size, mentre in G200 il die size è raddoppiato (o forse anche più, visto che bisognerebbe calcolare pure il chip NVIO). ;)

MenageZero
28-06-2008, 21:17
CUDA è stato sviluppato adattando Open64 all'architettura di una gpu. Open64 è un compilatore open source, progettato per le architetture IA64, Opteron e IA32 e quindi in grado di lavorare in maniera eccellente, con le dovute ottimizzazioni, su architeture piuttosto differenti tra loro (vliw la prima, superscalare la seconda, superpipelined la terza). Ovviamente la versione che è in grado di funzionare su ATi è un po' differente da quella progettata per le gpu nVidia. Quindi, non entrando nel merito della veridicità di quel punteggio, la cosa è, comunque, fattibile.

ammesso e non concesso che la seguente "ricostruzione" sia un'approssimazione vagamente decente, ovvero che sotto il nome di cuda vadano, tra l'altro, delle librerie che sono usate dalla nuova versione di physix per fare calcoli con le gpu nv,

quindi un possessore di radeon per far girare physix sulla sua gpu dovrebbe reimplementare le lib cuda (nonché adattare open64 alle gpu ati per crearsi queste sue lib) ovviamente lascindo invariate le api usate da physix e poi sostiture le sue lib a quelle by nv ?

ci sono per caso prospettive anche per vie "traverse" e "facili" ?

:D

si può fare di meglio, magari aumentando ancora il numero di gruppi di alu (e stavolta anche di tmu :D )
mmm ... non è che tirate fuori a sorpresa un rv870 (o rv7x0 con x>7) verso natale o inizio anno nuovo ? :D

speculazioni "premature" apparte,
intendi un aumento del num. di simd o del num. di "stream processing unit" per ogni simd ?
per le tmu, intendi un aumento del numero per ogni simd ?
il tutto varaindo anche il rapporto totale spu(alu)/tmu o meno ?

edit:
va fuori dagli argomenti specifici discussi nelle ultime pagine, ma visto che sai tutto sulle gpu colgo l'occasione:

quella feature così descritta nell'articolo sulla gtx280
"...
I 10 blocchi identici sono i TPC, all'interno dei quali sono chiaramente visibili le 3 SM, ciascuna dotata di 8 SP. Per ogni SM sono associate una unità di elaborazione full precision, indicata in colore verde nella parte superiore dell'SM, e due texture units distinguibili dal colore marrone
..."
a cosa serve esattamente ?
in rv770 c'è l'implementazione di qualcosa di analogo e/o con gli stessi scopi ?

hai idea di che sviluppi ed eventualmente tempi dobbiamo attenderci relativamente a vedere havok usare le gpu ati ?

killer978
28-06-2008, 21:28
Se torniamo un po indietro a 1/2 anni fa, i 550€ della GTX280 non sarebbe stato x nessuno un prezzo spropositato!! erano anni ormai che le top di gamma appena uscite costavano tra i 500/600€ :muro: anche ATI aveva la stessa politica, mi ricordo la X1900XTX a 590€ andavano come il pane :asd:

La prima scheda a spezzare questo trend è stata la X2900XT uscita sotto tono e messa in vendita a 350€ pur costando una cifra x produrla, poi con le HD38xx si è messo in moto un meccanismo "magico" :asd: grazie a queste scheduzze tantissime persone hanno potuto comprare schede al top a meno di 200€, pensate a quante 8800GT si sono vendute ma anche le 38xx non scherzano, in questo marasma ATI ha messo indubbiamente + fieno in cascina pur avendo prezzi stracciati, l'RV670 ha un die davvero piccolo, quindi costi davvero contenuti, mentre il G92 di Nvidia è bello grosso meno chip x wafer meno guadagni :D adesso ATI pur avendo creato un vero gioiello ci ha fatto il regalo di venderlo a prezzi da supermercato, sto giro Nvidia non potrà abbassare + di tanto i prezzi, il GT200 è enorme ed ha un Bus a 512bit = PCB + complesso, punteranno molto sul G92+ a 55nm :D

Speriamo che le varie 9600/6600, 2600/8600 & Co. siano un lontano ricordo, lmagari fascia enty level ;)

killer978
28-06-2008, 21:34
Credo che in R600 il vampiro di corrente fosse il ringbus a 512bit. Lo shader core di R600 e derivati è molto più piccolo di G80 & Co., ed è anche per quello che in ATI sono riusciti a raddoppiare la potenza di calcolo incrementando di poco la die size, mentre in G200 il die size è raddoppiato (o forse anche più, visto che bisognerebbe calcolare pure il chip NVIO). ;)

Veramente in R600 il ring bus era a 1024bit ;)

A.L.M.
28-06-2008, 21:35
Se torniamo un po indietro a 1/2 anni fa, i 550€ della GTX280 non sarebbe stato x nessuno un prezzo spropositato!! erano anni ormai che le top di gamma appena uscite costavano tra i 500/600€ :muro: anche ATI aveva la stessa politica, mi ricordo la X1900XTX a 590€ andavano come il pane :asd:

La prima scheda a spezzare questo trend è stata la X2900XT uscita sotto tono e messa in vendita a 350€ pur costando una cifra x produrla, poi con le HD38xx si è messo in moto un meccanismo "magico" :asd: grazie a queste scheduzze tantissime persone hanno potuto comprare schede al top a meno di 200€, pensate a quante 8800GT si sono vendute ma anche le 38xx non scherzano, in questo marasma ATI ha messo indubbiamente + fieno in cascina pur avendo prezzi stracciati, l'RV670 ha un die davvero piccolo, quindi costi davvero contenuti, mentre il G92 di Nvidia è bello grosso meno chip x wafer meno guadagni :D adesso ATI pur avendo creato un vero gioiello ci ha fatto il regalo di venderlo a prezzi da supermercato, sto giro Nvidia non potrà abbassare + di tanto i prezzi, il GT200 è enorme ed ha un Bus a 512bit = PCB + complesso, punteranno molto sul G92+ a 55nm :D

Speriamo che le varie 9600/6600, 2600/8600 & Co. siano un lontano ricordo, lmagari fascia enty level ;)

Sono d'accordo. La situazione del mercato vga è ottima, il prossimo step è il mercato della grafica discreta su notebook.
Voglio una HD4850 a 45nm su un 15.4". :O

Revenge81
28-06-2008, 21:37
imho ati deve cercare anche di riprendersi qualche partenership, che magari in tanti casi possono avere solo uno scopo commerciale, però nn sempre, possono essere utili a mio avviso, anche per sviluppare driver + efficienti e per avere un'immagine + forte ;)

indubbiamente è così, ma quando fai buoni prodotti le partnership vengono da sole(come gainward, "compagna" storica d nvidia) e mi pare ke con queste skede ati sia ritornata alla ribalta in termini d mercato perkè finalmente ha tirato fuori delle skede ke x fascia d prezzo nn hanno eguali!!!

Se consideri pure il fatto ke in qualke test la 4870 sta davanti alla gtx280 pur costando oltre la metà...(online l'ho trovata a 230/240) allora è palese la bontà del progetto...

Inoltre c'è un altro fattore (ke è tra le cose ke mi son sempre piaciute d ATI) ed è l'implementazione in HW d funzionalità aggiuntive come il tessellation(se nn erro) comparso con l'R600 od il buon vekkio trueform ke quando implementato i gioki avevano tutt'altro aspetto(uno si tutti ,rtc wolfstein... sbav).Quindi se ati torna alla ribalta saranno sempre + i gioki a supportare tali tecnologie, il tutto a NOSTRO VANTAGGIO.

Nvidia, almeno a mio avviso, ha sempre badato al lato "commerciale"(vi faccio notare ke ho una 8800gts 512MB, così evito flame inutili) nn implementando mai tecnologie NUOVE(almeno negli ultimi 10 anni) per nn parlare, poi, del fatto ke stia boicottando ati per il supporto alle direct x 10.1(assassin's creed su tutti),imho un vero skifo.....

ghiltanas
28-06-2008, 21:41
quando all'aumentare della risoluzione e/o con l'adozione dei filtri si ha, da una determinata risoluzione in poi, un crollo delle prestazioni, allora si è bandwidth limited o frame buffer limited; qualora il quantitativo di vram è sufficiente per quella risoluzione e con quella tipologia e qualità di filtraggio, allora si è certamente bandwidth limited

grazie ;)


edit: un momento, appena sufficiente, o sbaglio?:confused:

ghiltanas
28-06-2008, 21:45
indubbiamente è così, ma quando fai buoni prodotti le partnership vengono da sole(come gainward, "compagna" storica d nvidia) e mi pare ke con queste skede ati sia ritornata alla ribalta in termini d mercato perkè finalmente ha tirato fuori delle skede ke x fascia d prezzo nn hanno eguali!!!

Se consideri pure il fatto ke in qualke test la 4870 sta davanti alla gtx280 pur costando oltre la metà...(online l'ho trovata a 230/240) allora è palese la bontà del progetto...

Inoltre c'è un altro fattore (ke è tra le cose ke mi son sempre piaciute d ATI) ed è l'implementazione in HW d funzionalità aggiuntive come il tessellation(se nn erro) comparso con l'R600 od il buon vekkio trueform ke quando implementato i gioki avevano tutt'altro aspetto(uno si tutti ,rtc wolfstein... sbav).Quindi se ati torna alla ribalta saranno sempre + i gioki a supportare tali tecnologie, il tutto a NOSTRO VANTAGGIO.

Nvidia, almeno a mio avviso, ha sempre badato al lato "commerciale"(vi faccio notare ke ho una 8800gts 512MB, così evito flame inutili) nn implementando mai tecnologie NUOVE(almeno negli ultimi 10 anni) per nn parlare, poi, del fatto ke stia boicottando ati per il supporto alle direct x 10.1(assassin's creed su tutti),imho un vero skifo.....

quest'ultimo pezzo è molto equivocabile e rischia veramente di scatenare flame inutili, nn scordiamoci che la nvidia è stata la prima a realizzare una gpu dx10 ad esempio, con g80 ha craeto un' architettura incredibile che a lungo ha messo in crisi ati.
Per il disc ac io la vedo molto una montatura, nn credo alla storia che nvidia abbia boicattato ati per il supporto dx10.1.

killer978
28-06-2008, 21:47
indubbiamente è così, ma quando fai buoni prodotti le partnership vengono da sole(come gainward, "compagna" storica d nvidia) e mi pare ke con queste skede ati sia ritornata alla ribalta in termini d mercato perkè finalmente ha tirato fuori delle skede ke x fascia d prezzo nn hanno eguali!!!

Se consideri pure il fatto ke in qualke test la 4870 sta davanti alla gtx280 pur costando oltre la metà...(online l'ho trovata a 230/240) allora è palese la bontà del progetto...

Inoltre c'è un altro fattore (ke è tra le cose ke mi son sempre piaciute d ATI) ed è l'implementazione in HW d funzionalità aggiuntive come il tessellation(se nn erro) comparso con l'R600 od il buon vekkio trueform ke quando implementato i gioki avevano tutt'altro aspetto(uno si tutti ,rtc wolfstein... sbav).Quindi se ati torna alla ribalta saranno sempre + i gioki a supportare tali tecnologie, il tutto a NOSTRO VANTAGGIO.

Nvidia, almeno a mio avviso, ha sempre badato al lato "commerciale"(vi faccio notare ke ho una 8800gts 512MB, così evito flame inutili) nn implementando mai tecnologie NUOVE(almeno negli ultimi 10 anni) per nn parlare, poi, del fatto ke stia boicottando ati per il supporto alle direct x 10.1(assassin's creed su tutti),imho un vero skifo.....

ATI dovrebbe puntare ad accordi con softwarehouse di grosso calibro, Nvidia in questo campo è avanti anni luce, se i giochi usciti ultimamente erano meno Nvidia oriented :asd: la differenza nei bech sarebbe stata moooooolto inferiore tra le varie 8800GT/GTS e le HD38xx!!! anche RV670 è un bel mooostro ma i giochi che lo sfruttano bene sono pochi, i suoi 64SPx5 nella maggior parte dei giochi restano 64 contro i 128nvidia, la differenza adesso è minore 160x5sp contro i 240sp Nvidia quindi tiene botta in mooolti titoli, i pochi giochi che sfruttano bene la tecnica ATI danno un boost enorme, vedasi Bioshock :eek:

ghiltanas
28-06-2008, 21:47
Sono d'accordo. La situazione del mercato vga è ottima, il prossimo step è il mercato della grafica discreta su notebook.
Voglio una HD4850 a 45nm su un 15.4". :O

se migliorasse abbastanza anche questo aspetto il gioco su pc subirebbe un'impennata incredibile imho ;)

Revenge81
28-06-2008, 21:59
Se torniamo un po indietro a 1/2 anni fa, i 550€ della GTX280 non sarebbe stato x nessuno un prezzo spropositato!! erano anni ormai che le top di gamma appena uscite costavano tra i 500/600€ :muro: anche ATI aveva la stessa politica, mi ricordo la X1900XTX a 590€ andavano come il pane :asd:

La prima scheda a spezzare questo trend è stata la X2900XT uscita sotto tono e messa in vendita a 350€ pur costando una cifra x produrla, poi con le HD38xx si è messo in moto un meccanismo "magico" :asd: grazie a queste scheduzze tantissime persone hanno potuto comprare schede al top a meno di 200€, pensate a quante 8800GT si sono vendute ma anche le 38xx non scherzano, in questo marasma ATI ha messo indubbiamente + fieno in cascina pur avendo prezzi stracciati, l'RV670 ha un die davvero piccolo, quindi costi davvero contenuti, mentre il G92 di Nvidia è bello grosso meno chip x wafer meno guadagni :D adesso ATI pur avendo creato un vero gioiello ci ha fatto il regalo di venderlo a prezzi da supermercato, sto giro Nvidia non potrà abbassare + di tanto i prezzi, il GT200 è enorme ed ha un Bus a 512bit = PCB + complesso, punteranno molto sul G92+ a 55nm :D

Speriamo che le varie 9600/6600, 2600/8600 & Co. siano un lontano ricordo, lmagari fascia enty level ;)

concordo pienamente, quindi TUTTI dovremmo ringraziare ATI xkè grazie alla sua politica "rimpingua casse" ha fatto il bene d tutti!!!

io 2 mesi fa ho comprato una 8800gts 512 xfx a 180€,se l'avessi comprata con le quotazioni d 1/2 anni fa l'avrei pagata almeno il triplo.

Ma poi nn scordiamo il fattore mobile, ati con il suo chip mignon può adattarlo facilmente al mercato nb mentre nvidia, con la sua padella da paella, dovrà riprogettarlo daccapo o quasi x poterlo adattare alle esigenze d un portatile..

BRAVA ATI/AMD :mano: :winner: :kiss: :cincin:

killer978
28-06-2008, 22:12
concordo pienamente, quindi TUTTI dovremmo ringraziare ATI xkè grazie alla sua politica "rimpingua casse" ha fatto il bene d tutti!!!

io 2 mesi fa ho comprato una 8800gts 512 xfx a 180€,se l'avessi comprata con le quotazioni d 1/2 anni fa l'avrei pagata almeno il triplo.

Ma poi nn scordiamo il fattore mobile, ati con il suo chip mignon può adattarlo facilmente al mercato nb mentre nvidia, con la sua padella da paella, dovrà riprogettarlo daccapo o quasi x poterlo adattare alle esigenze d un portatile..

BRAVA ATI/AMD :mano: :winner: :kiss: :cincin:

Nel campo portatili, fino ad un paio di anni fa ATI dominava, ma oggi sono migliori le schede Nvidia almeno nei desk replacment, i vari 8700M e 8800M sono i migliori chip prestazioni/consumi sui portatili ;)

Revenge81
28-06-2008, 22:15
quest'ultimo pezzo è molto equivocabile e rischia veramente di scatenare flame inutili, nn scordiamoci che la nvidia è stata la prima a realizzare una gpu dx10 ad esempio, con g80 ha craeto un' architettura incredibile che a lungo ha messo in crisi ati.
Per il disc ac io la vedo molto una montatura, nn credo alla storia che nvidia abbia boicattato ati per il supporto dx10.1.

io nn parlo a lv d sviluppo ma d tecnologie proprietarie x migliorare la grafica dei gioki,poi ho espresso un parere personale e credo d nn aver offeso nessuno, anke xkè son possessore di sv nvidia, e l'ho citato proprio x far intendere a ki legge ke nn sono un fanboy....

Si, è vero ke nvidia ha creato il g80, gran chip indubbiamente, ma ati a mio avviso s'è fatta male da sola, o meglio, le ha fatto male amd visto ke, tra le altre cose, sposto' l'ingegnere a capo dei chip grafici sul progetto fusion...

Inoltre se consideri quante skede nvidia ha tirato fuori dal g92....nn puoi nn darmi ragione, poi è kiaro, ognuno è libero d esprimere le proprie opinioni..

X la questione ac, giusto x parlarne, perkè allora han tolto il supporto alle dx10.1 nella patch 1.02(o 1 nn ricordo)?

yossarian
28-06-2008, 22:15
Chi ha mai parlato di TU? :D
Io parlavo di Rops.

Come ho detto sopra, non ho mai pensato che le rops fossero un grosso problema per R600 (a parte il fatto che non permettevano di fare AA in modo classico),
ma 16 TMU sì...perchè son pochissime in confronto a G80 e texture, sempre più pesanti, sono ancora molto usate nei giochi (e sempre lo saranno probabilmente).



appunto; tu sostieni che il problema di R6x0 siano le TMU (e fin qui ci siamo)




infatti anche Rv670 perde assai con l'AA fino al 4x..
Cmq mi sembra che perda meno che R600...non so perchè ma probabilmente qualcosina è cambiato dall'uno all'altro, no? :D



si, qualcosa è cambiato



Questa non l'ho capita.. :(

Ma scusa eh...se la 3870 con 72GB/s di banda è bdw-limited, allora la HD4850 (che ne ha 64..) cos'è?!?!?! :D
Hypermega maxi bandwith limited...per quello performa così "poco" :D in più rispetto alla 3870...mica perchè l'incremento di TU non abbia giovato il dovuto...



Gordon, qui mi deludi :D ; se la hd4850 è più bandwidth limited di hd3870, all'aumentare della risoluzione e con l'attivazione dei filtri, a parità di quantitativo di ram, il divario dovrebbe ridursi: invece aumenta. Quindi è evidente che hd4850 è, nella peggiore delle ipotesi, non più limitato in banda rispetto ad hd3870. A questo punto, se il boost prestazionale fosse da imputare alla sola aggiunta delle tmu allora questo vantaggio dovrebbe essere superiore a quello effettivo (e cioè prossimo a quewllo teorico). Se il vantaggio di RV770 non è pari al valore teorico, possimo ipotizzare che ciò sia dovuto alle limitazioni in banda di quest'ultimo? No, perchè allora il vantaggio di hd4850, al salire della risoluzione, dovrebbe calare (invece aumenta,m seppure di poco) e hd4870, che non dovrebbe presentare le stesse limtazioni dovrebbe avere un vantaggio molto maggiore di quello rilevato.
Che l'incremento delle TU abbia giovato non ci piove, ma da qui a concludere che "il problema fosse quello" ce ne corre.



Torno a non capire...
Per me il fatto che 3870 e 4870 abbiano distacchi "corretti" (perchè la 8470 và ben più del doppio della 3870), è solo dovuto al fatto che tutti e due i chip si esprimono al massimo potenziale, senza colli di bottiglia verso la memoria..



distacchi corretti sarebbero dell'ordine del 140% (di poco superiori, in realtà). Siamo ben distanti



Come fa allora ad andare così veloce (1.5ghz)...e a consumare così poco? :eek:
La 8800GTX consuma abbastanza meno della 2900XT...pur essendo G80 nel complesso un bel pò più grosso... (vebbè che ATI per la 2900 ha usato un processo produttivo davvero scandaloso... :sofico: )

Pensavo che il vantaggio del chip G80, fosse proprio nel fatto che il suo shader core poteva essere più piccolo, meno dispendioso energeticamente e per cui viaggiare a frequenze più alte!

lo shader core va a 1500 MHz (nella versione ultra), il resto del chip a frequenze decisamente inferiori (anche rispetto a R600)

yossarian
28-06-2008, 22:21
ammesso e non concesso che la seguente "ricostruzione" sia un'approssimazione vagamente decente, ovvero che sotto il nome di cuda vadano, tra l'altro, delle librerie che sono usate dalla nuova versione di physix per fare calcoli con le gpu nv,

quindi un possessore di radeon per far girare physix sulla sua gpu dovrebbe reimplementare le lib cuda (nonché adattare open64 alle gpu ati per crearsi queste sue lib) ovviamente lascindo invariate le api usate da physix e poi sostiture le sue lib a quelle by nv ?

ci sono per caso prospettive anche per vie "traverse" e "facili" ?

:D


è ovvio che cuda si può considerare un riadattamento proprietario di Open64 e, pertanto, è pensato per sfruttare al meglio le peculiarità dell'architettura dei chip NV (che è abbastanza differente da quella dei chip ATi); pertanto, chi vorrà fare uso di physx tramite cuda dovrà sbattersi un po' :D

killer978
28-06-2008, 22:26
questo schema di anandtech è troppo figo, credo sia il migliore in giro x il web!!!

si vedono bene le due GPU con le varie disposizioni, sono mooolto differenti tra loro + di quello che pensavo.

http://www.pctunerup.com/up/results/_200806/20080628221528_CaptureWiz002.jpg

Non so come abbiano fatto a mantenere il core così piccolo rispetto a RV670, quest'ultimo ha solo 4 Simd Core contro i 10 di RV770 :muro: togliendo il ring Bus, o meglio cambiandolo hanno risparmiato mooolto spazio

Questa pure è bella :D

http://www.pctunerup.com/up/results/_200806/20080628222555_boss.jpg

skadex
28-06-2008, 23:01
Domanda forse stupida: per avere il crossfire tra due hd4850 occorre il ponticello di collegamento tra le due schede: ma quale produttore lo inserisce nella confezione con la scheda ?
Perchè ho visto anche con non tutte le schede madri lo hanno nella dotazione dei cavi e per quanto ridicolo potrebbe divenire un problema procurarselo ....

A.L.M.
28-06-2008, 23:05
si, qualcosa è cambiato

Il "qualcosa" dovrebbe essere il MSAA resolve nuovamente interamente via ROPs, no? O almeno così ho capito leggendo qua e là... :stordita:

Veramente in R600 il ring bus era a 1024bit ;)

No, era 512bit "esterni" e 1024bit "interno". ;)

leoneazzurro
29-06-2008, 00:05
grazie della spiegazione ;) , per il secondo punto invece?

Dipende dall'applicazione, dai settaggi usati e dalla scena renderizzata

se è vera per R600 dovrebbe esserlo anche per RV6x8, dato che né il numero né l'architettura delle tmu sono cambiati e comunque le tu non c'entrano nulla con il circuito di resolve dell'AA aggiunto su RV6x0. CUT



Premesso che non vi sto seguendo appieno, per me di problemi R6XX ne aveva non solo uno: numero e "qualità" delle TU, che sono certamente importanti, comportamento delle ROPs con AA, dovuto -anche- al resolve via shader che compica anche lo scheduling, compilazione più difficoltosa dovuta alla architettura VLIW, necessità di una buona ottimizzazione del ring bus per evitare stalli.
Che poi HD4850 sia un chip in generale molto più limitato dalla banda rispetto a HD3870 non ci piove molto, basta vedere i guadagni superlineari che ha HD4870 rispetto a HD4850 in diverse applicazioni (>20%), mentre il fatto è semplicemente che HD3870 è limitato da altri fattori che non sono -solo- la banda passante o le TU (es. per l'AA a 1280x1024 si spende una certa percentuale della potenza di shading per il resolve, a 1920x1200 questa percentuale sale del +75%, così come la mole di dati da passare da ROPs a shader per il resolve) .

Son Peo
29-06-2008, 00:59
Se torniamo un po indietro a 1/2 anni fa, i 550€ della GTX280 non sarebbe stato x nessuno un prezzo spropositato!! erano anni ormai che le top di gamma appena uscite costavano tra i 500/600€ :muro: anche ATI aveva la stessa politica, mi ricordo la X1900XTX a 590€ andavano come il pane :asd:

La prima scheda a spezzare questo trend è stata la X2900XT uscita sotto tono e messa in vendita a 350€ pur costando una cifra x produrla, poi con le HD38xx si è messo in moto un meccanismo "magico" :asd: grazie a queste scheduzze tantissime persone hanno potuto comprare schede al top a meno di 200€, pensate a quante 8800GT si sono vendute ma anche le 38xx non scherzano, in questo marasma ATI ha messo indubbiamente + fieno in cascina pur avendo prezzi stracciati, l'RV670 ha un die davvero piccolo, quindi costi davvero contenuti, mentre il G92 di Nvidia è bello grosso meno chip x wafer meno guadagni :D adesso ATI pur avendo creato un vero gioiello ci ha fatto il regalo di venderlo a prezzi da supermercato, sto giro Nvidia non potrà abbassare + di tanto i prezzi, il GT200 è enorme ed ha un Bus a 512bit = PCB + complesso, punteranno molto sul G92+ a 55nm :D

Speriamo che le varie 9600/6600, 2600/8600 & Co. siano un lontano ricordo, lmagari fascia enty level ;)

...mbhe non so se avete notato ma le cose economicamente non vanno bene, se vogliono ancora vendere non si possono permettere di proporre a certi prezzi.
Un'altra cosa da notare è che se una scheda costa $199 oggi in europa la trovi a 149€ non vi sembra strano? un tempo l'avreste trovata a 249€ :muro: segno che oggi si compra meno e quindi devono abbassare i prezzi. Meglio per tutti:D no?

A.L.M.
29-06-2008, 10:36
...mbhe non so se avete notato ma le cose economicamente non vanno bene, se vogliono ancora vendere non si possono permettere di proporre a certi prezzi.
Un'altra cosa da notare è che se una scheda costa $199 oggi in europa la trovi a 149€ non vi sembra strano? un tempo l'avreste trovata a 249€ :muro: segno che oggi si compra meno e quindi devono abbassare i prezzi. Meglio per tutti:D no?

Veramente altre cose aumentano tranquillamente. I prodotti tecnologici scendono di prezzo, ma nel settore hardware essendoci un forte avvicendamento tecnologico i prezzi tendono a rimanere sugli stessi livelli per prodotti di fasce simili (solo che di anno in anno con lo stesso prezzo magari hai prestazioni doppie). La recessione non c'entra nulla. ;)
Per il discorso €-$, semplicemente il dollaro non vale più una mazza, anzi rispetto al valore effettivo dei 199$ (126€ al cambio attuale) 149€ sono pure troppi. ;)