PDA

View Full Version : [Thread ufficiale] Aspettando R800 - le nuove GPU ATI DX11


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49

appleroof
05-04-2009, 20:22
cut
Leggevo che le nuove Nvidia sono attese per il Q4, ma sbaglio o RV 870 è atteso tra Agosto e Settembre? Non sono un paio di mesetti di gap?

così pare...a me sembra prestino ma tutto può essere ora come ora, d'altra parte hanno sperimentato i 40nm su rv740 mentre Nvidia è leggermente in ritardo da questo punto di vista, forse questo aspetto non è secondario se pensiamo alla roadmap prospettata da te

michelgaetano
05-04-2009, 20:32
così pare...a me sembra prestino ma tutto può essere ora come ora, d'altra parte hanno sperimentato i 40nm su rv740 mentre Nvidia è leggermente in ritardo da questo punto di vista, forse questo aspetto non è secondario se pensiamo alla roadmap prospettata da te

Esatto, cioè: al momento siamo abituati a "botta e risposta", vedi 4890 e 275.

Mi chiedevo quindi se presentare un prodotto abbastanza in ritardo possa risultare controproducente. Per i consumatori potrebbe esserlo, dal momento che Ati avrà interesse a far pagare di più le proprie schede essendo le uniche dirx 11 (che poi ciò sia inutile visto come siamo messi con le dirx 10, non ci piove). Se Nvidia presenta delle schede due mesi dopo, credo ci si debba attendere quanto meno un vantaggio prestazionale, cosa di cui gli ingegneri di Santa Clara dovranno tener conto. Il vantaggio è il conoscer ele prestazioni della rivale e lavorare per fare di meglio.

Staremo a vedere :D Personalmente guardo a questa nuova generazione di gpu per eventuali cambi: checchè se ne dica, proprio ieri ho terminato per l'ennesima volta Crysis con la mia 8800 gt @ default, e non mi è andata troppo male (livello finale a parte :asd:) con qualche tweak a 1680.

appleroof
05-04-2009, 20:39
Esatto, cioè: al momento siamo abituati a "botta e risposta", vedi 4890 e 275.

e vabbè le 2 aziende possono avere intoppi vari (ricordiamo 88gtx/2900xt)...cmq la mia è un'opinione perosnale, come tale vale zero :D

Mi chiedevo quindi se presentare un prodotto abbastanza in ritardo possa risultare controproducente. Per i consumatori potrebbe esserlo, dal momento che Ati avrà interesse a far pagare di più le proprie schede essendo le uniche dirx 11 (che poi ciò sia inutile visto come siamo messi con le dirx 10, non ci piove). Se Nvidia presenta delle schede due mesi dopo, credo ci si debba attendere quanto meno un vantaggio prestazionale, cosa di cui gli ingegneri di Santa Clara dovranno tener conto. Il vantaggio è il conoscer ele prestazioni della rivale e lavorare per fare di meglio.

non sempre è così: ripeto, vedi g80/r600

aggiungo che dagli ultimi rumors che ricordo l'architettura Ati sarà meno sconvolta di quella Nvidia, nel passaggio alle dx11, per le caratteristiche proprie di ognuna rispetto agli standard richiesti dalle nuove librerie, anche questo potrebbe spiegare la relativa velocità di Ati rispetto ad Nvidia a questo giro

Staremo a vedere :D Personalmente guardo a questa nuova generazione di gpu per eventuali cambi: checchè se ne dica, proprio ieri ho terminato per l'ennesima volta Crysis con la mia 8800 gt @ default, e non mi è andata troppo male (livello finale a parte :asd:) con qualche tweak a 1680.

anche io cambierò solo per la nuova gen, assolutamente: ho pensionato la Gloriosa per l'attuale che seppur superba a me è risultata sostanzialemtne inutile con il parco giochi esistente ora (e imho fino all'autunno), diciamo che è stato uno sfizio che mi sono tolto anche per il costo ridotto della 4870 rispetto alle soluzioni Nvidia di pari fascia, ma la 88gtx poteva arrivare senza dubbio a fine di quest'anno in fullhd

michelgaetano
05-04-2009, 20:50
non sempre è così: ripeto, vedi g80/r600

aggiungo che dagli ultimi rumors che ricordo l'architettura Ati sarà meno sconvolta di quella Nvidia, nel passaggio alle dx11, per le caratteristiche proprie di ognuna rispetto agli standard richiesti dalle nuove librerie, anche questo potrebbe spiegare la relativa velocità di Ati rispetto ad Nvidia a questo giro

Ciò che dici è vero e sacrosanto: ma è proprio per quello che è importante riuscire a sfornare una scheda competitiva, è quasi obbligatorio visto il gap di tempo. Cioè arrivi dopo, devi quanto meno pareggiare quanto è stato fatto dall'altra azienda. Di fatto la 2900 è uscita dopo e si è rivelata uno schifo, inconcepibile. Anche da questo la grandezza del g80, tutt'ora al passo e che ha schiantato la rivale uscita dopo :D

Penso che i rumors saranno veri: cioè davvero difficile che Ati possa presentarsi con qualcosa di estremamente diverso in così poco tempo. Poi chissà, magari ce la fanno.

Ciò in cui spero è il forte balzo prestazionale; se questo ci sarà però, noi consumatori lo pagheremo caro finchè Nvidia non presenterà le nuove schede.



anche io cambierò solo per la nuova gen, assolutamente: ho pensionato la Gloriosa per l'attuale che seppur superba a me è risultata sostanzialemtne inutile con il parco giochi esistente ora (e imho fino all'autunno), diciamo che è stato uno sfizio che mi sono tolto anche per il costo ridotto della 4870 rispetto alle soluzioni Nvidia di pari fascia, ma la 88gtx poteva arrivare senza dubbio a fine di quest'anno in fullhd

Al Gloriosa aggiungerei Immortale, è pazzesco quanto sia durata (e duri!).

Athlon 64 3000+
05-04-2009, 20:51
Con RV870 che sarà dx11 non penso che sarà identico a RV770 come architettura,ma sicuramente verranno fatti diversi cambiamenti anche se non penso che verrà stravolta l'architettura.
Invece Nvidia con GT300 si sà che l'architettura sarà completamente riprogettata da zero rispetto a G80/GT200

appleroof
05-04-2009, 20:56
Ciò che dici è vero e sacrosanto: ma è proprio per quello che è importante riuscire a sfornare una scheda competitiva, è quasi obbligatorio visto il gap di tempo. Cioè arrivi dopo, devi quanto meno pareggiare quanto è stato fatto dall'altra azienda. Di fatto la 2900 è uscita dopo e si è rivelata uno schifo, inconcepibile. Anche da questo la grandezza del g80, tutt'ora al passo e che ha schiantato la rivale uscita dopo :D

Penso che i rumors saranno veri: cioè davvero difficile che Ati possa presentarsi con qualcosa di estremamente diverso in così poco tempo. Poi chissà, magari ce la fanno.

Ciò in cui spero è il forte balzo prestazionale; se questo ci sarà però, noi consumatori lo pagheremo caro finchè Nvidia non presenterà le nuove schede.

esatto

per il neretto, se fosse come dici credo che Ati abbandonerebbe la politica dei prezzi aggressivi dettata fino a rv770 dal gap prestazionale, da rv770 in poi dalla intelligenza di recuperare fette di mercato e "nomea"; può essere che continui per altri motivi, e lo spero, ma quello che dici ha certamente senso per me..


Al Gloriosa aggiungerei Immortale, è pazzesco quanto sia durata (e duri!).

:asd: mai speso meglio per una vga: è valsa e vale ogni singolo euro dei 600 e passa che la paghai all'epoca, sopratutto se penso che in passato spendevi quella cifra e rimanevi al max un anno al top :)

Con RV870 che sarà dx11 non penso che sarà identico a RV770 come architettura,ma sicuramente verranno fatti diversi cambiamenti anche se non penso che verrà stravolta l'architettura.
Invece Nvidia con GT300 si sà che l'architettura sarà completamente riprogettata da zero rispetto a G80/GT200

quoto, per Nvidia più che riprogettata da zero credo profondamente rivista..boh vedremo

Razer(x)
05-04-2009, 21:20
Raga io ho una 4870 X2 Sapphire, ma scalda troppo. Dite che se prendessi una 4890 riuscirei ad avere una screda discretamente fredda in idle? (sui 40°, per intenderci)

A.L.M.
05-04-2009, 21:23
Ovvio che sarebbe stato meglio! Il casino è partito imho da quando intel ha acquistato Havok (c'era un bell'articolo di anand proprio sulle potenzialità di quella versione "Havok FX" per il calcolo su gpu se non sbaglio...che poi appunto non ha piu' avuto seguito); non ci voleva, se rimaneva indipendente lo standard era già deciso...

Non credo. Il vero problema non è l'engine, visto che ne nasceranno anche altri, con tutta probabilità. Il problema è quello a cui l'engine si "aggancia" per funzionare sulla gpu. E' quello che deve essere standardizzato, non il motore. E' una situazione molto simile a quella che esisteva al tempo delle API Glide. I motori pensati per le Glide sulle 3dfx giravano da bestia, con una resa grafica superiore alle D3D, a quanto mi ricordo. Ciò non toglie che la diffusione limitata e la politica aggressiva di 3dfx le condannarono, e furono una delle cause del fallimento di 3dfx.

Esatto, cioè: al momento siamo abituati a "botta e risposta", vedi 4890 e 275.

Mi chiedevo quindi se presentare un prodotto abbastanza in ritardo possa risultare controproducente. Per i consumatori potrebbe esserlo, dal momento che Ati avrà interesse a far pagare di più le proprie schede essendo le uniche dirx 11 (che poi ciò sia inutile visto come siamo messi con le dirx 10, non ci piove). Se Nvidia presenta delle schede due mesi dopo, credo ci si debba attendere quanto meno un vantaggio prestazionale, cosa di cui gli ingegneri di Santa Clara dovranno tener conto. Il vantaggio è il conoscer ele prestazioni della rivale e lavorare per fare di meglio.

Staremo a vedere :D Personalmente guardo a questa nuova generazione di gpu per eventuali cambi: checchè se ne dica, proprio ieri ho terminato per l'ennesima volta Crysis con la mia 8800 gt @ default, e non mi è andata troppo male (livello finale a parte :asd:) con qualche tweak a 1680.

Non cadiamo nello stesso errore dei tempi di R600. Le schede nascono con anni d'anticipo, dunque quando RV870 uscirà NVidia al max potrà fare qualche tweak sui clocks, perchè GT300 ad agosto sarà già in fase di tape out. NVidia uscirà con mesi di ritardo perchè è in ritardo sui processi produttivi, e non può far uscire una top di gamma a 55nm, perchè verrebbe fuori enorme, nè tantomeno vuole sperimentare un nuovo processo su una nuova top di gamma.
Quindi ci si può aspettare che la situazione sarà ancora questa, con RV870 che andrà come la vice high end di NVidia, ma che uscendo per prima avrà meno pressione competitiva, dunque nei primi mesi penso costerà 350€ ed oltre, probabilmente, essendo la single core più veloce. Sarà interessante vedere quando usicrà la X2. :)
Con tutta probabilità quando uscirà (e lo spero per NVidia, sennò è rovinata) la versione top di NVidia supererà RV870, ma non certo perchè ne hanno visto le prestazioni... Sempicemente perchè da un chip molto più grande ci si possono aspettare prestazioni migliori.

michelgaetano
05-04-2009, 21:24
esatto

per il neretto, se fosse come dici credo che Ati abbandonerebbe la politica dei prezzi aggressivi dettata fino a rv770 dal gap prestazionale, da rv770 in poi dalla intelligenza di recuperare fette di mercato e "nomea"; può essere che continui per altri motivi, e lo spero, ma quello che dici ha certamente senso per me..


Beh alla fine sono solo supposizioni, però sarebbe per Ati l'occasione di vendere e al contempo stesso guadagnarci in maniera più consistente. Come hai detto tu stesso la politica dei prezzi aggressivi è frutto dal precedente ritardo da Nvidia :D

Credo comunque che Nvidia di pronta risposta ridurrà i propri prezzi non potendo sfornare altro, quindi spero (più che altro mi auguro :asd:) che Ati non abbandoni in toto il suo puntare anche sul prezzo. Spero solo non si ritorni ai 600 € della 8800 gtx: per carità in quel caso li son valsi tutti, ma non sono proprio sicuro che tale exploit si possa ripetere con tale facilità :D


Non cadiamo nello stesso errore dei tempi di R600. Le schede nascono con anni d'anticipo, dunque quando RV870 uscirà NVidia al max potrà fare qualche tweak sui clocks, perchè GT300 ad agosto sarà già in fase di tape out. NVidia uscirà con mesi di ritardo perchè è in ritardo sui processi produttivi, e non può far uscire una top di gamma a 55nm, perchè verrebbe fuori enorme, nè tantomeno vuole sperimentare un nuovo processo su una nuova top di gamma.
Quindi ci si può aspettare che la situazione sarà ancora questa, con RV870 che andrà come la vice high end di NVidia, ma che uscendo per prima avrà meno pressione competitiva, dunque nei primi mesi penso costerà 350€ ed oltre, probabilmente, essendo la single core più veloce. Sarà interessante vedere quando usicrà la X2. :)
Con tutta probabilità quando uscirà (e lo spero per NVidia, sennò è rovinata) la versione top di NVidia supererà RV870, ma non certo perchè ne hanno visto le prestazioni... Sempicemente perchè da un chip molto più grande ci si possono aspettare prestazioni migliori.

Beh anche questo è vero (mi riferisco al tape-out). Notavo proprio come Ati abbiamo aumentato la grandezza del core per la 4890, e in effetti i benefici (in particolare per l'overclock a quanto sembra) ci sono. Su questo presupposto (chip più grande = migliori prestazioni) Nvidia ha tutte le carte in regola per sfornare nuovamente il chip singolo più tosto, non ci piove.

Un 350 € comunque (tanto per riprendere la tua cifra) è comunque una "buona" cifra se pensiamo a cosa si aveva due anni fa. Non lo è però se pensiamo che ad oggi ne bastano 170 per una scheda di fascia alta. Ma sì sa, è il vantaggio di non avere effettiva concorrenza; quando cioè tu azienda fai uscire la tua nuova serie e l'azienda rivale non fa altrettanto: puoi quindi beneficiarne. Se guardiamo indietro a GT200, per quanto il prezzo fosse (per me, almeno) assurdo, chi le comprò al lancio (io li definii folli, non ritratto :asd: ma c'è anche chi ha disponibilità quindi :sofico:) ci fu.

demos88
05-04-2009, 22:40
qualcuno lo apre un thread ufficiale per la hd4890? :D

demos88
05-04-2009, 22:57
Magari qualcuno che ce l'ha...
serve proprio averla? :stordita:
pensavo che comunque qualcuno già ce l'avesse... per ora hovisto in commercio le asus, xfx, sapphire e ho letto che le produrrà anche la albatron.

The_SaN
05-04-2009, 23:08
Basta che si impegni a tenerlo aggiornato e pulito.

Athlon 64 3000+
05-04-2009, 23:19
Se fanno HD 5870 a 350 euro all'uscita per quanto andrà veloce la lascio sullo scaffale.
Sono finiti i tempi che andavo anche a spendere dai 350 in su per una scheda video.
Io d'ora in anzi non spendero più di 250-260 euro.

Defragg
05-04-2009, 23:19
Pensavo... sono curioso di vedere cosa succederà nella lineup AMD con l'introduzione di RV740...



No, non serve :>

Spariranno le HD4830 e le HD4850 (forse), ci sarà un riallineamento di prezzo delle serie inferiori e superiori, con credo la scomparsa delle HD4670 con GDDR3 (sostituite completamente con quelle con DDR3).
Imho. :)

Defragg
05-04-2009, 23:20
Se fanno HD 5870 a 350 euro all'uscita per quanto andrà veloce la lascio sullo scaffale.
Sono finiti i tempi che andavo anche a spendere dai 350 in au per una scheda video.
Io d'ora in anzi non spendero più di 250-260 euro.

Quoto. :)

The_SaN
05-04-2009, 23:21
Se fanno HD 5870 a 350 euro all'uscita per quanto andrà veloce la lascio sullo scaffale.
Sono finiti i tempi che andavo anche a spendere dai 350 in au per una scheda video.
Io d'ora in anzi non spendero più di 250-260 euro.Ci hanno abituati troppo bene. Pure io rimarró in questa fascia.

Lo stesso discorso lo faccio per le cpu (leggasi fascia di prezzo dei phenom II) :)

Mister Tarpone
06-04-2009, 00:27
Ci hanno abituati troppo bene. Pure io rimarró in questa fascia.

Lo stesso discorso lo faccio per le cpu (leggasi fascia di prezzo dei phenom II) :)

un incubo :muro:


no scherzo... che sfortuna però :sob:

Kharonte85
06-04-2009, 00:32
un incubo :muro:


no scherzo... che sfortuna però :sob:

Perchè? che hai combinato? :confused:

Mister Tarpone
06-04-2009, 00:35
Perchè? che hai combinato? :confused:

eh mi sta dando qualche problema...
forse è colpa della ram.. vedremo :bsod:

A.L.M.
06-04-2009, 02:32
Se fanno HD 5870 a 350 euro all'uscita per quanto andrà veloce la lascio sullo scaffale.
Sono finiti i tempi che andavo anche a spendere dai 350 in au per una scheda video.
Io d'ora in anzi non spendero più di 250-260 euro.

Comunque sarebbe la scheda top (nel senso più veloce di tutte) meno costosa di sempre al lancio, le GTX260 al lancio costavano già di più, per non parlare delle GTX280.
Boh, può essere che magari costerà sui 299€ o poco più... Mi sembrerebbe però assurdo che al lancio costi già 250€, considerando che per 2-3 mesi avrà campo libero... Penso che la fascia 300-350€ sia più probabile. Ovviamente ora è troppo presto per fare illazioni. :)

michelgaetano
06-04-2009, 06:35
eh mi sta dando qualche problema...
forse è colpa della ram.. vedremo :bsod:

'Azzo, beccato hw fallato? Vai di RMA Tarpo

Comunque sarebbe la scheda top (nel senso più veloce di tutte) meno costosa di sempre al lancio, le GTX260 al lancio costavano già di più, per non parlare delle GTX280.
Boh, può essere che magari costerà sui 299€ o poco più... Mi sembrerebbe però assurdo che al lancio costi già 250€, considerando che per 2-3 mesi avrà campo libero... Penso che la fascia 300-350€ sia più probabile. Ovviamente ora è troppo presto per fare illazioni. :)

Beh se ci pensiamo, le prestazioni saranno (si spera lol) qualcosa almeno ai livelli di gtx 295...Secondo me è plausibile che guardino alla scheda top per stilare un prezzo.

Athlon 64 3000+
06-04-2009, 07:25
Quanto va la GTX295 in più rispetto alla HD 4870?

Credo che se RV870 vada come la GTX295 mi sembra il minimo come pretese prestazionali per la nuova gpu dx11 AMD.

Foglia Morta
06-04-2009, 08:37
Non credo che RV730 abbia molto motivo di esistere, considerando che ha un die più grande di quello che ragionevolmente dovrebbe essere quello di RV740, al quale si può affiancare memoria DDR3 per andare a risparmiare e coprire alla grande la fascia attualmente di RV730. Salvo poi far del sampling sui core marginalmente fallati e ottenere schede con 480 e 320 SP in modo da coprire tutto con i chip meno riusciti. HD4830 è scontato che vada a morire, HD4850 probabilmente rimarrà in lineup: ho delle idee in merito. RV740 è un'esperimento di DX11. Vista la sovrapposizione di questo e RV790 ai vecchi chip mi aspetto che in tempi effettivamente brevi come ormai si rumoreggia arriveremo alla serie HD5xxx. Basterà poco o nulla a RV740 per diventare RV830 e fregiarsi del bollino DX11 per coprire tutta la fascia media DX11, HD5600. Nel frattempo lo sviluppo e la produzione di RV870 arriveranno al dunque andando a sostituire RV770 e RV790 per coprire la fascia alta DX11 con un chip a 40nm di almeno 200/250mm^2 che verosimilmente non si discosterà molto dall'architettura attuale e proporrà dai 1200 ai 2000SP (dipende da quale die size sceglieranno), con GDDR5 sui 1100MHz e frequenza di lavoro intorno ai 750MHz. Una X2 è da attendersi solo dopo le mosse di nVidia, secondo me. Se si dimostrerà in grado di competere prestazionalmente con la propria GPU allora vedremo anche la X2, altrimenti non verrà mai proposta e si continuerà lo sviluppo del refresh.*

*speculazioni

Secondo me l'attuale architettura ha già mostrato il suo limite: i consumi. Con il die size hanno fatto un piccolo miracolo ma se RV740 non è altro che un RV730 con il doppio di alu ( come pare ) e considerando che il primo a 55nm @ 750mhz ha un tdp di 59w mentre il secondo a 40nm @ 750mhz ha un tdp di 80w ( la 4670 ha memorie a 1000mhz e la 4770 a 800mhz ) allora ci sono seri problemi con la scalabilità nei consumi... hanno aumentato i consumi del 35% per un raddoppio della potenza con gli shader, buon risultato ma IMO troppo poco per la prossima generazione di gpu. E se l'architettura DX11 fosse solamente poco diversa da quell'attuale IMO l'avrebbero fatta uscire al posto di RV790... l'immaturità dei 40nm ( che poi è solo presunta ), ancora imo, non è una giustificazione in questo senso perchè in passato ATi ha esordito con il nuovo processo produttivo con die size ben più larghi di quello di RV740. Poi, se ben ricordo, avevo visto un grafico che mostrava la curva del rendimento delle linee produttive con il passare del tempo e le rese di solito si normalizzavano in poco tempo.

Edit: con RV740 aumentano , praticamente, solo le alu. Nel caso di RV870 devono aumentare anche le tmu. La 4770 fa 12Gflops per watt , con un tdp come quello di RV770 ( 160w ) e con lo stesso rapporto verrebbero fuori 1920Gflops , ma non possono aumentare solo le alu. Altra cosa... nel caso dell'architettura ATi IMO bisogna considerare anche le future DirectX , si è contraddistinta per la flessibilità e quindi facilità di upgrade. Con l'attuale architettura magari può venire semplice ottenere una gpu DX11 , ma successivamente ? Ci dovrebbero essere già le basi per la successiva evoluzione quindi potrebbe anche essere un architettura nuova

Foglia Morta
06-04-2009, 09:18
Evidentemente non vuol ripetere la tragicommedia degli 80nm, e aspetta che TSMC sia in grado di offrire un processo a 40nm adeguatamente competitivo da questo punto di vista, oltre a presumibilmente la necessità di rimettere mano al progetto per adeguarsi meglio a ciò.

L'esperimento G92b però non ha facilitato moltissimo il parto di GT200b. Si attendeva per Settembre e a Gennaio è arrivato sul mercato con una revisione B3. IMO la complessità e il die size significano abbastanza per l'incidenza dei problemi. E con un die size modesto ci si può permettere di anticipare un po i tempi.

RV740 è così ma niente vieta che subisca la stessa sorte e per l'etichetta DX11 si mostri più parco nei consumi grazie al processo migliorato, sempre a 40nm.

Il limite più grosso è chiaramente quello, non enormemente per la fascia media, ma per la fascia alta i limiti superiori ai consumi sono molto più stringenti per limiti di fattibilità, quindi l'unica via è proprio un processo migliore o una modifica sostanziale dell'architettura. Ma l'architettura attuale ha mostrato un'efficienza costo/prestazioni mostruosa, non so quanto abbiano voglia di peggiorare le cose né quanta ne abbiano di buttar via tutti i costi di sviluppo fatti sull'architettura DX10 nell'ottica di essere già orientati alle DX11 senza grossi stravolgimenti...

EDITxEDIT: Vista la natura delle DX11 credo che il successivo step sarà di rottura e quindi progetto integralmente nuovo. Fare sviluppo di un chip nel senso dell'upgradabilità ha senso, ma se il requisito di ogni iterazione deve essere quello di essere già pronto a quella successiva il vantaggio smette di esistere...

Boh, un architettura che getti le basi per le future evoluzioni imo non sarebbe così sbagliata soprattutto se riescono a mantenere un vantaggio con i processi produttivi , tipo: RV870 @40nm ad Agosto , GT300 a Novembre e new ATi @32nm alla fine del Q1 2010. ( più che altro ho in mente la competizione di Intel perchè IMO faranno scelte più simili tra loro rispetto a quanto farà nVidia ).

Kharonte85
06-04-2009, 09:51
Secondo me l'attuale architettura ha già mostrato il suo limite: i consumi.
E' vero...devono migliorare questo aspetto.

E di questo che ne dite:

http://www.vbcportal.eu/mkportal/modules/gallery/album/a_5575.png

:sofico:

Valdis
06-04-2009, 09:58
Già si era visto un pò di tempo fa questo schema.....a me fa un bel pò sorridere :D ma dopo le x2 da amd-ati ci si può aspettare di tutto :sofico:


bye

eXeS
06-04-2009, 11:23
Mi sa che non hai capito. Facciamo un esempio.
PhysX è un motore per la fisica, come l'Unreal Engine è un motore grafico. OK?
L'Unreal Engine per girare su gpu passa attraverso le DirectX, così come PhysX per girare su gpu passa attraverso CUDA. Understood? ;)

None, ciò che passa oggi su CUDA è ciò che passava ieri su Ageia, ma non tutto Physx passa su CUDA/Ageia, tant'è che i giochi che sono elencati in quel link usano Physx come middleware per la gestione della fisica, ma non richiedono ne CUDA ne Ageia e soprattutto, non girano male come Cryostasis o Mirror's Edge, dove evidentemente si sono usate componenti di Physx che emulati via CPU vanno da schifo :)


Ecco perchè ATI ed Intel non vogliono dare il supporto a PhysX via gpu (via cpu possono farlo girare tutti), perchè dovrebbero implementare (a pagamento) un framework proprietario di un altro produttore hw, peraltro ottimizzato per il suo hw. Il tutto quando esiste un framework aperto, OpenCL, che non essendo proprietario non avvantaggia alcuna architettura. :)
Infatti, ma così come nVidia ha implementato via CUDA il layer tra Physx e hardware, chi ci dice che ora che abbiamo specifiche ufficiali sull'OpenCL non si implementi qualcosa del genere ?

Ora
PhysX -> CUDA -> Hardware nVidia

Domani
PhysX -> OpenCL -> Hardware Ati/nVidia/ecc...

Gabriyzf
06-04-2009, 12:41
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/april/ati_radeon_hd_4890_200_euro/

per me entro 1 settimana anche da noi :D
e la 275 dovrà seguire a 210 :D :D

ghiltanas
06-04-2009, 12:44
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/april/ati_radeon_hd_4890_200_euro/

per me entro 1 settimana anche da noi :D
e la 275 dovrà seguire a 210 :D :D

anche da noi è già ricalata, ora è a 214 mi pare...
in pratica:

4890 200 euro circa
4870 150 euro circa (tagliando fuori la 4850)
4770 90-100 euro (tagliando fuori la 4830)

penso si delineerà questa situazione :)

Athlon 64 3000+
06-04-2009, 12:52
Interessante il fatto che con l'attuale architettura e vedendo come sarà RV740 con il problema dei consumi non si possa escludere che RV870 sia un progetto completamente nuovo.
Se non mi sbaglio RV740 avrà un consumo di 80W con 640SP bus a 128bit a 40 nm.
Chissa tenendo come buoni questi dati e utilizzando lo struttura e architettura di RV740 con oppurtune modifiche per renderlo perfettamente compatibile con le dx11 e mettendo 1600SP sempre a 40 nm chissa quanto verrebbe grande la gpu e magari con che consumi.

schumifun
06-04-2009, 13:14
anche da noi è già ricalata, ora è a 214 mi pare...
in pratica:

4890 200 euro circa
4870 150 euro circa (tagliando fuori la 4850)
4770 90-100 euro (tagliando fuori la 4830)

penso si delineerà questa situazione :)

con la possibilità di avere una 4870 512 usata sotto i 100 euro:D
considerado che a 150 verrebbe venduta la 4870 1 gb

goldorak
06-04-2009, 13:23
anche da noi è già ricalata, ora è a 214 mi pare...
in pratica:

4890 200 euro circa
4870 150 euro circa (tagliando fuori la 4850)
4770 90-100 euro (tagliando fuori la 4830)

penso si delineerà questa situazione :)


Seeee questi prezzi prima di vederli in italia ce ne passera di acqua sotto i ponti. :stordita:

maurilio968
06-04-2009, 13:26
Seeee questi prezzi prima di vederli in italia ce ne passera di acqua sotto i ponti. :stordita:

quotone!

ghiltanas
06-04-2009, 13:27
con la possibilità di avere una 4870 512 usata sotto i 100 euro:D
considerado che a 150 verrebbe venduta la 4870 1 gb

ma che è già natale? :asd:

Seeee questi prezzi prima di vederli in italia ce ne passera di acqua sotto i ponti. :stordita:

no nn ti credere, se guardi su trovaprezzi la 4870 viene già venduta a 153 euro :) , per la 4770 mi baso sul prezzo "ufficiale" che ha indicato amd, e per la 4890 penso sia questione di nn molto tempo, in fondo in 4-5 giorni siamo già passati dai 239 euro del lancio ai 214 attuali...e devono abbassarla perchè la concorrenza della gtx260 e della 4870 è forte, per 50-60 euro di meno si hanno prestazioni di poco inferiori

michelgaetano
06-04-2009, 19:05
http://www.theinquirer.net/inquirer/news/671/1051671/amd-4890-outselling-gtx-275-launch

Difficile non crederlo, visto il paper launch della 275.

Se davvero scenderà a 200 si farà interessante (o più interessante sarà la 4870 1 gb a 150 euro)

Defragg
06-04-2009, 20:15
Una GTX275 sui 190/200€ mi insidierebbe non poco. :D

HackaB321
06-04-2009, 20:41
Secondo me l'attuale architettura ha già mostrato il suo limite: i consumi. Con il die size hanno fatto un piccolo miracolo ma se RV740 non è altro che un RV730 con il doppio di alu ( come pare ) e considerando che il primo a 55nm @ 750mhz ha un tdp di 59w mentre il secondo a 40nm @ 750mhz ha un tdp di 80w ( la 4670 ha memorie a 1000mhz e la 4770 a 800mhz ) allora ci sono seri problemi con la scalabilità nei consumi... hanno aumentato i consumi del 35% per un raddoppio della potenza con gli shader, buon risultato ma IMO troppo poco per la prossima generazione di gpu. E se l'architettura DX11 fosse solamente poco diversa da quell'attuale IMO l'avrebbero fatta uscire al posto di RV790... l'immaturità dei 40nm ( che poi è solo presunta ), ancora imo, non è una giustificazione in questo senso perchè in passato ATi ha esordito con il nuovo processo produttivo con die size ben più larghi di quello di RV740. Poi, se ben ricordo, avevo visto un grafico che mostrava la curva del rendimento delle linee produttive con il passare del tempo e le rese di solito si normalizzavano in poco tempo.

Edit: con RV740 aumentano , praticamente, solo le alu. Nel caso di RV870 devono aumentare anche le tmu. La 4770 fa 12Gflops per watt , con un tdp come quello di RV770 ( 160w ) e con lo stesso rapporto verrebbero fuori 1920Gflops , ma non possono aumentare solo le alu. Altra cosa... nel caso dell'architettura ATi IMO bisogna considerare anche le future DirectX , si è contraddistinta per la flessibilità e quindi facilità di upgrade. Con l'attuale architettura magari può venire semplice ottenere una gpu DX11 , ma successivamente ? Ci dovrebbero essere già le basi per la successiva evoluzione quindi potrebbe anche essere un architettura nuova

Per raddoppiano anche le Rops. Altrimenti non si spiega come faccia nella rece di guru a stare sopra la 4830 con AA attivo

Foglia Morta
06-04-2009, 20:50
Per raddoppiano anche le Rops. Altrimenti non si spiega come faccia nella rece di guru a stare sopra la 4830 con AA attivo

Per quello aspetto un dato ufficiale, in tutti questi anni 4 rops sono sempre state collegate ad un canale 64bit quindi non mi convincono del tutto 16 rops con bus 128bit. Non è possibile 8 rops potenziate ?

Mercuri0
06-04-2009, 22:21
Beh se ci pensiamo, le prestazioni saranno (si spera lol) qualcosa almeno ai livelli di gtx 295...Secondo me è plausibile che guardino alla scheda top per stilare un prezzo.
"Almeno ai livelli della GTX295" mi pare una stima fin troppo ottimistica per RV870.
Forse intorno alla 4870x2 invece...

ghiltanas
06-04-2009, 22:25
Per raddoppiano anche le Rops. Altrimenti non si spiega come faccia nella rece di guru a stare sopra la 4830 con AA attivo

ma parli di rv740? perchè altrimenti nn ci vedo nulla di strano, hai visto come siano sensibilmente maggiori le frequenze rispetto alla 4830?

ghiltanas
06-04-2009, 22:27
"Almeno ai livelli della GTX295" mi pare una stima fin troppo ottimistica per RV870.
Forse intorno alla 4870x2 invece...

per me le serie nuove saranno delle pesate e questo vale sia per rv870 sia per gt300

Mercuri0
06-04-2009, 22:28
Per quello aspetto un dato ufficiale, in tutti questi anni 4 rops sono sempre state collegate ad un canale 64bit quindi non mi convincono del tutto 16 rops con bus 128bit. Non è possibile 8 rops potenziate ?
Io penso debba averne 16 per avere quelle prestazioni, ma anche fossero "potenziate" potrebbero consumare di più per esserlo.

Comunque sono d'accordissimo, il problema oggigiorno sono i consumi, e questo vale un pò per tutti.

ionet
06-04-2009, 22:36
con la possibilità di avere una 4870 512 usata sotto i 100 euro:D
considerado che a 150 verrebbe venduta la 4870 1 gb

ma che è già natale? :asd:



no nn ti credere, se guardi su trovaprezzi la 4870 viene già venduta a 153 euro :) , per la 4770 mi baso sul prezzo "ufficiale" che ha indicato amd, e per la 4890 penso sia questione di nn molto tempo, in fondo in 4-5 giorni siamo già passati dai 239 euro del lancio ai 214 attuali...e devono abbassarla perchè la concorrenza della gtx260 e della 4870 è forte, per 50-60 euro di meno si hanno prestazioni di poco inferiori

Difficile non crederlo, visto il paper launch della 275.

Se davvero scenderà a 200 si farà interessante (o più interessante sarà la 4870 1 gb a 150 euro)

no non era neanche pasqua ma da mw la sapphire 4870 da 1giga la davano via a 159€:D
presa per miracolo,a tor vergata era l'ultima:)

manga81
07-04-2009, 07:12
anche da noi è già ricalata, ora è a 214 mi pare...
in pratica:

4890 200 euro circa
4870 150 euro circa (tagliando fuori la 4850)
4770 90-100 euro (tagliando fuori la 4830)

penso si delineerà questa situazione :)


molto probabile


con la possibilità di avere una 4870 512 usata sotto i 100 euro:D
considerado che a 150 verrebbe venduta la 4870 1 gb


:D


Difficile non crederlo, visto il paper launch della 275.

Se davvero scenderà a 200 si farà interessante (o più interessante sarà la 4870 1 gb a 150 euro)

4870 1gb a 150euro già si trova :D

inoltre è più facile aggiungergli poi un'altra 4870 usata a poco :D

mike74
07-04-2009, 07:44
Salve, vi scrivo dalla svizzera, ho tovato la sapphire 4890 a 205 euro (comprese le spese di spedizione) e l'ho presa, entro giovedi o venerdi mi arriva poi cominceró coi test , spero di aver fatto una buona scelta :ciapet:

ghiltanas
07-04-2009, 09:53
http://www.theinquirer.net/inquirer/news/673/1051673/ati-physics-argument

volevo postarlo ma pensavo fosse già old :asd:

Athlon 64 3000+
07-04-2009, 10:18
http://www.dinoxpc.com/News/news.asp?ID_News=16691&What=News&tt=AMD%3A+nessuna+HD+4890X2+all%26acute%3Borizzonte+...per++ora!

demos88
07-04-2009, 10:49
http://www.dinoxpc.com/News/news.asp?ID_News=16691&What=News&tt=AMD%3A+nessuna+HD+4890X2+all%26acute%3Borizzonte+...per++ora!
ottima scelta imo.
Ora come ora, il livello delle schede video mi sembra già parecchio al di sopra del livello dei giochi. Considerando che basta una scheda da 250 euro per fare 50 fps a 1920x1080, io che al massimo posso usare 1680x1050 dovrei fare 70 fps con i filtri attivi. Ergo: perchè dovrei spendere 400 euro per una scheda video? La fascia enthusiast ha già le nvidia che predominano, meglio pensare al futuro piuttosto che rilanciare subito un prodotto che venderebbe poco.

Athlon 64 3000+
07-04-2009, 10:57
ottima scelta imo.
Ora come ora, il livello delle schede video mi sembra già parecchio al di sopra del livello dei giochi. Considerando che basta una scheda da 250 euro per fare 50 fps a 1920x1080, io che al massimo posso usare 1680x1050 dovrei fare 70 fps con i filtri attivi. Ergo: perchè dovrei spendere 400 euro per una scheda video? La fascia enthusiast ha già le nvidia che predominano, meglio pensare al futuro piuttosto che rilanciare subito un prodotto che venderebbe poco.

Nella fascia alta c'è comunque sempre la HD 4870x2 che è pur sempre molto competitiva come scheda.
Vedremo se AMD lancierà RV870 alias HD 5850 e Hd 5870 con magari il secondo modello a 350 euro.
Anche in questo caso se dovessi prendere uno tra i 2 modelli prenderei la HD 5870,ma se la lanciano la lascio sullo scaffale fino a che non scende a 250-260 euro.

ghiltanas
07-04-2009, 11:02
Nella fascia alta c'è comunque sempre la HD 4870x2 che è pur sempre molto competitiva come scheda.
Vedremo se AMD lancierà RV870 alias HD 5850 e Hd 5870 con magari il secondo modello a 350 euro.
Anche in questo caso se dovessi prendere uno tra i 2 modelli prenderei la HD 5870,ma se la lanciano la lascio sullo scaffale fino a che non scende a 250-260 euro.

sempre troppo...massimo 200 euro, le schede si stanno svalutando con una velocità sempre maggiore, quando presi la gt a 250 appena uscita era una cosa incredibile, adesso con 160 euro ti porti a casa una 4870 e con poco + una gtx260 :eek: ...

mircocatta
07-04-2009, 12:10
ottima scelta imo.
Ora come ora, il livello delle schede video mi sembra già parecchio al di sopra del livello dei giochi. Considerando che basta una scheda da 250 euro per fare 50 fps a 1920x1080, io che al massimo posso usare 1680x1050 dovrei fare 70 fps con i filtri attivi. Ergo: perchè dovrei spendere 400 euro per una scheda video? La fascia enthusiast ha già le nvidia che predominano, meglio pensare al futuro piuttosto che rilanciare subito un prodotto che venderebbe poco.

bè io con la mia 4870 512 devo sacrificare qualche filtro a 1680x1050 altrimenti ho dei rallentamenti (anzichè aa8x uso il 4x).. però a scheda default, cioè 750/900

MonsterMash
07-04-2009, 13:36
http://www.dinoxpc.com/News/news.asp?ID_News=16691&What=News&tt=AMD%3A+nessuna+HD+4890X2+all%26acute%3Borizzonte+...per++ora!

L'importante è che ati (e anche nvidia) si sbrighino a rilasciare driver che supportino l'openCL, anche perchè i motori fisici non sono l'unica cosa che si può programmare usando quelle librerie... io bramo di vedere al più presto renderer 3d, algoritmi di compressione audio / video, filtri per photoshop, etc che sfruttino tutta la potenza latente di una vga :).

demos88
07-04-2009, 16:06
bè io con la mia 4870 512 devo sacrificare qualche filtro a 1680x1050 altrimenti ho dei rallentamenti (anzichè aa8x uso il 4x).. però a scheda default, cioè 750/900
beh ma caspita... aa8x mica è poco... il 4x mi sembra sufficiente.
Poi cmq ho per l'appunto detto schede video da 250 euro, la hd4870 ne costa 160 attualmente :Prrr:

Andrea deluxe
07-04-2009, 16:33
http://www.techpowerup.com/img/09-04-07/powercolor_lcs_hd4890_1gb_01.jpg

PowerColor will launch the world's first water cooled Radeon HD 4890 next week, less than one week after the RV790 card was officially launched.

Part of PowerColor's LCS series, the upcoming Radeon card comes with a single-slot EK-made waterblock that has a copper base and high-flow 3/8" or 1/2" fittings. The waterblock should lower the GPU temperature by up to 20°C compared to the reference air heatsink. PowerColor will ship the Radeon HD 4890 LCS with GPU and memory clocks of 900 and 4000 MHz respectively.

The MSRP of the card will be $339.

demos88
07-04-2009, 18:31
wtf? troppi soldi :Prrr:

Kharonte85
07-04-2009, 18:54
La mia scimmia è ufficialmente morta. E' rimasta uccisa nell'incidente di auto che ho appena avuto. Visto quanto dovrò pagare per rimettere in sesto il rimasuglio che chiamavo "macchina nuova" posso solo sperare di resuscitarla prima di RV870/GT300.

Finito l'OT passiamo ai fatti, anzi al toto-shaders.

Io punto sui 2000.

Si faccia avanti il prossimo...
Azzz...:(

2000 mi paiono troppi...rilancio coi 1000-1200

michelgaetano
07-04-2009, 19:08
La mia scimmia è ufficialmente morta. E' rimasta uccisa nell'incidente di auto che ho appena avuto. Visto quanto dovrò pagare per rimettere in sesto il rimasuglio che chiamavo "macchina nuova" posso solo sperare di resuscitarla prima di RV870/GT300.



'azzo, hai ucciso l'intero branco :(

appleroof
07-04-2009, 19:18
La mia scimmia è ufficialmente morta. E' rimasta uccisa nell'incidente di auto che ho appena avuto. Visto quanto dovrò pagare per rimettere in sesto il rimasuglio che chiamavo "macchina nuova" posso solo sperare di resuscitarla prima di RV870/GT300.

Finito l'OT passiamo ai fatti, anzi al toto-shaders.

Io punto sui 2000.

Si faccia avanti il prossimo...

il fatto che tu scriva qui sul forum vuol dire che non hai avuto conseguenze fisiche immagino, è sicuramente la cosa importante fuori da retorica

per gli shaders....seguivo il ragionamento sui consumi di tale architettura, non so se con tutta quella dotazione si riuscirebbe a mantenere consumi relativamente contenuti anche a 40nm (e la dual?)

ghiltanas
07-04-2009, 19:21
Mi hanno insegnato a non piangere sul latte versato: fai la tua puntata!

mmm vediamo...io punterei sui 1600...un raddoppio pari pari..

si potrebbe aprire un sondaggio sia per rv870 sia per gt300, chissà che sparate che verrebbero fuori :asd:


ps spero ovviamente tu nn ti sia fatto male...

Athlon 64 3000+
07-04-2009, 19:49
2000 SP sono tanti almeno con il tipo di architettura attuale e con l'attuale struttura dello shader core.
Bisogna vedere se con i 40 nm un numero cosi elevato di shader fa si che il TDP rimanga su valori umani e la superficie della gpu rimane su livelli accettabili.

gervi
07-04-2009, 19:53
con le dx 11 ed il rendering multi theread, credo che gli shaders core saranno diversi.


forse x esempio: 1000.

ma ogni Sp , in grado di computare x esempio 3 4 operazioni o più x ciclo di clock.

insomma 1000 sp equivalenti a 3000-4000 della serie hd 4870.

HackaB321
07-04-2009, 20:05
Per quello aspetto un dato ufficiale, in tutti questi anni 4 rops sono sempre state collegate ad un canale 64bit quindi non mi convincono del tutto 16 rops con bus 128bit. Non è possibile 8 rops potenziate ?

O raddoppiano le potenzialità delle Rops mettendo 2 blocchi da 8 pixel per clock l'uno e associandoli a due bus di 64 o mantengono 4 blocchi associandoli però a 4 bus da 32bit. Non so dirti quale delle due potrebbe essere più semplice da realizzare, Guru parla di 16 rops quindi sembrerebbe la seconda.
2 Rops da 4 pixel l'una (come RV730) sono poco compatibili con la rece di Guru dove anche con AA attivo RV740 è sempre sopra alla 4830 (che di Rops ne ha il doppio). Anche con 200Mhz in più sul core avrebbe un fillrate con AA attivo nettamente inferiore che specie alle alte risoluzioni dovrebbe diventare un collo di bottiglia (visto oltretutto che la banda è quasi la stessa).Boh vediamo:)

ghiltanas
07-04-2009, 20:05
D'altra parte non è che ci sia molto altro di cui discutere...

no ma infatti nn ero polemico...era per dire che quando sapremo il valore esatto, guarderemo le nostre previsioni e ci rideremo sopra...
vorrei ad esempio ricordare che mister tarpone pronosticava 1600 sp per rv790 :asd:

The_SaN
07-04-2009, 20:40
Io 1200 :>Anch'io. D'altronde pensavamo fosse a 40nm :)

Per rv870 penso si assesteranno tra i 1200 e i 1600.
Magari con qualche sorpresina architetturale :D

goldorak
07-04-2009, 20:54
Io dico che raddoppiano quindi 1600.

<^MORFEO^>
07-04-2009, 20:59
Io punto sui 1200 :O

Foglia Morta
07-04-2009, 21:01
O raddoppiano le potenzialità delle Rops mettendo 2 blocchi da 8 pixel per clock l'uno e associandoli a due bus di 64 o mantengono 4 blocchi associandoli però a 4 bus da 32bit. Non so dirti quale delle due potrebbe essere più semplice da realizzare, Guru parla di 16 rops quindi sembrerebbe la seconda.
2 Rops da 4 pixel l'una (come RV730) sono poco compatibili con la rece di Guru dove anche con AA attivo RV740 è sempre sopra alla 4830 (che di Rops ne ha il doppio). Anche con 200Mhz in più sul core avrebbe un fillrate con AA attivo nettamente inferiore che specie alle alte risoluzioni dovrebbe diventare un collo di bottiglia (visto oltretutto che la banda è quasi la stessa).Boh vediamo:)

Se fossero 16rops io ci vedrei un segnale, ossia: risorse di R&D in rops non se ne spendono più e si investe altrove. In futuro magari si renderanno le alu sempre più general purpose ( come fa Intel con Larrabee ) e si eliminano le fixed functions, tranne le tmu.

Per il pronostico relativo al numero di sp IMO è un po un casino... è da R600 ( '07 ) che hanno un rapporto shader:tmu di 4 a 1 , ai tempi che furono mi pare che si cominciò a potenziare più lo shader core che le tmu perchè la banda passante cresceva meno di quanto fosse necessario per un andamento lineare shader:tmu . Ora con le GDDR5 di banda ce ne dovrebbe essere più che abbastanza, ma mai direi mai :D , magari faranno un 5 a 1 ( mi aspetto un architettura che con le dovute evoluzioni andrà avanti per 2 anni e 1/2 ) , è improbabile però ci metto della fantasia. Già con RV770 ATi aveva detto che si sono ritrovati il limite dei consumi, sperem si ventino qualcosa per aumentarli solo di un pochino ( al calo dei consumi non ci credo ) ma con grosso salto nel performance/watt.
Comunque di seghe mentali ne avrei molte, ma dato che tanto alla fine non so dico 1500sp e 60 tmu. Si intende just for fun , chiaro.

MaBru
07-04-2009, 21:10
1280

Loll007
07-04-2009, 21:33
1600 sp spero almeno punteranno al raddoppio...daltronde da r600 a a rv770 c'è stato un +150% anche se sono passati da 80 a 55nm invece sta volta è da 55 a 40nm...

Defragg
07-04-2009, 23:15
Rapporto 5:1 imho, 64TMUs e 1600SPs, oppure 80TMUs e 2000SPs. :)

Milotto
08-04-2009, 09:47
La mia scimmia è ufficialmente morta. E' rimasta uccisa nell'incidente di auto che ho appena avuto. Visto quanto dovrò pagare per rimettere in sesto il rimasuglio che chiamavo "macchina nuova" posso solo sperare di resuscitarla prima di RV870/GT300.

Finito l'OT passiamo ai fatti, anzi al toto-shaders.

Io punto sui 2000.

Si faccia avanti il prossimo...

:(
per il toto shaders direi 1200 a "parità di architettura"...ma non mi meraviglierei se avessimo un raddoppio degli attuali 800...

il fatto che tu scriva qui sul forum vuol dire che non hai avuto conseguenze fisiche immagino, è sicuramente la cosa importante fuori da retorica


Condivido appieno...:) ;)

Infatti sto pensando di prendermi un 24" in sostituzione dell'attuale (non che ne abbia bisogno, ma un negozio austriaco pagato il 23 dicembre non mi ha ancora mandato nulla e sto cercando inutilmente di farmi rimborsare, quindi magari provo a proporgli di inviarmi altro - il monitor e un po' di ram - per vedere se riesco almeno a non aver buttato via 400€ -.- )

Non sono convinto che una soluzione a 24" con una risoluzione pari 1920*1080 rientri nella capacità delle VGA di cui discutiamo...ci sono decine di game dove vengono macinati frame a vagonate, ma solo perchè si tratta di vecchiume ...mediamente con titoli "più nuovi" (la situazione del gaming pc è tristissima) il framerate non + è tanto alto da poterti consentire AA8X di default..Probabilmente la migliore soluzione è scegliere un pannello che consenta il mapping 1:1 e quindi poter utilizzare 1680*1050 in un riquadro che è intorno ai 21"....

Milotto
08-04-2009, 10:51
Come molti sanno su questo forum l'AA per me non è un requisito salvo casi in cui le ombre siano particolarmente fatte male ;)

"de gustibus non est disputandum" ;)
Personalmente trovo l'AA il filtro per antonomasia...a suo tempo comperai una Voodoo5 per godermi il RGSS, che reputo tuttora qualitativamente il migliore...
Cmq sia, a presindere dalla soggettività prendere un 24 @ 1920*1200 è in ogni caso una scelta lungimirante..salvo accontentarsi di mappare a 1680*1050 nei casi richiesti..del resto prendere un monitor che non sia FullHD con la diffusione degli MKV sembra quantomeno erroneo....:)

Mister Tarpone
08-04-2009, 11:08
1280

1920

Capozz
08-04-2009, 11:18
"de gustibus non est disputandum" ;)
Personalmente trovo l'AA il filtro per antonomasia...a suo tempo comperai una Voodoo5 per godermi il RGSS, che reputo tuttora qualitativamente il migliore...
Cmq sia, a presindere dalla soggettività prendere un 24 @ 1920*1200 è in ogni caso una scelta lungimirante..salvo accontentarsi di mappare a 1680*1050 nei casi richiesti..del resto prendere un monitor che non sia FullHD con la diffusione degli MKV sembra quantomeno erroneo....:)

Tanto capirai, se i giochi continuano a rimanere quelli di oggi con GT300/RV870 in 1920 si gioca con prestazioni estreme :asd:

Mister Tarpone
08-04-2009, 11:41
Tanto capirai, se i giochi continuano a rimanere quelli di oggi con GT300/RV870 in 1920 si gioca con prestazioni estreme :asd:

poi magari arriverà crysis 2 et voilà......da 1920x1200 + AA16X @ 100fps con quelle schede si passerà alla 1024x768 + 0 filtri @ 30fps


:asd:

mircocatta
08-04-2009, 11:44
1333.33 periodico :O :O

poi magari arriverà crysis 2 et voilà......da 1920x1200 + AA16X @ 100fps con quelle schede si passerà alla 1024x768 + 0 filtri @ 30fps


:asd:

ps: dal video del cryengine 3, mi sembra molto scattoso, quanto lo furono quelli del cryengine 2 :fagiano:

MonsterMash
08-04-2009, 11:45
Una domanda: non ho ancora visto test di OC estremi su rv790. Sarei curioso di sapere dove può arrivare una 4890, soprattutto con raffreddamento a liquido, ma anche con raffreddamenti estremi.
Inoltre vorrei sapere se esistono già vmod, soprattutto pencil mod...

Purtroppo xtremesystems pare che abbia chiuso, mi sapete consigliare dove andare a cercare test di questo tipo?

Grazie a tutti.
Ciao

MonsterMash
08-04-2009, 11:51
poi magari arriverà crysis 2 et voilà......da 1920x1200 + AA16X @ 100fps con quelle schede si passerà alla 1024x768 + 0 filtri @ 30fps


:asd:

Magari! Crysis a parte, la grafica dei giochi su pc è rimasta praticamente ferma da quasi due anni. E anche crysis ricordatevi che è uscito ormai più di un anno e mezzo fa, eppure non si programma di fare giochi che possano eguagliarlo in grafica a breve. Forse potrà far meglio del cryengine2 solo il tech5 di carmack, però chissà quanto tempo dovremo ancora aspettare.
L'unica speranza è che il tech5 venga dato in licenza ben più dei due cryengine, entrambi rivoluzionari, ed entrambi relegati ad un unico gioco...

E purtroppo pare che il cryengine3 non migliori visivamente, anzi... l'unico suo pregio è la maggiore leggerezza rispetto al 2...

ghiltanas
08-04-2009, 12:01
per il bus che dite? restano con i 256bit?

Mister Tarpone
08-04-2009, 12:03
Basta ridurre la superficie del 24" ai 1680x1050 punti al centro, giocando quindi a schermo intero in risoluzione nativa su una porzione dello schermo complessivo, basta che il monitor sia collegato con cavo DVI e non con VGA :>
oppure ancora meglio...basta collegarlo in hdmi , abilitare l'adattamento gpu, modifica dimensioni immagine a pannello intero ed infine l'opzione di adattamento under-overscan.
facendo così anche se imposti la 1280x800 a tutto schermo in un monitor da 1920x1200 l'immagine come qualità resta pari a quella con risoluzione nativa.

Mister Tarpone
08-04-2009, 12:04
per il bus che dite? restano con i 256bit?

si

Andrea deluxe
08-04-2009, 12:57
http://en.expreview.com/img/2009/04/08/rv790_1.jpg
http://en.expreview.com/img/2009/04/08/rv790_2.jpg

Kharonte85
08-04-2009, 12:59
per il bus che dite? restano con i 256bit?
Se c'è una cosa certa che ha dimostrato questo periodo AMD/ATI è che il bus a 256bit abbinato a memorie veloci paga; avere un pcb menoi complesso e meno ingombrante è sicuramente un vantaggio (tanto è vero che è lecito aspettarsi una cosa simile da Nvidia)

nitro89
08-04-2009, 13:09
1333.33 periodico :O :O



ps: dal video del cryengine 3, mi sembra molto scattoso, quanto lo furono quelli del cryengine 2 :fagiano:

Come se fosse per Pc il CryEngine 3...:p :sofico:

gianni1879
08-04-2009, 13:37
http://www.hwupgrade.it/forum/showthread.php?t=1962465

così evitiamo di inquinare quì

goldorak
08-04-2009, 14:15
http://en.expreview.com/img/2009/04/08/rv790_2.jpg

Solo a me pare che 60 e 90 Watt in idle siano un pochino troppi ? :rolleyes:
In idle cosa diavolo fanno ste schede per consumare cosi' tanto ? :fagiano:

ghiltanas
08-04-2009, 14:18
Solo a me pare che 60 e 90 Watt in idle siano un pochino troppi ? :rolleyes:
In idle cosa diavolo fanno ste schede per consumare cosi' tanto ? :fagiano:

no affatto, anche a me paiono parecchi...
purtroppo le 4000 nn hanno un chip per gestire il 2d e questo è il risultato...con le 4890 perlomeno hanno ridotto le freq in idle...

speriamo che con rv870 pensino meglio al 2d e ai consumi in generale

Defragg
08-04-2009, 14:19
Solo a me pare che 60 e 90 Watt in idle siano un pochino troppi ? :rolleyes:
In idle cosa diavolo fanno ste schede per consumare cosi' tanto ? :fagiano:

Più che altro non mi spiego i 60W che intercorrono tra la 4850 e la 4870 :eek:

Polpi_91
08-04-2009, 14:21
Più che altro non mi spiego i 60W che intercorrono tra la 4850 e la 4870 :eek:

il fatto è che nella 4850 la GPU viene messa a 500 e le GDDR3 a 750.

poi comunque esiste ATT che permette di abbassare ultriolmete le frequenze e i voltaggi tipo 160/500 @ 0.840V

Milotto
08-04-2009, 15:39
Basta ridurre la superficie del 24" ai 1680x1050 punti al centro, giocando quindi a schermo intero in risoluzione nativa su una porzione dello schermo complessivo, basta che il monitor sia collegato con cavo DVI e non con VGA :>

In realtà quando presi questo 22" che ho ora pensavo che lo avrei fatto in alcuni casi, ma non è mai stato necessario fino ad oggi con questa VGA...

Hai un 22" @ 1920 ?
Lenovo?

Mister Tarpone
08-04-2009, 17:29
No, ce l'ho a 1680, ma si può per esempio metterlo a 1440 rimanendo in nativa con una banda nera sui bordi, cosa che non ho mai avuto necessità di fare, ma che comunque si può per non avere artefatti dovuto allo scaling a risoluzione non nativa quando la VGA non ce la dovesse fare :>

puoi evitare la schifezza di cornice se fai come ho scritto una pagina fa.
ma solo se il tuo monitor ha l'entrata hdmi

Mister Tarpone
08-04-2009, 17:48
Non ha HDMI

:mad: ma come no :mad:

HackaB321
08-04-2009, 18:53
Se fossero 16rops io ci vedrei un segnale, ossia: risorse di R&D in rops non se ne spendono più e si investe altrove. In futuro magari si renderanno le alu sempre più general purpose ( come fa Intel con Larrabee ) e si eliminano le fixed functions, tranne le tmu.



Lo penso anch'io. Le dx8 e 9 hanno introdotto la programmabilità degli shaders, le dx 10 gli shaders unificati, le dx11 l'unità di tessellation interamente programmabile (il trueform di R200 che era il nonno di quello che vedremo in RV870 era solo in minima parte programmabile), la branching granularity (la capacità della gpu di lavorare su gruppi sempre più piccoli di thread per clock) si è sempre ridotta nel tempo aumentando la flessibilità delle gpu e si parla di gpu MIMD per la prossima generazione Nvidia. La direzione è quindi chiara:l'obiettivo è quello di rendere le gpu unità di calcolo sempre più programmabili e flessibili (se mi permettete l'azzardo sempre più simili alle cpu pur conservando il loro elevato parallelismo di calcolo) anche perchè il gp spinge in questa direzione: per applicazioni gp le rops e le tmu sono solo uno spreco di transistors quidni penso che se questo mercato si affermerà come ormai pare evidente o avremo due serie di gpu una pensata per il 3d (con rops e tmu) e una per il gp (con solo dispatch processor, registri e shader core) come già in parte fa Nvidia con Tesla, oppure il 3d dovrà adeguarsi e quello che oggi fanno unità fisse lo dovranno fare unità programmabili. ATi ha anticipato i tempi con il famigerato resolve via shader di R600 ed è stato un fallimento anche se i bench hanno poi mostrato che le prestazioni di R600 con AA attivo dipendessero solo in parte da quello.

Futura12
08-04-2009, 18:57
Ancora che credete alla favola delle patatine Larrabee? intel può cantare quanto gli pare...finche non vedo non credo..e sono diversi anni gia che parlano a vanvera.

Futura12
08-04-2009, 19:15
il fatto è che nella 4850 la GPU viene messa a 500 e le GDDR3 a 750.

poi comunque esiste ATT che permette di abbassare ultriolmete le frequenze e i voltaggi tipo 160/500 @ 0.840V

la 4850 è 625/993.

Futura12
08-04-2009, 19:18
Esattamente 10. O meglio, io mi attengo a i740 per quanto riguarda la grafica discreta Intel (e ghigno abbastanza). Quando e se uscirà il chip successore lo valuterò come faccio con tutto, ma per ora speranze di vedere un terzo concorrente non ne ho...

Appunto:asd: sono ben 10 anni...e l'unica scheda che hanno tirato fuori fino ora più potente va come una 6200LE forse meno...io non ho dubbi...intel sta solo parlando per il momento...ma non ha effettivamente le carte giuste per tirare fuori cio che dice...

Polpi_91
08-04-2009, 19:45
la 4850 è 625/993.

in idle passa a 500/750 per risparmiare

Futura12
08-04-2009, 19:47
in idle passa a 500/750 per risparmiare

Gran risparmio direi:asd: per il core lo sapevo per le ram...no.

Polpi_91
08-04-2009, 19:49
Gran risparmio direi:asd: per il core lo sapevo per le ram...no.

infatti per le ram mi sa che ho sparato una ca@@@ta perchè restano a 993

io però non me ne preoccupo molto perchè in idle la mia bestiolina passa a 160/500 @ 0.892V grazie ad ATT

Futura12
08-04-2009, 19:52
infatti per le ram mi sa che ho sparato una ca@@@ta perchè restano a 993

io però non me ne preoccupo molto perchè in idle la mia bestiolina passa a 160/500 @ 0.892V grazie ad ATT

Probabilmente solo nei sogni da quel che so il voltaggio non cambia. rimane sempre il solito e cioè 1.152v.

Polpi_91
08-04-2009, 19:54
Probabilmente solo nei sogni da quel che so il voltaggio non cambia. rimane sempre il solito e cioè 1.152v.

alcune come le GS e le Toxic non cambiano il voltaggio, le altre si.

in pratica quelle con il PBC ATI lo variano, le altre no

Milotto
08-04-2009, 20:30
No, ce l'ho a 1680, ma si può per esempio metterlo a 1440 rimanendo in nativa con una banda nera sui bordi, cosa che non ho mai avuto necessità di fare, ma che comunque si può per non avere artefatti dovuto allo scaling a risoluzione non nativa quando la VGA non ce la dovesse fare :>

Si si....ma con la VGA di cui disponi a 1680 puoi giocare a qualsiasi titolo, anche con l'AA8X ....

puoi evitare la schifezza di cornice se fai come ho scritto una pagina fa.
ma solo se il tuo monitor ha l'entrata hdmi

simuli quanto avviene con gli attuali CRT..o sbaglio?

CUT...
ATi ha anticipato i tempi con il famigerato resolve via shader di R600 ed è stato un fallimento anche se i bench hanno poi mostrato che le prestazioni di R600 con AA attivo dipendessero solo in parte da quello.

Proporre un architettura priva di unità fisse ma cmq in grado di proporre le medesime prestazioni che otteniamo oggi e ancor di più significa incrementare la capacità di calcolo degli shaders incredibilmente....non penso che questa transizione avverrà con la prossima generazione di GPU...

Mister Tarpone
08-04-2009, 20:41
Si si....ma con la VGA di cui disponi a 1680 puoi giocare a qualsiasi titolo, anche con l'AA8X ....



simuli quanto avviene con gli attuali CRT..o sbaglio?

si.

A.L.M.
08-04-2009, 21:37
Appunto:asd: sono ben 10 anni...e l'unica scheda che hanno tirato fuori fino ora più potente va come una 6200LE forse meno...io non ho dubbi...intel sta solo parlando per il momento...ma non ha effettivamente le carte giuste per tirare fuori cio che dice...

Veramente ci sono già alcuni bench nei giochi. Filtrati dal marketing sicuramente, ma non credo completamente fake. L'unica discriminante sarà capire quanti core conterrà la versione più potente, perchè la scalabilità di quell'architettura, se i bench fossero veri, è mostruosa. E' difficile che saranno subito competitivi fin dalla prima serie di gpu con la fascia alta o altissima DX11 della concorrenza, ma in quella media-medio/alta potrebbero tranquillamente dire la loro. ;)

Futura12
08-04-2009, 22:01
Veramente ci sono già alcuni bench nei giochi. Filtrati dal marketing sicuramente, ma non credo completamente fake. L'unica discriminante sarà capire quanti core conterrà la versione più potente, perchè la scalabilità di quell'architettura, se i bench fossero veri, è mostruosa. E' difficile che saranno subito competitivi fin dalla prima serie di gpu con la fascia alta o altissima DX11 della concorrenza, ma in quella media-medio/alta potrebbero tranquillamente dire la loro. ;)

i bench c'erano anche nel 2005 ma da quel di non ho ancora visto schede.

A.L.M.
08-04-2009, 22:17
i bench c'erano anche nel 2005 ma da quel di non ho ancora visto schede.

Quelli che ci sono adesso proprio no.
Siamo un po' OT, ma fatti un giro sul thread ufficiale di Larrabee e da' un'occhiata ai documenti, non credo che si faccia tanto marketing solo per del vaporware. Un conto è dire determinate cose, un altro è mostrare ad eventi ufficiali slides precise su hardware ben definito. Le date ci sono (prima metà 2010) ed i tempi sono maturi (la convergenza cpu-gpu). ;)

paolox86
09-04-2009, 14:00
Ma quindi secondo voi per giugno o per l'estate ce la faremo a vedere qualcosa di nuovo a 40 nm nella fascia alta?

Polpi_91
09-04-2009, 14:24
Ma quindi secondo voi per giugno o per l'estate ce la faremo a vedere qualcosa di nuovo a 40 nm nella fascia alta?

per ora non si hanno notizie di RV870

Athlon 64 3000+
09-04-2009, 18:14
Non penso proprio che si saprò qualcosa di RV870 a giugno.
Per me prima di settembre non esce.

gianni1879
09-04-2009, 18:16
non ho seguito gli ultimi aggiornamenti, ma rv740 che fine ha fatto??

halduemilauno
09-04-2009, 18:33
non ho seguito gli ultimi aggiornamenti, ma rv740 che fine ha fatto??

4 maggio.

Kharonte85
09-04-2009, 19:59
non ho seguito gli ultimi aggiornamenti, ma rv740 che fine ha fatto??

4 maggio.

O i 40nm sono problematici o vogliono finire le scorte delle hd4830/50

Futura12
09-04-2009, 20:04
O i 40nm sono problematici o vogliono finire le scorte delle hd4830/50

problematici? casomai vorranno finire le scorte mica se ne escono 2 giorni prima per fabbricare le schede...

A.L.M.
09-04-2009, 20:29
O i 40nm sono problematici o vogliono finire le scorte delle hd4830/50

Nessuna delle 2 cose, almeno non solo quello. La priorità è stata data ai notebook, che avevano bisogno di una gpu di fascia alta (da laptop) anche su pc di dimensioni contenute.
Quindi dato che sicuramente di parti a 40nm, essendo all'inizio, TSMC non ne può produrre a iosa, prima credo stiano facendo scorte per gli ordinativi dei produttori di note. ;)

Andrea deluxe
09-04-2009, 22:38
http://vr-zone.com/forums/416659/ati-partners-can-and-will-make-a-radeon-hd4890-x2.html

michelgaetano
10-04-2009, 01:25
http://vr-zone.com/forums/416659/ati-partners-can-and-will-make-a-radeon-hd4890-x2.html

Qui davvero serviranno le centrali atomiche :asd:

Oltre che sistemi di raffreddamento brutali, dual gpu a 1 ghz...

<^MORFEO^>
10-04-2009, 08:06
E le prime schede video con 4GB di ram :asd:

:eek:

(assolutamente inutili secondo me per adesso...)

goldorak
10-04-2009, 08:20
Qui davvero serviranno le centrali atomiche :asd:

Oltre che sistemi di raffreddamento brutali, dual gpu a 1 ghz...


Che brutta strada che stanno prendendo.... 375 fottutissimi W. :eek:
A 40nm voglio vedere tutte schede dual slot, corte e con consumi < 100W (eccetto per i modelli x2 dove va bene anche 200W).
Ce la faranno i nostri eroi a raggiungere questi obiettivi ? :rolleyes:

Maury
10-04-2009, 08:28
Due GPU a 1Ghz sullo stesso PCB manco se le vedo ci credo :p

Sarebbe un mostro in ogni caso :oink:

<^MORFEO^>
10-04-2009, 08:30
Che brutta strada che stanno prendendo.... 375 fottutissimi W. :eek:
A 40nm voglio vedere tutte schede dual slot, corte e con consumi < 100W (eccetto per i modelli x2 dove va bene anche 200W).
Ce la faranno i nostri eroi a raggiungere questi obiettivi ? :rolleyes:

:rotfl:

Consumeranno di meno si ma siccome alzeranno di molto le frequenze visti i 40nm, saremo da punto e accapo :rolleyes:

Kharonte85
10-04-2009, 08:39
problematici? casomai vorranno finire le scorte mica se ne escono 2 giorni prima per fabbricare le schede...
Intendevo che non riescono ancora a produrne in quantità...
Nessuna delle 2 cose, almeno non solo quello. La priorità è stata data ai notebook, che avevano bisogno di una gpu di fascia alta (da laptop) anche su pc di dimensioni contenute.
Quindi dato che sicuramente di parti a 40nm, essendo all'inizio, TSMC non ne può produrre a iosa, prima credo stiano facendo scorte per gli ordinativi dei produttori di note. ;)
Potrebbe essere...

Questa scheda si preanuncia essere un "gioiellino" sarebbe autolesionista non farla uscire il prima possibile evidentemente il pp a 40nm deve ancora maturare un po'.

manga81
10-04-2009, 08:43
O i 40nm sono problematici o vogliono finire le scorte delle hd4830/50

secondo me devono finire prima le scorte :D

Athlon 64 3000+
10-04-2009, 09:19
Se faranno la HD 4890x2 sarà un scheda doppiamente inultile.
Primo perchè penso che andare a fare una scheda ciuccia corrente nella fascia dove c'è gia la HD 4870x2 che è gia al limite come consumi e calore non ha senso(La GTX295 consuma addirittura meno).
Secondo se la lanciano gia dopo pochi mesi risulterà vecchia perchè mal che vada gia a inizio 2010 uscirà la HD 5870x2 che magari sarà più parca di consumi,ma andrà molto più veloce.

tmx
10-04-2009, 09:34
secondo me devono finire prima le scorte :D

cmq scorte o non scorte, mi pare che per rv740 ci siano state per ora meno fughe di notizie riguardanti i dettagli e i nomi delle versioni del chip che usciranno rispetto a quanto è stato per 4890, a parte la (ormai datata) recensione di guru3d... o sbaglio? :stordita:

Mercuri0
11-04-2009, 09:54
cmq scorte o non scorte, mi pare che per rv740 ci siano state per ora meno fughe di notizie riguardanti i dettagli e i nomi delle versioni del chip che usciranno rispetto a quanto è stato per 4890, a parte la (ormai datata) recensione di guru3d... o sbaglio? :stordita:

Mica tanto... AMD ha annunciato ufficialmente le nuove GPU per portatili che usano proprio RV740.

Probabilmente stanno vendendo RV740 ai portatilari intanto che finiscono le scorte di 4670, 4830 e 4850.

Ci sta che RV740 non sia andato bene come ci si aspettava (serve il connettore in più per l'alimentazione... 80W di TDP sta a dire "sob non ce l'abbiamo fatta"). Ciò nondimeno sarà la GPU più efficiente sulla piazza, almeno fino all'arrivo dei 40nm di nVidia di cui non si hanno notizie.

Mercuri0
11-04-2009, 09:59
Se faranno la HD 4890x2 sarà un scheda doppiamente inultile.

Pare l'abbiano chiesta ad AMD i produttori di schede... quindi pensano di venderne qualche esemplare.

Probabilmente faranno "la XXX 4890x2 OMG WTF Fatal1ty Edition OC"

Loll007
11-04-2009, 11:16
c'è una scimmietta sulla mia spalla che mi dice di risparmiare un pò di soldi per una 5870...ma è già finito il toto shaders? niente rumors su rv 870? nella road map ati non si diceva niente riguardo l'architettura?

The_SaN
11-04-2009, 15:11
Pare l'abbiano chiesta ad AMD i produttori di schede... quindi pensano di venderne qualche esemplare.

Probabilmente faranno "la XXX 4890x2 OMG WTF Fatal1ty Edition OC"950MHz per core, 4400MHz la ram e 400W di TDP :stordita:

Althotas
11-04-2009, 20:46
Probabilmente stanno vendendo RV740 ai portatilari intanto che finiscono le scorte di 4670, 4830 e 4850.

Ci sta che RV740 non sia andato bene come ci si aspettava (serve il connettore in più per l'alimentazione... 80W di TDP sta a dire "sob non ce l'abbiamo fatta"). Ciò nondimeno sarà la GPU più efficiente sulla piazza, almeno fino all'arrivo dei 40nm di nVidia di cui non si hanno notizie.

Mi pare impossibile che non salti fuori qualche RV740 che funzioni senza alimentazione aggiuntiva, magari quando avranno esaurito le 4670. Sono abbastanza ottimista in quel senso :).

ghiltanas
12-04-2009, 11:23
Auguri di buona pasqua a tutti :)

Althotas
12-04-2009, 23:35
Auguri di buona pasqua a tutti :)

Ricambio, e mi unisco :).

Andrea deluxe
13-04-2009, 07:58
http://vr-zone.com/articles/increasing-voltages--extreme-oc-hd-4890-using-rivatuner/6880.html?doc=6880

lor68pdit
14-04-2009, 09:04
Probabile uscita di HD4890X2 da 2 e 4GB di memoria GDDR5.
http://www.neowin.net/forum/index.php?showtopic=759222&pid=590850294&st=0&#entry590850294

Athlon 64 3000+
14-04-2009, 09:10
Questa volta lo dico sul serio,la HD 4890x2 se la faranno sarà la scheda più inutile del momento dato che a fine anno usciranno le HD 5000 series che saranno molto più veloci e longeve.

Gabriyzf
14-04-2009, 09:11
mi chiedo che senso abbiano 4 gb di ram :muro:

d.lo
14-04-2009, 09:19
mi chiedo che senso abbiano 4 gb di ram :muro:

ma non ha senso niente visto che la scheda farà 5 fps in più della 4870x2...

DakmorNoland
14-04-2009, 09:26
Questa volta lo dico sul serio,la HD 4890x2 se la faranno sarà la scheda più inutile del momento dato che a fine anno usciranno le HD 5000 series che saranno molto più veloci e longeve.

Sicuramente ma mai inutile come la 295gtx, cioè se fai una scheda falla bene, cioè almeno unico PCB come la 4870x2!! Invece no hanno preso due 275 e le hanno appiccicate con il biadesivo a mio parere un obrobrio. Quella roba non la definirei manco una scheda video! Poi per carità le dual gpu alla fine sono tutte inutili! Consumi incredibili e ottimizzazione come capita!!

Athlon 64 3000+
14-04-2009, 09:39
La metteranno fuori a minimo 450 euro e chi la prenderà dopo neanche 6 mesi avrà una scheda video già "vecchia" visto che scommetto verrà fuori la HD 5870x2 che sarà un vero missile in fatto di prestazioni.

ghiltanas
14-04-2009, 12:27
mi chiedo che senso abbiano 4 gb di ram :muro:

che poi bene o male prima aumentava la risoluzione standard dei giocatori, adesso se si guardano le firme molti hanno monitor a 1680*1050 o 1900*1200, quindi nn penso si salga ancora o cmq nn in tempi brevi...4gb nn li vedo affatto utili, nemmeno in caso di super risoluzione e ultra mod, quando hai già 1gb o 2 a esagerare sei apposto

pioss~s4n
14-04-2009, 13:23
Sicuramente ma mai inutile come la 295gtx, cioè se fai una scheda falla bene, cioè almeno unico PCB come la 4870x2!! Invece no hanno preso due 275 e le hanno appiccicate con il biadesivo a mio parere un obrobrio. Quella roba non la definirei manco una scheda video! Poi per carità le dual gpu alla fine sono tutte inutili! Consumi incredibili e ottimizzazione come capita!!

Ok ma che ti frega di com'è assemblata quando alla fin fine finisce sempre dentro al case (che si suppone per buon senso chiuso e al sicuro da molesti sguardi). Sembra il post dei luoghi comuni: consumi alti, scarsa ottimizzazione. Ricordarsi che queste schede nascono per soddisfare richieste puramente velocistiche, al grido di "ce l'ho più lungo io e ne vado fiero", piuttosto che basse richieste energetiche, confort acustico e pura ottimizzazione. Chi cerca ottimizzazione e performace punta sulle Gl\Quadro, chi solo ottimizzazione su schede da meno di 100$. L'high end consumer vga ingloba schede dai 200-400$ indirizzate a videgiocatori occasionali, hardcore gamers, e forum dipendenti: una minoranza.

ghiltanas
14-04-2009, 14:05
4GB su una dual-GPU equivalgono ai 2GB (a esagerare per essere apposto) di una single-GPU, quindi nessuna differenza :>

si quello lo so, però te nn paghi 2gb di ram ma 4 :p , quindi la sua differenza c'è :D

a me ste dual gpu hanno fatto schifo dal primo modello e continueranno a fare schifo finchè nn verranno realizzate come si deve, e nn accoppiando praticamente 2 schede, utilizzando memoria separata e nn condivisa

Foglia Morta
14-04-2009, 17:43
innovation vs rebranding... pigliano per il :ciapet:

http://img223.imageshack.us/img223/7268/20090414013935817110932.jpg

e qualche altra slide ( altre le avevo postate tempo fa in questo thread )

http://img152.imageshack.us/img152/7176/20090414013935517154593.jpg

http://img145.imageshack.us/img145/7903/20090414013935417161232.jpg

http://img220.imageshack.us/img220/1021/20090414013935317171867.jpg

http://img524.imageshack.us/img524/2390/20090414013935217179145.jpg

ghiltanas
14-04-2009, 19:05
se le prestazioni vengono confermate è mia al day 1 :O , questa scheda promette sfracelli; è la 8800gt della nvidia (al tempo in cui è stata lanciata ovviamente :D), solo che questa al lancio è accreditata per meno di 100 euro, e le prestazioni sono maggiori e ottime anche a risoluzioni elevate...Altra nota positiva il doppio slot, grande pecca della mia piccolina

ghiltanas
14-04-2009, 19:08
per quanto riguarda clear sky, hanno tirato fuori una patch per sfruttare le dx10.1? :confused: , inoltre il frame rate mi pare decisamente troppo elevato, chissà che impostazioni hanno usato :asd:

pioss~s4n
14-04-2009, 19:31
http://img145.imageshack.us/img145/7903/20090414013935417161232.jpg

una scala di valori che inizia da 0.8

:rolleyes:

ghiltanas
14-04-2009, 19:45
una scala di valori che inizia da 0.8

:rolleyes:

è che c'entra scusa? :mbe: in quel grafico le prestazioni della 4770 sono sempre superiori alla gt, quindi che senso avrebbe avuto far vedere il grafico per intero, partendo da 0? :rolleyes: nessuna

pioss~s4n
14-04-2009, 20:05
C'entra che ad una prima occhiata sembra che vada più di una 4870X2.. per forza andra più di una 8800gt, ma dalla scala di valori il divario è meno evidente di quanto sembra di primo acchito. Dilatare il range dei valori è un barbatrucco per ingigantire le performance.

Fantasydj
14-04-2009, 20:21
raga io stavo per prendere una tra 4890 e gtx275(che mi convince di più) ci sono novità su quella fascia di prezzo?
mi conviene aspettare? anke se la prox settimana vorrei cambiare...

ghiltanas
14-04-2009, 20:33
Forse vi sfugge che la scala non è in FPS ma in percentuale? :rolleyes:

a chi sfugge scusa? :confused: io personalente l'ho visto che è in percentuale :mbe:

michelgaetano
14-04-2009, 20:34
C'entra che ad una prima occhiata sembra che vada più di una 4870X2.. per forza andra più di una 8800gt, ma dalla scala di valori il divario è meno evidente di quanto sembra di primo acchito. Dilatare il range dei valori è un barbatrucco per ingigantire le performance.

Forse vi sfugge che la scala non è in FPS ma in percentuale? :rolleyes:

Quoto Rata.

Guardare in basso e notare che non è in fps ma in % no eh? :rolleyes:

Per inciso comunque, magari fa 15 fps dove la 8800 gt ne fa 10, fa pena comunque :asd:

Interessante comunque il dissipatore :D

a chi sfugge scusa? :confused: io personalente l'ho visto che è in percentuale :mbe:

Ci si riferiva a pioss.

Futura12
14-04-2009, 20:35
per quanto riguarda clear sky, hanno tirato fuori una patch per sfruttare le dx10.1? :confused: , inoltre il frame rate mi pare decisamente troppo elevato, chissà che impostazioni hanno usato :asd:

si,c'è gia da un bel po...

manga81
14-04-2009, 20:44
http://img145.imageshack.us/img145/7903/20090414013935417161232.jpg

una scala di valori che inizia da 0.8

:rolleyes:

è che c'entra scusa? :mbe: in quel grafico le prestazioni della 4770 sono sempre superiori alla gt, quindi che senso avrebbe avuto far vedere il grafico per intero, partendo da 0? :rolleyes: nessuna

sembra che la nuova 4770 vada moolto bene

4770 = 4850?

pioss~s4n
14-04-2009, 20:51
Quoto Rata.




Ci si riferiva a pioss.

caschi male anche con me perchè mi ero accorto che era in % ma la sostanza non cambia di una cippa. :D

come hai detto tu:

fa pena comunque

e aggiungo: grafici da sega.

pioss~s4n
14-04-2009, 20:56
sembra che la nuova 4770 vada moolto bene

4770 = 4850?

anche se fosse.. la 4850 sta già a 110€ (Aprile) fonte "trovaprezzi".
Questa dovrebbe uscirsene (Maggio) a 100$ U.S.A.? 100€ Italia..

dove sta l'euforia per il lancio che non la colgo!?

gianni1879
14-04-2009, 21:15
anche se fosse.. la 4850 sta già a 110€ (Aprile) fonte "trovaprezzi".
Questa dovrebbe uscirsene (Maggio) a 100$ U.S.A.? 100€ Italia..

dove sta l'euforia per il lancio che non la colgo!?

nn hai visto le slide?? :D

goldorak
14-04-2009, 23:19
C'entra che ad una prima occhiata sembra che vada più di una 4870X2.. per forza andra più di una 8800gt, ma dalla scala di valori il divario è meno evidente di quanto sembra di primo acchito. Dilatare il range dei valori è un barbatrucco per ingigantire le performance.

Come e' solita fare anche Nvidia. :Perfido:
Ad ogni modo i grafici sono veritieri, se poi uno non sa leggerli e' meglio che vada a nascondersi.

The_SaN
14-04-2009, 23:26
Sono definitivamente il tipo di grafico che non condivido, esagera le proporzioni visive.
Cosi come ho fatto con nVidia che al suo tempo fece qualcosa di simile, posso solo dire che proprio non mi piacciono ;)

Peró, prestazionalmente parlando, la differenza percentuale é davvero buona.

manga81
15-04-2009, 07:04
anche se fosse.. la 4850 sta già a 110€ (Aprile) fonte "trovaprezzi".
Questa dovrebbe uscirsene (Maggio) a 100$ U.S.A.? 100€ Italia..

dove sta l'euforia per il lancio che non la colgo!?

1° 100 dollari penso diventeranno 85euro

2° 4770 consuma quasi come la 4670

;)

Andrea deluxe
15-04-2009, 07:16
http://www.techpowerup.com/img/09-04-14/27a.png

Athlon 64 3000+
15-04-2009, 07:27
Non posso negare che fanno venire da ridere le slide AMD dato effettivamente si vede che prendono per il culo Nvidia,ma anche loro anche scritto della cavolate.
Primis RV670 è un refresh e non una nuova architettura come scrivono,stessa cosa per RV770 che è una evoluzione di RV670 e quindi niente nuova architettura,la terza slide su RV740 a 40nm è giusta.
Attendo il 4 maggio incuriosito di vedere le prestazioni della scheda.
Non vorrei che in qualche gioco dia anche la paga alla GTS250 alias 9800GTX+:D

Foglia Morta
15-04-2009, 07:33
[img]http://www.techpowerup.com/img/09-04-14/27a.png[/mg]

Per la 4890 c'è un thread ufficiale: http://www.hwupgrade.it/forum/showthread.php?t=1962465

Mercuri0
15-04-2009, 08:41
Tutto molto bello (a parte i grafici sega)

Ma io in questi giorni mi sto informando sulle GPU attuali per i portatili e sono in lutto
:cry: :cry: :cry: :cry: :cry:

La cosa assurda, è che mentre per la CPU sui portatili ce potenza da buttare e a parte il non essere quad core (chissene...) siamo a livelli desktop...

...sulle GPU c'è un abisso!! Se si arriva alle prestazioni di una 4650 pagandole pure care, c'è da essere felici. E la cosa ridicola è che i portatili vengono messi in ordine di CPU (mò ci sono pure le stelline di lntel) invece che in ordine di GPU, come se 100mhz sulla CPU significassero qualcosa al giorno d'oggi. :/

Sui 15'', il budget medio di TDP è di circa 30watt per la CPU e 20watt per la GPU.

20 watt!!! Sui 15''!!! :cry:

Bah :(

Speriamo che con i "fusion" la gente cambi il metro di valutazione per la cpu.

Mercuri0
15-04-2009, 08:49
Primis RV670 è un refresh e non una nuova architettura come scrivono,stessa cosa per RV770 che è una evoluzione di RV670 e quindi niente nuova architettura,la terza slide su RV740 a 40nm è giusta.
Beh, anche RV740 è una variante di RV770 a dirla tutta ;)

Comunque, direi che tra la HD2800, la HD3870 e la HD4870 che montano i chip che dici, c'è stata una "qual certa" differenza tale da giustificare lo sfottò a nVidia. :D

Per la cronaca: un'altra meraviglia dei nomi nVidia è la 9500M GE sui DELL XPS da 13''.

Infatti la "9500M" sui DELL indica uno SLI di una 9400M integrata + 9200M discreta. Per sapere questo, il "GE" bisogna trovarlo scritto in piccolo, e poi bisogna scoprire da qualche parte questa drammatica differenza con la "9500M GS" che invece è una GPU per davvero. ( :muro: :muro: )

Questo è inculare proprio con stile. :mad:

Poi il chip della 9200M Dell te lo fa pagare 80€. A parte che a loro costa meno di 10€, 80€ per una 9200M mi fa davvero specie se lo confronto con quello che si trova sui desktop per quella cifra :cry:

vabbé, sfogo ot.

Turin
15-04-2009, 11:08
Comunque, direi che tra la HD2800, la HD3870 e la HD4870 che montano i chip che dici, c'è stata una "qual certa" differenza tale da giustificare lo sfottò a nVidia. :D


Ma io direi che nVidia si sfotte da sola. :) Però Ati mi fa la stessa impressione se sbandiera le "innovazioni tecnologiche" in quel modo, visto che all'atto pratico le schede verdi sono altrettanto o più veloci di quelle rosse.

Comunque: secondo voi quando si potrà comprare una 4770 in Italia? Vorrei terminare il pc che ho assemblato a mio padre con una scheda prestante ma che consumi poco, per cui o prendo una 4670 ora o aspetto...

demos88
15-04-2009, 11:11
Comunque: secondo voi quando si potrà comprare una 4770 in Italia?

il mese prossimo
Questa volta lo dico sul serio,la HD 4890x2 se la faranno sarà la scheda più inutile del momento dato che a fine anno usciranno le HD 5000 series che saranno molto più veloci e longeve.
La AMD non ha detto che uscirà una reference x2, ma solo che i partner, se lo vorranno, potranno produrre hd4890x2. AMD ha fatto la scelta migliore, a perderci sono i partner nel caso di un flop.

ghiltanas
15-04-2009, 11:43
1° 100 dollari penso diventeranno 85euro

2° 4770 consuma quasi come la 4670

;)

3° doppio slot, contro il single slot di serie della 4850 ;)

ghiltanas
15-04-2009, 11:46
Tutto molto bello (a parte i grafici sega)

Ma io in questi giorni mi sto informando sulle GPU attuali per i portatili e sono in lutto
:cry: :cry: :cry: :cry: :cry:

La cosa assurda, è che mentre per la CPU sui portatili ce potenza da buttare e a parte il non essere quad core (chissene...) siamo a livelli desktop...

...sulle GPU c'è un abisso!! Se si arriva alle prestazioni di una 4650 pagandole pure care, c'è da essere felici. E la cosa ridicola è che i portatili vengono messi in ordine di CPU (mò ci sono pure le stelline di lntel) invece che in ordine di GPU, come se 100mhz sulla CPU significassero qualcosa al giorno d'oggi. :/

Sui 15'', il budget medio di TDP è di circa 30watt per la CPU e 20watt per la GPU.

20 watt!!! Sui 15''!!! :cry:

Bah :(

Speriamo che con i "fusion" la gente cambi il metro di valutazione per la cpu.

sai qual'è la cosa che + mi dispiace, che se sui portatili si diffondessero schede video decenti a prezzi umani, ne gioverebbe tantissimo il gaming su pc, perchè ormai molti acquistano portatili, però nn avendo schede grafiche adatte al gioco, per quest'aspetto magari comprano una console oppure nn giocano proprio...

pioss~s4n
15-04-2009, 11:57
Ad ogni modo i grafici sono veritieri, se poi uno non sa leggerli e' meglio che vada a nascondersi.

scusa?

Mercuri0
15-04-2009, 12:21
sai qual'è la cosa che + mi dispiace, che se sui portatili si diffondessero schede video decenti a prezzi umani, ne gioverebbe tantissimo il gaming su pc, perchè ormai molti acquistano portatili, però nn avendo schede grafiche adatte al gioco, per quest'aspetto magari comprano una console oppure nn giocano proprio...

Già, è quello che penso anche io. Solo che mentre il problema tecnico si può capire (una GPU per fisso può consumare 180Watt mentre una per notebook se arriva a 20w è già grossa), il guaio serio sono le integrate lntel che sono così diffuse.

E sopratutto il fatto che i notebook vengono "messi in ordine" di CPU anziché di GPU.

Ywes
15-04-2009, 12:46
Non posso negare che fanno venire da ridere le slide AMD dato effettivamente si vede che prendono per il culo Nvidia,ma anche loro anche scritto della cavolate.
Primis RV670 è un refresh e non una nuova architettura come scrivono,stessa cosa per RV770 che è una evoluzione di RV670 e quindi niente nuova architettura,la terza slide su RV740 a 40nm è giusta.
Attendo il 4 maggio incuriosito di vedere le prestazioni della scheda.
Non vorrei che in qualche gioco dia anche la paga alla GTS250 alias 9800GTX+:D

L'RV740 non riesce nemmeno a vederla la GTS250! Ho visto dei bench in rete e la RV740 sta tra una 4830 ed una 4850, quindi non può farcela contro una GTS250 che va anche più veloce di una 4850 in alcuni giochi!

Matalf
15-04-2009, 12:54
E sopratutto il fatto che i notebook vengono "messi in ordine" di CPU anziché di GPU.

il vero problema e il 95% di chi compra una notebook non sa minimamente cosa sia una S.Video e si fa impressionare dai numeroni!!!

E i produttori se ne approfittano :muro:




CMQ in attesa di RV870 anche perchè RV790 è stato una delusione :(

pioss~s4n
15-04-2009, 13:46
il vero problema e il 95% di chi compra una notebook non sa minimamente cosa sia una S.Video e si fa impressionare dai numeroni!!!

E i produttori se ne approfittano :muro:




CMQ in attesa di RV870 anche perchè RV790 è stato una delusione :(

Molte persone che acquistano notebook\netbook sono professionisti in movimento che cercano connessioni internet, un minimo di affidabilità, e comparto batteria adeguato. Le schede video prestanti vengono montate su workstation mobili anche qui per far fronte ad esigenze specifiche. Per forza la maggior parte di chi compra queste apparecchiature non sa cosa sia una scheda video, proprio perchè non sa che farsene.

Fantasydj
15-04-2009, 14:07
ma in uscita c'è solo la 4770 che diciamo sarà rivale di 9800gt/gtx? se nn ho capito male...
4890 secondo me è la sk video più inutile della storia....
che senso ha comprarla -.-?
le hd5000 a quando???????

edit:
ho trovato questa new in giro:

Arrivano nuove informazioni sul chip ATi RV870 che dovrebbe integrare 1000SP e utilizzare il processo a 40nm.
Il chip dovrebbe arrivare già nel Q1 dell'anno sul mercato.
Le prestazioni dovrebbero essere di circa 1.5Tflop ma in mancanza di dettagli sull'architettura è difficile calcolarle.
Le dimensioni del core saranno di 205mm² contro i 256mm² dell'attuale RV770 grazie al nuovo processo produttivo.
Per le memorie sembra scontato l'uso di GDDR5 con una banda di 150-160GB grazie a una interfaccia a 512bit collegata a 1GB di memoria come standard.
La soluzione dual-GPU sarà proposta attraverso due die su un unico package in maniera simile a quello già visto nei processori quadcore Intel.
AMD ha lavorato particolarmente sui consumi che in IDLE saranno minori delle schede attuali mentre non ci sono informazioni per il LOAD.
La scheda supporterà le DX11 che arriveranno solo a metà 2009.


e quest'altra:


Un pò di dettagli sulle nuove Radeon HD serie 5800! Non si sa bene se siano solo rumor o se siano notizie attendibili, nel frattempo vi svelo un pò di particolari su come potrebbero essere queste nuove e potenti schede!

Inizio subito con il nome della futura top gamma, la Radeon HD 5870 X4.

Avete letto bene, X4, con una GPU principale (master chip) di dimensioni più grandi e 4 "secondarie" (slave).

Per capire meglio di cosa sto parlando ecco un pò di immagini:




Ora se le informazioni a riguardo della dimensione del die sono vere, cioè di 205mm², ATI potrebbe vendere queste nuove schede ad un prezzo davvero competitivo. Queste è una stima iniziale dei prezzi:

Radeon HD 5870 X4 (Dual MCM, 800MHz Core, 2GB 1200MHz GDDR5) - $649
Radeon HD 5870 X2 (MCM, 800MHz Core, 1GB 1200MHz GDDR5) - $349
Radeon HD 5870 (800MHz Core, 512MB 1200MHz GDDR5) - $199
Radeon HD 5850 (600-650MHz Core, 512MB 1100MHz GDDR3) - $129

Il numero di Stream Processor sul chip RV870 potrebbe crescere fino ad un totale di mille unità, che si traduce in una potenza di calcolo di 1.5 teraflops.

La capacità delle memorie potrebbere raggiungere i 150-160 Gbit/s, se si conta che la HD 4870 con il suo bus a 256-bit e le memorie a 3600MHz raggiunge una capacità di 115.2 Gbit/s. Le memorie del RV870 possono raggiungere la frequenza di 4800MHz. Quimonda ha già rilasciato dei chip che lavorano a 5000MHz.

Riassunto delle specifiche:

integrated memory controller
960 or 1000 shaders
~850 core clocks
~4800GHz ram clocks(can easily overclock to low 5GHz)
1-4GB ram configurations depending on how many GPUs
256 bit ram, 512 bit ram possible with revisions.
dx10.1 now with dx11 for refresh revision

Info:
HD 5450 -> 640 SP + 16 TMUs (1 master chip)
HD 5650 -> 1280 SP + 32 TMUs (1 master chip + 1 slave)
HD 5670 -> 1920 SP + 48 TMUs (1 master chip + 2 slaves)
HD 5850 -> 2560 SP + 64 TMUs (1 master chip + 3 slaves)
HD 5870 -> 3200 SP + 80 TMUs (1 master chip + 4 slaves)

da altre parti ho letto che l'uscita è programmata per giugno/luglio....
ho letto un mare di cazz..e o è vero?
potete illuminarmi un po ^^ se è così mi sa che nvidia andrà in fallimento... :S 1000sp e 512 bit :Q___

pioss~s4n
15-04-2009, 14:23
ma in uscita c'è solo la 4770 che diciamo sarà rivale di 9800gt/gtx? se nn ho capito male...
4890 secondo me è la sk video più inutile della storia....
che senso ha comprarla -.-?


Io possiedo una 3870 e un monitor 24''.
Credo che a breve sostituirò scheda video. Secondo te restando su ati, comprerò una 4870 o una 4890?

Defragg
15-04-2009, 14:28
Io possiedo una 3870 e un monitor 24''.
Credo che a breve sostituirò scheda video. Secondo te restando su ati, comprerò una 4870 o una 4890?

Imho faresti meglio ad aspettare un po' :stordita:

Fantasydj
15-04-2009, 14:30
Io possiedo una 3870 e un monitor 24''.
Credo che a breve sostituirò scheda video. Secondo te restando su ati, comprerò una 4870 o una 4890?

su un 24" direi una 4870 1gb(169€) ^^ 40€ in meno per una differenza prestazionale del 8% alla fin dei conti la 4890 è una 4870 occata...

questo è solo un mio parere, forse sto sbagliando in caso correggimi tu :)

edit:ovviamente se la prendi subito altrimenti se puoi aspettare io aspetterei la serie 5xxx ^^ alla fin dei conti la 3870 nn è proprio da buttare ^^

Andrea deluxe
15-04-2009, 14:38
cut

fantastico in tutti i sensi....

pioss~s4n
15-04-2009, 14:41
Non ha senso comprare 4870 con una 4890 a soli 30€ in più, consumi in idle più bassi senza alcuna modifica e prestazioni velocistiche superiori con ampi margini di oc. Una sapphire liscia 4890 è già reperibile a 200€.
Capisco gli acquirenti recenti di 4870, vedersela svalutare nell'usato giorno dopo giorno è una sassata ai coglioni, anche perchè la 4890 dai test in oc sembra salire bene e con un costo di 200$ è un grande acquisto. Bisogna però dire le cose come stanno. :D

michelgaetano
15-04-2009, 14:45
Non ha senso comprare 4870 con una 4890 a soli 30€ in più, consumi in idle più bassi senza alcuna modifica e prestazioni velocistiche superiori con ampi margini di oc. Una sapphire liscia 4890 è già reperibile a 200€.


Probabilmente per 30 euro anche io andrei sulla 4890, in particolare con un monitor simile.

COmunque non la trovo la Sapphire a 200, vedo la Powercolor a 205 :D

Ywes
15-04-2009, 17:52
ma in uscita c'è solo la 4770 che diciamo sarà rivale di 9800gt/gtx? se nn ho capito male...
4890 secondo me è la sk video più inutile della storia....
che senso ha comprarla -.-?
le hd5000 a quando???????

edit:
ho trovato questa new in giro:

Arrivano nuove informazioni sul chip ATi RV870 che dovrebbe integrare 1000SP e utilizzare il processo a 40nm.
Il chip dovrebbe arrivare già nel Q1 dell'anno sul mercato.
Le prestazioni dovrebbero essere di circa 1.5Tflop ma in mancanza di dettagli sull'architettura è difficile calcolarle.
Le dimensioni del core saranno di 205mm² contro i 256mm² dell'attuale RV770 grazie al nuovo processo produttivo.
Per le memorie sembra scontato l'uso di GDDR5 con una banda di 150-160GB grazie a una interfaccia a 512bit collegata a 1GB di memoria come standard.
La soluzione dual-GPU sarà proposta attraverso due die su un unico package in maniera simile a quello già visto nei processori quadcore Intel.
AMD ha lavorato particolarmente sui consumi che in IDLE saranno minori delle schede attuali mentre non ci sono informazioni per il LOAD.
La scheda supporterà le DX11 che arriveranno solo a metà 2009.


e quest'altra:


Un pò di dettagli sulle nuove Radeon HD serie 5800! Non si sa bene se siano solo rumor o se siano notizie attendibili, nel frattempo vi svelo un pò di particolari su come potrebbero essere queste nuove e potenti schede!

Inizio subito con il nome della futura top gamma, la Radeon HD 5870 X4.

Avete letto bene, X4, con una GPU principale (master chip) di dimensioni più grandi e 4 "secondarie" (slave).

Per capire meglio di cosa sto parlando ecco un pò di immagini:




Ora se le informazioni a riguardo della dimensione del die sono vere, cioè di 205mm², ATI potrebbe vendere queste nuove schede ad un prezzo davvero competitivo. Queste è una stima iniziale dei prezzi:

Radeon HD 5870 X4 (Dual MCM, 800MHz Core, 2GB 1200MHz GDDR5) - $649
Radeon HD 5870 X2 (MCM, 800MHz Core, 1GB 1200MHz GDDR5) - $349
Radeon HD 5870 (800MHz Core, 512MB 1200MHz GDDR5) - $199
Radeon HD 5850 (600-650MHz Core, 512MB 1100MHz GDDR3) - $129

Il numero di Stream Processor sul chip RV870 potrebbe crescere fino ad un totale di mille unità, che si traduce in una potenza di calcolo di 1.5 teraflops.

La capacità delle memorie potrebbere raggiungere i 150-160 Gbit/s, se si conta che la HD 4870 con il suo bus a 256-bit e le memorie a 3600MHz raggiunge una capacità di 115.2 Gbit/s. Le memorie del RV870 possono raggiungere la frequenza di 4800MHz. Quimonda ha già rilasciato dei chip che lavorano a 5000MHz.

Riassunto delle specifiche:

integrated memory controller
960 or 1000 shaders
~850 core clocks
~4800GHz ram clocks(can easily overclock to low 5GHz)
1-4GB ram configurations depending on how many GPUs
256 bit ram, 512 bit ram possible with revisions.
dx10.1 now with dx11 for refresh revision

Info:
HD 5450 -> 640 SP + 16 TMUs (1 master chip)
HD 5650 -> 1280 SP + 32 TMUs (1 master chip + 1 slave)
HD 5670 -> 1920 SP + 48 TMUs (1 master chip + 2 slaves)
HD 5850 -> 2560 SP + 64 TMUs (1 master chip + 3 slaves)
HD 5870 -> 3200 SP + 80 TMUs (1 master chip + 4 slaves)

da altre parti ho letto che l'uscita è programmata per giugno/luglio....
ho letto un mare di cazz..e o è vero?
potete illuminarmi un po ^^ se è così mi sa che nvidia andrà in fallimento... :S 1000sp e 512 bit :Q___

No vedo ne il link alle foto ne il link all'articolo originale! Saresti cosi gentile da linkarceli? :)

Futura12
15-04-2009, 17:54
ahahahahahha 3200SP ma chi ce crede? manco i polli...che idiozie che girano:asd:

The_SaN
15-04-2009, 19:22
E' un'azzardata ipotesi scherzosa lanciata non mi ricordo da chi sul forum di B3D molti mesi fa...Sono oldissime :asd:

travis^__^
15-04-2009, 19:36
E' un'azzardata ipotesi scherzosa lanciata non mi ricordo da chi sul forum di B3D molti mesi fa...

3200? si parlava poche pagine fa di max 2000 se non erro.:)

Mister Tarpone
15-04-2009, 19:51
3200 mi sembra veramente eccessivo...

io ho sparato 1920....

vedremo...

Fantasydj
15-04-2009, 19:52
No vedo ne il link alle foto ne il link all'articolo originale! Saresti cosi gentile da linkarceli? :)

la prima è fonte di:HARDSPELL

la seconda fonte (http://bbs.chiphell.com/viewthread.php?tid=38229&extra=page%3D1)

anke a me 3200 mi sembra na cavolata ma 1000 ci stanno tutti ;)

Polpi_91
15-04-2009, 20:00
la prima è fonte di:HARDSPELL

la seconda fonte (http://bbs.chiphell.com/viewthread.php?tid=38229&extra=page%3D1)

anke a me 3200 mi sembra na cavolata ma 1000 ci stanno tutti ;)

secondo me anche 1200

si potrebbe aprire un sondaggio: quanti SP avranno le nuove schede Ati?

Fantasydj
15-04-2009, 20:37
ma la data è quella? metà anno?

ghiltanas
15-04-2009, 20:50
secondo me anche 1200

si potrebbe aprire un sondaggio: quanti SP avranno le nuove schede Ati?

l'aveva già lanciato ratatosk quel sondaggio, in via nn ufficiale, qualche pagina addietro ;)

Futura12
15-04-2009, 21:02
io non ci vedo alcuna utilità in una cosa del genere. :boh:

Quoto,comunque non credo andranno oltre le 1400SP realisticamente parlando per il top di gamma single gpu.

Gabriyzf
15-04-2009, 21:07
io dico 1200 sp ;)

Fantasydj
15-04-2009, 22:46
ma ci sono voci che dicono quando saranno disponibili in commercio queste nuove sk video?

MonsterMash
15-04-2009, 23:42
Io dico 1600 :D.

manga81
16-04-2009, 07:04
L'RV740 non riesce nemmeno a vederla la GTS250! Ho visto dei bench in rete e la RV740 sta tra una 4830 ed una 4850, quindi non può farcela contro una GTS250 che va anche più veloce di una 4850 in alcuni giochi!

prezzo/prestazioni/consumi la 4770 sarà un best seller ;)

Foglia Morta
16-04-2009, 07:23
Sfrutteranno le DX10.1 e DX11 ( a parole, nei fatti si vedrà ). Comunque potrebbe essere il gioco pc che usa il tessellatore delle DX11 :ave:

secondo me per il futuro non sfruttare le DX10.1 sarà più una scelta di marketing piuttosto che una scelta tecnica.

http://www.pcgameshardware.com/aid,681665/DirectX-11-Battlefields-Frostbite-Engine-already-ported/News/
Johan Anderson, Rendering Architect at DICE, revealed some details about the Frostbite Engine, which is the base for the Battlefield games.

At the beginning of the porting progress the developer had to face a cross platform engine (PC, Xbox 360, PS3) with an exclusive DirectX 10 rendering path that had DX 10.0 and DX 10.1 features. The actual port of the Engine from DirectX 10 to DirectX 11 was done in three hours said Anderson. Searching and replacing the relevant parts inside the code required the most time.

Since currently there is no DirectX 11 hardware or appropriate development software, the Frostbite Engine was equipped with a switch inside the compiler that can be changed to DirectX 10 or DirectX 11. The developers at DICE are certain that the CPU load during API calls can be reduced noticeably with DirectX 11 drivers. Among other things the Frostbite DirectX 11 Engine offers HDR texture compression, Compute Shader and hardware tessellation for characters and terrain.

With Battlefield: Bad Company 2 and Battlefield 1943 there are two more games of the Battlefield series are based on the Frostbite Engine

ghiltanas
16-04-2009, 10:47
Sfrutteranno le DX10.1 e DX11 ( a parole, nei fatti si vedrà ). Comunque potrebbe essere il gioco pc che usa il tessellatore delle DX11 :ave:

secondo me per il futuro non sfruttare le DX10.1 sarà più una scelta di marketing piuttosto che una scelta tecnica.

http://www.pcgameshardware.com/aid,681665/DirectX-11-Battlefields-Frostbite-Engine-already-ported/News/
Johan Anderson, Rendering Architect at DICE, revealed some details about the Frostbite Engine, which is the base for the Battlefield games.

At the beginning of the porting progress the developer had to face a cross platform engine (PC, Xbox 360, PS3) with an exclusive DirectX 10 rendering path that had DX 10.0 and DX 10.1 features. The actual port of the Engine from DirectX 10 to DirectX 11 was done in three hours said Anderson. Searching and replacing the relevant parts inside the code required the most time.

Since currently there is no DirectX 11 hardware or appropriate development software, the Frostbite Engine was equipped with a switch inside the compiler that can be changed to DirectX 10 or DirectX 11. The developers at DICE are certain that the CPU load during API calls can be reduced noticeably with DirectX 11 drivers. Among other things the Frostbite DirectX 11 Engine offers HDR texture compression, Compute Shader and hardware tessellation for characters and terrain.

With Battlefield: Bad Company 2 and Battlefield 1943 there are two more games of the Battlefield series are based on the Frostbite Engine

speriamo veramente l'adozione delle dx11 sia rapida e porti benefici tangibili...
battlefield è un gioco che nn mi piace, però è molto giocato e fa piacere vedere che giochi importanti stiano pensando a passi cosi significativi

ghiltanas
16-04-2009, 10:48
prezzo/prestazioni/consumi la 4770 sarà un best seller ;)

e che è un libro? :D

Athlon 64 3000+
16-04-2009, 11:01
Sarebbe bello se RV870 sarà con 1600SP facendo cosi che avrà un potenza mostruosa persino rispetto alla HD 4890.
Se ho capito bene Battlefield:Bad Company 2 sarà solo dx10 con anche il path dx 10.1 e potrebbe sfruttare anche le dx11.

ghiltanas
16-04-2009, 11:03
Sarebbe bello se RV870 sarà con 1600SP facendo cosi che avrà un potenza mostruosa persino rispetto alla HD 4890.
Se ho capito bene Battlefield:Bad Company 2 sarà solo dx10 con anche il path dx 10.1 e potrebbe sfruttare anche le dx11.

anch'io avevo ipotizzato 1600sp...tanto è inutile per sfruttare bene le dx10 mi sa tanto che ci voglia una potenza spropositata

Fantasydj
16-04-2009, 12:00
a me nn risponde nessuno :°( cmq 1600sp fanno il culo a nvidia che nn è andata oltre 240 :o chissà se nvidia triplicherà ! XD

Foglia Morta
16-04-2009, 13:14
http://brightsideofnews.com/news/2009/4/15/amds-next-gen-bulldozer-is-a-128-bit-crunching-monster.aspx

In questo articolo, si accenna qualcosa cui non avevo minimamente pensato.

Globalfoundries ha annunciato i 32nm da un po', per produzioni a fine 2009. Che saltino i 40nm made in TSMC?

Globalfoundries accetterà ordini a fine 2009, IMO le schede saranno sul mercato a Marzo o Aprile 2010. Penso che tutta la serie HD5000 sarà a 40nm

ghiltanas
16-04-2009, 13:20
http://www.pcgameshardware.com/aid,681735/Ati-Radeon-HD-4750-PCI-E-power-connector-required/News/

Foglia Morta
16-04-2009, 13:41
Per l'appunto -.-

http://www.pcgameshardware.com/aid,681739/Globalfoundries-announced-GPU-production-in-32-and-28-nanometers/News/

Qui sostengono che i 32 sono già in produzione e i 28 lo saranno presto.

Bisogna vedere quale fase della produzione. Dall'intervista linkata nello stesso articolo:

X-bit labs: It is rather well known that the vast majority of chips are produced using rather mature process technologies, e.g. 65nm and older. However, the first bulk process tech Globalfoundries will launch is 32nm tech. Isn’t such a plan too ambitious?

Tom Sonderman: We don’t believe so. 32nm bulk silicon is already running in Dresden and we’ll be ready to accept customer designs later this year with an aggressive production ramp in 2010. We have proved time and time again (90nm, 65nm, 45nm) that we can adopt leading-edge technologies at mature yields as well or better than anyone else in the industry. We expect this trend to continue with 32nm.

ghiltanas
16-04-2009, 14:13
imho è un azzardo passare direttametne ai 32nm, saltando lo step dei 40...
secondo me prima voglio studiarli meglio, e riservarseli per un refresh futuro di rv870..
(con i 32nm si possono realizzare cosine veramente interessanti :) )

d.lo
16-04-2009, 14:19
Le due archietture non sono confrontabili nei numeri grezzi delle unità. Sono molto diverse strutturalmente sia a livello globale che per quanto riguarda le singole unità ;)

quoto:O

MadJackal
16-04-2009, 14:40
a me nn risponde nessuno :°( cmq 1600sp fanno il culo a nvidia che nn è andata oltre 240 :o chissà se nvidia triplicherà ! XD

Nvidia usa un approccio più "fine" (pochi shader che fan tutto, ad alta velocità di clock). ATI ha un approccio più "brutale", tanti shader che fanno operazioni semplici.

Leggevo su beyond3d tempo fa che i programmatori amano ATI, i publisher NVIDIA :asd:

Fantasydj
16-04-2009, 20:05
per i 40nm cioè la serie hd5xxx quando sono in programma di uscire più o meno?

demos88
16-04-2009, 22:34
i publisher NVIDIA :asd:
vuoi mettere il logo nvidia che fa figo :sofico:

ghiltanas
16-04-2009, 22:41
per i 40nm cioè la serie hd5xxx quando sono in programma di uscire più o meno?

difficile dirlo con precisione, perchè nn si sa...al momento ognuno dice la sua, io dico che si va a inizio q4 (settembre ottombre)

michelgaetano
16-04-2009, 23:42
difficile dirlo con precisione, perchè nn si sa...al momento ognuno dice la sua, io dico che si va a inizio q4 (settembre ottombre)

Si parlava proprio di Agosto-Settembre.

Foglia Morta
17-04-2009, 11:03
http://www.fudzilla.com/index.php?option=com_content&task=view&id=13231&Itemid=1

Windows 7 to natively support HD 4890 and HD4770

Drivers on installation disc

AMD has scored a nice victory and it looks like they will get their drivers for HD 4890 and HD 4770 cards on the Windows 7 installation disk.


We are not sure if these drives will be the best one at the time of Windows 7 release but at least they will work out of the box and we are sure that Nvidia will try to strike such a deal for its top models.

We are not sure what happens with the previous models but since ATI has Catalyst there is a chance that much more ATI cards will be natively supported by Windows 7. The question if the 3D acceleration will also get supported out of the box remains unanswered but we can recommend that once you get Windows 7 final and if you have the latest Radeon card, simply go and get the latest drivers to ensure that your games run fast.

Windows 7 is we still hope scheduled for release in 2009 but we don’t know any fixed date except it should happen in the second half of 2009.

Mercuri0
17-04-2009, 11:26
Globalfoundries ha annunciato i 32nm da un po', per produzioni a fine 2009. Che saltino i 40nm made in TSMC?
Impossibile. Comunque, oltre che dover verificare quant'è il carico di produzione che GF può sopportare, c'è anche da dire che GF sta ricercando i 32nm sia SOI che bulk, e che per il processo bulk che riguarderebbe le GPU, è la prima volta che ci provano (almeno in tempi recenti).

ghiltanas
17-04-2009, 16:12
Si parlava proprio di Agosto-Settembre.

mmm io agosto lo escluderei, per me nn è un buon mese per lanciare qualcosa di importante...settembre può essere un buon candidato

Mercuri0
17-04-2009, 17:04
a me nn risponde nessuno :°( cmq 1600sp fanno il culo a nvidia che nn è andata oltre 240 :o chissà se nvidia triplicherà ! XD
Ma no... imo è difficile che si ripeterà quando visto con la serie 4xxx. A 'sto giro le cose dovrebbero andare nel verso "normale", sempre se ATI progetta per la fascia media e nVidia per la fascia ultra.

Nella partita verdi vs rossi io sono più curioso di vedere il ruolo della 5850 e la risposta di nVidia. Questa volta non può più fare affidamento sul "buon vecchio" G92, e se progetta per la fascia "ultra" rischia di trovarsi scoperta nella "nicchia 5850".

Il DX11 lo si vende molto più facilmente del DX10.1 ...

Drakogian
17-04-2009, 17:08
Sono d'accordo... la partita si giocherà sulla futura 5850 (e aggiungerei anche la 5870) specie se mantengono lo stesso rapporto prezzo/prestazioni della serie precedente.

mircocatta
17-04-2009, 17:14
se il recuper di ati continua anche con la serie rv870, ci sarà un bel sorpasso, visto che già rv790 è più veloce della gtx285..sorpatutto a 1200/1200 :asd: :eek:

Mister Tarpone
17-04-2009, 17:56
se il recuper di ati continua anche con la serie rv870, ci sarà un bel sorpasso,
si, se si confronta il prossimo chip ati contro il gt200 certamente :asd:
peccato che anche nvidia se ne uscirà con i nuovi chip GT300 :ciapet:

visto che già rv790 è più veloce della gtx285..sorpatutto a 1200/1200 :asd: :eek:

seee...imho a 1200/1200 ti si inchioda dopo un oretta che ci giochi..
leggendo in giro mi sembra che la 4890 mediamente come oc per giocarci la puoi tenere a 920/950 di core ;)

ghiltanas
17-04-2009, 18:03
e cmq nn si può certo tralasciare i consumi...credo che entrambe le architetture vadano piuttosto riviste, se si aumenta troppo la forza bruta con queste architetture come base (specie con le ati)i consumi vanno alle stelle (e già ora nn è che siano bassini)...

Pihippo
17-04-2009, 18:49
e cmq nn si può certo tralasciare i consumi...credo che entrambe le architetture vadano piuttosto riviste, se si aumenta troppo la forza bruta con queste architetture come base (specie con le ati)i consumi vanno alle stelle (e già ora nn è che siano bassini)...
Per i consumi in idle:
Forse ad ati converrebbe un chip per il 2d.
Per il 3d:
Oddio se uno va a vedere la potenza "teorica" per watt sono messi bene.

ghiltanas
17-04-2009, 19:07
Per i consumi in idle:
Forse ad ati converrebbe un chip per il 2d.
Per il 3d:
Oddio se uno va a vedere la potenza "teorica" per watt sono messi bene.

mi riferivo principalmente a quello...voglio vedere se anche con le 5000 nn lo implementano

Mercuri0
17-04-2009, 19:09
Per i consumi in idle:
Forse ad ati converrebbe un chip per il 2d.

Entrambi i produttori usano la parte 3d per emulare l'accelerazione 2d sulle schede moderne, mi sa. E comunque ormai quali interfacce grafiche usano la 2d?

In ogni caso, ragionare in termini di "chip esterno" è una fallacia, perché come vado dicendo sempre e ovunque, è solo una questione di "scatole, piedini e velocità delle interconnessioni".

Cioé quello per cui ti semprerebbe utile un "chip esterno" potrebbe essere benissimo messo dentro il chip principale, con suo clock, sua alimentazioe, etc etc.

Comunque molti indizi sul futuro verranno fuori dalla 4770.

Mercuri0
17-04-2009, 19:11
mi riferivo principalmente a quello...voglio vedere se anche con le 5000 nn lo implementano

Le nvidia hanno un chippino esterno solo perché dentro il GT200 non c'entrava come spazio.

edit: anche il G80 non era piccolo.

Mercuri0
17-04-2009, 19:18
se il recuper di ati continua anche con la serie rv870, ci sarà un bel sorpasso, visto che già rv790 è più veloce della gtx285..sorpatutto a 1200/1200 :asd: :eek:

Ma scusate, se tutto va come ci si aspetta:

- ATI esce prima con un chip "performance" e fa 5850 e 5870 e a poca distanza la 5870x2

- nVidia dovrebbe uscire dopo con un chip "enthusiast", di sicuro la GTX360 sarà più veloce della 5870: nVidia fisserà apposta le specifiche per esserlo (perché a differenza della volta scorsa in cui dovette "aggiustare il tiro", saprà già le prestazioni della 5870).

- 5870x2 vs GTX380? Boh.

Questo è lo scenario più plausibile, ma ovviamente può succedere di tutto, sopratutto se i 40nm di TSMC sono ancora brutti come si dice, o se uno dei due fa una sorpresa nei tempi e nelle strategie.

michelgaetano
17-04-2009, 19:38
.imho a 1200/1200 ti si inchioda dopo un oretta che ci giochi.

Io non credo neanche che ci fai partire i giochi :sofico:

Per OC serio comunque imo dobbiamo aspettare soluzioni non reference :D

Il fatto che si prenda 1200 di core è solo un segnale positivo, ma nulla più imho.

Pihippo
17-04-2009, 20:11
Entrambi i produttori usano la parte 3d per emulare l'accelerazione 2d sulle schede moderne, mi sa. E comunque ormai quali interfacce grafiche usano la 2d?

In ogni caso, ragionare in termini di "chip esterno" è una fallacia, perché come vado dicendo sempre e ovunque, è solo una questione di "scatole, piedini e velocità delle interconnessioni".

Cioé quello per cui ti semprerebbe utile un "chip esterno" potrebbe essere benissimo messo dentro il chip principale, con suo clock, sua alimentazioe, etc etc.

Comunque molti indizi sul futuro verranno fuori dalla 4770.

Concordo. E' corretto dire una parte di chip che gestisce le situazioni idle.....
Edit:
Gt200 ha un vero e proprio chip esterno. Nvio. Questo è probabilmente insieme ad un aggressivo clock gating la ragione del perchè Gt200 in idle consuma poco.

Mercuri0
17-04-2009, 23:53
ma ovviamente può succedere di tutto
:sofico:
Giusto a proposito. Su beyond3d l'amico dell'amico, che ha un cugino che lavora in nVidia, lascia intendere che anche nVidia andrà di X2 per la fascia alta.
http://forum.beyond3d.com/showpost.php?p=1287222&postcount=673

Voce intrigante, quando hal riesuma il post sulle nVidia è da ripostare (insieme alle previsioni sui tempi, commentate nello stesso thread di beyond3d)

goldorak
18-04-2009, 00:09
Concordo. E' corretto dire una parte di chip che gestisce le situazioni idle.....
Edit:
Gt200 ha un vero e proprio chip esterno. Nvio. Questo è probabilmente insieme ad un aggressivo clock gating la ragione del perchè Gt200 in idle consuma poco.


Gia' e spero che continuino ad usarlo anche nelle prossime gpu. Ati ha fatto male secondo me ad abbandonare le primitive 2d dedicate (visto che poi il consumo in idle e' tutto fuorche' trascurabile :rolleyes:). Con gpu che hanno centinaia di milioni se non 1 miliardo di transistor, quanto gli costa veramamente lasciare qualche transistor per circuiti 2d dedicati. Poi non e' che questi circuiti vengono "sciupati", trovano il loro perche' proprio nel consumo basso in idle.

mircocatta
18-04-2009, 08:11
Io non credo neanche che ci fai partire i giochi :sofico:

Per OC serio comunque imo dobbiamo aspettare soluzioni non reference :D

Il fatto che si prenda 1200 di core è solo un segnale positivo, ma nulla più imho.

scusate ma ci sono screen a riguardo sul topic della 4890, con 3d mark conclusi a quelle frequenze.
in generale a 1000/1000 ci arrivano tutte visto che si possono overvoltare via software

ghiltanas
18-04-2009, 11:46
Gia' e spero che continuino ad usarlo anche nelle prossime gpu. Ati ha fatto male secondo me ad abbandonare le primitive 2d dedicate (visto che poi il consumo in idle e' tutto fuorche' trascurabile :rolleyes:). Con gpu che hanno centinaia di milioni se non 1 miliardo di transistor, quanto gli costa veramamente lasciare qualche transistor per circuiti 2d dedicati. Poi non e' che questi circuiti vengono "sciupati", trovano il loro perche' proprio nel consumo basso in idle.

anch'io lo spero, certi vattaggi sono assurdi quando la scheda si gira i pollici, 90w per la 4870 e 60 per la 4890...troppo alti, 60w per cosa?

ghiltanas
18-04-2009, 11:49
:sofico:
Giusto a proposito. Su beyond3d l'amico dell'amico, che ha un cugino che lavora in nVidia, lascia intendere che anche nVidia andrà di X2 per la fascia alta.
http://forum.beyond3d.com/showpost.php?p=1287222&postcount=673

Voce intrigante, quando hal riesuma il post sulle nVidia è da ripostare (insieme alle previsioni sui tempi, commentate nello stesso thread di beyond3d)

mi sfugge dove sarebbe la novità...la gtx295 nn è forse un'accoppiata di 2 schede? la 9800gx2 cos'era? e la 7950x2? :stordita:

goldorak
18-04-2009, 12:04
anch'io lo spero, certi vattaggi sono assurdi quando la scheda si gira i pollici, 90w per la 4870 e 60 per la 4890...troppo alti, 60w per cosa?

Eh gia', 60 o 90W sono cifre veramente fuori dal mondo. Un qualsiasi quadcore (Intel o AMD) non consuma quella cifra li' in idle e devono far girare un intero sistema operativo.
Quindi io preciso non sono contro l'abbabandono delle primitive 2d dedicate se questo pero' porta ad una riduzione drastica nei consumi in idle.
Cosa che almeno nel campo ATI e' stata completamente trascurata.
Non so, forse dovranno trovare un meccanismo per spegnere l'80-90% del chip quando si guarda semplicemente una finestra invece di tenere questi 800 stream processors a girarsi i pollici e consumare come dei dannati.

calabar
18-04-2009, 12:04
Gia' e spero che continuino ad usarlo anche nelle prossime gpu.
Io invece spero lavorino molto sulla disattivazione della parti non utilizzate della cpu, con possibilità di ridurre voltaggi e frequenza in maniera indipendente.
In questo modo non solo avremo schede che consumano poco in 2D, ma anche schede che consumano poco per un 3D leggero che sempre più prende piede per le interfacce grafiche.

Mercuri0
18-04-2009, 13:13
mi sfugge dove sarebbe la novità...

Esplico: niente superchippone neanche da nVidia, ma chip per la fascia media come per ATI.

la gtx295 nn è forse un'accoppiata di 2 schede? la 9800gx2 cos'era? e la 7950x2? :stordita:
Si ma sono tutte "ripieghi", non roba pianificata in fase del progetto del chip.

Pihippo
18-04-2009, 13:56
Eh gia', 60 o 90W sono cifre veramente fuori dal mondo. Un qualsiasi quadcore (Intel o AMD) non consuma quella cifra li' in idle e devono far girare un intero sistema operativo.
Quindi io preciso non sono contro l'abbabandono delle primitive 2d dedicate se questo pero' porta ad una riduzione drastica nei consumi in idle.
Cosa che almeno nel campo ATI e' stata completamente trascurata.
Non so, forse dovranno trovare un meccanismo per spegnere l'80-90% del chip quando si guarda semplicemente una finestra invece di tenere questi 800 stream processors a girarsi i pollici e consumare come dei dannati.

Pensa ad una cosa, anche quando si gioca difficilmente tutti ed 800 lavoreranno in contemporanea sempre.

Polpi_91
18-04-2009, 14:00
Pensa ad una cosa, anche quando si gioca difficilmente tutti ed 800 lavoreranno in contemporanea sempre.

ti assicuro che se un gioco è ottimizzato bene (come per esempio GRID) girano tutti e 800 gli SP

Pihippo
18-04-2009, 14:20
ti assicuro che se un gioco è ottimizzato bene (come per esempio GRID) girano tutti e 800 gli SP

Certo, quando un gioco è ottimizzato per l'architettura ati, rv770 mostra tutti i muscoli, e son tanti. Anche quando non è ottimizzato per rv770 a dir la verità si comporta più che bene,

Polpi_91
18-04-2009, 14:28
Certo, quando un gioco è ottimizzato per l'architettura ati, rv770 mostra tutti i muscoli, e son tanti. Anche quando non è ottimizzato per rv770 a dir la verità si comporta più che bene,

poi ci sono i giochi ottimizzati coi piedi a priori come NFS undercover che sfrutta al massimo il 65% della GPU e non gra decentemente con tutto al max e AAx2

Vifani
19-04-2009, 00:34
Scusate ma che senso ha reintrodurre la circuiteria per l'accelerazione in hardware delle GDI 2D, se da Vista in poi con Aero attivo tutta l'interfaccia è gestita dal Direct 3D ? Considerate che anche il nuovo Direct 2D introdotto con Windows 7 si poggia sul Direct 3D.

Qualcosa che disegni il 2D "vecchio stile" non ha assolutamente alcun senso oggi. Piuttosto dovrebbero progettare le GPU in maniera tale che se il 90% del chip non fa niente, i consumi si riducano del 90% e non del 30%.

goldorak
19-04-2009, 00:43
Scusate ma che senso ha reintrodurre la circuiteria per l'accelerazione in hardware delle GDI 2D, se da Vista in poi con Aero attivo tutta l'interfaccia è gestita dal Direct 3D ? Considerate che anche il nuovo Direct 2D introdotto con Windows 7 si poggia sul Direct 3D.

Qualcosa che disegni il 2D "vecchio stile" non ha assolutamente alcun senso oggi. Piuttosto dovrebbero progettare le GPU in maniera tale che se il 90% del chip non fa niente, i consumi si riducano del 90% e non del 30%.


Si ma visto e considerato che usando una circuiteria 3d ATI non e' capace (non si capisce bene per quale motivo) di ridurre il consumo in idle in maniera drastica (e per drastica intendo sotto ai 30W che gia' sono enormi per visualizzare una semplice finestra sul desktop), mentre Nvidia appoggiandosi ad un chip 2d dedicato si, ma pare evidente come la soluzione corretta sia quella di Nvidia, almeno per il momento.
Se poi in futuro i chip ATI avranno un consumo ridicolo in idle mi ricredero', ma fino ad allora considero la soluzione Nvidia benche' non elegante quella piu' efficace.

Foglia Morta
19-04-2009, 07:59
La 4770 della HIS:

http://img206.imageshack.us/img206/8585/12400747239e97fa134e397.jpg

http://img27.imageshack.us/img27/848/12400747239e97fa134e398.jpg

michelgaetano
19-04-2009, 08:53
Interessante il dissipatore.

Ma quello reference era quello 2slot che si era visto in slide?

TheDarkAngel
19-04-2009, 08:54
Interessante il dissipatore.

Ma quello reference era quello 2slot che si era visto in slide?

anche quello occupa due slot ;)

Mister Tarpone
19-04-2009, 08:56
Interessante il dissipatore.

Ma quello reference era quello 2slot che si era visto in slide?

non mi garba assolutamente... meglio la dual slot reference...


cmq se la scheda costerà meno di 100€ ed occandola andrà come o + di una 4850 700/2200 sono pronto a comprarmela per metterla nel secondso pc in firma.

perchè come schedina mi intrippa...

michelgaetano
19-04-2009, 09:09
anche quello occupa due slot ;)

Quindi è quello che si è visto?

non mi garba assolutamente... meglio la dual slot reference...


Beh teoricamente si, ma non mi pare sappiamo già qualcosa sulle temps e rumorosità :stordita:

Mister Tarpone
19-04-2009, 09:24
Quindi è quello che si è visto?

penso di si... non credo che abbian messo un immagine finta della 4770 in quella tabella

Pihippo
19-04-2009, 10:15
La 4770 della HIS:

http://img206.imageshack.us/img206/8585/12400747239e97fa134e397.jpg

http://img27.imageshack.us/img27/848/12400747239e97fa134e398.jpg

Speriamo che salga bene con i clocks! Secondo me sarà l'ideale per chi gioca a 1440x900 o circa, poi magari mi sbaglio e va di più. Speriamo.

Foglia Morta
19-04-2009, 10:54
QUI (http://translate.google.com/translate?prev=hp&hl=de&js=n&u=http%3A%2F%2Fwww.heise.de%2Fnewsticker%2FGrafik-Geruechte-DirectX-11-Chips-von-AMD-bereits-Ende-Juli--%2Fmeldung%2F136350&sl=de&tl=en&swap=1) si parla di 28 Aprile per la 4770 e fine Luglio o inizio Agosto per gpu DX11 ( quindi presumo RV870 )

Mister Tarpone
19-04-2009, 10:56
QUI (http://translate.google.com/translate?prev=hp&hl=de&js=n&u=http%3A%2F%2Fwww.heise.de%2Fnewsticker%2FGrafik-Geruechte-DirectX-11-Chips-von-AMD-bereits-Ende-Juli--%2Fmeldung%2F136350&sl=de&tl=en&swap=1) si parla di 28 Aprile per la 4770 e fine Luglio o inizio Agosto per gpu DX11 ( quindi presumo RV870 )

perfetto :sborone:


certo sarebbe ganzo se la 4770 fosse pure lei dx11... ti immagini.. :fagiano:

ATi7500
19-04-2009, 11:11
Si ma visto e considerato che usando una circuiteria 3d ATI non e' capace (non si capisce bene per quale motivo) di ridurre il consumo in idle in maniera drastica (e per drastica intendo sotto ai 30W che gia' sono enormi per visualizzare una semplice finestra sul desktop), mentre Nvidia appoggiandosi ad un chip 2d dedicato si, ma pare evidente come la soluzione corretta sia quella di Nvidia, almeno per il momento.
Se poi in futuro i chip ATI avranno un consumo ridicolo in idle mi ricredero', ma fino ad allora considero la soluzione Nvidia benche' non elegante quella piu' efficace.

Sono le GDDR5 sulle 4870 e 4890 che fanno schizzare in alto i consumi in idle..nVidia non ha questo problema, per ora...

bYeZ!

goldorak
19-04-2009, 11:35
Sono le GDDR5 sulle 4870 e 4890 che fanno schizzare in alto i consumi in idle..nVidia non ha questo problema, per ora...

bYeZ!

Quindi anche Nvidia avra' questo problema passando alle GDDR5 ? :fagiano:
Yossarian in passato pero' aveva menzionato che uno dei problemi delle gpu ATI e' che non erano in grado di "spegnere" selettivamente gli stream processors per ridurre il consumo in idle.
Quindi i problemi sono due : uno legato alle GGDR5 (ma non dovevano avere consumi minori rispetto alle GDDR3 ? :rolleyes: ) e uno legato alla possibilita' di spegnere le parti della gpu che non viene utilizzata (e dubito francamente che ci voglia tutta la potenza di 800 stream processors per stare a contemplare un desktop).

Athlon 64 3000+
19-04-2009, 12:54
Sono le GDDR5 sulle 4870 e 4890 che fanno schizzare in alto i consumi in idle..nVidia non ha questo problema, per ora...

bYeZ!

Quando avevo la Hd 4870 512 reference con ATT se per esempio settavo 160/900 le temperature rimanevano in idle sempre sopra ai 70 gradi,settando invece 160/300 le temperature crollavano verticalmente arrivando sotto i 50 gradi.
Nella discussione ufficiale sono stata fatte delle prove di consumo e risultava che abbassando il solo core il consumo diminuiva di poco e invece abbassando le memorie il consumo calava drasticamente.