View Full Version : ATI Radeon HD 5870: la prima scheda video per DirectX 11
Sammy Jankis
23-09-2009, 15:16
in effetti, inutile è un termine un po troppo "secco"...
direi invece "non strettamente necessarie" visto che anche tu stesso non hai problemi con la tua.
OK :mano:
Gabriyzf
23-09-2009, 15:16
te hai una gtx260 se nn sbaglio...nn tutti hanno una scheda del genere, per chi deve fare un pc da 0 o un ottimo upgrade, le 5000 sono ottime
sì, da prendere in considerazione per chi upgrada da 250/4850 in giù o per chi fa un pc nuovo
aless0074
23-09-2009, 15:19
Io aspetto la 9870 con i catalyst 12.12......gli ultimi driver prima della fine del mondo secondo i maya. :rolleyes:
NO devo finire di pagare la casa :cry:
bluefrog
23-09-2009, 15:21
Io aspetto la 9870 con i catalyst 12.12......gli ultimi driver prima della fine del mondo secondo i maya. :rolleyes:
grande :D
ndrmcchtt491
23-09-2009, 15:25
La nuova nata di amd è mostruosa, ma...
1-le prestazioni sono elevate ma pensavo allo stesso livello se non superiori a 2 4890 che 1 singola va + o - come una 275gtx
2-i consumi sono contenuti pero si necessita di almeno un alimentatore da 600watt o giù di li
3-facciamo a gara a chi ce l'ha piu lungo???
4-330euri non sono pochi, ma pensare ai 600 e rotti delle 8800gtx...
5-quando uscirà gt300 queste caleranno di prezzo, nvidia dovrà tirare per aver ampi margini di guadagno
5-quando finiranno le storiele del tipo scheda nuova ma driver che non funzionano,che devono essere ancora ottimizzati,non riconoscono la scheda, applicazioni che si rifiutano di partire(e non parlo solo di amd...)qualcuno me lo spieghi grazie, visto che un ipotetico soggetto spende 300 euro e deve aspettar settimane se non mesi per vederla funzionar normalmente
kliffoth
23-09-2009, 15:28
Guardate, passare da 150 a 100 frames o viceversa, interessa solo ai bimbi.
Di questa scheda è impressionante il comparto video e soprattutto audio oltre al numero delle porte...fa paura
100 è la base di riferimento, quindi 120 significa 20% in più.......ci sono cascati in molti, non preoccuparti.
eh no, la base è proprio la gtx285 nel mio esempio, quindi a 1680x1050 la base è 54fps e il 120% di aumento NON FA 64fps
a me sembrano tabelle false
tra 54 e 64 non c'è un aumento del 120%, siano euro, patate o fps
è questo il bello della matematica
la scheda rimane un'ottima scheda ma le tabelle % sono errate, quindi non fatevi fuorviare da roboanti numeri prossimi al 100% di guadagno, che non sono dati reali e non significano che gli fps raddoppiano
saluti
P.S.
ma se volete controllare i confronti anche con la Ati 4890, giusto per non passare da fanboy di questa o quella :doh: :doh:
P.S.2
fosse anche matematicamente scorretto e come dici tu, 120,4%, quindi 20,4% è comunque ben diverso dal 18,52% che risulta a me, quindi come sono stati fatti questi conti? :muro:
Edit:
ora ho capito il computo matematico fatto da HWU
(64/54)*100 = 118,52
non fa 120,40 ma almeno ho capito
questa però è una differenza non un guadagno ;)
http://www.pcgameshardware.com/aid,695689/Radeon-HD-5870-Review-of-the-first-DirectX-11-graphics-card/Reviews/?page=8
Io preferisco i bench che mostrano i frame minimi!
Osservate tutti gli altri grafici e soprattutto il bench di Fallout 3
Davvero una bella scheda da ATI, potente, silenziosa e poco affamata di corrente.
Forse mi aspettavo qualcosa di più in termini di prestazioni brute, ma la guerra degli FPS è ormai finita: oggigiorno, anche con schede "vecchie" si riesce a giocare praticamente tutto col massimo dettaglio.
Interessanti le prestazioni a 1920x1200, che imho nel giro di qualche mese diventerà la nuova risoluzione "standard" per gli hardcore gamers (ovviamente con lcd da 24 pollici).
In effetti, col mio lcd da 19 pollici (che per inteso... mi va più che bene), l'incremento prestazionale è rilevanete per alcuni titoli... ma partendo da una base già elevata, quindi... sostanzialmente inutile.
Resto del parere che le DX11 siano "inutili" ad oggi: il vero mercato per queste api imho si aprirà nella seconda metà dell'anno prossimo se tutto andrà bene (per intenderci, i gioconi rimandati quest'anno e in uscita l'anno prossimo, vedi Bioshock 2, Rage, Mafia 2, Starcraft 2, Singularity e via dicendo, si fanno un baffo delle DX11, e poco contano quei 2-3 giochi DX11 che usciranno da qui a fine anno e che esteticamente e prestazionalmente saranno pressochè identici a quelli DX10).
Insomma, bella scheda, tuttavia... sono convinto che quando usciranno le nuove schede nVidia... le ATI potranno competere solo grazie ai prezzi bassi, perchè la vera evoluzione attuale è rappresentata si dalle DX11 (e nVidia ci arriverà fra 2-3 mesi), ma soprattutto dall'accelerazione fisica (vedi PhysX ottimizzata, che comincia a prendere piede piano piano) e la capacità di calcolo che vada oltre il gioco (vedi CUDA e sua evoluzione).
E pure sopra i 30 fps. Una "semplice" GTS 250 1GB da 120€ basta (i soliti Crysis e Stalker clear sky a parte). Guardare per credere....
http://www.anandtech.com/video/showdoc.aspx?i=3643&p=17
Sammy Jankis
23-09-2009, 15:34
eh no, la base è proprio la gtx285 nel mio esempio, quindi a 1680x1050 la base è 54fps e il 120% di aumento NON FA 64fps
a me sembrano tabelle false
tra 54 e 64 non c'è una differenza del 120%, siano euro, patate o fps
è questo il bello della matematica
la scheda rimane un'ottima scheda ma le tabelle % sono errate, quindi non fatevi fuorviare da roboanti numeri prossimi al 100% di guadagno, che non sono dati reali e non significano che gli fps raddoppiano
saluti
P.S.
ma se volete controllare i confronti anche con la Ati 4890, giusto per non passare da fanboy di questa o quella :doh: :doh:
P.S.2
fosse anche matematicamente scorretto e come dici tu, 120,4%, quindi 20,4% è comunque ben diverso dal 18,52% che risulta a me, quindi come sono stati fatti questi conti? :muro:
se 54 FPS è la base di calcolo (valore 100): il 20% di 54 FPS è 10.80 quindi 54 + 10.80 = 64.80 FPS (valore 120)
P.S.
Si ma non incazzarti con me :) manda un PVT all'autore dellarticolo.....:D
cosa non si fa per il proprio colore, purtroppo gli brucia e non riescono ad essere obiettivi ;)
Che senso ha poi "piangere" ora che GT300 non è ancora uscito..... :boh:
abbiamo scritto insieme
scusa, non sono affatto incazzato con te o con l'autore, tranquillo :D
c'è anche scritto chiaramente nell'articolo, ma evidentemente non l'ho letto solo io :muro: :D
saluti
killer978
23-09-2009, 15:58
Come al solito non riesco a capire in base a cosa vengano sceglti i settaggi video nei benchmarck...
Ad esempio come mai viene sempre usato l'aa4x apparte per i giochi che usano il source?non è presente negli altri giochi l'aa8x?:wtf:
E come mai Crysis senza nemmeno un test con aa attivato?
XCHE LA 5870 tra AA4x ed AA8x perde meno di 0% mentre le altre schede messe nella rece specie le verdi perdono un botto con AA8x, è da tempo ormai che HwUp sia palesemente pro Nvidia
Inutile per le DX11 (e siamo d'accordo...per ora) o cosa ? Se usciva prima nvidia sarebbe stata utile ?
Non è un discorso di Dx11 ma di potenza elaborativa richiesta dai titoli di oggi che si basano quasi tutti su conversioni da console.
Io vorrei comprare la 5850 ma non so quanto conviene visto che fin'ora non ho avuto nessun problema.
Direi che per ora è una scheda obbligatoria solo per chi usa risoluzioni SOPRA la 1920.
Dragon2002
23-09-2009, 16:05
Un mostro di potenza mi ha ricordato la 9700pro,distrugge le altre schede single gpu con prestazioni superiori al doppio in ogni campo,in ogni risoluzione e con ogni genere di filtro.
Consuma di meno,fa meno rumore,unica pecca le dimensioni allungate rispetto alle vecchie schede single gpu.
Questa scheda ha una potenza spaventosa,Ati ha dato una botta tremenda a Nvidia,rispondere stavolta sarà durissimo.
E poi anche i prezzi almeno quello della sorellina minore di cui aspetto di vedere le prestazioni sono più che umani.
g.luca86x
23-09-2009, 16:12
e chi se le legge 15 pagine con 285 commenti? :sofico:
son tornato ora a casa da stamattina presto e guarda che trovo... :oink:
Ma non si potrebbero eliminare dalla suite dei bench quei giochi che fanno 100fps anche con la più "scarsa" delle schede video analizzate alla risoluzione più mostruosa? che senso ha mettere giochi in cui la differenza è tra andare a 250fps o 230? e chi la nota?
cmq mi ha un pò deluso questa scheda. Pensavo potesse andare più veloce della 4870x2 visto che integra in un unico chip quello che li invece deve passare per il crossfire di due gpu... Il fatto che il chip della 5870 si trovi 1GB di memoria video di corredo, invece che dei 2GB che hanno le due gpu della 4870x2, secondo voi può aver inciso così tanto?
ovvio che come consumi e confronto tra single gpu per me è un gioiello!!!
ho sentito che in queste schede c'è anche un tool di algebra per calcolare correttamente le percentuali :D
consigliato a molti qui dentro :D
è da tempo ormai che HwUp sia palesemente pro Nvidia
Yes
Sammy Jankis
23-09-2009, 16:16
ho sentito che in queste schede c'è anche un tool di algebra per calcolare correttamente le percentuali :D
consigliato a molti qui dentro :D
Algebryx.....:D
... Il fatto che il chip della 5870 si trovi 1GB di memoria video di corredo, invece che dei 2GB che hanno le due gpu della 4870x2, secondo voi può aver inciso così tanto?....
Secondo me ha inciso molto la velocita' e la banda della memoria, quasi la stessa della precedente generazione!
cmq mi ha un pò deluso questa scheda. Pensavo potesse andare più veloce della 4870x2 visto che integra in un unico chip quello che li invece deve passare per il crossfire di due gpu... Il fatto che il chip della 5870 si trovi 1GB di memoria video di corredo, invece che dei 2GB che hanno le due gpu della 4870x2, secondo voi può aver inciso così tanto?
più che la quantità di memoria influisce;
la bandwith che non è assolutamente il doppio ma solo il 33% in più e dici poco
la bandwith tra cache l1/l2 è rimasta a parità di frequenza la stessa, ma serve il doppio di unità.
il rasterizer è uno anche se più potente.
in sintesi non sono 2 chip in uno, solo le unità raddoppiano, ma quello che ci sta intorno no
Dragon2002
23-09-2009, 16:25
Credo che il "problema" sia questo, clockatina alle memorie e decolla :fagiano:
Perché c'è bisogno di una cloccatina se si continua con le conversioni da console sta scheda potrebbe durare fino al 2012,una belva assatanata dalla potenza spaventosa.
songoku41983
23-09-2009, 16:31
XCHE LA 5870 tra AA4x ed AA8x perde meno di 0% mentre le altre schede messe nella rece specie le verdi perdono un botto con AA8x, è da tempo ormai che HwUp sia palesemente pro Nvidia
e te è da tempo che 6 palesemente pro ati e vedi solo rosso... sono anni che ti seguo... e non vedi altro che ati anche quando le ha prese con la 2900... sostenevi fosse + potente della 8800gtx... ahahaha
g.luca86x
23-09-2009, 16:31
su tom's hanno fatto la prova anche con un crossfire di 5870:
http://www.tomshw.it/graphic.php?guide=20090923&page=radeon-hd-5870-rv870-cypress-ati-amd-directx11-20
guardate gtaIV: stupidi programmatori lardosi scansafatiche che devono essere quelli che hanno realizzato il gioco...
eclatante comunque la gtx295 sempre in gta4!
Guarda che la GTX è la base per il calcolo (100%), in effetti la tabella trae in inganno se non si legge attentamente la spiegazione.
"Passiamo ora al confronto tra Radeon HD 5870 e GeForce GTX 285, utilizzando gli stessi criteri visti in precedenza. Alle misure ottenute dalla scheda GeForce GTX 285 è stato dato valore di 100%, ricavando da questo il valore della soluzione Radeon HD 5870."
mi sa che non ci hai capito molto in quei grafici :asd: :D
Madò scusate, i miei poveri occhi stanchi da giorni di bench su cpu, ssd e simili non avevano visto il piccolo rigo di spiegazione alla fine, senza il quale la tabella è effettivamente ingannevole. Considerate poi che è stata la prima pagina della recensione da me letta :asd:
Dragon2002
23-09-2009, 16:33
La clockatina è una delle cose più belle di comprare un pezzo nuovo al pc :fagiano:
Già è vero prima anche per me era cosi,ma ora con l'appiattimento dei nuovi giochi l'ultimo che ha fatto un vero salto generazionale è stato Crysis non c'è più bisogno almeno per me della cloccatina.
Cmq solo 3 volte negli ultimi anni si è era visto una tale differenza di prestazioni tra una scheda e un altra,con la 9700pro,con la 8800gtx e ora con questa 5870 e il bello è che potrebbe esserci anche una 5870x2.
ninja750
23-09-2009, 16:35
babba bia
certo che anche a livello di prezzi siamo tornati su livelli monstre, la 4870 al debutto era molto più economica nonostante le prestazioni
songoku41983
23-09-2009, 16:38
babba bia
certo che anche a livello di prezzi siamo tornati su livelli monstre, la 4870 al debutto era molto più economica nonostante le prestazioni
cerca di fare + soldi possibile ora che nn c'è concorrenza.... è normale... anche nvidia ha fatto così.... nessuno regala niente
3DMark79
23-09-2009, 16:38
Ragazzi secondo voi che hardware sarà richiesto minimo per una eventuale HD5850 per sfruttarla sufficientemente.
Potrei farcela?:rolleyes:
Dragon2002
23-09-2009, 16:40
babba bia
certo che anche a livello di prezzi siamo tornati su livelli monstre, la 4870 al debutto era molto più economica nonostante le prestazioni
Bisogna prima vedere prima il prezzo e le prestazioni della 5850.
Severnaya
23-09-2009, 16:40
pensando alla geffo2 a 1.200.000lire sti prezzi nn mi sorprendono affatto :O
troppo retrò? :asd:
BigBadBossBassi
23-09-2009, 16:42
a chi chiedeva perche hw nn fa i beanch di crysis su veryhight e aa attivo... eccone spiegato il motivo...
http://www.hardware.fr/medias/photos_news/00/26/IMG0026867.gif
:eek: :ciapet:
Tutto molto bello, ma la ATi deve vedere di risolvere la situazione del PhysX, perchè io per esempio sto giocando Batman Arkham Asylum e con la mia Ati 4870 se non lo disattivo del tutto mi ritrovo a fare 5 fps rinunciando a fumi, foglie che volano ecc....ecc
Sempre più giochi iniziano a supportarlo, lentamente si ma di questo passo ( parlo da videogiocatore) sarò quasi costretto a passare a Nvidia per forza di cose.
killer978
23-09-2009, 16:46
In 15 anni di schede grafiche non si era mai visto una cosa simile una scheda con + del doppio dei transistor, che consumasse meno delle vecchie :eek:
Solo x questo va dato atto all'ottimo lavoro svolto in casa ATI, ormai sono anni che fanno VGA al top ed hanno fatto un solo errore R600;)
Poi mi dite quanto mai schede simili appena uscite (parliamo del top) con costi così bassi? ancora ricordo la 6800GTX a 500€ :muro:
2012comin
23-09-2009, 16:47
edit: vabbè np
@ Ratatosk:
A me pare che il Physx stia invece prendendo sempre più piede altrochè.....
( Batman, Mirror's Edge, Sacred 2, Ghost Recon Advanced Warfighter.......)
spero che sia però come dici tu.....ma fin'ora non mi pare.
Dragon2002
23-09-2009, 16:58
@ Ratatosk:
A me pare che il Physx stia invece prendendo sempre più piede altrochè.....
( Batman, Mirror's Edge, Sacred 2, Ghost Recon Advanced Warfighter.......)
spero che sia però come dici tu.....ma fin'ora non mi pare.
E' una porcata indegna da parte di Nvidia,un formato proprietario che Ati non può far funzionare in nessun modo.
E' uno schifo che venga permessa una cosa simile.
killer978
23-09-2009, 16:59
babba bia
certo che anche a livello di prezzi siamo tornati su livelli monstre, la 4870 al debutto era molto più economica nonostante le prestazioni
le 48xx non potevano costtare di + xche le Nvidia erano + forti, io direi che x una scheda simile 350€ sono pochi!!! ci sono sparse x il WEB centinaia di 285 che costano + di 300€
@ Ratatosk:
A me pare che il Physx stia invece prendendo sempre più piede altrochè.....
( Batman, Mirror's Edge, Sacred 2, Ghost Recon Advanced Warfighter.......)
spero che sia però come dici tu.....ma fin'ora non mi pare.Mi pare che proprio qualche giorno fa AMD abbia presentato AMD open Physics, capace di sfruttare sia le gpu ATI che quelle nvidia attraverso Open CL. Puoi anche salutare Physx. :asd:
Sammy Jankis
23-09-2009, 17:00
@ Ratatosk:
A me pare che il Physx stia invece prendendo sempre più piede altrochè.....
( Batman, Mirror's Edge, Sacred 2, Ghost Recon Advanced Warfighter.......)
spero che sia però come dici tu.....ma fin'ora non mi pare.
Io penso che Ratatosk abbia ragione, fra anticipare le directX senza giochi e adeguarsi ad uno standard chiuso penso abbiano scelto bene, poi sarò ripetitivo ma se devo avere Physx in SHIFT per far volare 4 copertoni e ribaltare le auto come col muletto a questo punto reinstallo Carmageddon......
un mostro come c'era da aspettarsi, adesso sono curioso di vedere quello che riesce a fare in overclock
2012comin
23-09-2009, 17:02
Tu che dici? :rolleyes:
Non ne ho idea, cmq vabbè, Np
Beh ragazzi cosa volete che vi dica :D speriamo che il Physx fallisca il prima possibile, però come diceva prima Dragon2002 è uno schifo che esista e che vengano permesse cose del genere.
Intanto però io rosico perchè non posso giocare Batman AA al 100% delle sue possibilità :\
Drakogian
23-09-2009, 17:08
Sapphire: in arrivo una Radeon HD 5870 Vapor-X
http://www.hwupgrade.it/news/skvideo/sapphire-in-arrivo-una-radeon-hd-5870-vapor-x_30208.html
si parla di una scheda più corta di quella standard.
raga ma con un PhenomIi 720 e questa scheda(comprata in futuro al calo dei prezzi :asd:) rischierò di essere cpu-limited?
||ElChE||88
23-09-2009, 17:16
Questa è la lista di Havok: http://www.havok.com/index.php?page=available-games
Questa quella di PhysX: http://www.nzone.com/object/nzone_physxgames_home.html
Direi che ti pare male, non li conto solo perché quelli di Havok sono troppi e non ho voglia ;)
http://www.nzone.com/object/nzone_physxgames_all.html
Ops. :asd:
La lista che hai postato te è quella dei giochi dove senza PhysX ti perdi qualcosa (lista che nel caso di Havok sarebbe vuota).
Mi pare che proprio qualche giorno fa AMD abbia presentato AMD open Physics, capace di sfruttare sia le gpu ATI che quelle nvidia attraverso Open CL. Puoi anche salutare Physx. :asd:
AMD può presentare tutto quel che vuole... finché NVIDIA avrà accordi con gli sviluppatori (hint: soldi) non cambierà molto.
Ottima scheda comunque... evviva la concorrenza. :O
songoku41983
23-09-2009, 17:17
In 15 anni di schede grafiche non si era mai visto una cosa simile una scheda con + del doppio dei transistor, che consumasse meno delle vecchie :eek:
Solo x questo va dato atto all'ottimo lavoro svolto in casa ATI, ormai sono anni che fanno VGA al top ed hanno fatto un solo errore R600;)
Poi mi dite quanto mai schede simili appena uscite (parliamo del top) con costi così bassi? ancora ricordo la 6800GTX a 500€ :muro:
e be nvidia fa un pò + del top di ati.. quindi va dato atto anche questo... è il leader da un bel pò di anni oramai... neanche la 4890 è riuscità a battere la 275gtx che non era neanche il top
killer978
23-09-2009, 17:18
Tutto molto bello, ma la ATi deve vedere di risolvere la situazione del PhysX, perchè io per esempio sto giocando Batman Arkham Asylum e con la mia Ati 4870 se non lo disattivo del tutto mi ritrovo a fare 5 fps rinunciando a fumi, foglie che volano ecc....ecc
Sempre più giochi iniziano a supportarlo, lentamente si ma di questo passo ( parlo da videogiocatore) sarò quasi costretto a passare a Nvidia per forza di cose.
Io ci gioco con tutto a palla e non scendo mai sotto i 45fps :mbe: ovviamente il supporto a PhysX non puoi attivarlo con le ATI, e credimi non ne sento la mancanza :asd: ho giocato su un PC con la fisica attiva e le differenze bisogna cercarle con la lente, oppure ti devi fermare mentre i psicopatici o i detenuti ti riempiono di botte e guardare dove sono le differenze :asd:
La smettete con tutte le beghe personali flame e trollate varie?
mi riservo il diritto di rileggere appena ho tempo con più calma il thread e valutare il comportamento di alcuni utenti
Sammy Jankis
23-09-2009, 17:20
http://www.nzone.com/object/nzone_physxgames_all.html
Ops. :asd:
AMD può presentare tutto quel che vuole... finché NVIDIA avrà accordi con gli sviluppatori (hint: soldi) non cambierà molto.
Ottima scheda comunque... evviva la concorrenza. :O
Riferito al link di Ratatosk
Note: This game listing is not representative of all titles that will be available, just those that and it's developer and publisher partners are able to disclose. To avoid confusion, PC titles that do not take advantage of PhysX hardware acceleration are ommitted from this listing.
Ops. :asd:
http://www.nzone.com/object/nzone_physxgames_all.html
Ops. :asd:
La lista che hai postato te è quella dei giochi dove senza PhysX ti perdi qualcosa (lista che nel caso di Havok sarebbe vuota).
AMD può presentare tutto quel che vuole... finché NVIDIA avrà accordi con gli sviluppatori (hint: soldi) non cambierà molto.
Ottima scheda comunque... evviva la concorrenza. :O
Vedremo quanto andrà avanti ancora la fisica by nvidia. ;)
killer978
23-09-2009, 17:21
e be nvidia fa un pò + del top di ati.. quindi va dato atto anche questo... è il leader da un bel pò di anni oramai... neanche la 4890 è riuscità a battere la 275gtx che non era neanche il top
se guardi i bench con gli ultimi driver la 4890 spesso se la gioca non la GTX285 ;) quando ATI creava VGA Nvidia ancora non esisteva :asd: a livello tecnologico e di innovazione ATI è sempre stata avanti, anche R600 con il suo flop aveva alla base un progetto mostruoso. Diamo a cesare cio che è di cesare
Programmazione, questa sconosciuta :asd:
Presumo tu non abbia capito la mia frase...:doh:
3DMark79
23-09-2009, 17:21
raga ma con un PhenomIi 720 e questa scheda(comprata in futuro al calo dei prezzi :asd:) rischierò di essere cpu-limited?
Me lo chiedo anche io con il mio hardware per una hd5850...e non capisco perchè non si trovi mai i requisiti minimi richiesti per le varie schede.:(
Dalla rece quindi, ed è messo dentro anche un titolo come ET:QW :cry: (Ma redazione, quando levarlo che non se lo fila nessuno ed è sempre favorevole all'architettura Nvidia? Ci son tanti giochi più recenti e non è un signor Half Life 2 mica :D), facciamo un breve confronto tra schede top :D
HD 5870 vs GTX 295
Prestazioni
295: 107 %
5870 : 100 %
Consumi Idle (sistema)
295: 180w
5870 : 130 w
Consumi Load (sistema)
295: 452 w
5870 : 350w
Rumorosità Idle/Load:
295: 47,8/52,7
5870 : 44,8/52,8
Ricapitolando, la 5870 va pochissimo in meno (7 %) ma con drivers acerbi, e senza incappare in giochi dove il multigpu non è supportato.
Consuma meno, fa meno rumore, scalda (come si vede dalle altre recensioni) meno, costa meno e vanta le directx 11.
Direi che basta, tanto di cappello alla scheda e ad Ati :D
E' esattamente quello che ho dedotto leggendo la recensione.
Ancora complimenti ad ATI per l'architettura che ha sfornato e per il lavoro sui consumi (unica pecca della serie HD48xx)!!!
@Corsini
1. Qual è il motivo per fare un'analisi in DX10.1 di HAWX senza attivare l'AA, quando l'unica novità delle 10.1 è proprio la maggiore efficienza dell'MSAA?
2. Si sono viste delle slide (leakate) in cui si parlava di incrementi prestazionali con Windows 7 (in virtù, immagino della migliore efficienza nella gestione della memoria del wddm 1.1). E' previsto un test di comparazione fra Vista e Seven sui giochi quando il secondo entrerà nel mercato consumer?
---
Per il resto che dire: un capolavoro. E rispecchia quello che avevo ipotizzato:
Nn ho assolutamente tempo di vedere se la redazione ti ho risposto ma direi che il test su Windows 7 lo faranno con il prossimo capito ad esso dedicato ;)
C'è il nuovo AF e alcune migliorie sull'AA.... quando ne parlerete?
Cmq, grande ati, miglior singola GPU in circolazione. E per 320-330 euro polverizza anche schede che costano 50 euro in più!
Quoto perchè nn avete eseguito i test in merito?
In 15 anni di schede grafiche non si era mai visto una cosa simile una scheda con + del doppio dei transistor, che consumasse meno delle vecchie :eek:
Solo x questo va dato atto all'ottimo lavoro svolto in casa ATI, ormai sono anni che fanno VGA al top ed hanno fatto un solo errore R600;)
Poi mi dite quanto mai schede simili appena uscite (parliamo del top) con costi così bassi? ancora ricordo la 6800GTX a 500€ :muro:
R600, tolto ring bus e il rapporto tra tmu-rops e sp è la base di tutte le schede uscite finora, serie 3,4 e ora 5.
L'architettura di base è sempre la stessa, io speravo almeno in qualche reale novità.
h4xor 1701
23-09-2009, 17:30
staremo a vedere quale sarà la contromossa di Nvidia :asd:
||ElChE||88
23-09-2009, 17:33
Vedremo quanto andrà avanti ancora la fisica by nvidia. ;)
Semplice, fino a quando NVIDIA continuerà a pagare (o "sponsorizzare", come piace agli sviluppatori). E ho paura che non abbiano intenzione di smettere a breve.
Domanda: un mostro del genere secondo voi può essere limitato da cpu come Phenom II 965, i5 750 o C2 Quad q9550? Sì insomma, mica chi vuole questa scheda deve passare ad un i7 965 per forza? ^^
raga ma con un PhenomIi 720 e questa scheda(comprata in futuro al calo dei prezzi :asd:) rischierò di essere cpu-limited?
Me lo chiedo anche io con il mio hardware per una hd5850...e non capisco perchè non si trovi mai i requisiti minimi richiesti per le varie schede.:(
Nessuno sa rispondere a questo unico, importante interrogativo? :help:
songoku41983
23-09-2009, 17:42
se guardi i bench con gli ultimi driver la 4890 spesso se la gioca non la GTX285 ;) quando ATI creava VGA Nvidia ancora non esisteva :asd: a livello tecnologico e di innovazione ATI è sempre stata avanti, anche R600 con il suo flop aveva alla base un progetto mostruoso. Diamo a cesare cio che è di cesare
non cìè niente da fare.. vedi rosso e basta.... 6 incredibile.. non lo ammetterai mai la momentanea superiorità nvidia.... dalla 8800 fino a ora.... vedremo la prossima generazione 300... non meriti più considerazione... esco dal thread
3DMark79
23-09-2009, 17:46
Nessuno sa rispondere a questo unico, importante interrogativo? :help:
Speriamo...mi chiedevo anche chissà quanto riichiederanno come alimentatore sulla linea +12V.:stordita:
Speriamo...mi chiedevo anche chissà quanto riichiederanno come alimentatore sulla linea +12V.:stordita:
Eh già!!!! Spero tanto che la gente non si ritrovi a dover cambiare alimentatore....
Nessuno sa rispondere a questo unico, importante interrogativo? :help:
no non sarai cpu limited tranquillo nei giochi ad alta risoluzione si satura prima la gpu della cpu e al massimo con un'occatina risolvi
non cìè niente da fare.. vedi rosso e basta.... 6 incredibile.. non lo ammetterai mai la momentanea superiorità nvidia.... dalla 8800 fino a ora.... vedremo la prossima generazione 300... non meriti più considerazione... esco dal thread
e si che l'ho espressamente chiesto più e più volte di finirla con i battibecchi personali i flame e le trollate
va be, tre giorni per pensare
no non sarai cpu limited tranquillo nei giochi ad alta risoluzione si satura prima la gpu della vga e al massimo con un'occatina risolvi
Grazie, mi tranquillizzi. C'è la mia ragazza che sta per prendere un Phenom II X4 965 3,4Ghz che, appena vista la 5870, se n'è letteralmente innamorata!!!! Io però vedendo che bestia sia questa ATi l'ho frenata un attimo prospettandole il pericolo del cpu limited, seppur con un processore del genere (la mia paura era che il 965 potesse essere lento a dare i dati in pasto alla vga). Posso darle semaforo verde, quindi? :)
ninja750
23-09-2009, 17:56
Costava 50€ in meno. Considerando che allora faceva a sportellate con nVidia, mentre questa starà a dominare il mercato per diversi mesi, un prezzo aumentato così poco è grasso che cola ;)
la 4870 l'ho pagata 225€ in versione golden sample tre settimane dopo l'uscita..
3DMark79
23-09-2009, 17:57
no non sarai cpu limited tranquillo nei giochi ad alta risoluzione si satura prima la gpu della vga e al massimo con un'occatina risolvi
Ti riferisci a tutti e tre configurazioni hardware che abbiamo?Io la userei a 1920x1200.
Severnaya
23-09-2009, 17:57
mi fai capire cosa vuol dire che si satura prima la gpu della vga?
senza ironia, nn ho proprio capito cosa vuoi dire
non cìè niente da fare.. vedi rosso e basta.... 6 incredibile.. non lo ammetterai mai la momentanea superiorità nvidia.... dalla 8800 fino a ora.... vedremo la prossima generazione 300... non meriti più considerazione... esco dal thread
Grazie, mi tranquillizzi. C'è la mia ragazza che sta per prendere un Phenom II X4 965 3,4Ghz che, appena vista la 5870, se n'è letteralmente innamorata!!!! Io però vedendo che bestia sia questa ATi l'ho frenata un attimo prospettandole il pericolo del cpu limited, seppur con un processore del genere (la mia paura era che il 965 potesse essere lento a dare i dati in pasto alla vga). Posso darle semaforo verde, quindi? :)
con quel processore non saturi neanche un triplo sli di 295
@Severnaya: ho fatto un errore di battitura, colpa della fretta scusa, la frase corretta è satura prima la gpu della cpu ovvero con le risluzioni a cui si gioca attualmente la cpu deve attendere che la vga finisca di lavorare e quindi non si è cpu-limited
3DMark79
23-09-2009, 18:01
Eh già!!!! Spero tanto che la gente non si ritrovi a dover cambiare alimentatore....
Io penso che forse ci dovrei rientrare con 4 lineee +12V da 13A-18A-16A-8A...semmai unisco 2 linee 12V!:D
3DMark79
23-09-2009, 18:04
mi fai capire cosa vuol dire che si satura prima la gpu della vga?
senza ironia, nn ho proprio capito cosa vuoi dire
Penso si riferisce al fatto che usando la scheda ad alte risoluzioni avrai meno calcoli con la CPU dunque non ci sono problemi di essere CPU limited dunque sfrutterai solo al massimo la GPU.:read:
Evangelion01
23-09-2009, 18:05
la 4870 l'ho pagata 225€ in versione golden sample tre settimane dopo l'uscita..
Ennesima riprova del fatto che conviene aspettare almeno l' arrivo in massa... :D
con quel processore non saturi neanche un triplo sli di 295
@Severnaya: ho fatto un errore di battitura, colpa della fretta scusa, la frase corretta è satura prima la gpu della cpu ovvero con le risoluzioni a cui si gioca attualmente la cpu deve attendere che la vga finisca di lavorare e quindi non si è cpu-limited
Questo presumo valga per 1680X1050, giusto? Per questa risoluzione l'anello debole della catena è la scheda video, si trattasse anche di una 5870, se non ho capito male.
Per 1280X1024 invece? Metti che uno ama giocare con risoluzione medio bassa ma chili di filtri...... allora un 965 potrebbe diventare collo di bottiglia?
Grazie per questo e per altri insegnamenti, maestro.....
:ave: :ave: :ave:
:D
Io penso che forse ci dovrei rientrare con 4 lineee +12V da 13A-18A-16A-8A...semmai unisco 2 linee 12V!:D
:D
Io invece mi chiedo se basterà un "semplice" (alla faccia!!!) Corsair TX 650W.....
3DMark79
23-09-2009, 18:13
Io invece mi chiedo se basterà un "semplice" (alla faccia!!!) Corsair TX 650W.....
Se non sbaglio a una linea da 52A dunque penso che andrà bene e forse anche meglio del mio che a 4 linee separate.
confermo i prezzi ufficialmente di € 229 per la 5850
e di € 339 per la 5870 :D
(iva compresa)
prezzi da negozio, quindi niente di più facile che nel mondo dell'online shop possano essere anche più bassi dopo un paio di settimane dall'uscita!
very good
Se non sbaglio a una linea da 52A dunque penso che andrà bene.;)
Eh lo spero!!!! Non dovremo mica passare al TX 850W da 70A per goderci questa bestia? :D Comunque la Vapor-X mi attizza un casino: potente, ciuccia poca corrente, è ben raffreddata ed è pure bella!!!! :eek: :eek:
Questo presumo valga per 1680X1050, giusto? Per questa risoluzione l'anello debole della catena è la scheda video, si trattasse anche di una 5870, se non ho capito male.
Per 1280X1024 invece? Metti che uno ama giocare con risoluzione medio bassa ma chili di filtri...... allora un 965 potrebbe diventare collo di bottiglia?
Grazie per questo e per altri insegnamenti, maestro.....
:ave: :ave: :ave:
:D
:D
Io invece mi chiedo se basterà un "semplice" (alla faccia!!!) Corsair TX 650W.....
no alzando la risoluzione e aggiungendo filtri succede l'esatto opposto si carica ancora di più la gpu quindi...
cmq questo discorso è ampiamente OT ti invito gentilmente a continuarlo in privato se desideri, sarò lieto di spiegarti
Ma non assomiglia un tantino all'EVGA classified? :)
Finalmente AMD ha imparato delle semplici regole che migliorano, anche decisamente, il layout e la qualità complessiva della scheda, come i connettori di alimentazione posti lateralmente e un buon sistema di dissipazione.
no alzando la risoluzione e aggiungendo filtri succede l'esatto opposto si carica ancora di più la gpu quindi...
cmq questo discorso è ampiamente OT ti invito gentilmente a continuarlo in privato se desideri, sarò lieto di spiegarti
Ah, ok, scusa....
non cìè niente da fare.. vedi rosso e basta.... 6 incredibile.. non lo ammetterai mai la momentanea superiorità nvidia.... dalla 8800 fino a ora.... vedremo la prossima generazione 300... non meriti più considerazione... esco dal thread
veramente ora come ora sono alla pari. la 8800 è stata un bel po di tempo fa... cosi come la 9700pro fece al tempo per ati...
ora mi trovo con un 24"... 1900 1200 e sembra la risoluzione migliore per questa scheda... anche a 2560 non se la cava male ma nn credo cambierei monitor (un 27") per provare cosi tanto... :D
anche se ammetto non mi dispiacerebbe...
la 5850 appena esce è mia :)
Iantikas
23-09-2009, 18:38
bella gpu ma secondo me conviene aspettare qualke mese prima di fare un upgrade a meno ke nn si sia proprio con l'acqua alla gola...
...quello ke spero cmq è ke il vantaggio temporale nei confronti di nvidia
e l'esser l'unica azienda con gpu dx11 in commercio su cui le SH possono basare gli engine dei propri futuri gioki favorisca lo sviluppo di motori ke ben si sposino con le particolari caratteristike dell'arkitettura scelta da ati...
...ciao
kliffoth
23-09-2009, 18:42
no alzando la risoluzione e aggiungendo filtri succede l'esatto opposto si carica ancora di più la gpu quindi...
cmq questo discorso è ampiamente OT ti invito gentilmente a continuarlo in privato se desideri, sarò lieto di spiegarti
Approfitto della presenza di un mod per un OT importante:
perchè quando si parla di CF e SLI non menzionate mai (e non solo hwupgrade) il problema del refreshing dovuto al fatto che le ci sono problemi nell'inviare i due frames alternativamente?
La cosa comporta un crollo del refresh (sto cercando articoli)
ma ke stai a di?! :asd:
epic fail...
LEGGI MEGLIO le tabelle in questione :read: :read:
vero vero, colpa mia che ho letto molto molto male, chiedo scusa :ave: :ave:
saluti
si, così come è uno schifo che i giochi ps3 non girino su xbox360 o pc... e viceversa...
così come i blu ray che non girano su 576p,
così come tante altre cose...
uno non può *creare* un proprio standard... che subito qui si debba gridare allo scandalo e alla vergogna.
Non mi pare però che quando nacque Ageia qualcuno abbia gridato al lupo al lupo... :rolleyes:
Infatti si vede che fine ha fatto Ageia... :asd:
Non è questione di gridare al lupo al lupo, è quella di prevedere (con un ragionevole grado di certezza) la morte prematura di sistemi proprietari, come è sempre stato. ;)
Non citiamo il Bluray, dato che quello è un caso differente.
PhysX imho non morirà comunque come engine di fisica, dato che NVidia se vorrà salvare il salvabile lo svincolerà da CUDA e renderà possibile farlo girare su OpenCL.
3DMark79
23-09-2009, 18:58
Sembra che un buon 500W dovrebbero bastare per entrambe le schede :sofico:
-500 Watt or greater power supply with two 75W 6-pin PCI Express® power connectors recommended (600 Watt and four 6-pin connectors for ATI CrossFireX™ technology in dual mode).
http://www.amd.com/us/products/desktop/graphics/ati-radeon-hd-5000/hd-5850/Pages/ati-radeon-hd-5850-system-requirements.aspx
uno non può *creare* un proprio standard... che subito qui si debba gridare allo scandalo e alla vergogna.
Sai com'è da un'azienda che ha sempre dato addosso a tutto quello che era proprietario... :)
Sembra che un buon 500W dovrebbero bastare per entrambe le schede :sofico:
-500 Watt or greater power supply with two 75W 6-pin PCI Express® power connectors recommended (600 Watt and four 6-pin connectors for ATI CrossFireX™ technology in dual mode).
http://www.amd.com/us/products/desktop/graphics/ati-radeon-hd-5000/hd-5850/Pages/ati-radeon-hd-5850-system-requirements.aspx
In soldoni.........Corsair 650W? :D
pensando alla geffo2 a 1.200.000lire sti prezzi nn mi sorprendono affatto :O
troppo retrò? :asd:
Non serve andare così indietro nel tempo. 8800 GTX all'uscita, prezzo €600 ed oltre. ;)
3DMark79
23-09-2009, 19:11
In soldoni.........Corsair 650W? :D
Si...si...sei apposto!!:D
Si...si...sei apposto!!:D
Evvaaaaaaai!!!!! :D
Adesso aspettiamo solo che nVidia proponga le sue schede, e poi a prezzi bassi..... :rolleyes: :D
Non serve andare così indietro nel tempo. 8800 GTX all'uscita, prezzo €600 ed oltre. ;)
Del resto 1.200.000£ non equivalgono a 600€... magari ;)
Futura12
23-09-2009, 19:19
Evvaaaaaaai!!!!! :D
Adesso aspettiamo solo che nVidia proponga le sue schede, e poi a prezzi bassi..... :rolleyes: :D
allora stai fresco:asd:
kliffoth
23-09-2009, 19:24
Evvaaaaaaai!!!!! :D
Adesso aspettiamo solo che nVidia proponga le sue schede, e poi a prezzi bassi..... :rolleyes: :D
infatti il prezzo di nVidia è la vera incognita.
Ormai le prestazioni le hanno tutti, e come dicevo prima il vero valore aggiunto di questa scheda è nell'eccellente comparto video e audio, nonchè nella buona dotazione di porte (finalmente!!).
La cosa interessante sarà vedere come prezzerà nVidia il suo chip, che sarà davvero grosso, e quindi costoso.
Forse il prezzo aggressivo di AMD non è per rispettare la clientela (che poi sareste voi...immaginatevi un po'!!), ma per cercare di saturare il mercato prima di GT300.
Di nuovo si pone una questione interessante di "filosofia": meglio il classico chippone o l'approccio AMD?
Personalmente preferisco l'AMD perchè significa portare anche nella fascia medio-alta connessioni e tecnologie di codifica video una volta destinate al top...però c'è il problema che menzionavo poc'anzi, e cioè che il CF o SLI che sia ha un problema di crollo di refreshing, e quindi per le sole prestazioni il singolo chippone sarà più veloce...ma per me tra 100 e 500 frames non c'è differenza
bello il design cassa da morto :D, resta semplice e non crea bozzi. però il design interno è veramente fatto con i piedi, avrebbero potuto risparmiarci almeno 4-5 cm in lunghezza.
davvero impressionanti le prestazioni, anche se ci si aspettava di più ma d'altronde erano aspettative sbagliate. trovo strano comunque che con il raddoppio degli stream processors, frequenze uguali, dx11 e anche le ram più alte di frequenza le prestazioni non siano raddoppiate rispetto alle 4870
c'è ora da aspettare la risposta di nvidia, che spero sia votata anch'essa in parte al consumo energetico e non sia un chip enorme.
gt300 sono sicuro al 99% uscirà nella sua declinazione vicinissima al top gamma, poichè dovrà competere con 5870, a differenza di quando è uscita la serie 9x00 con la 9600gt. chissà se a novembre saranno già uscite le midrange gt300, sarei interessato alla pari potenza della gtx260-216
ps. ma è possibile che in 12 ore siete riusciti a scrivere centinaia di post :D
Kharonte85
23-09-2009, 19:32
http://www.pcgameshardware.com/screenshots/original/2009/09/HD5870-Crysis-Warhead-1680.png
http://www.pcgameshardware.com/screenshots/original/2009/09/HD5870-xIndex-1680.png
Queste credo siano di interesse per tutti i possessori di 22" con questa risoluzione e che giocherebbero con quelle impostazioni (come me :D )
cmq mi ha un pò deluso questa scheda. Pensavo potesse andare più veloce della 4870x2 visto che integra in un unico chip quello che li invece deve passare per il crossfire di due gpu... Il fatto che il chip della 5870 si trovi 1GB di memoria video di corredo, invece che dei 2GB che hanno le due gpu della 4870x2, secondo voi può aver inciso così tanto?
ovvio che come consumi e confronto tra single gpu per me è un gioiello!!!
Come ho già detto nel mio primo commento, secondo me la HD5870 è limitata dalla larghezza di banda.
Rispetto alla HD4890 ha tutto al doppio (SU, TMU, ROPS), e lo stesso clock ma la larghezza di banda aumenta solo del 25%.
Il risultato è che ci si attesta su un +35-40% con picchi limite del 60%.
In pratica, sempre nel territorio della HD4870 X2.
Il raddoppio l'ho visto in un solo caso: Farcry2 a 2560x1600 con AA 8x (!!), dove si passa da 15 fps della HD4890 a 31 s della HD5870.
Speriamo che Samsung si sbrighi con i suoi moduli GDDR5.
Kharonte85
23-09-2009, 19:34
Come ho già detto nel mio primo commento, secondo me la HD5870 è limitata dalla larghezza di banda.
Rispetto alla HD4890 ha tutto al doppio (SU, TMU, ROPS), e lo stesso clock ma la larghezza di banda aumenta solo del 25%.
Il risultato è che ci si attesta su un +35-40% con picchi limite del 60%.
In pratica, sempre nel territorio della HD4870 X2.
Il raddoppio l'ho visto in un solo caso: Farcry2 a 2560x1600 con AA 8x (!!), dove si passa da 15 fps della HD4890 a 31 s della HD5870.
Speriamo che Samsung si sbrighi con i suoi moduli GDDR5.
Il sospetto è piu' che leggittimo e se devo essere onesto credo che se GT300 sarà quello che si va vociferando (512bit+GDDR5) questo problema non lo avrà di certo...
http://www.pcgameshardware.com/screenshots/original/2009/09/HD5870-Crysis-Warhead-1680.png
http://www.pcgameshardware.com/screenshots/original/2009/09/HD5870-xIndex-1680.png
Queste credo siano di interesse per tutti i possessori di 22" con questa risoluzione e che giocherebbero con quelle impostazioni (come me :D )
Ah si belle immagini davvero. :mbe:
Kharonte85
23-09-2009, 19:37
Ah si belle immagini davvero. :mbe:
prima c'erano :D
Adesso un attimo che risolvo :)
Kharonte85
23-09-2009, 19:46
http://img30.imageshack.us/img30/3747/90101862.jpg
http://img97.imageshack.us/img97/6940/89972678.jpg
Adesso non dovrebbe piu' rompere...:O
kliffoth
23-09-2009, 19:51
A me di approcci non mi frega e spero non freghi a nessun altro (anche se so benissimo che in realtà è così... si sceglie x fanboysmo + che x altro).
Ognuno dovrebbe farsi i conti in tasca in base al proprio hw attuale e scegliere il momento in cui cambiare. Ora con le 58x0 o + in la con le G300.
??? ma hai letto cosa ho scritto???
dicevo che ci sono pro e contro alla base che si riflettono su prezzi e dotazioni (poi figurati...io ho al momento una 7600gs sul fisso e una 8600gt ddr3 sul portatile e compero indifferentemente le due marche...figurati cosa mi può interessare di un pezzo di silicio...fosse una topa pure pure :) )
...signori questa è una signora scheda, mi dispiace di aver avuto l'accoppiata ati/amd in un brutto periodo e di non essermi trovato troppo soddisfatto, cosa che non posso dire della mia attuale configurazione hw, però quando viene sfornato un prodotto del genere non si può che fare i complimenti... dal canto mio sicuramente non cambierò la mia 285, anche perchè gioco a 1440x900 su un 20" quindi per almeno un anno penso di poter giocare tutto al massimo senza problemi... però son contento che sia arrivato un prodotto del genere a squotere un po' il mercato... complimenti ATI! una scheda del genere che massacra la 285 e che compete con una 295 (senza però averne i difetti)... aspetto la prossima generazione di nvida per poter comparare 2 prodotti simili ma se ATI continua così prima o poi mi convincerà a comprare una sua scheda! ;)
Sammy Jankis
23-09-2009, 20:49
...signori questa è una signora scheda, mi dispiace di aver avuto l'accoppiata ati/amd in un brutto periodo e di non essermi trovato troppo soddisfatto, cosa che non posso dire della mia attuale configurazione hw, però quando viene sfornato un prodotto del genere non si può che fare i complimenti... dal canto mio sicuramente non cambierò la mia 285, anche perchè gioco a 1440x900 su un 20" quindi per almeno un anno penso di poter giocare tutto al massimo senza problemi... però son contento che sia arrivato un prodotto del genere a squotere un po' il mercato... complimenti ATI! una scheda del genere che massacra la 285 e che compete con una 295 (senza però averne i difetti)... aspetto la prossima generazione di nvida per poter comparare 2 prodotti simili ma se ATI continua così prima o poi mi convincerà a comprare una sua scheda! ;)
Adesso metto il tuo post nei segnalibri a uso futuro per certa gente, fa piacere vedere che qualcuno ha ancora una vera passione per il PC e non si riduce al tifo da stadio.
P.S. La tua configurazione spacca di brutto, te lo dice un supporter AMD/ATI, meriterebbe un bel 24".
:mano:
Futura12
23-09-2009, 20:54
A me di approcci non mi frega e spero non freghi a nessun altro (anche se so benissimo che in realtà è così... si sceglie x fanboysmo + che x altro).
Ognuno dovrebbe farsi i conti in tasca in base al proprio hw attuale e scegliere il momento in cui cambiare. Ora con le 58x0 o + in la con le G300.
Falso,secondo me è ottuso chi sceglie una scheda,processore o quel che sia solo per fanboysmo...e il portafoglio che spesso ci rimette.
Fortuna che io non sono cosi.
Marko#88
23-09-2009, 21:05
quindi certamente un'ottima scheda(ma certo ben lontana dal doppio che alcuni favoleggiavano)e che infatti rimane sempre sotto alle dual gpu come era(ma non per tutti, anzi tutt'altro)facile da prevedere.
http://www.hwupgrade.it/articoli/skvideo/2287/ati-radeon-hd-5870-la-prima-scheda-video-per-directx-11_19.html
;)
non bazzico nella sezione vga da mesi ma vedo che non sei cambiato...:asd:
stiamo parlando di una singola VGA che in certi casi va MEGLIO delle precedenti DUAL e in altri peggio...globalmente saranno si e no allineate, anche un po' peggio se vuoi, te lo concedo. Consumando meno, costando probabilmente meno, avendo la certezza che le prestazioni saranno sempre al top e non come con le dual che vanno meglio in certi giochi e peggio in altri...
poi vabè, sono scelte di vita...lungi da me passare per fanboy (non gioco al pc da mesi, sto per acquistare un ps3 e il pc ormai mi serve solo per musica, internet e poco altro)...ma cazzo, qui mi pare che siamo davanti ad un'OTTIMA scheda video, capace di competere con le precedenti dual con tutti i vantaggi sopracitati...
Io ci gioco con tutto a palla e non scendo mai sotto i 45fps :mbe: ovviamente il supporto a PhysX non puoi attivarlo con le ATI, e credimi non ne sento la mancanza :asd: ho giocato su un PC con la fisica attiva e le differenze bisogna cercarle con la lente, oppure ti devi fermare mentre i psicopatici o i detenuti ti riempiono di botte e guardare dove sono le differenze :asd:
Le ipotesi sono 2, o non ci vedi molto bene, o non hai veramente giocato a Batman con la fisica al massimo.
http://www.youtube.com/watch?v=6GyKCM-Bpuw
http://www.youtube.com/watch?v=vINH6Z9kqgI
Si può dire di tutto ma non che "le differenze bisogna cercarle con la lente, oppure ti devi fermare mentre i psicopatici o i detenuti ti riempiono di botte e guardare dove sono le differenze :asd:"
Poi se ha te personalmente non piacciono le differenze questo è un altro discorso.
Futura12
23-09-2009, 21:42
non bazzico nella sezione vga da mesi ma vedo che non sei cambiato...:asd:
stiamo parlando di una singola VGA che in certi casi va MEGLIO delle precedenti DUAL e in altri peggio...globalmente saranno si e no allineate, anche un po' peggio se vuoi, te lo concedo. Consumando meno, costando probabilmente meno, avendo la certezza che le prestazioni saranno sempre al top e non come con le dual che vanno meglio in certi giochi e peggio in altri...
poi vabè, sono scelte di vita...lungi da me passare per fanboy (non gioco al pc da mesi, sto per acquistare un ps3 e il pc ormai mi serve solo per musica, internet e poco altro)...ma cazzo, qui mi pare che siamo davanti ad un'OTTIMA scheda video, capace di competere con le precedenti dual con tutti i vantaggi sopracitati...
è proprio cosi infatti,ma chi è attaccato al marchio che sia verde o rosso...vedrà sempre e solo quel colore..
Non c'è nulla di eccezionale nel vedere la HD5870 più veloce della HD4870 X2.
E' avvenuta la stessa cosa con HD4870 > Hd3870 X2 e con 2900XT > x1950Pro Dual.
In genere al debutto capita di vedere la single che le prende pure in qualche occasione, ma spesso bastano un paio di release di driver per mettere le cose a posto.
Così come non mi stupiscono le prestazioni della HD5870, allo stesso modo, se fossero vere le specifiche della GT300 trapelate, mi aspetto che questa non vada solo più veloce della GTX295, ma anche della Asus Mars.
Sarebbero davvero dolori, per Nvidia, se ciò non accadesse, ed è nel margine che si riesce a dare alla precedente dual gpu che si fa' "l'eccezionalità" di una generazione dal punto di vista prestazionale.
Nightwalker
23-09-2009, 21:54
@Nightwalker:Non so se lo hai visto ,ma il passaggio da gtx 285 a 5870 ti da in media un aumento del 127% in prestazioni....se questo è un pelo superiore....
Comunque bella bestiola :oink:
Te non sai leggere i grafici.
La 285 viene data come 100%, quindi è solo 27% in più.
Se fosse il 127% in più andrebbe più del doppio veloce rispetto la 285, ma non è così se guardi tutti i grafici e non solo quelli che ti fanno bere.
Per vederle si vedono, così come si vede il pesante calo di framerate quando si attiva PhysX.
La domanda è: a cosa mi serve la fisica nel gioco se non la posso usare?
Penso per esempio a Dark Messiah, dove la fisica era un elemento di gioco, non un fronzolo che appesantisce tutto, e girava anche alla grande.
Toh... Havok, sempre lui...Il calo di frame rate c'è, (con una GTX 260 rimane sempre fluido con tutto al max, 1920x1200, AA4x AF16x ) ma il frame rate non diminuisce forse anche quando si aumentano i dettagli grafici? perché dovrebbe essere diverso?
Quanti e quali oggetti venivano gestiti dal motore fisico in Dark Messiah?
Qualche rigid body, e forse un paio di cloth non lacerabili in bassa risoluzione? per forza che girava alla grande :)
Quindi sarebbe meglio tornare a quando tutto era statico o frutto di animazioni precalcolate?
La fisica non serve a rendere più verosimile l'esperienza di gioco? non aiuta ad immergersi nell'azione?
Ma se vogliamo tirare in ballo il solito cliché facciamo pure...
Cosa me ne faccio delle ombre dinamiche se non le puoi usare per prevedere le mosse di un avversario? e delle texture dettagliatissime? o delle soft shadows? dell'HDR?
Il fatto che la fisica non sia fondamentale nel gameplay non è certo una limitazione del motore fisico, basta una gravity gun o qualcosa che gli corrisponda.
Di giochi che utilizzano la fisica nel gameplay usando PhysX ce ne sono, primo fra tutti Crazy Machines.
Detto questo sono contento che anche AMD si sia mossa per portare l'elaborazione fisica su GPU.
non bazzico nella sezione vga da mesi ma vedo che non sei cambiato...:asd:
stiamo parlando di una singola VGA che in certi casi va MEGLIO delle precedenti DUAL e in altri peggio...globalmente saranno si e no allineate, anche un po' peggio se vuoi, te lo concedo. Consumando meno, costando probabilmente meno, avendo la certezza che le prestazioni saranno sempre al top e non come con le dual che vanno meglio in certi giochi e peggio in altri...
poi vabè, sono scelte di vita...lungi da me passare per fanboy (non gioco al pc da mesi, sto per acquistare un ps3 e il pc ormai mi serve solo per musica, internet e poco altro)...ma cazzo, qui mi pare che siamo davanti ad un'OTTIMA scheda video, capace di competere con le precedenti dual con tutti i vantaggi sopracitati...
Non è quello che ha detto anche Hal?
Ovvero:quindi certamente un'ottima scheda(ma certo ben lontana dal doppio che alcuni favoleggiavano)e che infatti rimane sempre sotto alle dual gpu come era(ma non per tutti, anzi tutt'altro)facile da prevedere.
http://www.hwupgrade.it/articoli/skvideo/2287/ati-radeon-hd-5870-la-prima-scheda-video-per-directx-11_19.html
;)
All'interno di un forum è facile fraintendersi.
netcrusher
23-09-2009, 22:40
Dopo 40 pagine lette di commenti posso dire che a molti utenti di questo forum manca proprio la maturità necessaria per riuscire a comprendere il valore di un prodotto al di là di tutto, sono veramente stanco dei soliti commenti idioti, c'è una recensione su di una vga di nuova generazione e si finisce sempre nel flame ecchediamine parliamo di questa hd5870 e basta per favore............
Che bei flames! :D
Interessante questa 5870, anche se come molti altri mi aspettavo qualcosa di più.
Sicuramente drivers più maturi e un lieve adattamento del prezzo la renderanno molto appetibile in futuro... intanto rimango in attesa della 5870X2 e delle soluzioni nVidia!
Severnaya
23-09-2009, 22:50
Non serve andare così indietro nel tempo. 8800 GTX all'uscita, prezzo €600 ed oltre. ;)
ma vuoi mettere seicentoeuro con unmilioneeduecentomilalire??? :asd:
wolverine
23-09-2009, 22:55
Come temp come va? :)
Bella scheda.
Migliore VGA a singola GPU con prestazioni allineate alle dual gpu di gamma alta, la più silenziosa tra le VGA di fascia medio-alta single/dual GPU (reference) e con consumi nettamente più bassi. Aggiungiamo qualità dei filtri e Dx11.
Se costa meno di una GTX295, cosa si può volere di più? Trovare da polemizzare anche di fronte ad un prodotto migliore sotto tutti i punti di vista e più economico è proprio il massimo...
kliffoth
23-09-2009, 23:07
intanto rimango in attesa della 5870X2 e delle soluzioni nVidia!
mmm ma sicuro che il CF o SLI sia la soluzione?? che io sappia ci sono problemi di sincronia.
http://forum.beyond3d.com/archive/index.php/t-47683.html
un esempio tra molti
e ancora pià chiaro qui:
http://forums.anandtech.com/messageview.aspx?catid=31&threadid=2178762
WHAT 30 FPS SHOULD LOOK LIKE (single GPU)
Frame, Time (ms)
1, 0.000
2, 33.3
3, 66.6
4, 99.9
5, 133.2
WHAT 30 FPS DO LOOK LIKE WITH SLI/CROSSFIRE
Frame, Time (ms)
1, 0.000
2, 12.1
3, 68.3
4, 80.5
5, 136.8
Every odd frame number takes much less than the expected 33.3 ms to update and every even frame takes much longer to update.
In this example, every even frame takes around 56.5 ms to update, which is almost 70% longer than expected!
The frame rate says ~30 FPS, but in reality every second frame is updated with a rate of only ~17.8 FPS!
e ancora qui http://www.pcgameshardware.de/?article_id=631668 (tecnico. c'è anche un bel video con fraps che mostra il crollo frames)
e qui http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371844
A me la cosa che mi fa incazzare è che le fanno sempre più lunghe.. Nel mio case sono già al limite con 27cm quindi la 5870 non c'entra :rolleyes: E fatele un pò più corte che diamine
g.luca86x
23-09-2009, 23:41
A me la cosa che mi fa incazzare è che le fanno sempre più lunghe.. Nel mio case sono già al limite con 27cm quindi la 5870 non c'entra :rolleyes: E fatele un pò più corte che diamine
può darsi che abbiano deciso di piazzare i componenti più larghi per ovviare al ridotto sfogo dell'aria calda, quindi cercare di garantire più raffreddamento, o magari per garantire lo spazio per le dotazioni di 2GB di memoria. Altrimenti non mi spiego nemmeno la placca di alluminio protettiva. Se leggi le news di oggi infatti sapphire ha preannunciato una vapor-x più corta della reference...
madeofariseo
24-09-2009, 00:05
madonna che mattoni...
3DMark79
24-09-2009, 00:34
A me la cosa che mi fa incazzare è che le fanno sempre più lunghe.. Nel mio case sono già al limite con 27cm quindi la 5870 non c'entra :rolleyes: E fatele un pò più corte che diamine
Almeno per quello nel mio case come il "banchetto 101" non ho problemi.:rolleyes:
bonzuccio
24-09-2009, 00:52
E come mai l'unico test DX10.1 viene fatto senza AA, cioè il caso in cui DX10.1=DX10?
:doh: :doh: nessuna risposta! Ma di yoss avete notizie?
Ormai si rischia pure di passare per uomini cinici e crudeli e allora per essere sicuri di fare post con un qualche senso senza nessun rischio si prenda la regola di iniziare dopo il mio a circa pagina 20 che tanto al primo ci pensa il solito e Corsini di sicuro non ci legge :D
Però come va la scheda si capisce abbastanza bene, manca quell'accuratezza e volontà di spaccare il capello dei tempi migliori
allora stai fresco:asd:
Vabbè, "bassi" in senso relativo :D
infatti il prezzo di nVidia è la vera incognita.
Ormai le prestazioni le hanno tutti, e come dicevo prima il vero valore aggiunto di questa scheda è nell'eccellente comparto video e audio, nonchè nella buona dotazione di porte (finalmente!!).
La cosa interessante sarà vedere come prezzerà nVidia il suo chip, che sarà davvero grosso, e quindi costoso.
Forse il prezzo aggressivo di AMD non è per rispettare la clientela (che poi sareste voi...immaginatevi un po'!!), ma per cercare di saturare il mercato prima di GT300.
Di nuovo si pone una questione interessante di "filosofia": meglio il classico chippone o l'approccio AMD?
Personalmente preferisco l'AMD perchè significa portare anche nella fascia medio-alta connessioni e tecnologie di codifica video una volta destinate al top...però c'è il problema che menzionavo poc'anzi, e cioè che il CF o SLI che sia ha un problema di crollo di refreshing, e quindi per le sole prestazioni il singolo chippone sarà più veloce...ma per me tra 100 e 500 frames non c'è differenza
Sì infatti, a parte che quoto tutto il resto, è questo che i programmatori dovrebbero capire: tra 100 e 500 fps nessuna differenza, ma tra 30 e 15 tanta!!!! Produrre giochi programmati a volatile come GTA4 (imbottito di bug e che se ben ottimizzato gira pure sull'hardware di una console, come sappiamo), come Stalker clear sky (la luce del sole e gli effetti di illuminazione al massimo si fottono le migliori schede), come Cryostasis (alcuni dicono che sia concepito per sfruttare un solo core della cpu!!!! :muro: ).........beh, fare tutti questi errori porta i consumatori meno avveduti a spararsi centinaia di € in Vga (quando per giocare tutto più che dignitosamente basterebbe una GTX 260, come dimostrano giochi dall'eccellente ottimizzazione come Fear 2 o Dead space) che in realtà non servirebbero. E poi hanno pure meno soldi per comprarsi i giochi. Questa rincorsa al super hardware (tanto di cappello comunque a questa ATi) sarebbe assolutamente evitabile, e noi siamo qui a pregare tutti i Santi che i prezzi scendano...... per cosa? Per acquistare "cannoni" (vga) allo scopo di ammazzare elefanti che potevano essere formiche (Vg).
Quando poi con le prossime console vedremo giochi il doppio più "lussureggianti" di Crysis girare su delle 8800GTS ficcate dentro PS4 (esempio) mentre noi staremo a piangere perchè Elder scroll V ci va a 8 FPS nonostante la 9890X2 super ultra OC pagata 500€.....beh, forse capiremo che sbagliamo (io per primo) a comprare giochi mal ottimizzati che ci costringono ad acquistare VGA da overkill.
Scusate lo "sfogo" e le banalità, ma certe cose ogni tanto andrebbero (ri)considerate. Scusate ancora
http://img30.imageshack.us/img30/3747/90101862.jpg
http://img97.imageshack.us/img97/6940/89972678.jpg
Adesso non dovrebbe piu' rompere...:O
Con tutti quei dettagli e filtri attivi una bestia come la GTX 275 non supera i 20 fps. Che schifo, c'è gente che dovrebbe andare a fare altri lavori e smettere di toccare tastiere e codici.
Per inciso, mi pare su Anandtech, ho letto che Crysis NON va al massimo neppure con un cross fire di 5870. Mi chiedo quale vga ci voglia per stare finalmente "tranquilli" e non dover accettare compromessi
Come temp come va? :)
Oggi ho letto due versioni contrastanti: c'è chi dice 100 gradi (ci fai l'acqua della pasta), chi 85.
MiKeLezZ
24-09-2009, 02:06
Per vederle si vedono, così come si vede il pesante calo di framerate quando si attiva PhysX.
La domanda è: a cosa mi serve la fisica nel gioco se non la posso usare?
Penso per esempio a Dark Messiah, dove la fisica era un elemento di gioco, non un fronzolo che appesantisce tutto, e girava anche alla grande.
Toh... Havok, sempre lui...
ATI supported Bullet Physics developed on Geforce
Slap in the face
We have seen a presentation where Nvidia claims that Mr. Erwin Coumans, the creator of Bullet Physics Engine, said that he developed Bullet physics on Geforce cards. The bad thing for ATI is that they are betting on this open standard physics tech as the one that they want to accelerate on their GPUs.
"ATI’s Bullet GPU acceleration via Open CL will work with any compliant drivers, we use NVIDIA Geforce cards for our development and even use code from their OpenCL SDK, they are a great technology partner. “ said Erwin.
This means that Bullet physics is being developed on Nvidia Geforce cards even though ATI is supposed to get driver and hardware acceleration for Bullet Physics. With such a statement we comes to question whether ATI has any kind of OpenCL driver that it can push for its own Physics. Even if they do, Nvidia is far ahead with PhysX and Intel won’t let them accelerate Havok, as this is a good task for Larrabee, whenever that comes.
To spice things up, Bullet (AMD/ ATI supported) physics is listing that PhysX with 26.8 percent is the most popular physics library, at least according to Gamedeveloper magazine. Intel’s Havok is second with saucy 22.7 percent and Bullet is third with 10.4 percent. The AMD supported API is clearly behind the competition, but it's still better than Open Dynamics Engine (ODE) that has 4.1 percent of the market.
http://www.bulletphysics.com/wordpress/wp-content/uploads/2009/09/physics_middleware_aug2009.jpg
:,(
Marko#88
24-09-2009, 07:29
Non è quello che ha detto anche Hal?
Ovvero:
All'interno di un forum è facile fraintendersi.
penso che il mio discorso fosse perfettamente chiaro e che non ci fosse alcun bisogno che intervenissi tu a "difendere" l'amico hal...;)
altro che fraintendersi, basta saper leggere...e in più ormai lo si conosce come utente...
non bazzico nella sezione vga da mesi ma vedo che non sei cambiato...:asd:
stiamo parlando di una singola VGA che in certi casi va MEGLIO delle precedenti DUAL e in altri peggio...globalmente saranno si e no allineate, anche un po' peggio se vuoi, te lo concedo. Consumando meno, costando probabilmente meno, avendo la certezza che le prestazioni saranno sempre al top e non come con le dual che vanno meglio in certi giochi e peggio in altri...
poi vabè, sono scelte di vita...lungi da me passare per fanboy (non gioco al pc da mesi, sto per acquistare un ps3 e il pc ormai mi serve solo per musica, internet e poco altro)...ma cazzo, qui mi pare che siamo davanti ad un'OTTIMA scheda video, capace di competere con le precedenti dual con tutti i vantaggi sopracitati...
Dopo 40 pagine lette di commenti posso dire che a molti utenti di questo forum manca proprio la maturità necessaria per riuscire a comprendere il valore di un prodotto al di là di tutto, sono veramente stanco dei soliti commenti idioti, c'è una recensione su di una vga di nuova generazione e si finisce sempre nel flame ecchediamine parliamo di questa hd5870 e basta per favore............
x fortuna che c'è ancora gente che ragiona, quoto entrambi ;)
Samuele86
24-09-2009, 08:14
se andate su "novatech" ce le ha già in vendita..o non so..in preordine..io pensavo che era già uscita...dopo mi leggo un pò se è degna.
vero_novellino
24-09-2009, 08:27
Questa rincorsa al super hardware (tanto di cappello comunque a questa ATi) sarebbe assolutamente evitabile, e noi siamo qui a pregare tutti i Santi che i prezzi scendano...... per cosa? Per acquistare "cannoni" (vga) allo scopo di ammazzare elefanti che potevano essere formiche (Vg).
Quando poi con le prossime console vedremo giochi il doppio più "lussureggianti" di Crysis girare su delle 8800GTS ficcate dentro PS4 (esempio) mentre noi staremo a piangere perchè Elder scroll V ci va a 8 FPS nonostante la 9890X2 super ultra OC pagata 500€.....beh, forse capiremo che sbagliamo (io per primo) a comprare giochi mal ottimizzati che ci costringono ad acquistare VGA da overkill.
Scusate lo "sfogo" e le banalità, ma certe cose ogni tanto andrebbero (ri)considerate. Scusate ancora
Sfogo comprensibile ma inutile. La corsa al nuovo e potente c'è sempre stata ed è nel dna dell'utilizzatore di pc: mai accontentarsi.
Tornando alla scheda, impressionanti le prestazioni comunque le si vogliano vedere. Però, nota dolente, credo che amd ancora una volta sia arrivata tardi, come per i phenom2; ormai il mercato è satuto e sarà difficile imporsi nel breve periodo. I consumi sono strabilianti.
kliffoth
24-09-2009, 09:07
piccola nota parzialmente OT.
se prende piede la moda di affiancare i monitor ...ebbene...finalmente e con gioia ... ADDIO TN!!!! non reggerebbero gli angoli di visuale ..... sia lode al cielo
PS comunque tarare 6 monitor è un lavoro immane!
Al limite (ma a me ne basta uno) i 3 display in verticale sono ok ...si recuperano anche i maledetti pixel verticali cui eravamo abituati con i 4/3 e 5/4.
Ormai il trend è per i 16:9: ai costruttori è utlie, ma gli utenti che ci guadagnano? (visto che al limite con un 16:10 si sono 2 piccolissime bande nere, non fucsia)
comunque passo passo...seppelliamo prima i TN
Affascinante, chissà che metodologia altamente scientifica hanno utilizzato per ricavare queste percentuali :asd:
no poi "popular" :asd:
e si molto popolari ci faccio pure la pasta :asd:
ndrmcchtt491
24-09-2009, 09:55
La nuova nata di amd è mostruosa, ma...
1-le prestazioni sono elevate ma sinceramente pensavo allo stesso livello se non superiori a 2 4890 che 1 singola va + o - come una 275gtx...(si sentiva realmente la necessità di aumentare ancor di più le performance visto che chi ha una 4870 o una 275gtx gioca tutto o quasi al massimo dettaglio vicino al fullHD?)
2-i consumi sono contenuti pero si necessita di almeno un alimentatore da 650watt o giù di li(molti sono ancora "impastati" ai 450 o 500watt)
3-facciamo a gara a chi ce l'ha piu lungo???
4-330euri non sono pochi, ma pensare ai 600 e rotti delle 8800gtx quando erano uscite...
5-quando uscirà gt300 queste caleranno di prezzo, nvidia dovrà tirare per aver ampi margini di guadagno
5-quando finiranno le storiele del tipo scheda nuova ma driver che non funzionano,che devono essere ancora ottimizzati,non riconoscono la scheda, applicazioni che si rifiutano di partire(e non parlo solo di amd...)qualcuno me lo spieghi grazie, visto che un ipotetico soggetto spende 300 euro e deve aspettar settimane se non mesi per vederla funzionar normalmente(vedi schede amd 4xxx con Brothers in Arms H H quando era uscito che in un determinato livello si impastava il gioco)
comunque passo passo...seppelliamo prima i TN
... quando ci sarà qualcosa in grado di competere per qualità/prezzo...
sniperspa
24-09-2009, 10:26
6. I driver risolvono bug, i quali possono anche essere in alcuni casi causa di prestazioni mediocri, ma in generale le prestazioni al lancio rimangono quelle (ci può essere una minima ottimizzazione, sull'ordine del 5%, ma niente di clamoroso). I guadagni più grossi con le release di drivers si hanno con le soluzioni multi-GPU, ma perché partono sempre sottosfruttate, anche pesantemente, per poi recuperare un po'. Per ora rimangono più conveniente le single...
Bè poi dipende dalla scheda e dal gioco...perchè per esempio crysis sui test di hwupgrade mi ricordo che faceva sui 26fps con la mia scheda(poco dopo l'uscita circa) e un quadcore,mentre io con il pc in firma ne faccio più di 30 ora come ora...33 con la scheda in oc :)
Ma forse crysis ha ottenuto maggiori attenzioni di altri titoli :D
Quoto il discorso delle single cmq...
...incredibile pwna in ogni aspetto!
speriamo x il prezzo!
g.luca86x
24-09-2009, 10:37
ma un'analisi anche sulle temperature raggiunte non sarebbe stata indicata? Ho letto da altre parti che raggiunge i 100° una schedozza del genere...
ndrmcchtt491
24-09-2009, 10:40
scusa x gil errori
è vero che l' intero sistema consuma 350watt, ma penso che per far funzionar il tutto ci voglia almeno uno da 600watt(problema efficienza termica), senza contar le varie periferiche che si aggiungono vedi dischi esterni, altoparlanti, ecc
l' allungamento migliora la dissipazione pero...è veramente lunga come del resto le varie 285gtx, 275gtx, (ste sigle...)
quando usciranno prodotti realmente finiti sarà un miracolo, che poi escano aggiornamenti per prodotti nuovi è un altro discorso,capisco le varie difficoltà però un minimo di test...
p.s.
le mie erano solo critiche personali, non avevo intenzione di infiammare niente e nessuno
ndrmcchtt491
24-09-2009, 10:47
non sono neanche di parte visto che ora ho una 9600gt,prima una 2600xt(pessimo acqisto),prima ancora una 7600gt, eccc....(che stress quegli utenti che vedono solo rosso o verde, in fondo è solo silicio e plastica...)
Paolo Corsini
24-09-2009, 10:51
Ripropongo le domande, sperando che con il rallentamento del thread vengano notate:
3. Per una recensione delle HD5850 c'è da aspettare che i partner forniscano le schede, immagino?
Grazie.
1) Hawx e DX10.1 con AA: integreremo questo test nel secondo articolo su RV870. Stiamo lavorando a questo pezzo in questi giorni. Spero entro sera di fare un post nel blog con la scaletta interna dei lavori, così da aggiornarvi su cosa pensiamo di pubblicare nei prossimi giorni
2) Windows 7: a quanto dichiara ATi ci sono tangibili incrementi prestazionali rispetto a Vista, soprattutto con tecnologia CrossfireX. Un test Vista vs 7 in ambito gaming è programmato internamente, ma preferiamo aspettare fine Ottobre il lancio dell'OS
3) 5850: esattamente, ne stiamo aspettando una dai parner. AMD non ha campionato questo prodotto e a quanto ho visto di fatto nessuno ne ha avuto un sample a disposizione.
ninja750
24-09-2009, 10:57
(si sentiva realmente la necessità di aumentare ancor di più le performance visto che chi ha una 4870 o una 275gtx gioca tutto o quasi al massimo dettaglio vicino al fullHD?)
con questo ragionamento oggi staremmo giocando a crysis con le voodoo1
g.luca86x
24-09-2009, 10:59
scusa x gil errori
è vero che l' intero sistema consuma 350watt, ma penso che per far funzionar il tutto ci voglia almeno uno da 600watt(problema efficienza termica), senza contar le varie periferiche che si aggiungono vedi dischi esterni, altoparlanti, ecc
l' allungamento migliora la dissipazione pero...è veramente lunga come del resto le varie 285gtx, 275gtx, (ste sigle...)
quando usciranno prodotti realmente finiti sarà un miracolo, che poi escano aggiornamenti per prodotti nuovi è un altro discorso,capisco le varie difficoltà però un minimo di test...
p.s.
le mie erano solo critiche personali, non avevo intenzione di infiammare niente e nessuno
dischi esterni, altoparlanti non li alimenti con l'alimentatore del computer!
per la rece sono stati usati questi comonenti:
# Processore: Intel Core i7 965 Extreme, clock 3,2 GHz con tecnologia Turbo Mode attiva;
# memoria RAM: 3x2 Gbytes Corsair TR3X6G1600C8D; frequenza di clock 1.600 MHz con timings pari a 8-8-8-24;
# Hard disk: Western Digital WD7500AAKS, 750 Gbytes SATA 7.200 rpm;
# Scheda madre: MSI Eclipse SLI, chipset Intel X58;
ti invito a riguardare questa recensione fatta da hwupgrade a proposito della 4770 (analisi comparativa):
http://www.hwupgrade.it/articoli/skvideo/2192/ati-radeon-hd-4770-per-la-prima-volta-a-40-nanometri_4.html
Da notare che la configurazione di test è la medesima.
Spero qualcuno della redazione mi voglia rispondere perchè è davvero importante:
perchè nella recensione della 5870 i consumi per le schede quali 4890 e gtx 275 e 285 sono in alcuni casi palesemente diversi a parità di configurazione usata?
http://www.hwupgrade.it/articoli/skvideo/2176/geforce-gtx-275-e-radeon-hd-4890-nuovo-testa-a-testa_11.html
http://www.hwupgrade.it/articoli/skvideo/2287/ati-radeon-hd-5870-la-prima-scheda-video-per-directx-11_10.html
http://www.hwupgrade.it/articoli/skvideo/2192/ati-radeon-hd-4770-per-la-prima-volta-a-40-nanometri_4.html
tra l'analisi della 4770 e della 5870 ci sono 40W di differenza, non 5W sulla 4890!!!!!!!!!!!!
e 80W di differenza per la gtx 285 tra l'analisi comparativa della 275vs4890 e questa recensione!!!!!!!
Qualcuno potrebbe spiegarmi il motivo di questa discrepanza così grande, per favore?
g.luca86x
24-09-2009, 11:05
Per l'articolo della 5870 hanno usato HAWX come stress della GPU, nelle altre che hai linkato la scena 18 di shadermark.
Non so se questo risponde alla tua domanda ma è l'unica differenza di metodo che ho riscontrato.
ma un cambio di software di test può portare agli 80w di differenza per la gtx285?
ndrmcchtt491
24-09-2009, 11:11
P.S.: infatti mica mi infiammo, discuto con te sui dubbi che hai portato alla piazza
giusto, (per fare un esempio sul multimonitor ho detto la mia e non ti dico sosa è saltato fuori...), come sulla storia di Phisx che funziona(per ora) solo con le schede nvidia, ma se non sbaglio ati puo chiamar in causa quella tecnica che permette di aumentar i poligoni, cosa che con le nvidia non si puo fare.In poche parole si è alla pari
l' ali da 450watt puo bastare ma sulla linea da 12v quanti hampere deve rilasciar per far funzionar il sistema? penso che con 450watt l' ali sia sempre al 100% e questo non è bene
MadJackal
24-09-2009, 11:27
http://pclab.pl/zdjecia/artykuly/miekrzy/5870premierowy/wykresy/bench/bf1920.png
(fonte (http://pclab.pl/art38674-8.html))
Apperò. Quasi 10 fps massimi in più abilitando DX11. :rolleyes:
Batte pure la X2, così.
Micene.1
24-09-2009, 11:34
mi sembra cosi a pelle che amd abbia fatto un ottimo lavor...le mie attese nn sono state deluse...attendo a q eusto punto le sorelle minori
DarkVampire
24-09-2009, 11:41
mmm..che dire...la nuova scheda certo e' buona, il netto vantaggio sulla 285 e' netto...sarebbe stato un disastro se nn lo fosse stato..il dual gpu della stessa ati e' superiore (e quindi nn si e' superata)il confronto e' con una 295..che sono 2 gpu della 260...immagino quanto uno sli di 285 stracci la singola 5xxx, ma fare questi paragoni e' inutile..del resto e' una nuova scheda...che attualmente si pone nella fascia top di gamma di tutte le vga a singola scheda
ma aspettiamo la nuova nvidia e poi ne riparliamo...se segue sempre la solita filosofia vga nuova=potenza superiore a uno sli delle piu' potenti precedenti...allora continuera' stracciarla (parlando sempre di singola gpu ovviamente)...e ati tornera' cmq e sempre a far parte di un mercato di fascia media medio/alta e a raggiungere/superare nvidia solo con un crossfire.
l'idea di farla uscire gia' da adesso e' una buona trovata..visto che si accaparrera' una buona fetta di mercato, finche' nvidia nn si decide a far debuttare il gt300...ottimi i consumi in idle cmq..ma le temp?
tra l'altro e' orrenda da vedere XD
BodyKnight
24-09-2009, 11:47
Ma la tessellation non ce l'aveva già anche la geforce 3?
MadJackal
24-09-2009, 11:49
Notare che già batte la GTX295 anche senza DX11, perché prima di ieri era un gioco DX10.1 ;)
Già. Ma sono dettagli, le DX10.1 sono inutili, così anche le DX11. Parola di NVIDIA. :O
mmm..che dire...la nuova scheda certo e' buona, il netto vantaggio sulla 285 e' netto...sarebbe stato un disastro se nn lo fosse stato..il dual gpu della stessa ati e' superiore (e quindi nn si e' superata)il confronto e' con una 295..che sono 2 gpu della 260...immagino quanto uno sli di 285 stracci la singola 5xxx, ma fare questi paragoni e' inutile..del resto e' una nuova scheda...che attualmente si pone nella fascia top di gamma di tutte le vga a singola scheda
ma aspettiamo la nuova nvidia e poi ne riparliamo...se segue sempre la solita filosofia vga nuova=potenza superiore a uno sli delle piu' potenti precedenti...allora continuera' stracciarla (parlando sempre di singola gpu ovviamente)...e ati tornera' cmq e sempre a far parte di un mercato di fascia media medio/alta e a raggiungere/superare nvidia solo con un crossfire.
l'idea di farla uscire gia' da adesso e' una buona trovata..visto che si accaparrera' una buona fetta di mercato, finche' nvidia nn si decide a far debuttare il gt300...ottimi i consumi in idle cmq
Credo che la parte grassettata sarà quello che accadrà. Anche in questo caso NVIDIA sfornerà un mostro (e qualche rumor dice che la resa sia al 2%... Non molto confortante).
Tutto dipende da se e come questo mostro si porrà in contrapposizione con la serie HD 5xx0. Se accadrà la stessa cosa che è accaduta tra G200 e HD 4xx0, NVIDIA prenderà ancora bastonate e sarà costretta ad abbassare i prezzi.
Il problema è che stavolta non c'è un "nuovo" processo (i 55 nm) alle porte su cui potrà saltare subito dopo...
Ovviamente si aspetta, direi. Non sono sicuro che cambierò GPU, ma di sicuro non la cambio fino a quando non vedo G300.
Perchè come minimo, si abbassano i prezzi :asd:
Ma la tessellation non ce l'aveva già anche la geforce 3?
Non mi pare. So che le ATI hanno avuto TRUFORM, mi pare dalle 8500.
ndrmcchtt491
24-09-2009, 11:55
Commento # 431 di: ninja750 pubblicato il 24 Settembre 2009, 10:57
Originariamente inviato da: ndrmcchtt491
(si sentiva realmente la necessità di aumentare ancor di più le performance visto che chi ha una 4870 o una 275gtx gioca tutto o quasi al massimo dettaglio vicino al fullHD?)
con questo ragionamento oggi staremmo giocando a crysis con le voodoo1
il tuo non fa 1 piega,è veramente sensato...passi dalle generazioni attuali e future alla preistoria
Commento # 432 di: g.luca86x
dischi esterni, altoparlanti non li alimenti con l'alimentatore del computer!
Ai ragione, però ci sono i dischi da 2,5" alimentati tramite usb,senza contar chi aggiungie neon o altri gingilli e con un ali da 450watt con efficienza del 80% a 25 gradi si è pericolosamente vicini al carico massimo totale del sistema(senza contar sbalzi si temperatura vedi estate-inverno). Secondo me 450watt sono insufficienti per un sistema cosi, almeno un 620watt per sicurezza
MiKeLezZ
24-09-2009, 11:56
Affascinante, chissà che metodologia altamente scientifica hanno utilizzato per ricavare queste percentuali :asd:
A survey on over 100 senior developers of various development houses, mainly working on PC, PlayStation 3 or XBox 360
:-)
DarkVampire
24-09-2009, 12:02
[QUOTE=MadJackal;29009126]Già. Ma sono dettagli, le DX10.1 sono inutili, così anche le DX11. Parola di NVIDIA. :O
Se accadrà la stessa cosa che è accaduta tra G200 e HD 4xx0, NVIDIA prenderà ancora bastonate e sarà costretta ad abbassare i prezzi.
QUOTE]
beh bastonate non direi...se e' lecito dire bastonate NON sempre prese da un crossfire..contro UNA singola gpu...in alcune cose e' meglio il cross (con tutti i problemi del cross che almeno sono meno di prima)..il altre la singola gpu nvidia va meglio...in media sono pari come skede...la differenza sta solo nel dual e nel mono gpu..un confronto cmq impari.
le bastonate ke ha preso nvidia le indirizzerei solo sui prezzi alti di nvidia..con quelli si...e anche grazie a una stupida politica di rimarchiare 100 volte con qualche aggiunta le schede precedenti.
per quanto mi riguarda resto con la 88gtx..che fa ancora il suo sporco lavoro e nn c'e' niente nel campo ludico che dia una forte spinta a cambiare
ndrmcchtt491
24-09-2009, 12:03
Commento # 443 di: MadJackal
TRUFORM, mi pare dalle 8500
Truform, ecco come si chiamava la tecnica per aumentare i poligoni ed è dalla serie 8xxx che ati ha tale techica...
Nvidia ha PhisX da neanche un anno e c'è giente che dice che è una cosa scandalosa visto che sulle schede AMD non funziona, potrei dire la stessa cosa per il TRUFORM che si può abilitar sui giochi che supportano tale tecnica solo con schede AMD, quindi ogni marca ha le sue peculiarità che la rivale non puo avere
Buon Appetito...
MadJackal
24-09-2009, 12:21
Commento # 443 di: MadJackal
TRUFORM, mi pare dalle 8500
Truform, ecco come si chiamava la tecnica per aumentare i poligoni ed è dalla serie 8xxx che ati ha tale techica...
Nvidia ha PhisX da neanche un anno e c'è giente che dice che è una cosa scandalosa visto che sulle schede AMD non funziona, potrei dire la stessa cosa per il TRUFORM che si può abilitar sui giochi che supportano tale tecnica solo con schede AMD, quindi ogni marca ha le sue peculiarità che la rivale non puo avere
Buon Appetito...
Non a caso il truform è morto e sepolto ;)
Mentre invece la tassellation delle 5870 è uno standard, al contrario di PhysX ;)
Quello che sfugge è che TRUFORM è la tessellation. Sono praticamente la stessa cosa, solo che la attuale tessellation unit è molto più "potente" di quanto fosse quella delle 8500 (...per ovvi motivi).
Non mi pare ci siano molti giochi che la supportino... Mi ricordo solo la serie di Soldier of Fortune, e mi pare anche Neverwinter nights con una modifica manuale alla conf.
ATI ha il tessellator da qualche annetto ormai :asd:
E guardate cosa ci si può fare, con la tessellation:
http://img193.imageshack.us/img193/7131/00001z.png (normale)
http://img193.imageshack.us/img193/1281/00000w.png (tessellation on)
Commento # 443 di: MadJackal
TRUFORM, mi pare dalle 8500
Truform, ecco come si chiamava la tecnica per aumentare i poligoni ed è dalla serie 8xxx che ati ha tale techica...
Nvidia ha PhisX da neanche un anno e c'è giente che dice che è una cosa scandalosa visto che sulle schede AMD non funziona, potrei dire la stessa cosa per il TRUFORM che si può abilitar sui giochi che supportano tale tecnica solo con schede AMD, quindi ogni marca ha le sue peculiarità che la rivale non puo avere
Buon Appetito...
La tessellation è una specifica introdotta con le Dx11, niente di privato/esclusivo, con G300 sarà supportato anche da nVidia.
Ps, usa il tasto quote quando rispondi, altrimenti diventa impossibile leggerti.
mmm ma sicuro che il CF o SLI sia la soluzione?? che io sappia ci sono problemi di sincronia.
http://forum.beyond3d.com/archive/index.php/t-47683.html
un esempio tra molti
e ancora pià chiaro qui:
http://forums.anandtech.com/messageview.aspx?catid=31&threadid=2178762
WHAT 30 FPS SHOULD LOOK LIKE (single GPU)
Frame, Time (ms)
1, 0.000
2, 33.3
3, 66.6
4, 99.9
5, 133.2
WHAT 30 FPS DO LOOK LIKE WITH SLI/CROSSFIRE
Frame, Time (ms)
1, 0.000
2, 12.1
3, 68.3
4, 80.5
5, 136.8
Every odd frame number takes much less than the expected 33.3 ms to update and every even frame takes much longer to update.
In this example, every even frame takes around 56.5 ms to update, which is almost 70% longer than expected!
The frame rate says ~30 FPS, but in reality every second frame is updated with a rate of only ~17.8 FPS!
e ancora qui http://www.pcgameshardware.de/?article_id=631668 (tecnico. c'è anche un bel video con fraps che mostra il crollo frames)
e qui http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371844
Sei un genio, mi hai aperto la mente. Stavo valutando di aspettare la X2 ma a questo punto mi butto diretto sulla 5870. E' sempre vero, mai accontentarsi di un singolo numerello quando è possibile andare a vedere COSA SI NASCONDE dietro....
L'incertezza è così elevata che non ci è stato di fatto possibile avere informazioni precise sui livelli di prezzo nel mercato europeo. AMD indica una cifra di 379 dollari per la scheda Radeon HD 5870 e di 259 dollari per quella Radeon HD 5850, valori che fanno ipotizzare livelli rispettivamente pari a 330,00€ IVA compresa e 240,00€ IVA compresa. Queste cifre non vogliono essere in alcun modo definitive: necessitiamo di una verifica con quello che il mercato metterà a disposizione nei prossimi giorni.
259 dollari sono 175euro, arrotondiamo a circa 200euro ma 240 sono un pochino tanti :cry:
MadJackal
24-09-2009, 12:30
No, il truform è l'origine della tassellation, ma molto "primordiale" rispetto a quanto nelle specifiche DX11, tant'è che il tassellator nella 5870 è il primo DX11 compliant ;)
Non a caso fino ad ora non è stato praticamente usato, al pari di PhysX su GPU, proprio perché non-standard. La cosa è destinata a cambiare molto con le DX11 :D
(quelle immagini sono favolose)
Vallo a dire agli sviluppatori di X360, loro mi pare usino da un pò queste tecniche :Prrr:
Si, è vero. TRUFORM è molto primitivo, ma l'idea di base è la stessa, questo volevo dire... Mi sono espresso un pò maluccio :D
Ma poi, tassellation o tessellation? Nun ce sto capendo nulla :asd:
AceGranger
24-09-2009, 12:30
Non a caso il truform è morto e sepolto ;)
Mentre invece la tassellation delle 5870 è uno standard, al contrario di PhysX ;)
Gran bella features se giochi con un 30 pollici a 2560 x 1600 e ti permette di guadagnare fps; Completamente useless sul resto delle risoluzioni, visto che la 4890, GTX 285, e ATI X2 fanno girare praticamente tutto ( eccetto DUE giochi ) a 1920 x 1200 a 80-100 fps.
e non mi pare che siano molti quelli che giocano con un 30... gia sono pochi queli che giocano FULL HD...
sinceramente meglio PhysX
Il Truform era un subset di quelle che al tempo venivano chiamate N-Patches in DX e triangoli PN in OGL.
Erano estensioni comprese all'interno delle API, il fatto che non fossero supportate da Nvidia era per il semplice motivo che non erano necessarie per avere la fatidica dicitura "DX 8 compliant".
Physx invece è un estensione proprietaria.
La differenza è parecchia, l'esempio è un pò fuorviante ;)
kliffoth
24-09-2009, 12:57
Sei un genio, mi hai aperto la mente. Stavo valutando di aspettare la X2 ma a questo punto mi butto diretto sulla 5870. E' sempre vero, mai accontentarsi di un singolo numerello quando è possibile andare a vedere COSA SI NASCONDE dietro....
Veramente io volevo solo discutere di questa cosa che è un difetto di gioventù della tecnologia con i 2 chip.
Magari oggi non c'è più (ma non credo).
Putroppo la gente si arrapa solo col framerate.
Il vero valore di questa scheda non è nei frames, ma nella gestione indipendente delle uscite video, nella codifica audio, nei ridotti consumi... mah che tristezza
Edit: scusa ma se puoi aspettare aspetta...paghi di meno e magari hai pure un prodotto migliore (nVidia o AMD che sia)
AceGranger
24-09-2009, 13:00
A parte che non è vero, nemmeno a 1680x1050:
Preferisco attivare filtri perché la complessità poligonale viene gestita meglio che non avere dei sassi che cadono da una parete o volano e con cui non posso interagire (evviva la fisica :asd: ) e pagare questo incredibile miglioramento con prestazioni deludenti e in UN gioco...
Certo non scelgo la VGA perché c'è UN gioco che ha i sassini che cadono...
linka tutta la recensione; e si perchè 8x AA a 1920 x 1200 sono un gran passone rispetto al 4x :rolleyes: :rolleyes: a questo punto meglio "2 sassi e 1 lattina" in piu.
dai su, basta vedere la recensione che stiamo commentando per vedere gli fps dei vari giochi alle varie risoluzioni... e di motivi per comprarle ORA ( no ncerto in generale ) ce ne sono veramente, veramente pochi.
michelgaetano
24-09-2009, 13:10
linka tutta la recensione; e si perchè 8x AA a 1920 x 1200 sono un gran passone rispetto al 4x :rolleyes: :rolleyes: a questo punto meglio "2 sassi e 1 lattina" in piu.
dai su, basta vedere la recensione che stiamo commentando per vedere gli fps dei vari giochi alle varie risoluzioni... e di motivi per comprarle ORA ( no ncerto in generale ) ce ne sono veramente, veramente pochi.
Mica tanto, dipende da chi deve comprare. Se devi fre un upgrade sostanzioso la prendi, se hai una 4870/260 no.
Io con la scheda migliore al mondo l'aa vorrei anche attivarlo al massimo, se permetti :D
Mica tanto, dipende da chi deve comprare. Se devi fre un upgrade sostanzioso la prendi, se hai una 4870/260 no.
Io con la scheda migliore al mondo l'aa vorrei anche attivarlo al massimo, se permetti :D
Ecco appunto.. tu dici che non conviene su un 24"?
AceGranger
24-09-2009, 13:17
Hai detto che a 1920 già le 4890 e le GTX285 fanno 80-100fps.
Invece ti ho dimostrato che già a 1680x1050 non è vero. Sia a con AA4x che AA8x.
si ma ti ho detto eccetto 2 giochi, e vorrei il link dell'intera recensione e il gioco
Mica tanto, dipende da chi deve comprare. Se devi fre un upgrade sostanzioso la prendi, se hai una 4870/260 no.
Io con la scheda migliore al mondo l'aa vorrei anche attivarlo al massimo, se permetti :D
e ma infatti è quello che ho scritto io... e poi ho scritto ORA non in generale.
MadJackal
24-09-2009, 13:20
Gran bella features se giochi con un 30 pollici a 2560 x 1600 e ti permette di guadagnare fps; Completamente useless sul resto delle risoluzioni, visto che la 4890, GTX 285, e ATI X2 fanno girare praticamente tutto ( eccetto DUE giochi ) a 1920 x 1200 a 80-100 fps.
e non mi pare che siano molti quelli che giocano con un 30... gia sono pochi queli che giocano FULL HD...
sinceramente meglio PhysX
Guarda che la tessellation non è un modo per incrementare gli FPS :mbe:
E' anche un modo per farlo, ma non solo... E' un modo per incrementare facilmente la qualità dell'immagine. Le hai viste le differenze tra le due immagini che ho postato sì?
Sinceramente, non vedo perchè sprecare potenza quando le cose si possono fare in maniera più efficiente :rolleyes:
PhysX è una cosa divertente... fino a quando non arriverà Havok in OpenCL.
La regola di un upgrade è sempre e solo una: se la scheda che hai non ti costringe a scendere a compromessi su quello che vorresti non c'è motivo di cambiarla, altrimenti sì.
diciamo che per il momento giochi pesantissimi non li sto facendo però i classici mattoni li devo ancora fare.. va bè lascio tutto come sta e vedrò come vanno le cose
Ma poi, tassellation o tessellation? Nun ce sto capendo nulla :asd:
Tessellation.
dai su, basta vedere la recensione che stiamo commentando per vedere gli fps dei vari giochi alle varie risoluzioni... e di motivi per comprarle ORA ( no ncerto in generale ) ce ne sono veramente, veramente pochi.
Sono d'accordo.
La scheda è ottima a prescindere ma il punto debole non è tanto il supporto Dx11 che ad oggi è ancora assente.
A costo di diventare ripetitivo torno a dire che non ci sono titoli sul mercato che richiedano tale potenza elaborativa per girare degnamente.
Chiaro che se si punta a risoluzioni oltre la 1920 con i filtri attivi il discorso cambia leggermente, in caso contrario si vive bene con una scheda della generazione precedente perchè le console, quelle che guidano il mercato e dettano il passo generazionale oggigiorno, sono vecchiotte.
Hai detto che a 1920 già le 4890 e le GTX285 fanno 80-100fps.
Invece ti ho dimostrato che già a 1680x1050 non è vero. Sia a con AA4x che AA8x.
D'accordo ma per giocare bene servono quei frame?
Quando in media stai intorno i 50 di problemi non ce ne sono.
blackshard
24-09-2009, 13:22
ma un cambio di software di test può portare agli 80w di differenza per la gtx285?
Si, può succedere.
Vedi per esempio il test di anandtech, dove proprio la 5870 se messa sotto stress con OCCT consuma poco più delle nvidia, mentre se testata con un gioco ha un consumo minore, addirittura minore della 4890:
http://www.anandtech.com/video/showdoc.aspx?i=3643&p=26
Comunque quella pagina è utile anche per chi chiedeva le temperature di esercizio.
MadJackal
24-09-2009, 13:23
Tessellation.
Denghiu. :D
sinceramente meglio PhysX
Oddio, in generale ben vengano entrambi, tessellation e GPGPU ma devono farlo entrambi con standard aperti e fruibili da tutti.
Il primo arriverà con le Dx11, speriamo invece che Physx muoia presto in favore di OpenCL.
Futura12
24-09-2009, 13:35
Mica tanto, dipende da chi deve comprare. Se devi fre un upgrade sostanzioso la prendi, se hai una 4870/260 no.
Io con la scheda migliore al mondo l'aa vorrei anche attivarlo al massimo, se permetti :D
fra 4x e 8x a secondo del motore grafico,cambia veramente poco....anzi io a volte uso solo il 2x e si vedono senza scalettature...insomma l'AA basta che c'è un minimo..non sempre serve spararlo ai massimi numeri:D
Evangelion01
24-09-2009, 13:36
Ragazzi, avete notato i primi prezzi?
hd5850 a 200€
hd5870 a 300€ ....
La 285 costa ancora 270€
Se tanto mi da tanto la 295 dovrà scendere parecchio, e così pure la 285 e la 275. :asd:
La 5850 sui 200€ butta fuori mercato tutte le nvidia attuali.
Pretoriano1982
24-09-2009, 13:51
Ciao ragazzi sono nuovo del forum e mi servirebbe un piccolo consiglio, sto assemblando (finalmente) il mio nuovo pc, un Alienware desktop della Dell, mi hanno consigliato due radeon 5870 in crossfire piuttosto che una nvidia gtx295. Secondo voi per quale delle due opzioni mi conviene optare? Io sono rimasto impressionato da questa nuova nata di casa Ati....sarei curiosissimo di vedere come si comporta in crossfire. Ciao a tutti!
Horizont
24-09-2009, 13:52
io l'avevo detto che era troppo costosa e in effetti lo è...è un po di più effettivamente di quello che ci si aspettava...
io voglio vedere la 5890 cmq :D
Futura12
24-09-2009, 13:55
io l'avevo detto che era troppo costosa e in effetti lo è...è un po di più effettivamente di quello che ci si aspettava...
io voglio vedere la 5890 cmq :D
La top di gamma a 320€ non è assolutamente costosa,anzi lo definirei ''prezzo-regalo''
michelgaetano
24-09-2009, 13:56
La top di gamma a 320€ non è assolutamente costosa,anzi lo definirei ''prezzo-regalo''
Esattamente, ed è ancora un prezzo di lancio. Chi vuole risparmiare poi aspetta la price war con Nvidia :D
Futura12
24-09-2009, 13:56
Ciao ragazzi sono nuovo del forum e mi servirebbe un piccolo consiglio, sto assemblando (finalmente) il mio nuovo pc, un Alienware desktop della Dell, mi hanno consigliato due radeon 5870 in crossfire piuttosto che una nvidia gtx295. Secondo voi per quale delle due opzioni mi conviene optare? Io sono rimasto impressionato da questa nuova nata di casa Ati....sarei curiosissimo di vedere come si comporta in crossfire. Ciao a tutti!
Ma li hai visti i bench? in pratica per prendere 2x5870 ce ne vogliono 2 di 295GTX,ovvero 4x275GTX
Il cross-fire dai test sembra scalare veramente da paura....e i driver possono ancora migliorare visto che è appena uscita.
Rikardobari
24-09-2009, 13:57
tutto questo senza l'uso del moltiplicatore..... non oso immaginare che cosa combinerà NVIDIA a novembre!!!!
La 5850 sui 200€ butta fuori mercato tutte le nvidia attuali.
Meglio, spero proprio di potermi prendere una GTX260 per pochi spiccioli.... :asd:
Veramente io volevo solo discutere di questa cosa che è un difetto di gioventù della tecnologia con i 2 chip.
Magari oggi non c'è più (ma non credo).
Putroppo la gente si arrapa solo col framerate.
Il vero valore di questa scheda non è nei frames, ma nella gestione indipendente delle uscite video, nella codifica audio, nei ridotti consumi... mah che tristezza
Edit: scusa ma se puoi aspettare aspetta...paghi di meno e magari hai pure un prodotto migliore (nVidia o AMD che sia)
No, leggendo in giro questo problema affligge anche le ultime generazioni si chede video (5870 a parte per la quale non ho ancora letto nulla dato che la X2 deve ancora uscire).
Sta di fatto che la mia 8800GTS512 mi ha appena abbandonato (quantomeno la parte del 3D) e mi vedo costretto a cambiare scheda video ASAP, e dato che la scheda è ancora in garanzia riesco a darla dentro e con appena 100 euro in + mi prendo la 5870... mejo de così se more :D
kliffoth
24-09-2009, 14:16
No, leggendo in giro questo problema affligge anche le ultime generazioni si chede video (5870 a parte per la quale non ho ancora letto nulla dato che la X2 deve ancora uscire).
Sta di fatto che la mia 8800GTS512 mi ha appena abbandonato (quantomeno la parte del 3D) e mi vedo costretto a cambiare scheda video ASAP, e dato che la scheda è ancora in garanzia riesco a darla dentro e con appena 100 euro in + mi prendo la 5870... mejo de così se more :D
ma perchè non se ne dice nulla in recensioni e test?
Almeno per smentire voci insistenti e dire che non ci sono problemi con CF e SLI... d'altronde all'epoca del mio atlhon 1200 si sapeva di incompatibilità tra usb e chipset VIA (mi pare) ma mai che in un recensione si dicesse nulla.
Ciao ragazzi sono nuovo del forum e mi servirebbe un piccolo consiglio, sto assemblando (finalmente) il mio nuovo pc, un Alienware desktop della Dell, mi hanno consigliato due radeon 5870 in crossfire piuttosto che una nvidia gtx295. Secondo voi per quale delle due opzioni mi conviene optare? Io sono rimasto impressionato da questa nuova nata di casa Ati....sarei curiosissimo di vedere come si comporta in crossfire. Ciao a tutti!
Se puoi 2 5870 sono il top assoluto, non esiste paragone con la 295 ;)
ma perchè non se ne dice nulla in recensioni e test?
Almeno per smentire voci insistenti e dire che non ci sono problemi con CF e SLI... d'altronde all'epoca del mio atlhon 1200 si sapeva di incompatibilità tra usb e chipset VIA (mi pare) ma mai che in un recensione si dicesse nulla.
Io dico che sono le solite questioni di interessi. E poi c'è poco da smentire, ci sono tanto ti test che spiegano come ricavarsi da se questi valori....
Già il fatto che nessuno scrive un articolo per smentire automaticamente mi lascia intendere che non siano troppo false quelle voci!!
Ho visto i video con e senza multi GPU e la differenza c'è. Se devo spendere il doppio per avere un numerello di fraps nell'angolo in alto a destra che mi dice il doppio dei frames ma che nella REALTA' DEI FATTI (che non è data dal numero di fraps) va come se non peggio una scheda singola behh passo e lascio andare avanti i + ricchi di me :D
Futura12
24-09-2009, 14:23
Meglio, spero proprio di potermi prendere una GTX260 per pochi spiccioli.... :asd:
Guarda bene i prezzi gia sta a pochi spiccioli,io l'ho presa da pochi giorni nuova...
Se poi parliamo dell'usato..i prezzi sono veramente ridicoli oramai sul mercatino..te la cavi con un centone.
Guarda bene i prezzi gia sta a pochi spiccioli,io l'ho presa da pochi giorni nuova...
Se poi parliamo dell'usato..i prezzi sono veramente ridicoli oramai sul mercatino..te la cavi con un centone.
Ho visto ora 130€ circa su trovaprezzi, ma secondo me entro qualche settimana potrebbe scendere ulteriormente.
MiKeLezZ
24-09-2009, 14:27
Non a caso il truform è morto e sepolto ;)
Mentre invece la tassellation delle 5870 è uno standard, al contrario di PhysX ;)standard de che? è solo l'implementazione corretta come definita dalle api dx 11 di microsoft
la parola giusta è "dx 11 complaint", ovvero aderisce alle specifiche definite dalle dx 11 di microsoft
physx invece è un middleware, cioè il confronto va fatto con le dx 11 al limite (al limite, visto che una svolge un ruolo, l'altra un altro)
stiamo confrontando fagiolini di campo con bistecche di manzo
fra l'altro tutti i simpatici acquirenti delle generazioni passate di ati, in cui c'era il tesselation (es. 2900, 3870 4870), possono farci il brodino visto che ha una implementazione non corretta
così come fecero quelli con truform
al contrario di chi invece si è comprato una nvidia g80 ben 3 anni fa, senza che physx esistesse ancora, e tutt'ora ci gioca con le ultime implementazioni del motore physx
e addirittura un surrogato delle dx 10.1 ... vedi far cry 2
kliffoth
24-09-2009, 14:32
Io dico che sono le solite questioni di interessi. E poi c'è poco da smentire, ci sono tanto ti test che spiegano come ricavarsi da se questi valori....
Già il fatto che nessuno scrive un articolo per smentire automaticamente mi lascia intendere che non siano troppo false quelle voci!!
Ho visto i video con e senza multi GPU e la differenza c'è. Se devo spendere il doppio per avere un numerello di fraps nell'angolo in alto a destra che mi dice il doppio dei frames ma che nella REALTA' DEI FATTI (che non è data dal numero di fraps) va come se non peggio una scheda singola behh passo e lascio andare avanti i + ricchi di me :D
boh...io non vedo complotti ovunque.
Forse pigrizia, forse il poco tempo per i test, forse la paura di dover fare smentite (uno non ne parla per niente dell'usb e sta a posto).
Però a questo punto il ruolo del giornalista viene meno.
Potrebbe essere tutto un errore...però il video tedesco mostra bene con e senza multi gpu cosa succede ai framerate (soprattutto bassi).
Io in verità chiedo lumi sulla cosa non pretendo che sia vera
Futura12
24-09-2009, 14:48
Il Physix io lo tengo disattivato:asd: pensate quanto è utile,per i 2 foglietti di batman 20 frame buttati:asd:
Il Physix io lo tengo disattivato:asd: pensate quanto è utile,per i 2 foglietti di batman 20 frame buttati:asd:
Physix è solo una mossa commerciale ben fatta, ma per il resto serve a poco.....
ndrmcchtt491
24-09-2009, 14:53
La tessellation è una specifica introdotta con le Dx11, niente di privato/esclusivo, con G300 sarà supportato anche da nVidia.
Ps, usa il tasto quote quando rispondi, altrimenti diventa impossibile leggerti.
Scusa/te commentavo direttamente dalla pagina delle novità
Physix è solo una mossa commerciale ben fatta, ma per il resto serve a poco.....
Pratica commerciale di sicuro ma quello che sta dietro al Physx è il futuro.
Pratica commerciale di sicuro ma quello che sta dietro al Physx è il futuro.
Physx non è il futuro, la fisica che useranno le prossime console a mio avviso è il futuro sperando che adottino le dx11 e open cl.....
Horizont
24-09-2009, 15:02
La top di gamma a 320€ non è assolutamente costosa,anzi lo definirei ''prezzo-regalo''
io ancora non riesco ad entrare nel discorso "top di gamma" che top di gamma sarebbe la 5870??...top di gamma in una gamma fatta di 2 vga? :mbe:
ndrmcchtt491
24-09-2009, 15:04
La tessellation è una specifica introdotta con le Dx11, niente di privato/esclusivo, con G300 sarà supportato anche da nVidia.
Ps, usa il tasto quote quando rispondi, altrimenti diventa impossibile leggerti.
Scusa/te, ma rispondevo direttamente sui commenti della news
yossarian
24-09-2009, 15:05
standard de che? è solo l'implementazione corretta come definita dalle api dx 11 di microsoft
la parola giusta è "dx 11 complaint", ovvero aderisce alle specifiche definite dalle dx 11 di microsoft
il termine giusto è dx11 full compliant.
physx invece è un middleware, cioè il confronto va fatto con le dx 11 al limite (al limite, visto che una svolge un ruolo, l'altra un altro)
stiamo confrontando fagiolini di campo con bistecche di manzo
peccato che gli "standard", di fatto, li definisca microsoft e non nVidia :D
fra l'altro tutti i simpatici acquirenti delle generazioni passate di ati, in cui c'era il tesselation (es. 2900, 3870 4870), possono farci il brodino visto che ha una implementazione non corretta
così come fecero quelli con truform
è un'implementazione non dx11 full compliant, non un'impplementazione non corretta. C'è una differenza notevole tra le due cose, anche in virtù del fatto che il tessellator della serie 4xx0 differisce da quello della serie 5xx0 solo per l'assenza di stadi programmabili dedicati. Per il resto è perfettamente identico e ugualmente programmabile :D
al contrario di chi invece si è comprato una nvidia g80 ben 3 anni fa, senza che physx esistesse ancora, e tutt'ora ci gioca con le ultime implementazioni del motore physx
e addirittura un surrogato delle dx 10.1 ... vedi far cry 2
ma anche no :sofico:
il termine giusto è dx11 full compliant.
Ma ha ancora senso parlare di compliant e full compliant? Microsoft con le DX10 non aveva annunciato di voler dare un taglio a queste "diciture" e quindi di accettare solo gpu che ricoprono tutte le caratteristiche necessarie alle DX10 e 11?
Perchè per le 8 e le 9 c'era stato un gran bel casino con caratteristiche necessarie e non. Esistono (o meglio potrebbero esistere) gpu compliant (set minimo di funzioni supportate) e full compliant (tutte supportate)? O parlavi solo della tasselation? Oppure sono io che ho frainteso la differenza tra full e solo compliant?
io ancora non riesco ad entrare nel discorso "top di gamma" che top di gamma sarebbe la 5870??...top di gamma in una gamma fatta di 2 vga? :mbe:
Dai tempo al tempo, fra un anno ci saranno n-mila schede HD5xxx. ;)
yossarian
24-09-2009, 15:24
Ma ha ancora senso parlare di compliant e full compliant? Microsoft con le DX10 non aveva annunciato di voler dare un taglio a queste "diciture" e quindi di accettare solo gpu che ricoprono tutte le caratteristiche necessarie alle DX10 e 11?
Perchè per le 8 e le 9 c'era stato un gran bel casino con caratteristiche necessarie e non. Esistono (o meglio potrebbero esistere) gpu compliant (set minimo di funzioni supportate) e full compliant (tutte supportate)? O parlavi solo della tasselation? Oppure sono io che ho frainteso la differenza tra full e solo compliant?
in questo caso specifico è riferito al tessellator, in quanto la serie 4xx0 eccede le specifiche dx10.1 sia per quello che per altre feature tipiche delle dx11; in particolare, il tessellator di RV770 differisce da quello di RV870 solo per l'assenza di hull shader e domain shader, il cui compito è svolta rispettivamente dai vertex shader e dai geometry shader (è la parte programmabile); per il resto, ovvero per la componente ficed function, i due chip hanno le stesse identiche unità; quindi la differenza sta solo nel tipo di chiamata utilizzata non nelle funzionalità del tessellator.
Più in generale, ha ancora senso parlarne, in quanto le dx11 sono un superset delle 10.1 che dovevano essere le dx10 originali. Anche in quel caso, la confusione c'è stata, tanto che ci sono chip dx10 e chip dx10.1. In pratica, per risolvere il problema (di termini), la dicitura full compliant è stata sosituita da una nuova versione delle api. E' un po' quello che è successo ripetutamente negli ultimi anni, con le dx8 e le dx8.1, le dx9 sm2.0 e 3.0, ecc.
io ancora non riesco ad entrare nel discorso "top di gamma" che top di gamma sarebbe la 5870??...top di gamma in una gamma fatta di 2 vga? :mbe:Guarda che le VGA della serie HD4xx0 non sono uscite di produzione e sono tutt'ora in vendita... mi sembra anche siano più di due...
appleroof
24-09-2009, 15:56
Ho letto al volo la rece di hwupgrade e queste sono le mie considerazioni: per le prestazioni, mi aspettavo qualcosa in più ma insomma non ho avuto vere sorprese rispetto alle mie aspettative nè in peggio nè in meglio, sarà bello vederla all'opera con i giochi dx11, magari con tassellation...ma temo che per quel momento avremo la seconda gen di vga dx11
considero eccellente il lavoro sui consumi (i 40nm pagano ) finalmente vedo consumi in idle come si deve, una delle pecche più grosse di rv770...insieme all'altra che è la rumorosità: già la 5870 reference mostra un dissi da questo punto di vista finalmente all'altezza di quelli reference Nvidia, finora secondo me i migliori tra quelli reference
sempre dal punto di vista della dissipazione, non vedo però nella rece di hwupgrade alcun riferimento alle temp, non vorrei che silenziosità faccia rima con fornetto, cercherò in altre rece
appleroof
24-09-2009, 15:58
cut
I drivers sono acerbi ed è normale che vi debbano lavorare, cosa che significa ulteriori prestazioni :D
cut
visto che è la stessa architettura di rv770, e che Vista ormai è tre anni che è fuori, non credo proprio sarà rilevante come in altre occasioni, questo fattore...
Se i consumi sono più bassi è molto probabile lo sia anche la produzione di calore (e quindi più facile riuscire a dissiparlo con minor produzione di rumore) ;)
kliffoth
24-09-2009, 16:05
i...E' un po' quello che è successo ripetutamente negli ultimi anni, con le dx8 e le dx8.1, le dx9 sm2.0 e 3.0, ecc.
non c'entra molto, ma visto che sei ferrato...
Che sono questi problemi di sincronia in configurazioni CF o SLI???
http://forum.beyond3d.com/archive/in...p/t-47683.html
un esempio tra molti
e ancora pià chiaro qui:
http://forums.anandtech.com/messagev...readid=2178762
WHAT 30 FPS SHOULD LOOK LIKE (single GPU)
Frame, Time (ms)
1, 0.000
2, 33.3
3, 66.6
4, 99.9
5, 133.2
WHAT 30 FPS DO LOOK LIKE WITH SLI/CROSSFIRE
Frame, Time (ms)
1, 0.000
2, 12.1
3, 68.3
4, 80.5
5, 136.8
Every odd frame number takes much less than the expected 33.3 ms to update and every even frame takes much longer to update.
In this example, every even frame takes around 56.5 ms to update, which is almost 70% longer than expected!
The frame rate says ~30 FPS, but in reality every second frame is updated with a rate of only ~17.8 FPS!
e ancora qui http://www.pcgameshardware.de/?article_id=631668 (tecnico. c'è anche un bel video con fraps che mostra il crollo frames)
e qui http://www.forum-3dcenter.org/vbulle...d.php?t=371844
yossarian
24-09-2009, 16:26
non c'entra molto, ma visto che sei ferrato...
Che sono questi problemi di sincronia in configurazioni CF o SLI???
http://forum.beyond3d.com/archive/in...p/t-47683.html
un esempio tra molti
e ancora pià chiaro qui:
http://forums.anandtech.com/messagev...readid=2178762
WHAT 30 FPS SHOULD LOOK LIKE (single GPU)
Frame, Time (ms)
1, 0.000
2, 33.3
3, 66.6
4, 99.9
5, 133.2
WHAT 30 FPS DO LOOK LIKE WITH SLI/CROSSFIRE
Frame, Time (ms)
1, 0.000
2, 12.1
3, 68.3
4, 80.5
5, 136.8
Every odd frame number takes much less than the expected 33.3 ms to update and every even frame takes much longer to update.
In this example, every even frame takes around 56.5 ms to update, which is almost 70% longer than expected!
The frame rate says ~30 FPS, but in reality every second frame is updated with a rate of only ~17.8 FPS!
e ancora qui http://www.pcgameshardware.de/?article_id=631668 (tecnico. c'è anche un bel video con fraps che mostra il crollo frames)
e qui http://www.forum-3dcenter.org/vbulle...d.php?t=371844
è stato usato il double buffering?
Se ci fai caso, non c'è alcuna differenza tra frame pari e dispari.
Leggi i dati in questo modo:
inizio elaborazione (start)
frame dispari (tempo 0 perchè già contenuto nel frame buffer)
frame pari (tempo molto inferiore a quello della singola gpu perchè mentre la prima ha riempito il suo fb con la prima immagine dispari, la seconda ha fatto altrettanto con la prima pari, quindi il tempo è solo quello necessario a trasferire l'immagine dal fb al monitor).
fine elaborazione (stop) per i primi due frame
start
frame dispari
frame pari
stop
in quest'ottica, la differenza tra due frame successivi è pari a circa 68, 5 ms sia che si tratti di frame pari che dispari), che è, all'incirca, il tempo che intercorre tra due immagini successive (pari o dispari) anche in single gpu.
Quindi, il problema è il tempo impiegato a eseguire la operazioni di stop e start, ovvero a inizializzare le successive elaborazioni.
In questo modo, il vantaggio dello sli o del cf si ha solo sul totale delle due operazioni (ovvero la pari arriva un po' prima) ma non sul delay time tra due operazioni successive sulla singola gpu che, anzi, si allunga.
Se non è stato usato il double o il triple buffering, la risposta è presto data, latrimenti è un problema intrinseco a questo modo di gestire il multigpu.
killer978
24-09-2009, 16:28
mmm..che dire...la nuova scheda certo e' buona, il netto vantaggio sulla 285 e' netto...sarebbe stato un disastro se nn lo fosse stato..il dual gpu della stessa ati e' superiore (e quindi nn si e' superata)il confronto e' con una 295..che sono 2 gpu della 260...immagino quanto uno sli di 285 stracci la singola 5xxx, ma fare questi paragoni e' inutile..del resto e' una nuova scheda...che attualmente si pone nella fascia top di gamma di tutte le vga a singola scheda
ma aspettiamo la nuova nvidia e poi ne riparliamo...se segue sempre la solita filosofia vga nuova=potenza superiore a uno sli delle piu' potenti precedenti...allora continuera' stracciarla (parlando sempre di singola gpu ovviamente)...e ati tornera' cmq e sempre a far parte di un mercato di fascia media medio/alta e a raggiungere/superare nvidia solo con un crossfire.
l'idea di farla uscire gia' da adesso e' una buona trovata..visto che si accaparrera' una buona fetta di mercato, finche' nvidia nn si decide a far debuttare il gt300...ottimi i consumi in idle cmq..ma le temp?
tra l'altro e' orrenda da vedere XD
Bisognerebbe fare un plauso ad ATI xche in un chippettino di 330mm2 è riuscita a farci entrare tutto quel popò di roba, il GT200 con i sui 1,4mil di transistor è grande + di 490mm2 , credo che GT300 di Nvidia sarà all'incira 600mm2 (come due 5870 :asd: ) e costerà uno sproposito e Nvidia continuerà a dover vendere le sue VGA sottocosto con pochissimi introiti :asd:
GT200 a 55nm è grosso il doppio rispetto ad Rv790 eppure guardando i test è poco + veloce di una 4890 se poi guardiamo Crysis è sempre dietro :asd: questo è quello che fa la differenza tra una azienda inteliggente e l'altra!!!
Aggiungo questa frase presa da "Tom's Hw" (recensione 5870) che fa il sunto di cosa è Nvidia x me :
"Quando Nvidia presentò i modelli GeForce GTX 260 e GTX 280, più di un anno fa, l'azienda sapeva di aver per le mani le schede più veloci del mercato e non era dispiaciuta di farle pagare care; 550 euro, per essere esatti.Quando, qualche settimana dopo, venne presentata la Radeon HD 4870, Nvidia fu costretta a un taglio netto dei prezzi. Gli appassionati si sentirono come truffati, vedendo la loro scheda perdere in poco tempo molto valore. La tattica di Nvidia è sicuramente buona per aumentare il margine di guadagno su una GPU, ma non è forse la tattica migliore per fidelizzare gli acquirenti."
Meditate gente meditate ;) (ATI avrebbe potuto farlo ma non è Nvidia)
kliffoth
24-09-2009, 16:33
è stato usato il double buffering?
Se ci fai caso, non c'è alcuna differenza tra frame pari e dispari.
Leggi i dati in questo modo:
inizio elaborazione (start)
frame dispari (tempo 0 perchè già contenuto nel frame buffer)
frame pari (tempo molto inferiore a quello della singola gpu perchè mentre la prima ha riempito il suo fb con la prima immagine dispari, la seconda ha fatto altrettanto con la prima pari, quindi il tempo è solo quello necessario a trasferire l'immagine dal fb al monitor).
fine elaborazione (stop) per i primi due frame
start
frame dispari
frame pari
stop
in quest'ottica, la differenza tra due frame successivi è pari a circa 68, 5 ms sia che si tratti di frame pari che dispari), che è, all'incirca, il tempo che intercorre tra due immagini successive (pari o dispari) anche in single gpu.
Quindi, il problema è il tempo impiegato a eseguire la operazioni di stop e start, ovvero a inizializzare le successive elaborazioni.
In questo modo, il vantaggio dello sli o del cf si ha solo sul totale delle due operazioni (ovvero la pari arriva un po' prima) ma non sul delay time tra due operazioni successive sulla singola gpu che, anzi, si allunga.
Se non è stato usato il double o il triple buffering, la risposta è presto data, latrimenti è un problema intrinseco a questo modo di gestire il multigpu.
mmm nel primo forum che ti ho postato si parla di triple buffering...poi il video presente in uno dei link è eloquente.
Qualcuno dice riguardi solo framerate bassi.
Insomma io non so. ho solo sollevato il problema
è stato usato il double buffering?
Se ci fai caso, non c'è alcuna differenza tra frame pari e dispari.
Leggi i dati in questo modo:
inizio elaborazione (start)
frame dispari (tempo 0 perchè già contenuto nel frame buffer)
frame pari (tempo molto inferiore a quello della singola gpu perchè mentre la prima ha riempito il suo fb con la prima immagine dispari, la seconda ha fatto altrettanto con la prima pari, quindi il tempo è solo quello necessario a trasferire l'immagine dal fb al monitor).
fine elaborazione (stop) per i primi due frame
start
frame dispari
frame pari
stop
in quest'ottica, la differenza tra due frame successivi è pari a circa 68, 5 ms sia che si tratti di frame pari che dispari), che è, all'incirca, il tempo che intercorre tra due immagini successive (pari o dispari) anche in single gpu.
Quindi, il problema è il tempo impiegato a eseguire la operazioni di stop e start, ovvero a inizializzare le successive elaborazioni.
In questo modo, il vantaggio dello sli o del cf si ha solo sul totale delle due operazioni (ovvero la pari arriva un po' prima) ma non sul delay time tra due operazioni successive sulla singola gpu che, anzi, si allunga.
Se non è stato usato il double o il triple buffering, la risposta è presto data, latrimenti è un problema intrinseco a questo modo di gestire il multigpu.
Premetto che sono molto ignorante per quanto riguarda la parte delle elaborazioni video su di un Pc per cui non ho afferrato in pieno la tua analisi, ma mi chiedevo fondamentalmente da dove venissero quelle differenze in termini di ms tra un frame a l'altro. Dagli articoli letti è proprio questa differenza che porta a dei leggeri scattini anche a frame rate alti (o comunque accettabili).
Tieni presente che con me si parla di abc, quindi nessuna cognizione su double o triple buffer :)
PS: non mi offendo se mi rispondi "lasciamo perdere, ci vorrebbe troppo tempo", è che vorrei capire se ci stanno vendendo una ferrari (SLI/Crossfire/multi GPU) con le prestazioni di una BMW
Veramente ci saranno entro 5-6 mesi in tutte le fasce di mercato. Già fra meno di un mese ci saranno le 57xx
Mi sono tenuto largo con i tempi, era solo per sottolineare che al lancio di una nuova generazione di schede video è sempre stata prassi presentare prima le top di gamma, e poi man mano gli altri modelli.
Blackbox11
24-09-2009, 16:52
Azz questa 5870 sembra velocissima....ma secondo me non conviene assolutamente comprarla prima di marzo 2009...avrà un prezzo cmq elevato e i giochi dx11 scarseggeranno prima di quella data
yossarian
24-09-2009, 17:13
mmm nel primo forum che ti ho postato si parla di triple buffering...poi il video presente in uno dei link è eloquente.
Qualcuno dice riguardi solo framerate bassi.
Insomma io non so. ho solo sollevato il problema
ovviamente per frame rate bassi la cosa è più evidente e da luogo allo stuttering. Per frame rate elevati succede allo stesso modo ma è meno visibile perchè il sistema occhio-cervello ha più difficoltà a rilevare la differente velocità di elaborazione tra due frame successivi.
Se si fa uso di triple buffering, allora il porblema sta nella sincronizzazione tra le operazioni di fine renderizzazione di due frame (disperi e pari) e l'inizio della renderizzazione dei due frame successivi. E' in quel caso che passa troppo tempo (tra due even ci sono 68,5 msec contro i 66,6 della configurazione in single: praticamente lo stesso tempo, il che vanifica il vantaggio del multigpu).
La soluzione sarebbe quella di cercare di sincronizare le due fasi, ovvero la transizione tra due immagini e le due successive, in modo tale che quando uno dei due chip sta elaborando il frame odd della prima serie, il secondo inizia ad elaborare quello even della successiva. Se ciò non è possibile via SW, allora si deve ricorrere ad un controller che bilanci in HW il carico di lavoro tra le due gpu. Il controller potrebbe essere integrato nel northbridge oppure all'interno di una delle due gpu sfruttando, magari, un canale dedicato per la sincronizzazione (in tal caso non potresti fare sli o cf con due gpu qualsiasi ma dovresti prendere una master e una slave, ma risolveresti il problema dello stuttering :D ).
La cosa che mi lasci perplesso, però, è che se c'è il triple buffering abilitato non si dovrebbe verificare un delay time tra even della prima serie e even della seconda pari al tempo che intercorre per elaborare tre frame e tra odd ed even di poco inferiore a quello che intercorre tra due frame successivi in single. A meno che il ritardo non sia dovuto a problemi nella sincronizzazione dell'invio al monitor dei frame facenti parte di due coppie successive
Premetto che sono molto ignorante per quanto riguarda la parte delle elaborazioni video su di un Pc per cui non ho afferrato in pieno la tua analisi, ma mi chiedevo fondamentalmente da dove venissero quelle differenze in termini di ms tra un frame a l'altro. Dagli articoli letti è proprio questa differenza che porta a dei leggeri scattini anche a frame rate alti (o comunque accettabili).
Tieni presente che con me si parla di abc, quindi nessuna cognizione su double o triple buffer :)
PS: non mi offendo se mi rispondi "lasciamo perdere, ci vorrebbe troppo tempo", è che vorrei capire se ci stanno vendendo una ferrari (SLI/Crossfire/multi GPU) con le prestazioni di una BMW
con il multigpu in modalità afr (alternate frame rendering) uno dei due chip elabora i frame dispari e l'altro i pari. Per non avere ritardi, si dovrebbe fare in modo che nel momento in cui il primo dei due chip sta elaborando l'immagine n, l'altro inizi ad elaborare l'immagine n+1, in un ciclo continuo. Ovvero, se il primo chip elabora il frame 1 e il secondo il frame 2, mentre il secondo sta lavorando sul due il primo dovrebbe iniziare a lavorare sul 3. Invece, sembra accadere che dopo che sono stati elaborati i primi due frame (1 e 2) ci sia una pausa e quindi vengano elaborati il 3 e il 4 o, quanto meno, inviati al monitor (nel caso di abilitazione e corretto funzionamento del double o del triple buffering). Questo provoca un ritardo tra l'invio del frame 2 e l'invio del frame 3 che da luogo ad un microscatto oltre che ad un ritado nell'elaborazione. Se guardi i dato postati da jliffoth, tra i frame dispari delle modalità single e multi, non c'è praticamente alcuna differenza e si riguadagna qualcosa solo con i frame pari.
Quando si elabgora un'immagine, prima che la stessa sia inviata al monitor viene creato il frame nella ram video, all'interno di uno spazio adibito a frame buffer. Se si utilizza il double buffering, prima che parta la visualizzazione, si riempiono due frame uno detto front buffer e l'altro back buffer. Quando l'immagine del front buffer è inviata al monitor, il back buffer, tramite un puntatore, diventa front buffer e si procede al riempimento dell'ex front buffer, ora back buffer. In tal modo si ha sempre un'immagine pronta ad essere inviata al monitor e questo evita cali di frame rate. Con il triple buffering si fa la stessa cosa, ma con un front buffer e due back buffer.
Physx non è il futuro, la fisica che useranno le prossime console a mio avviso è il futuro sperando che adottino le dx11 e open cl.....
Eh?
Ho detto che i calcoli che stanno dietro a Physx (GPGPU) sono il futuro e quei calcoli sono gli stessi che supporta OpenCL.
ovviamente per frame rate bassi la cosa è più evidente e da luogo allo stuttering. Per frame rate elevati succede allo stesso modo ma è meno visibile perchè il sistema occhio-cervello ha più difficoltà a rilevare la differente velocità di elaborazione tra due frame successivi.
Se si fa uso di triple buffering, allora il porblema sta nella sincronizzazione tra le operazioni di fine renderizzazione di due frame (disperi e pari) e l'inizio della renderizzazione dei due frame successivi. E' in quel caso che passa troppo tempo (tra due even ci sono 68,5 msec contro i 66,6 della configurazione in single: praticamente lo stesso tempo, il che vanifica il vantaggio del multigpu).
La soluzione sarebbe quella di cercare di sincronizare le due fasi, ovvero la transizione tra due immagini e le due successive, in modo tale che quando uno dei due chip sta elaborando il frame odd della prima serie, il secondo inizia ad elaborare quello even della successiva. Se ciò non è possibile via SW, allora si deve ricorrere ad un controller che bilanci in HW il carico di lavoro tra le due gpu. Il controller potrebbe essere integrato nel northbridge oppure all'interno di una delle due gpu sfruttando, magari, un canale dedicato per la sincronizzazione (in tal caso non potresti fare sli o cf con due gpu qualsiasi ma dovresti prendere una master e una slave, ma risolveresti il problema dello stuttering :D ).
La cosa che mi lasci perplesso, però, è che se c'è il triple buffering abilitato non si dovrebbe verificare un delay time tra even della prima serie e even della seconda pari al tempo che intercorre per elaborare tre frame e tra odd ed even di poco inferiore a quello che intercorre tra due frame successivi in single. A meno che il ritardo non sia dovuto a problemi nella sincronizzazione dell'invio al monitor dei frame facenti parte di due coppie successive
con il multigpu in modalità afr (alternate frame rendering) uno dei due chip elabora i frame dispari e l'altro i pari. Per non avere ritardi, si dovrebbe fare in modo che nel momento in cui il primo dei due chip sta elaborando l'immagine n, l'altro inizi ad elaborare l'immagine n+1, in un ciclo continuo. Ovvero, se il primo chip elabora il frame 1 e il secondo il frame 2, mentre il secondo sta lavorando sul due il primo dovrebbe iniziare a lavorare sul 3. Invece, sembra accadere che dopo che sono stati elaborati i primi due frame (1 e 2) ci sia una pausa e quindi vengano elaborati il 3 e il 4 o, quanto meno, inviati al monitor (nel caso di abilitazione e corretto funzionamento del double o del triple buffering). Questo provoca un ritardo tra l'invio del frame 2 e l'invio del frame 3 che da luogo ad un microscatto oltre che ad un ritado nell'elaborazione. Se guardi i dato postati da jliffoth, tra i frame dispari delle modalità single e multi, non c'è praticamente alcuna differenza e si riguadagna qualcosa solo con i frame pari.
Quando si elabgora un'immagine, prima che la stessa sia inviata al monitor viene creato il frame nella ram video, all'interno di uno spazio adibito a frame buffer. Se si utilizza il double buffering, prima che parta la visualizzazione, si riempiono due frame uno detto front buffer e l'altro back buffer. Quando l'immagine del front buffer è inviata al monitor, il back buffer, tramite un puntatore, diventa front buffer e si procede al riempimento dell'ex front buffer, ora back buffer. In tal modo si ha sempre un'immagine pronta ad essere inviata al monitor e questo evita cali di frame rate. Con il triple buffering si fa la stessa cosa, ma con un front buffer e due back buffer.
AMEN! Sei stato molto + che esauriente, si vede che ne mangi di sta roba ;) Ora, se tu dovessi cambiare scheda video diciamo a dicembre (momento in cui dovrebbero essere in vendita sia 5870 che 5870 X2) andresti su single o su X2 alla luce di quanto letto e spiegato sopra??
si il frame buffer "aspetta" i frame nuovi prima di inviarli a video no? quindi anche avesse una coda di 100 frame prima di inviarli aspetterebbe sempre le gpu quindi il ritardo si porpaga.
non so se ho detto na cavolata, ma è come intendo io la cosa
Dragon2002
24-09-2009, 17:35
Ma non ci sono ancora recensione della 5850?
Ma non ci sono ancora recensione della 5850?
no, sembra che AMD-ATI non ne abbia consegnate
Ma non ci sono ancora recensione della 5850?
http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/
Questa comprende entrambe le schede Ati.
http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/
Questa comprende entrambe le schede Ati.
"We simulated the performance of the HD 5850 by taking our HD 5870, reducing the clock speeds and disabling two SIMDs, which results in exactly the same performance as HD 5850."
appleroof
24-09-2009, 18:08
"We simulated the performance of the HD 5850 by taking our HD 5870, reducing the clock speeds and disabling two SIMDs, which results in exactly the same performance as HD 5850."
mmm...peccato: non ritengo questo tipo di prove affidabili al 100%, mi toccherà aspettare un pochetto prima di soddisfare la mia curiosità circa la 5850
cmq se questo non è proprio un paper-launch, poco ci manca...:stordita:
Dylan BJ
24-09-2009, 19:05
GT200 a 55nm è grosso il doppio rispetto ad Rv790 eppure guardando i test è poco + veloce di una 4890 se poi guardiamo Crysis è sempre dietro :asd: questo è quello che fa la differenza tra una azienda inteliggente e l'altra!!!
si ma e' anche passato un anno abbondante dalla proposta nvidia :)
Sì non mi fido nemmeno io.
Riguardo al lancio preferisco così che la volta scorsa che potevi andare nel negozio sotto casa a comprare le 4850 anche dal panettiere ma c'era ancora NDA sopra :asd:
Più ci ripenso e più mi vien da ridere, meno male che poi le schede andavano e bene e quindi questa cosa ridicola è passata in secondo piano, ma è stata veramente ridicola :asd:
io preferivo la volta scorsa almeno quando è scaduto l'nda non avevo una 4850, 2 :asd: adesso per trovarle è tutto un macello....:muro:
io preferivo la volta scorsa almeno quando è scaduto l'nda non avevo una 4850, 2 :asd: adesso per trovarle è tutto un macello....:muro:
Vero, anche io prima chee scadesse l'nda già l'avevo dentro al case :asd:
vedrai che adesso spunteranno fuori utenti che diranno che il paper launch è cosa buona e giusta...
oopps... è già successo
:asd:
con che vga?
Mercuri0
24-09-2009, 20:08
mmm...peccato: non ritengo questo tipo di prove affidabili al 100%, mi toccherà aspettare un pochetto prima di soddisfare la mia curiosità circa la 5850
cmq se questo non è proprio un paper-launch, poco ci manca...:stordita:
Sembrerebbe che percentuali impressionanti della prima trance (80%?) AMD li abbia venduti a Dell e altri OEM, lasciando all'asciutto il canale retail.
MiKeLezZ
24-09-2009, 20:13
"Quando Nvidia presentò i modelli GeForce GTX 260 e GTX 280, più di un anno fa, l'azienda sapeva di aver per le mani le schede più veloci del mercato e non era dispiaciuta di farle pagare care; 550 euro, per essere esatti.Quando, qualche settimana dopo, venne presentata la Radeon HD 4870, Nvidia fu costretta a un taglio netto dei prezzi. Gli appassionati si sentirono come truffati, vedendo la loro scheda perdere in poco tempo molto valore. La tattica di Nvidia è sicuramente buona per aumentare il margine di guadagno su una GPU, ma non è forse la tattica migliore per fidelizzare gli acquirenti."
Meditate gente meditate ;) (ATI avrebbe potuto farlo ma non è Nvidia)Le HD4870 uscite a 220 euro e ora disponibili a 100 euro cioè meno della metà?
Le GTX 280 stavano a 550 e ora stanno a 400... Ben oltre la metà di 550 che è 275 euro.
Io mi chiedo se non vi vergognate. Mha :rolleyes:
appleroof
24-09-2009, 20:27
Sembrerebbe che percentuali impressionanti della prima trance (80%?) AMD li abbia venduti a Dell e altri OEM, lasciando all'asciutto il canale retail.
potrebbe essere: la disponibilità sul canale retail dovrebbe essere piena entro un paio di settimane e i conti tornerebbero...cmq questa situazione fà il paio con i problemi di resa produttiva che aveva tmsc fino a qualche settimana fà (mi pare la stessa scheda provata qui sia di agosto..)
vedremo nelle prox settimane come evolverà la situazione, questo non toglie che mi sembra un quasi paper-launch :D (anche perchè l'80% in termini assoluti non dice nulla, occorrerebbe vedere su quale numero complessivo si applica quella percentuale perchè una roba così non la ricordo mai)
E dici bene... mitica si. :D
Presa nuova a meno di 2 mesi dal lancio e pagata 320€, e ancora oggi (dopo 13 mesi) è una gpu che permette di giocare qualunque gioco (crysis escluso) in full hd con filtri a + di 60fps di media.
Tra l'altro... ancora oggi non esistono single gpu in grado di schiacciarla.
Ripeto, dici bene... ottima gpu.
5870 :read:
Mercuri0
24-09-2009, 20:32
Una chicca che forse avrete già visto: la 5870 che fa girare il demo di Nvidia "Ocean", che dimostra le capacità di calcolo nel DirectCompute delle nuove radeon
http://www.anandtech.com/video/showdoc.aspx?i=3643&p=8
:asd:
"Quando Nvidia presentò i modelli GeForce GTX 260 e GTX 280, più di un anno fa, l'azienda sapeva di aver per le mani le schede più veloci del mercato e non era dispiaciuta di farle pagare care; 550 euro, per essere esatti.Quando, qualche settimana dopo, venne presentata la Radeon HD 4870, Nvidia fu costretta a un taglio netto dei prezzi. Gli appassionati si sentirono come truffati, vedendo la loro scheda perdere in poco tempo molto valore. La tattica di Nvidia è sicuramente buona per aumentare il margine di guadagno su una GPU, ma non è forse la tattica migliore per fidelizzare gli acquirenti."
AMD ha margini molto alti sulle 5870, che potrebbero essere vendute a molto meno. Ma ovviamente in questo periodo è già assai trovarle per comprarle...
La differenza tra AMD e nVidia è solo la scelta progettuale di puntare alla fascia media anziché all'high-end, cominciata dalla serie 4870. Il fatto è che questa scelta ha portato per caso o bravura a delle schede di "fascia media", 4870 e 5870, che a chiamarle di "fascia media" si offendono. Inoltre con questa strategia AMD può essere più veloce nello sviluppo di nuovi prodotti.
Aggiungi il fatto che con le DX11 non ha troppo senso preoccuparsi delle vecchie schede in magazzino e tanto vale lanciare velocemente tutta la serie...
Già invece di fare 80fps di media ne fai 90....
Cosa cambia oltre all'avere 330€ in meno in tasca?
è una ati, è la single gpu migliore in commercio e tra poco la migliore gpu, ha le dx11 consuma e scalda meno ;)
Le HD4870 uscite a 220 euro e ora disponibili a 100 euro cioè meno della metà?
Le GTX 280 stavano a 550 e ora stanno a 400... Ben oltre la metà di 550 che è 275 euro.
Io mi chiedo se non vi vergognate. Mha :rolleyes:A mio avviso la vergogna è che le GTX280 siano ancora in vendita a 400 euro :D
killer978
24-09-2009, 20:46
Una chicca che forse avrete già visto: la 5870 che fa girare il demo di Nvidia "Ocean", che dimostra le capacità di calcolo nel DirectCompute delle nuove radeon
http://www.anandtech.com/video/showdoc.aspx?i=3643&p=8
:asd:
AMD ha margini molto alti sulle 5870, che potrebbero essere vendute a molto meno. Ma ovviamente in questo periodo è già assai trovarle per comprarle...
La differenza tra AMD e nVidia è solo la scelta progettuale di puntare alla fascia media anziché all'high-end, cominciata dalla serie 4870. Il fatto è che questa scelta ha portato per caso o bravura a delle schede di "fascia media", 4870 e 5870, che a chiamarle di "fascia media" si offendono. Inoltre con questa strategia AMD può essere più veloce nello sviluppo di nuovi prodotti.
Aggiungi il fatto che con le DX11 non ha troppo senso preoccuparsi delle vecchie schede in magazzino e tanto vale lanciare velocemente tutta la serie...
Una 4890 secondo ciò che dici è una VGA di fascia media, mentre la 285 è fascia alta!!!! :mbe: questo tu lo deduci dal prezzo o dalle prestazioni?
Io ovunque guardo vedo una scheda da 160€ (4890) che nei giochi rende quanto una 285 (300€), in full HD e con i filtri a palla e spesso avanti.
Quindi secondo te se ATI faceva un chippone da 500mm2 e andava quanto la GTX280 era di fascia alta? io credo che ATI si sta muovendo nella giusta direzione, chip piccoli poco costosi e con prestazioni/mm2 mostruose.
La serie x7xx ad ATI costava una miseria produrla a Nvidia un botto vedremo quanto può durare Nvidia con la sua politica
killer978
24-09-2009, 20:51
A mio avviso la vergogna è che le GTX280 siano ancora in vendita a 400 euro :D
con i soldi he costa una GTX275 ci compri 3x4770:asd: fai il triple SLI a 40nm :asd:
Non dimentichiamoci della piccola bestiolina uscita poco tempo fa ne bastano 2 in Cf x stracciare qualsiasi VGA, con una spesa irrisoria. ATI produce VGA da una vita Nvidia manco esisteva.
Una 4890 secondo ciò che dici è una VGA di fascia media, mentre la 285 è fascia alta!!!! :mbe: questo tu lo deduci dal prezzo o dalle prestazioni?
Io ovunque guardo vedo una scheda da 160€ (4890) che nei giochi rende quanto una 285 (300€), in full HD e con i filtri a palla e spesso avanti.
Quindi secondo te se ATI faceva un chippone da 500mm2 e andava quanto la GTX280 era di fascia alta? io credo che ATI si sta muovendo nella giusta direzione, chip piccoli poco costosi e con prestazioni/mm2 mostruose.
La serie x7xx ad ATI costava una miseria produrla a Nvidia un botto vedremo quanto può durare Nvidia con la sua politica
concordo, la forza di Ati ultimamente è quella di fornire all'utente vga con un'ottimo rapporto prezzo/prestazione pur mantenendone un alto livello qualitativo. Il tutto si traduce in vendite elevate. A mio parere un'ottima politica e sicuramente vincente
Horizont
24-09-2009, 20:58
Guarda che le VGA della serie HD4xx0 non sono uscite di produzione e sono tutt'ora in vendita... mi sembra anche siano più di due...
vabbè grazie...qual è il senso di includere le serie vecchie per dire top di gamma quando si parla di una serie completamente nuova...
320 euro so tanti c è poco da fa. mi aspettavo un po' meno onestamente...sui 279 299
poi è anche vero che pompano il prezzo all'uscita...
cioè voglio dire se volevano vende una vga a 320/350 facevano uscì la 5890 non la 5870...
io avrei detto 210/230€ 5850, 250/270€ 5870, 300/320€ 5890...ma probabilmente questi prezzi si avvereranno fra qualche tempo.
Futura12
24-09-2009, 21:18
Le HD4870 uscite a 220 euro e ora disponibili a 100 euro cioè meno della metà?
Le GTX 280 stavano a 550 e ora stanno a 400... Ben oltre la metà di 550 che è 275 euro.
Io mi chiedo se non vi vergognate. Mha :rolleyes:
Che te devo di...comprati la 280GTX a 400€ cosa ce ne frega a noi? Poi visto che è uscita di commercio si dovrebbe fare il confronto con la 285GTX che costa 280€...in proporzione ben 400€ in meno del lancio della GTX 280...e chip e costi sono gli stessi.
Non fate sempre i conti come vi pare...che chi legge non è mica idiota.
vabbè grazie...qual è il senso di includere le serie vecchie per dire top di gamma quando si parla di una serie completamente nuova...
320 euro so tanti c è poco da fa. mi aspettavo un po' meno onestamente...sui 279 299
poi è anche vero che pompano il prezzo all'uscita...
Semplicemente: la gamma delle VGA vendute da ATI è composta dalla serie 45x0, 46x0, 47x0, 48x0 ed ora dalle 58x0.
Al momento la HD5870 è la top di una ampia gamma di schede che copre tutte le fascie di mercato, tra l'altro con prodotti dall'ottimo rapporto prestazioni/prezzo e non la top di una gamma formata da due sole schede come affermato da te.
Per quanto riguarda il prezzo ricordo le GTX280 annunciate a 600 euro all'uscita (assieme alle GTX260 a 400 euro che non erano nemmeno top di gamma), idem per il lancio delle 8800.
Trovare la più potente VGA a singola GPU di tutto il mercato mondiale (così superiamo il problema della sola gamma ATI "formata da solo due schede" :D), prima VGA a supportare le Dx11, con ottimi valori di consumo e rumore ed ottime qualità grafiche, venduta a questo prezzo, non lo trovo assolutamente scandaloso, semmai, come già detto, trovo scandaloso il prezzo al quale vengono tuttora vendute "altre schede"...
Sinceramente non capisco perchè proprio sul piano del prezzo venga criticata ATI, quando è proprio grazie alla sua aggressiva politica dei prezzi che adesso tutti possiamo usufruire di VGA potenti a prezzi normali... schede ATI, ma anche Nvidia che ha dovuto per forza di cose adeguarsi.
infatti se nn ci fosse la guerra dei prezzi adesso avermmo ancora le gtx 260 a 400€ ..........ben venga la gara al ribasso
Già invece di fare 80fps di media ne fai 90....
Cosa cambia oltre all'avere 330€ in meno in tasca?
Veramente per schiacciare viene schiacciata, in full HD (anzi un po' di più) coi filtri la HD5870 va il 26% in più di una GTX285, ed una GTX285 va il 5-10% in più di una GTX280 a quelle risoluzioni.
Se per te andare il tra il 30% ed il 40% in più ad una risoluzione non da poco non è schiacciare, allora manco la 8800GTX schiacciava la HD2900XT, per dire, visto che senza filtri la distanza media percentuale era parecchio inferiore.
P.S.: per essere chiari +30%-40% significa che se facevi 80fps con la GTX280 con l'altra ne fai tra 104 e 112. ;)
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/23/#abschnitt_performancerating
Iantikas
24-09-2009, 21:53
...CUT... ATI produce VGA da una vita Nvidia manco esisteva.
nn'è un controbattere sul resto xkè secondo me se uno adesso deve cambiare gpu ed ha bisogno di prestazioni al top le scelte sono due, hd5850 e hd5870...qualunque altra gpu di prezzo pari o superiore nn avrebbe senso acquistarla...
...ma sul fatto ke ati produce vga da una vita prima di nvidia mi sembra na cavolata...
...ati è sta fondata nel 1985 e nvidia è stata fondata nel 1993...ma in questi hanni ha fatto solo skede grafiche integrate...
...le prime skede grafike 2d/3d risalgono x entrambe al 1994...e i primi progetti degni di nota al 1996...
...praticamente in campo 3d sono sul mercato dallo stesso tempo...
...ciao
Iantikas
24-09-2009, 22:01
Veramente per schiacciare viene schiacciata, in full HD (anzi un po' di più) coi filtri la HD5870 va il 26% in più di una GTX285, ed una GTX285 va il 5-10% in più di una GTX280 a quelle risoluzioni.
Se per te andare il tra il 30% ed il 40% in più ad una risoluzione non da poco non è schiacciare, allora manco la 8800GTX schiacciava la HD2900XT, per dire, visto che senza filtri la distanza media percentuale era parecchio inferiore.
P.S.: per essere chiari +30%-40% significa che se facevi 80fps con la GTX280 con l'altra ne fai tra 104 e 112. ;)
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/23/#abschnitt_performancerating
imho il tutto si riassume ke se uno ha una "vekkia" gpu ed ha bisogno di performance maggiori gli conviene pensare solo ad RV870 come possibile upgrade...
...ma se uno ha già una gpu tipo hd4870/gtx260 o superiore secondo me gli conviene aspettare prima di fare acquisti...ciao
MadJackal
24-09-2009, 22:03
nn'è un controbattere sul resto xkè secondo me se uno adesso deve cambiare gpu ed ha bisogno di prestazioni al top le scelte sono due, hd5850 e hd5870...qualunque altra gpu di prezzo pari o superiore nn avrebbe senso acquistarla...
...ma sul fatto ke ati produce vga da una vita prima di nvidia mi sembra na cavolata...
...ati è sta fondata nel 1985 e nvidia è stata fondata nel 1993...ma in questi hanni ha fatto solo skede grafiche integrate...
...le prime skede grafike 2d/3d risalgono x entrambe al 1994...e i primi progetti degni di nota al 1996...
...praticamente in campo 3d sono sul mercato dallo stesso tempo...
...ciao
Non proprio. Quotando wikipedia en alla voce ATI: " By 1987, ATI had grown into an independent graphics card retailer, introducing EGA Wonder and VGA Wonder graphic card product lines under its brand that year.[3] In May 1991, the company released the Mach8, ATI's first product able to process graphics without the CPU. Debuting in 1992, the Mach32 offered improved memory bandwidth and GUI acceleration performance. ATI Technologies Inc. went public in 1993 with stock listed at NASDAQ and Toronto Stock Exchange."
Ma mi ricordavo che anche NVIDIA avesse prodotto qualche scheda prima del '94.
appleroof
24-09-2009, 22:04
Veramente per schiacciare viene schiacciata, in full HD (anzi un po' di più) coi filtri la HD5870 va il 26% in più di una GTX285, ed una GTX285 va il 5-10% in più di una GTX280 a quelle risoluzioni.
Se per te andare il tra il 30% ed il 40% in più ad una risoluzione non da poco non è schiacciare, allora manco la 8800GTX schiacciava la HD2900XT, per dire, visto che senza filtri la distanza media percentuale era parecchio inferiore.
P.S.: per essere chiari +30%-40% significa che se facevi 80fps con la GTX280 con l'altra ne fai tra 104 e 112. ;)
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/23/#abschnitt_performancerating
bè, per "verità storica" o, se preferisci, paragone più azzeccato, prova a confrontare la 8800gtx con la x1950xtx: è appena il caso di sottolineare, in questo senso, che la 5870 è una vga dx11 vs vga di vecchia gen (dx10)
altrimenti vedremo come gt300, dx11 anch'esso si comporterà rispetto alla 5870
è per questo che son talmente curioso che, scimmia a parte, aspetterò proprio il debutto di gt300 per decidere l'upgrade :)
MadJackal
24-09-2009, 22:04
imho il tutto si riassume ke se uno ha una "vekkia" gpu ed ha bisogno di performance maggiori gli conviene pensare solo ad RV870 come possibile upgrade...
...ma se uno ha già una gpu tipo hd4870/gtx260 o superiore secondo me gli conviene aspettare prima di fare acquisti...ciao
Esatto, gli conviene attendere la prossima generazione, quella "matura" per quanto riguarda le DX11.
Semplice, si criticano i prezzi di ATI... perchè l'attuale situazione del parco gpu di generazione precedente (chiamiamole così va), nel quale vanno annoverate gpu dal poco prezzo e dalla tanta resa quali gtx260 e 4870... non permette di parlare di vero e proprio balzo nel futuro, così come fu per G80 (lo citi tu... e io non capisco come possa essere confusa la situazione del pre g80 e del post g80 fino a 8600gts etc.).Ma io non sto parlando di quanto hanno incrementato le prestazioni, io semplicemente sto cercando di capire se quanto chiede ATI è un prezzo equo.
Personalmente se la vendessero a 200 euro sarei più che contento, ma obiettivamente se dopo la guerra al ribasso, con un mercato ridimensionato sul fronte prezzi, ATI esce con una VGA migliore della GTX295 ad un prezzo più basso, non posso certamente dire che hanno prezzi alti.
MiKeLezZ
24-09-2009, 22:26
Non proprio. Quotando wikipedia en alla voce ATI: " By 1987, ATI had grown into an independent graphics card retailer, introducing EGA Wonder and VGA Wonder graphic card product lines under its brand that year.[3] In May 1991, the company released the Mach8, ATI's first product able to process graphics without the CPU. Debuting in 1992, the Mach32 offered improved memory bandwidth and GUI acceleration performance. ATI Technologies Inc. went public in 1993 with stock listed at NASDAQ and Toronto Stock Exchange."
Ma mi ricordavo che anche NVIDIA avesse prodotto qualche scheda prima del '94.NVIDIA ha fatto di meglio, infatti.
NVIDIA è stata creata da Curtis R. Priem, che è stato il primo uomo sulla faccia della Terra a costruire un processore grafico per il personal computer, il IBM Professional Graphics Adapter, che fu messo in commercio nel 1984, e la cui progettazione risale a minimo il 1982.
The Gold Bug
24-09-2009, 23:27
Le HD4870 uscite a 220 euro e ora disponibili a 100 euro cioè meno della metà?
Le GTX 280 stavano a 550 e ora stanno a 400... Ben oltre la metà di 550 che è 275 euro.
Io mi chiedo se non vi vergognate. Mha :rolleyes:
Mi diverto sempre un sacco a leggere i commenti alle notizie sulle schede video :D intervengo su un commento a caso, niente di personale Mikelezz, ma a volte è facile stravolgere la realtà, io non ne capisco molto di schede video ma cominciai a seguire l'evolversi dei prezzi ad agosto 2008 che mi stavo facendo il pc nuovo, ebbene le 4870 stavano a 270 euro, ed erano uscite già da un po', quindi quello che scrivi è quantomeno inesatto!
E ci sarebbero tanti di quei commenti da censurare sia proati che pronvidia :D
Sab-Zero
24-09-2009, 23:28
mi permetto di rispondere a questi flame mediante 2 link
1 http://www.trovaprezzi.it/prezzo_schede-grafiche_5870.aspx
2 http://www.trovaprezzi.it/categoria.aspx?libera=4870x2&id=28&prezzoMin=&prezzoMax=&sbox=sb
a parità di prezzo la prima è meno performante e non di poco, è inutile che parlate di crysis che non lo considero propio ai fini di gioco ma solo questione di marketing e null altro in tutti gli altri giochi ultimi e vecchiotti dove la x2 a parità di prezzo è nettamente superiore...il problema allora qual è della 2?? il consumo???behh + andiamo avanti + diminuisce il processo produttivo ma sta di fatto che le vga consumano sempre in + mai in meno(non vado nello specifico), per quanto riguarda il confronto con gtx280/285 che sia... non lo si può fare perchè nvidia ancora deve proporre il suo nuovo prodotto, nn si può confrontare un monitor LCD di ora con un tubo catodico del 90", per cui a mio parere la scheda deve rimanere sullo scaffale si parla di dx11 ma se ancora nn si deve affermare la 10...
The Gold Bug
24-09-2009, 23:29
Io la 4870 l'ho pagata 230€ appena uscita...
Pardon allora forse faccio confusione con quella dual :D cmq bellissimo thread lo stesso :sofico:
ripeto, in crysis quanto migliora rispetto ad una gtx285? 5%...
http://images.anandtech.com/graphs/rv870_092209122344/20106.png
Insomma, ci sono 10 frame di differenza con i filtri attivi (e nemmeno al massimo), non mi pare una cosa da poco, sopratutto parlando di un titolo come Crysis.
Che poi non serva la corsa all'acquisto spasmodica sono d'accordo, si gioca di tutto anche con schede "vecchie" ma la scheda in sè tecnicamente imho ha davvero pochi punti deboli.
The Gold Bug
24-09-2009, 23:42
mi permetto di rispondere a questi flame mediante 2 link
1 http://www.trovaprezzi.it/prezzo_schede-grafiche_5870.aspx
2 http://www.trovaprezzi.it/categoria.aspx?libera=4870x2&id=28&prezzoMin=&prezzoMax=&sbox=sb
a parità di prezzo la prima è meno performante e non di poco, è inutile che parlate di crysis che non lo considero propio ai fini di gioco ma solo questione di marketing e null altro in tutti gli altri giochi ultimi e vecchiotti dove la x2 a parità di prezzo è nettamente superiore...il problema allora qual è della 2?? il consumo???behh + andiamo avanti + diminuisce il processo produttivo ma sta di fatto che le vga consumano sempre in + mai in meno(non vado nello specifico), per quanto riguarda il confronto con gtx280/285 che sia... non lo si può fare perchè nvidia ancora deve proporre il suo nuovo prodotto, nn si può confrontare un monitor LCD di ora con un tubo catodico del 90", per cui a mio parere la scheda deve rimanere sullo scaffale si parla di dx11 ma se ancora nn si deve affermare la 10...
Premesso che non capisco il concetto che i confronti non si possono fare....cmq ho visto i due link e sono d'accordo con te sulla scheda da acquistare tra quelle due (scelte cmq soggettive), ma aggiungo questo link
http://www.trovaprezzi.it/categoria.aspx?libera=gtx+295&id=28&prezzoMin=&prezzoMax=&sbox=sb
se la 5870 è scaffale, questa cos'é ?
AceGranger
24-09-2009, 23:44
se la 5870 è scaffale, questa cos'é ?
quella che riempie l'altra meta del ripiano :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.