View Full Version : [THREAD UFFICIALE] Aspettando ATI RADEON HD 4870
Pagine :
1
2
3
[
4]
5
6
7
8
9
10
11
12
13
14
bluefrog
24-06-2008, 10:30
oltretutto sei anche cpu limited in molti giochi quindi la potenza della 2900xt non la sfrutti neanche tutta ;)
avevo una config. quasi identica alla tua
Si infatti. :)
In settimana mi arriva un E8400 e assemblerò il nuovo pc. In attesa di cambiare R600 per R700. ;)
capisco poco :D
ho capito solo che non sono buone notizia :stordita:
+
certo che quel negozio a prezzi troppo allettanti!!! la 9600gt amp edition a 123€ (79€) mamma mia!
idem per la gtx280, già a 400€
Mi pvt per la Gtx280 a 400 euro?
grazie
Tidus.hw
24-06-2008, 10:40
Si infatti. :)
In settimana mi arriva un E8400 e assemblerò il nuovo pc. In attesa di cambiare R600 per R700. ;)
nel 90% dei giochi che usano il motore di ut3 ti sembrerà di aver cambiato anche vga :D
Mercuri0
24-06-2008, 10:42
Tutto dipende da come calcolano i consumi. D'altro canto è praticamente impossibile che una scheda con un TDP di 230W consumi come una che ha un TDP di 160W. Altrimenti anche NVidia credo che avrebbe usato un TDP inferiore, no? ;)
RV770 Sembra essere deludente rispetto alle attese sotto il profilo dei consumi (ma sopra le aspettative come prestazioni).
In idle probabilmente c'è un margine di miglioramento, ma in full non saprei.
Sul confronto sul TDP tra RV770 è il GT200 sarà molto interessante ragionarci su in futuro.
La mia idea (preliminare) è che ci siano molte parti del GT200 che rimangano "spente" durante i test in full, mediante tecniche come il clock-gating*.
Probabilmente nVidia ha fissato un TDP più alto perché conosce il "worst case" meglio di noi. Ciò non toglie che all'utente non interessa il "worst case", ma gli scenari di utilizzo reali, in cui il GT200 potrebbe essere ben sotto il suo TDP.
E' un bel casino misurare i consumi dei chip moderni, perché sono estremamente dipendenti dagli scenari di utilizzo.
(imo l'unica strada sensata per i recensori è usare i giochi per il full, almeno tirano fuori un dato utile)
*queste tecniche per certo ci sono anche in RV770, ma evidentemente RV770 è stato progettato per risparmiare spazio: per esempio, RV770 fa i conti a 64bit riusando i transistor per le unità a 32bit, mentre ci sta che le unità dedicate del GT200 vengano spente quando non usate.
Non credo, expreview è un sito affidabile. Secondo me il consumo il load troppo elevato potrebbe essere dato dalle GDDR5. Magari i driver non supportano funzioni aggiuntivi o hanno il voltaggio più elevato del normale. Comunque la scheda a un TDP di 160W, per cui state certi che i consumi ritorneranno nella norma con le prossime release.
le ddr5 consumeranno meno delle ddr3...
Tidus.hw
24-06-2008, 10:43
io dico -14%. non ho capito perchè lost planet non debba contare. è un gioco.
conta poco perchè i bench di lp sono fini a se stessi.
Mentre ad esempio i bench di ut3 rappresentano la maggioranza dei giochi che usano il suo motore,
quelli di hl2: ep2 rappresentano i giochi che usano il source etc etc
lp non vale neanche perchè usa una versione del motore grafico palesemente ottimizzato per la nvidia e che si trova solo in lp.
mircocatta
24-06-2008, 10:48
conta poco perchè i bench di lp sono fini a se stessi.
Mentre ad esempio i bench di ut3 rappresentano la maggioranza dei giochi che usano il suo motore,
quelli di hl2: ep2 rappresentano i giochi che usano il source etc etc
lp non vale neanche perchè usa una versione del motore grafico palesemente ottimizzato per la nvidia e che si trova solo in lp.
call of jarez secondo me è altrettanto ottimizzato per ati
michelgaetano
24-06-2008, 10:50
call of jarez secondo me è altrettanto ottimizzato per ati
Non così tanto quando LP se non altro :doh:
Senza contare che nel test non c'è...
Mercuri0
24-06-2008, 10:51
io dico -14%. non ho capito perchè lost planet non debba contare. è un gioco.
Vero, come anche GRID, che è un gioco in cui la 4850 batte la GTX260. :)
L'importante è guardarli tutti, magari dando più peso ai giochi che usano motori che ci si aspetta verranno molto usati.
penso che nvidia abbia sbagliato ad adottare frequenze troppo basse per le due gtx ad esempio variare il rapporto da 2.5 a 2.15 degli shader e magari aver sottovalutato ati ad esempio la faccenda degli 800 shader.
Eh, di sicuro alla nVidia avranno fatto la scelta migliore che potevano, soprattutto per la GTX280 che non ha vincoli di sorta. Cercare di indovinare perché proprio quelle sarà interessante.
Non so se nVidia abbia sottostimato RV770. Forse, se qualcosa è successo, magari è stato che nVidia si sia dedicata maggiormente al GPGPU che non ai giochi con il GT200. Anche questo ci vorrà un pò di tempo per capirlo.
ultima annotazione se gia la 4870 consuma cosi tanto non oso immaginare la 4870x2.
;)
Verissimo, sono curiosissimo di vedere cosa tirano fuori.
Anche se come tu dici i consumi non contano per la fascia enthusiast (:asd:), per il produttore sono un problema tecnologico da affrontare per rendere la scheda fattibile.
bluefrog
24-06-2008, 10:52
call of jarez secondo me è altrettanto ottimizzato per ati
Abbastanza ma non come LP, dove una 8600GT va come una HD 2900 XT.
Hellrazer
24-06-2008, 10:52
Non così tanto quando LP se non altro
Senza contare che nel test non c'è...
e soprattutto nessuno lo ha preso come riferimento, ma si è guardato per lo + la media globale
Non così tanto quando LP se non altro :doh:
Senza contare che nel test non c'è...
cos'è lp??? :stordita:
mircocatta
24-06-2008, 10:54
Mi pvt per la Gtx280 a 400 euro?
grazie
leggi anche il resto, è un negozio americano,senza iva e tasse doganali
mircocatta
24-06-2008, 10:56
RV770 Sembra essere deludente rispetto alle attese sotto il profilo dei consumi (ma sopra le aspettative come prestazioni).
In idle probabilmente c'è un margine di miglioramento, ma in full non saprei.
Sul confronto sul TDP tra RV770 è il GT200 sarà molto interessante ragionarci su in futuro.
La mia idea (preliminare) è che ci siano molte parti del GT200 che rimangano "spente" durante i test in full, mediante tecniche come il clock-gating*.
Probabilmente nVidia ha fissato un TDP più alto perché conosce il "worst case" meglio di noi. Ciò non toglie che all'utente non interessa il "worst case", ma gli scenari di utilizzo reali, in cui il GT200 potrebbe essere ben sotto il suo TDP.
quindi un gt200 a 55nm darebbe un bel boost prestazionale?
bluefrog
24-06-2008, 10:57
quindi un gt200 a 55nm darebbe un bel boost prestazionale?
Non ce la farebbe comunque contro R700.
le ddr5 consumeranno meno delle ddr3...
Lo so, ma forse non sono ben funzionanti. Mi chiedo che senso abbia dichiarare un TDP di 160W se poi non è rispettato.
mircocatta
24-06-2008, 10:58
cos'è lp??? :stordita:
lost planet
michelgaetano
24-06-2008, 10:59
cos'è lp??? :stordita:
una pattumiera :asd:
cos'è lp??? :stordita:
lost planet ;)
RV770 Sembra essere deludente rispetto alle attese sotto il profilo dei consumi (ma sopra le aspettative come prestazioni).
In idle probabilmente c'è un margine di miglioramento, ma in full non saprei.
Sul confronto sul TDP tra RV770 è il GT200 sarà molto interessante ragionarci su in futuro.
La mia idea (preliminare) è che ci siano molte parti del GT200 che rimangano "spente" durante i test in full, mediante tecniche come il clock-gating*.
Probabilmente nVidia ha fissato un TDP più alto perché conosce il "worst case" meglio di noi. Ciò non toglie che all'utente non interessa il "worst case", ma gli scenari di utilizzo reali, in cui il GT200 potrebbe essere ben sotto il suo TDP.
E' un bel casino misurare i consumi dei chip moderni, perché sono estremamente dipendenti dagli scenari di utilizzo.
(imo l'unica strada sensata per i recensori è usare i giochi per il full, almeno tirano fuori un dato utile)
*queste tecniche per certo ci sono anche in RV770, ma evidentemente RV770 è stato progettato per risparmiare spazio: per esempio, RV770 fa i conti a 64bit riusando i transistor per le unità a 32bit, mentre ci sta che le unità dedicate del GT200 vengano spente quando non usate.
Forse G200 ha un consumo medio molto più basso del suo TDP, che quindi rappresenta dei picchi che vengono raggiunti di rado.
Eh, di sicuro alla nVidia avranno fatto la scelta migliore che potevano, soprattutto per la GTX280 che non ha vincoli di sorta. Cercare di indovinare perché proprio quelle sarà interessante.
Non so se nVidia abbia sottostimato RV770. Forse, se qualcosa è successo, magari è stato che nVidia si sia dedicata maggiormente al GPGPU che non ai giochi con il GT200. Anche questo ci vorrà un pò di tempo per capirlo.
Io non credo, nessuno punta più al GPGPU che al gaming, nel breve. ;)
Questa non è una nuova architettura, quindi entrambe hanno dovuto tirare fuori un'evoluzione della precedente, e R600 pare che stia mostrando una capacità superiore di evoluzione rispetto a G80. Il problema principale di G200 è che l'hanno fatto uscire a 65nm, perchè NVidia dai tempi di NV30 non testa più nuovi processi produttivi sulle high-end. Questo col tempo si è rivelato un grave errore: a 55nm i clocks sarebbero stati un po' più alti, così come le prestazioni, e le dimensioni più contenute. Altro errore evidentemente sembra essere stato il non puntare subito sulle GDDR5, cosa che avrebbe semplificato non di poco il chip e ridotto le dimensioni. :)
Non ce la farebbe comunque contro R700.
HD4850 1
GTX260 1,235
HD4870 1,3
GTX280 1,45
HD4870X21,95 (scaling al 50%, che credo sia la stima più pessimistica)
Perciò una HD4870X2 dovrebbe andare circa il 35% più veloce di una GTX280.
Per portarsi alla pari servirebbe una GTX290 a 55nm a 812Mz di core e 1749Mhz per gli Shader.
Potrebbe essere fattibile.
Mercuri0
24-06-2008, 11:07
quindi un gt200 a 55nm darebbe un bel boost prestazionale?
E' estremamente difficile da dire, soprattutto perché non sappiamo quali strategie nVidia ha deciso per il suo chip a 55nm (e quando uscirà - rischia di arrivare poco prima della "5870"!).
Può darsi che pensino sopratutto agli yeld, per esempio.
Il problema è più serio di quel che sembra: se è vero che nVidia ha il 40% di yeld (di cui 10% per la GTX280) vuol dire che se non ci fosse la GTX260, il GT200 sulla GTX280 costerebbe 16 volte RV770!!
La strategia del GTX280 funziona perché gli enthusiast sono disposti a pagare un forte sovraprezzo, ed evidentemente ce ne sono anche un numero sufficiente. Però se nVidia non vende la GTX260, non gli viene affatto economico produrre la GTX280! (chi compra la GTX260 "paga" un pò di GTX280 agli altri :D, a differenza delle ATI per cui ci sta che avvenga il contrario)
Penso sia un problema solo teorico perché di certo la GTX260 viene venduta in rapporto molto superiore al 3:1 che serve a nvidia, e in caso nVidia farà forti sconti sulla GTX260 (o alzerà il prezzo della GTX280) perché ciò accada.
Di sicuro ho capito perché AMD non ci pensa proprio a fare chip grandi come il GT200. E' una strategia ad altissimo rischio, per cui bisogna avere un folto numero di fanboy disposti a spendere 600$ su cui fare affidamento, e soldi in cassa in caso si accusi la botta.
Forse G200 ha un consumo medio molto più basso del suo TDP, che quindi rappresenta dei picchi che vengono raggiunti di rado.
Io non credo, nessuno punta più al GPGPU che al gaming, nel breve. ;)
Questa non è una nuova architettura, quindi entrambe hanno dovuto tirare fuori un'evoluzione della precedente, e R600 pare che stia mostrando una capacità superiore di evoluzione rispetto a G80. Il problema principale di G200 è che l'hanno fatto uscire a 65nm, perchè NVidia dai tempi di NV30 non testa più nuovi processi produttivi sulle high-end. Questo col tempo si è rivelato un grave errore: a 55nm i clocks sarebbero stati un po' più alti, così come le prestazioni, e le dimensioni più contenute. Altro errore evidentemente sembra essere stato il non puntare subito sulle GDDR5, cosa che avrebbe semplificato non di poco il chip e ridotto le dimensioni. :)
Avrebbero dovuto rivedere l'architettura slegando il bus dal numero delle Rops e comunque avrebbero dovuto aspettare mesi prima di poter trovare GDDR5 in quantità. Già ora sembra che ci saranno pochissime HD4870 per il prossimo mesi.
Credo che il problema principale di GT200 sia di carattere temporale. Questo chip avrebbe fatto una strage a Novembre 2007 e ora avrebbe potuto lanciare una prima revisione a 55nm per competere con R700.
Sergio_Di_Rio
24-06-2008, 11:12
io dico -14%. non ho capito perchè lost planet non debba contare. è un gioco.
[...]
ultima annotazione se gia la 4870 consuma cosi tanto non oso immaginare la 4870x2.
;)
Se non hai capito perchè è stato escluso lost planet, significa che sei andato subito a vedere la tabellina comparativa finale senza leggere la review, oppure non hai visto/"saputo interpretare" i diagrammi.
La HD4870 in LP senza AA è addirittura sotto la 8800GT, e cmq sempre sotto la 3870X2..schede che "massacra" senza problemi negli altri test.
Voler includere i dati di LP significherebbe diventare faziosi e far perdere oggettività e credibilità alla review; è palese che non è un problema di performance della 4870, ma di ottimizzazione dell'engine grafico/driver.
"ultima annotazione se già la 4870 "va così forte" non oso immaginare la 4870x2."
E' estremamente difficile da dire, soprattutto perché non sappiamo quali strategie nVidia ha deciso per il suo chip a 55nm (e quando uscirà - rischia di arrivare poco prima della "5870"!).
Può darsi che pensino sopratutto agli yeld, per esempio.
Il problema è più serio di quel che sembra: se è vero che nVidia ha il 40% di yeld (di cui 10% per la GTX280) vuol dire che se non ci fosse la GTX260, il GT200 sulla GTX280 costerebbe 16 volte RV770!!
La strategia del GTX280 funziona perché gli enthusiast sono disposti a pagare un forte sovraprezzo, ed evidentemente ce ne sono anche un numero sufficiente. Però se nVidia non vende la GTX260, non gli viene affatto economico produrre la GTX280! (chi compra la GTX260 "paga" un pò di GTX280 agli altri :D, a differenza delle ATI per cui ci sta che avvenga il contrario)
Penso sia un problema solo teorico perché di certo la GTX260 viene venduta in rapporto molto superiore al 3:1 che serve a nvidia, e in caso nVidia farà forti sconti sulla GTX260 (o alzerà il prezzo della GTX280) perché ciò accada.
Di sicuro ho capito perché AMD non ci pensa proprio a fare chip grandi come il GT200. E' una strategia ad altissimo rischio, per cui bisogna avere un folto numero di fanboy disposti a spendere 600$ su cui fare affidamento, e soldi in cassa in caso si accusi la botta.
Non ho ben capito. In realtà chi compra la GTX280 paga le GTX260 di altri perchè è proprio la GTX260 quella dove Nvidia ha pochissimo margine.
Mercuri0
24-06-2008, 11:18
Due considerazioni sulla review di expreview.
1 - non sembra pure a voi che la necessità del giga di RAM sia sovrastimata da parte degli utenti (almeno per le Radeon?).
2 - I prezzi della GTX260 sono destinati a precipitare. Expreview conclude dicendo che la differenza di prezzo tra la GTX260 e a 4870 (che quando va bene alla GTX260, vanno uguali) è una "vergogna". (testuali parole del google translator :asd:)
Anche se forse "vergogna" va inteso come "imbarazzo" non nel senso negativo che diamo in italiano :)
HD4850 1
GTX260 1,235
HD4870 1,3
GTX280 1,45
HD4870X21,95 (scaling al 50%, che credo sia la stima più pessimistica)
Perciò una HD4870X2 dovrebbe andare circa il 35% più veloce di una GTX280.
Per portarsi alla pari servirebbe una GTX290 a 55nm a 812Mz di core e 1749Mhz per gli Shader.
Potrebbe essere fattibile.
Mah, 35% di clocks in più la vedo difficile... Mi pare più facile che cerchino di rimpicciolire il più possibile G200b, magari passando ai 256bit, con l'uso delle GDDR5, e poi di lanciare una GTX290GX2. ;)
mokaverus
24-06-2008, 11:22
Non ho ben capito. In realtà chi compra la GTX280 paga le GTX260 di altri perchè è proprio la GTX260 quella dove Nvidia ha pochissimo margine.
no, è il contrario.
Hellrazer
24-06-2008, 11:24
no, è il contrario.
eh infatti mi pareva anche a me!
Mercuri0
24-06-2008, 11:25
Non ho ben capito. In realtà chi compra la GTX280 paga le GTX260 di altri perchè è proprio la GTX260 quella dove Nvidia ha pochissimo margine.
Sì è così. Tanto che se dovessero trovarsi a vendere troppe GTX260 rispetto alle GTX280 si troverebbero decisamente nella merda, visto che è il premium sulla 280 a far quadrare i conti.
Quello che intendevo dire è che il chip della GTX280 costa tre volte quello della GTX260, dalle info sugli yeld che abbiamo.
Quindi potrebbe essere che non è il premium sulla GTX280 a far quadrare i conti, ma la GTX260. Però bisogna considerare tutti gli altri costi, e a me non va di fantasticare più di tanto.
La cosa certa è che nVidia si sente abbastanza sicura di sé per fare una operazione di mercato di questo tipo.
edit: ho fatto un pò di conti. Se il GT200 costa in media 100$, e gli yeld sono quelli che sappiamo, allora il GT200 sulla GTX260 costa 66$ e quello sulla GTX280 costa 200$.
Il conto è giusto ma sui dati non mi fido :)
io dico -14%. non ho capito perchè lost planet non debba contare. è un gioco.
penso che nvidia abbia sbagliato ad adottare frequenze troppo basse per le due gtx ad esempio variare il rapporto da 2.5 a 2.15 degli shader e magari aver sottovalutato ati ad esempio la faccenda degli 800 shader.
il pp a 55nm dovrebbe aiutare in questo senso e nel frattempo ridurre i prezzi la gtx280 la si trova gia sotto i 500€.
ultima annotazione se gia la 4870 consuma cosi tanto non oso immaginare la 4870x2.
;)
sono impressionanti i risultati della 4870... chi se lo aspettava???
nota negativa sono i consumi, ma penso che c'è qualcosa che non va nel powerplay visti i consumi in idle altissimi.
Per il resto penso che nvidia abbia sbagliato con GT200, IMHO doveva fare un chip più piccolo (magari con bus a 384bit, di conseguenza meno TMU e meno SP) ma con frequenze più spinte. Considerando che l'architettura G80 sembra consumare leggermente meno di R600 a pari prestazioni avrebbe potuto garantire le stesse peformance di GT200 (o poco meno) con rese produttive molto più alte, costi minori e consumi anche inferiori a RV770 probabibilmente. :)
ATi invece RV770 l'ha proprio azzeccato, se non fosse per i consumi sarebbe un gioiellino di CHIP!
Sergio_Di_Rio
24-06-2008, 11:28
Due considerazioni sulla review di expreview.
1 - non sembra pure a voi che la necessità del giga di RAM sia sovrastimata da parte degli utenti (almeno per le Radeon?).
2 - I prezzi della GTX260 sono destinati a precipitare. Expreview conclude dicendo che la differenza di prezzo tra la GTX260 e a 4870 (che quando va bene alla GTX260, vanno uguali) è una "vergogna". (testuali parole del google translator :asd:)
Anche se forse "vergogna" va inteso come "imbarazzo" non nel senso negativo che diamo in italiano :)
La traduzione in inglese è sicuramente più accurata:
"To 75 per cent of the price, or even get a better performance, Radeon HD 4870 to GTX 260 is basically shame."
SHAME:
1.the painful feeling arising from the consciousness of something dishonorable, improper, ridiculous, etc., done by oneself or another: She was overcome with shame.
Fonte: http://dictionary.reference.com/browse/shame
Sicuramente l'accezione del termine è negativa.
1GB di memoria? Sicuramente sì. Se ne sente già ora il bisogno, con risoluzione e filtri elevati.
Mercuri0
24-06-2008, 11:35
1GB di memoria? Sicuramente sì. Se ne sente già ora il bisogno, con risoluzione e filtri elevati.
In quale test di expreview se ne sente il bisogno? Eppure io sapevo che 1920x1200 con AA 8X è una risoluzione abbastanza elevata.
Comunque non intendo dire che "non serve", ma che evidentemente serve meno di quel che la gente immagina. (almeno sulle Radeon)
Volevo solo mettere in guardia sul fatto che i modelli della 4870 a 1 GiB di RAM costeranno i proporzione di più perché i produttori sanno che chi si compra quelle schede compra il numero più che le prestazioni.
Due considerazioni sulla review di expreview.
1 - non sembra pure a voi che la necessità del giga di RAM sia sovrastimata da parte degli utenti (almeno per le Radeon?).
2 - I prezzi della GTX260 sono destinati a precipitare. Expreview conclude dicendo che la differenza di prezzo tra la GTX260 e a 4870 (che quando va bene alla GTX260, vanno uguali) è una "vergogna". (testuali parole del google translator :asd:)
Anche se forse "vergogna" va inteso come "imbarazzo" non nel senso negativo che diamo in italiano :)
1- Forse in questo preciso momento si, ma se grazie al CF posso dare due anni di vita alla mia 4870, allora devo prevedere che tra un anno, quando aggiungero' la seconda 512 potrebbero non bastare piu', vanificando cosi' il senso stesso di fare CF per prolungare la longevita'.
Certo, se uno cambia scheda ogni anno allora probabilmente quella da 512 basta.
2- Che io sappia, 'shame' e' 'vergogna' (io almeno l'ho sempre usata e sentita usare in questa accezione). Per 'imbarazzante' c'e' la parola 'embarrassingly'...
Avrebbero dovuto rivedere l'architettura slegando il bus dal numero delle Rops e comunque avrebbero dovuto aspettare mesi prima di poter trovare GDDR5 in quantità. Già ora sembra che ci saranno pochissime HD4870 per il prossimo mesi.
Credo che il problema principale di GT200 sia di carattere temporale. Questo chip avrebbe fatto una strage a Novembre 2007 e ora avrebbe potuto lanciare una prima revisione a 55nm per competere con R700.
Anche R600 avrebbe fatto una strage se fosse uscito a settembre del 2006. Il timing è tutto. ;)
Non ho ben capito. In realtà chi compra la GTX280 paga le GTX260 di altri perchè è proprio la GTX260 quella dove Nvidia ha pochissimo margine.
Avete ragione entrambi... :D
Io direi piuttosto che i chip come G200 sono profittevoli solo se declinati in 2 o più versioni. Non riuscirebbe ad esserlo per via dei limitati volumi, se vendessero solo GTX280, ma non riuscirebbe ad esserlo nemmeno se vendessro solo GTX260, per via dei limitati margini.
Inoltre con GTX260 si recuperano parte degli "scarti".
Sono i benefici della cosiddetta "discriminazione di prezzo", in cui in pratica si producono delle versioni volontariamente limitate (e che paradossalmente rischiano in certi casi di costare anche di più) nelle caratteristiche dello stesso prodotto, al solo scopo di assorbire quanta più domanda possibile per un certo bene. :)
Brightblade
24-06-2008, 11:38
Ma a livello puramente velocistico, la ram del modello da 1GB performa come quella dei modelli da 512?
Anche la AMD ha riutilizzato parte dei chip venuti 'male' nella serie phenom x3. Credo che sia un'ottima cosa riutilizzare dove possibile quanto non e' proprio da buttare (anche in termini ecologici, oltre che economici...)
Mercuri0
24-06-2008, 11:47
Anche la AMD ha riutilizzato parte dei chip venuti 'male' nella serie phenom x3. Credo che sia un'ottima cosa riutilizzare dove possibile quanto non e' proprio da buttare (anche in termini ecologici, oltre che economici...)
Nessuno discute di questo, AMD lo ha fatto e non solo nei Phenom, come anche lo fa abitualmente lntel e parenti.
Anche i chip che lavorano a frequenze inferiori possono considerarsi "venuti male" rispetto a quelli a frequenza superiore, come nel caso della 4850 e 4870 ;)
A dirla tutta, siccome pare che RV770 abbia 850 shader che servono proprio per poterne disabilitare 50 se non vengono bene, tutti i RV770 sono "venuti male".
Questo per dire che "venuto male" nella produzione dei chip è una cosa che non esiste :)
Penso facciano lo stesso per i motori sulle macchine: quelli venuti meno bene vengono bloccati dalla centralina a lavorare a potenza inferiore, e venduto come motori a potenza inferiore quando in realtà sono proprio li stessi.
Hellrazer
24-06-2008, 11:49
Ma a livello puramente velocistico, la ram del modello da 1GB performa come quella dei modelli da 512?
teoricamnte no perchè 1 gb dovrebbe avere dei timing + rilassati.
Ovviamente se servono + di 512 mb per qualla istanza di lavoro quella da 1 giga è meglio perchè viene sfruttata la memoria che l'altra scheda non avrebbe immediatamente disoponibile
Esatto. Il problema nasce quando hai troppa più domanda della versione castrata che di quella completa. In quel caso o non soddisfi la domanda o antieconomicamente sei costretto a rinunciare al premium e castrare parte della produzione non difettata per andare incontro alla domanda.
Non è antieconomico. ;)
Se io realizzo un margine di 2, per esempio, su 50 prodotti, ottengo un profitto finale di 100.
Se io invece realizzo un profitto di 0,5 su ogni prodotto, ma ne vendo 200, ottengo comunque 100 di profitto. Quindi per me è completamente indifferente (semplificando parecchio il discorso) produrre 200 con 0.5 di profitto o 50 con 2. Se oltre i 50 producessi anche i 200, tanto meglio. Soprattutto se per esempio produrre i 200 mi aiuta a rientrare almeno in parte dai costi degli scarti, quindi comunque aumenta la produttività generale del dato progetto.
Naturalmente il tutto semplificato all'ennesima potenza, dato che sto presupponendo l'assenza di limiti alla capacità produttiva, di variabilità eccessiva nella domanda del segmento in cui entro con 0.5 di profitto, ecc... :)
In quale test di expreview se ne sente il bisogno? Eppure io sapevo che 1920x1200 con AA 8X è una risoluzione abbastanza elevata.
Comunque non intendo dire che "non serve", ma che evidentemente serve meno di quel che la gente immagina. (almeno sulle Radeon)
Volevo solo mettere in guardia sul fatto che i modelli della 4870 a 1 GiB di RAM costeranno i proporzione di più perché i produttori sanno che chi si compra quelle schede compra il numero più che le prestazioni.
Sono d'accordo. L'esigenza di 1GB si sente solo con textures ad altissima definizione, in giochi tipo Crysis (infatti lì mi aspetto che HD4870 1GB vada meglio della corrispondente a 512MB).
Certo che se presa a max 300€ e qualcosa la HD4870 1GB sarebbe convenientissima comunque, imho. :)
michelgaetano
24-06-2008, 12:04
Sono d'accordo. L'esigenza di 1GB si sente solo con textures ad altissima definizione, in giochi tipo Crysis (infatti lì mi aspetto che HD4870 1GB vada meglio della corrispondente a 512MB).
Certo che se presa a max 300€ e qualcosa la HD4870 1GB sarebbe convenientissima comunque, imho. :)
10 % di prestazioni in meno (che dovrebbero ridursi visto che nel test è quella a 512 mb) facendo risparmiare almeno almeno 150 euro ...:D :sofico:
Brightblade
24-06-2008, 12:10
teoricamnte no perchè 1 gb dovrebbe avere dei timing + rilassati.
Ovviamente se servono + di 512 mb per qualla istanza di lavoro quella da 1 giga è meglio perchè viene sfruttata la memoria che l'altra scheda non avrebbe immediatamente disoponibile
Vero. Me lo chiedevo solo perche' nel mio caso, giocando a 1366x768 con AA (meglio se 4x), nel 99% dei casi 512mega attualmente mi bastano, pero' se la differenza di prezzo non e' esagerata, pensavo quasi di puntare ad una versione con 1GB (discorso che puo' valere per la 4870 come la 4850), visto che comunque, qualunque scheda prendero', vorrei farla durare un paio di annetti, e magari piu' avanti, nel corso dei prox 2 anni, 1GB verra' comodo. Pero' nel caso in cui, ai settaggi a cui gioco io, 1GB non venisse mai sfruttato durante la vita utile della scheda, oltre a non sfruttare tutta la mem mi va pure piu' lenta che se l'avessi presa da 512..(vabbe', poi magari non e' apprezzabile la differenza). Insomma sono le pippe mentali da pre-upgrade :sofico: :sofico:
michelgaetano
24-06-2008, 12:15
Penso che tra 1 anno e mezzo - 2, la scheda sarà, come tutte, vecchiotta.
La risoluzione a cui giochi è bassa, non credo ti serva davvero 1 GB ram.
Anzi a quella risoluzione la sua sporca figura la fa anche la 4850 :)
Penso che tra 1 anno e mezzo - 2, la scheda sarà, come tutte, vecchiotta.
La risoluzione a cui giochi è bassa, non credo ti serva davvero 1 GB ram.
Anzi a quella risoluzione la sua sporca figura la fa anche la 4850 :)
quoto, per risoluzioni inferiori a 1680x1050 IMHO è meglio la 4850. Per 1680x1050 dipende dal budget mentre sopra si va di 4870 o di CF di 4850. ;)
Mercuri0
24-06-2008, 12:17
Vero. Me lo chiedevo solo perche' nel mio caso, giocando a 1366x768 con AA (meglio se 4x), nel 99% dei casi 512mega attualmente mi bastano
Come fai a dirlo? Hai misurato l'uso della GDRAM con qualche tool?
Dai testi che abbiamo appena visto 512bastano per giocare a 1900x1200 con 8x di aa :mbe:
Secondo me c'è un pò di fraintendimento sull'effetto che ha la quantità di ram sulle prestazioni della GPU.
(per questo sto insistendo nel ripetere il concetto)
Questo ragionamento non è sbagliato, ma parte dal un presupposto sbagliato, ovvero avere una produzione in quantitativi a piacere.
Non solo. Se da 10 chip il massimo che ottengo sono 3 GTX260 e 1 GTX280 è mio interesse riuscire a venderli in questo modo senza dover declassare l'unico GTX280 a GTX260 (rinunciando a 200$ di differenza) perché la domanda di GTX260 è molto superiore.
Ma infatti ho scritto che non consideravo affatto limiti alla capacità produttiva. ;)
Si sceglie la combinazione di prodotti che massimizza il profitto, compatibilmente con i vincoli di capacità e progettuali.
Quindi se effettivamente i valori in gioco fossero quelli descritti da te, ci potrebbe stare anche che, se ci fosse ulteriore domanda da soddisfare di GTX260, mentre quella di GTX280 fosse stata soddisfatta in gran parte, ad un certo punto io inizi a trasformare anche quell'unico G200 adatto a fare una GTX280 in un chip da GTX260. Anche perchè comunque a conti fatti una GTX260 non è solo un G200 castrato, ma ha anche meno memoria, probabilmente un pcb peggiore, una sezione di alimentazione meno raffinata, ecc... Quindi costa meno da produrre. ;)
Hellrazer
24-06-2008, 12:18
Vero. Me lo chiedevo solo perche' nel mio caso, giocando a 1366x768 con AA (meglio se 4x), nel 99% dei casi 512mega attualmente mi bastano, pero' se la differenza di prezzo non e' esagerata, pensavo quasi di puntare ad una versione con 1GB (discorso che puo' valere per la 4870 come la 4850), visto che comunque, qualunque scheda prendero', vorrei farla durare un paio di annetti, e magari piu' avanti, nel corso dei prox 2 anni, 1GB verra' comodo. Pero' nel caso in cui, ai settaggi a cui gioco io, 1GB non venisse mai sfruttato durante la vita utile della scheda, oltre a non sfruttare tutta la mem mi va pure piu' lenta che se l'avessi presa da 512..(vabbe', poi magari non e' apprezzabile la differenza). Insomma sono le pippe mentali da pre-upgrade :sofico: :sofico:
nella mia + opinabile opinione se ti interessa far durare questa scheda prendi quella da 1 giga, poi se in futuro avrai bisogno di + potenza di calcolo puoi sempre aggiungerne 1 o 2 o anche 3.
Ovviamente va da se che poi la ram video non va sommata tra le schede del crossfire ma anche con 4 avrai sempre 1 giga di ram! considerazione che va pres soprattutto per le schede dotate di solo 512 mb che col tempo rischiano di diventare obsolete + velocmnte!
michelgaetano
24-06-2008, 12:19
Imo la 4850 è ottima a 1680*1050, solo bisognerà cambiarla prima.
Solito discorso spendi tanto ora o poco per volta :)
Io la 4870 la prendo in considerazione solo a 200 €, visto il divario dalla 4850 (prezzo che comunque non credo vedremo inizialmente, quindi...)
Imo la 4850 è ottima a 1680*1050, solo bisognerà cambiarla prima.
Solito discorso spendi tanto ora o poco per volta :)
Io la 4870 la prendo in considerazione solo a 200 €, visto il divario dalla 4850 (prezzo che comunque non credo vedremo inizialmente, quindi...)
Se il dissi è dual-slot (con ovvi miglioramenti in OC) arriverei fino a 220€.
Ma benchs affidabili ci sono?
Imo la 4850 è ottima a 1680*1050, solo bisognerà cambiarla prima.
Solito discorso spendi tanto ora o poco per volta :)
Io la 4870 la prendo in considerazione solo a 200 €, visto il divario dalla 4850 (prezzo che comunque non credo vedremo inizialmente, quindi...)
Quoto :)
Nota di colore.
Inno3D, noto marchio mono-nVidia, ha anch'esso scelto la via della diversificazione come a suo tempo ha fatto Sapphire.
Così come è nata Zotac da Sapphire, da Inno3D è nata Force3D.
Decisamente bizzarra la scelta del nome, Force3D, visto che è il marchio da Inno3D dedicato non alle GeForce, ma alle Radeon. Così, tanto per creare un po' di casino nella mente degli utonti -.-
Tra l'altro carina la loro versione della HD4870. :)
http://www.force3d.com/products/hd4870/4870_image01.jpg
Sinceramente non riesco a capire perche' si continui a legare la quantita' di ram alla risoluzione: certamente una maggiore risoluzione richiede frame buffer maggiori e su questo sono daccordo, ma rimarrei davvero sorpreso se l'impiego maggiore di memoria fosse dato da questo. Per quanto posso immaginare io, sono le texture a richiedere la maggior parte di memoria: e' sufficente che i giochi futuri richiedano un maggior numero di texture, o a maggiore risoluzione, che i 512 potrebbero non essere piu' sufficenti, anche a risoluzioni inferiori.
Ricordo ad esempio che Doom 3 aveva una verisione ultra quality che usava textures migliori ma richiedeva esplicitamente 512 MB on board...
Brightblade
24-06-2008, 12:24
Si, capisco il vostro discorso, ma giocando su un 37" ad una res cosi' bassa, tendo ad alzare parecchio il manettino dell'antialiasing (almeno 4x, se poi effettivamente l'8x sara' utilizzabile senza un grosso penalty, magari lo spingo pure a 8x), il che va ad incidere sul quantitativo di ram allocata, quindi in caso di una differenza non troppo esagerata di prezzo tra le varie soluzioni, tenderei ad investire su quella piu' carrozzata, tantopiu' che ho raccolto qualche decina di euro dalla vendita della vecchia scheda. Boh vedro'.
Sinceramente non riesco a capire perche' si continui a legare la quantita' di ram alla risoluzione: certamente una maggiore risoluzione richiede frame buffer maggiori e su questo sono daccordo, ma rimarrei davvero sorpreso se l'impiego maggiore di memoria fosse dato da questo. Per quanto posso immaginare io, sono le texture a richiedere la maggior parte di memoria: e' sufficente che i giochi futuri richiedano un maggior numero di texture, o a maggiore risoluzione, che i 512 potrebbero non essere piu' sufficenti, anche a risoluzioni inferiori.
Ricordo ad esempio che Doom 3 aveva una verisione ultra quality che usava textures migliori ma richiedeva esplicitamente 512 MB on board...
Infatti e' anche questo che mi fa considerare anche la versione da 1GB pur usando una res cosi' bassa. Mi piacerebbe vedere quanta ne occupa un Crysis in Very High a 1280x1024 con 2xAA, per non esagerare coi settaggi :D
lor68pdit
24-06-2008, 12:25
Sono un po' interdetto, spero che HWU abbia a disposizione sia la versione 1Gb che 512MB, visto che per i prossimi diciamo 3 anni non intendo superare gli attuali 1680x1050 e cambierò sicuramente almeno una volta VGA nel frattempo c'è da chiedersi se me ne fraghi poi molto del giga...
Aggiungo inoltre che non sappiamo ancora se la versione da 1GB sia limitata dal bus a 256bit;).
Penso che un cross 2 x 4870/512 sia l'ideale.
michelgaetano
24-06-2008, 12:27
Aggiungo inoltre che non sappiamo ancora se la versione da 1GB sia limitata dal bus a 256bit;).
Penso che un cross 2 x 4870/512 sia l'ideale.
Io prego ogni pantheon immaginabile che la 512 si assesti sui 200 euro :sofico:
hardstyler
24-06-2008, 12:29
quanto sono giganti ste schede???
4850 9 pollici = 22.86
4870 9,5 pollici = 24,13
1 pollice = 2,54 cm
corretto???
la x1950 pro quant'è lunga?? 23cm (magari sono 22,86 è che non son riuscito a misurare per benino) la 4870 ha tutto lo spazio che le serve.
Ho postato tanto per fare, magari qualcuno ha come me lo stesso pensiero dello spazio!!:D
Hellrazer
24-06-2008, 12:30
Sinceramente non riesco a capire perche' si continui a legare la quantita' di ram alla risoluzione: certamente una maggiore risoluzione richiede frame buffer maggiori e su questo sono daccordo, ma rimarrei davvero sorpreso se l'impiego maggiore di memoria fosse dato da questo. Per quanto posso immaginare io, sono le texture a richiedere la maggior parte di memoria: e' sufficente che i giochi futuri richiedano un maggior numero di texture, o a maggiore risoluzione, che i 512 potrebbero non essere piu' sufficenti, anche a risoluzioni inferiori.
Ricordo ad esempio che Doom 3 aveva una verisione ultra quality che usava textures migliori ma richiedeva esplicitamente 512 MB on board...
si la penso anche io così!
e a dirla tutta (secondo me, imho) una 4870 a 512 la vedo un po' castrata ,ovviamenti il discorso è valido per i giochi futuri o per crysis.
o per qualche mod che uscira per i giochi tipo le qarl di oblivion
Hellrazer
24-06-2008, 12:33
Aggiungo inoltre che non sappiamo ancora se la versione da 1GB sia limitata dal bus a 256bit;).
Penso che un cross 2 x 4870/512 sia l'ideale.
scusa la domanda ma in un cros con 2 schede a 512mb il totale della mem video utilizzabile è mica sempre 512??
lor68pdit
24-06-2008, 12:34
si la penso anche io così!
e a dirla tutta (secondo me, imho) una 4870 a 512 la vedo un po' castrata ,ovviamenti il discorso è valido per i giochi futuri o per crysis.
o per qualche mod che uscira per i giochi tipo le qarl di oblivion
A 3,6Ghz di memoria castrata? :what:
Si, sempre 512.
Hellrazer
24-06-2008, 12:36
A 3,6Ghz di memoria castrata? :what:
Si, sepmpre 512.
come quantità non come velocità!
se le texture chiedono tot mem quella è che si deve avere!
edit: ah ok mi pareva infatti
hardstyler
24-06-2008, 12:36
Io prego ogni pantheon immaginabile che la 512 si assesti sui 200 euro :sofico:
azz, ti volevo quotare e ricevo SERVER TROPPO SOTTO CARICO!!!
mi auguro anch' io costi il meno possibile ma vedendo le prestazioni, parlo quella da 512, 1 gb non la prenderei mai, e il dissì doppio slot mi sa che arriverà in un batter d'occhio a costare 250€ o forse poco meno, in ogni caso fosse troppo alto attenderei max 2 settimane e mi auguro di non prenderla prima, ho un budget di 300€....si sa che lo sbav è ad altissimi livelli!!!:sofico:
Mercuri0
24-06-2008, 12:39
Sinceramente non riesco a capire perche' si continui a legare la quantita' di ram alla risoluzione: certamente una maggiore risoluzione richiede frame buffer maggiori e su questo sono daccordo, ma rimarrei davvero sorpreso se l'impiego maggiore di memoria fosse dato da questo. Per quanto posso immaginare io, sono le texture a richiedere la maggior parte di memoria: e' sufficente che i giochi futuri richiedano un maggior numero di texture, o a maggiore risoluzione, che i 512 potrebbero non essere piu' sufficenti, anche a risoluzioni inferiori.
Ricordo ad esempio che Doom 3 aveva una verisione ultra quality che usava textures migliori ma richiedeva esplicitamente 512 MB on board...
Il discorso è che anche la risoluzione maggiore delle texture è legata in qualche modo alla risoluzione dello schermo: che senso ha avere una texture grande se poi devi scalarla in basso per disegnarla?
Inoltre il discorso vale anche al contrario: chi lo dice che il numero di texture nei giochi futuri deve per forza aumentare? Anzi i giochi che useranno il Tech5 di Id di sicuro useranno molte, molte, molte, meno texture. (anche se sull'effetto della GRAM sul Tech5 per ora non ci penso proprio a pronunciarmi).
Comunque ribadisco: io non sto dicendo che un giga non serva e non servirà mai, sto solo cercando di riportarne la percezione nella giusta dimensione.
Ma ci pensate che la Ps3 ha 256MiB di GRAM più 256MiB di RAM di sistema, e i giochi futuri devono poter girare anche su di lei?
(e a pensarci, anche il Tech5)
L'amico "esperto" ti ha consigliato male, il Q6600 non è 3GHz. E se ti ha consigliato di comprare una CPU preoverclockata sta male e anche parecchio.
Se ci devi giocare ti conviene spendere i soldi di un Q6600 in un dual più potente (pari prezzo + MHz), visto che per tua ammissione saresti un ignorante e probabilmente non ti cimenterai in overclock.
Ad ogni modo io sto aspettando la 1GB per star tranquillo in prospettiva nonostante abbia un 22", quindi non posso che consigliarti a maggior ragione di prendere 1GB con un 24" :>
Anche se un po' in ritardo, ma ho potuto leggere il post solo ora, rispondo a Ratasok. E' da quattro mesi che ho un PC ma e' dal 94 che uso Mac e' per me questo e' un mondo tutto nuovo. Da utente Mac per 14 anni non ho fatto altro che collegare la spina, la tastiera e accendere. Si ho letto anche io che un dual e' migliore per giocare ma non faccio solo quello. Il processore l'ho occato io e' bastato leggere un po' di forum e' il gioco e' fatto. Ripeto alcune domande, tipo la mia, possono apparire superficiali e stupide ma abbiate pazienza. E' solo voglia di imparare. Ed e' solo grazie a persone come voi che ne sanno che altre persone possono imparare accorciando i tempi.
Grazie
si la penso anche io così!
e a dirla tutta (secondo me, imho) una 4870 a 512 la vedo un po' castrata ,ovviamenti il discorso è valido per i giochi futuri o per crysis.
o per qualche mod che uscira per i giochi tipo le qarl di oblivion
Veramente in Oblivion + QARL già la HD4850 va meglio che G200, mi pare. :stordita:
lor68pdit
24-06-2008, 12:47
Prima 4870 su ebay a 399,00 dollari
quanto sono giganti ste schede???
4850 9 pollici = 22.86
4870 9,5 pollici = 24,13
1 pollice = 2,54 cm
corretto???
la x1950 pro quant'è lunga?? 23cm (magari sono 22,86 è che non son riuscito a misurare per benino) la 4870 ha tutto lo spazio che le serve.
Ho postato tanto per fare, magari qualcuno ha come me lo stesso pensiero dello spazio!!:D
sono lunghe 23,5cm entrambe, 0,5cm in più delle x1900/2900/3800 e 4cm in meno delle GTX 200
michelgaetano
24-06-2008, 12:48
Mi trovo d'accordissimo con Ratatosk, ma voglio sottolineare come non va affatto male (ci mancherebbe, guardate che numeri) la 512 a 1920.
CHi è sotto però può risparmiarsela e mettere da parte del contante, perchè la necessità a 1680*1050 in giù non c'è (basta già la 4850 :D)
Sergio_Di_Rio
24-06-2008, 12:49
In quale test di expreview se ne sente il bisogno? Eppure io sapevo che 1920x1200 con AA 8X è una risoluzione abbastanza elevata.
Comunque non intendo dire che "non serve", ma che evidentemente serve meno di quel che la gente immagina. (almeno sulle Radeon)
Volevo solo mettere in guardia sul fatto che i modelli della 4870 a 1 GiB di RAM costeranno i proporzione di più perché i produttori sanno che chi si compra quelle schede compra il numero più che le prestazioni.
No, lo dico da esperienze personali, monitorando tramite Rivatuner.
Crysis 1680x1050 4xAA High --> memoria utilzzata = 605MB
Crysis 1680x1050 4xAA VeryHigh --> memoria utilzzata = 630MB
Unreal Tournament 3 (mappa physx_lighthouse con physx enabled, basta installare i driver NVIDIA_physX_8_06_12 che funzionano anche con 175.16 e 175.19, non c'è bisogno di installare i 177.39) 1680x1050 4xAA 16XAF Dettagli MAX--> memoria utilzzata = 630MB
Gears of War 1680x1050 4xAA 16XAF Dettagli MAX--> svariati picchi di 530MB
Quindi, già adesso non farebbe male 1gb di memoria video, sicuramente ancor più utile ad altissime risoluzioni. E poi, secondo te, non ce ne sarà bisogno in futuro? Sono sicuro che converrai con me.
michelgaetano
24-06-2008, 12:51
No, lo dico da esperienze personali, monitorando tramite Rivatuner.
Crysis 1680x1050 4xAA High --> memoria utilzzata = 605MB
Crysis 1680x1050 4xAA VeryHigh --> memoria utilzzata = 630MB
Unreal Tournament 3 (mappa physx_lighthouse con physx enabled, basta installare i driver NVIDIA_physX_8_06_12 che funzionano anche con 175.16 e 175.19, non c'è bisogno di installare i 177.39) 1680x1050 4xAA 16XAF Dettagli MAX--> memoria utilzzata = 630MB
Gears of War 1680x1050 4xAA 16XAF Dettagli MAX--> svariati picchi di 530MB
Quindi, già adesso non farebbe male 1gb di memoria video, sicuramente ancor più utile ad altissime risoluzioni. E poi, secondo te, non ce ne sarà bisogno in futuro?
Scusa l ignoranza Sergio, parlo da ignorante in materia.
Il test è fatto con la gts 512? Cioè quella ram necessaria ad arrivare a 630 la prende dal pc tipo coi notebook?
O hai testato con una scheda da 1 gb?
Sergio_Di_Rio
24-06-2008, 12:54
Scusa l ignoranza Sergio, parlo da ignorante in materia.
Il test è fatto con la gts 512? Cioè quella ram necessaria ad arrivare a 630 la prende dal pc tipo coi notebook?
O hai testato con una scheda da 1 gb?
Test effettuati con la 8800GTS 512MB.
Foglia Morta
24-06-2008, 12:56
Prima 4870 su ebay a 399,00 dollari
Oltre a quella c'è anche la HIS da Hong Kong , 365 dollari australiani . 223 euro
http://translate.google.com/translate?u=http%3A%2F%2Fwww.expreview.com%2Ftopic%2F2008-06-24%2F1214282167d9273.html&hl=zh-CN&ie=UTF8&sl=zh-CN&tl=en
michelgaetano
24-06-2008, 12:58
Test effettuati con la 8800GTS 512MB.
Quindi la ram in eccesso sarebbe presa dal sistema?
No perchè fosse così me ne freghrei di perdere un po' di ram, ho winxp a 32 bit e 3,25 gb, ma mai arrivo a saturarne 2...
bluefrog
24-06-2008, 13:00
Intanto Nvidia "ruba" coi driver nel 3DMark Vantage: http://www.theinquirer.net/gb/inquirer/news/2008/06/23/nvidia-cheats-3dmark-177
michelgaetano
24-06-2008, 13:01
Intanto Nvidia "ruba" coi driver nel 3DMark Vantage: http://www.theinquirer.net/gb/inquirer/news/2008/06/23/nvidia-cheats-3dmark-177
Nei momenti difficili... :asd:
Infatti le prestazioni van valutate per gli fps, non il 3d merd
Il discorso è che anche la risoluzione maggiore delle texture è legata in qualche modo alla risoluzione dello schermo: che senso ha avere una texture grande se poi devi scalarla in basso per disegnarla?
Inoltre il discorso vale anche al contrario: chi lo dice che il numero di texture nei giochi futuri deve per forza aumentare? Anzi i giochi che useranno il Tech5 di Id di sicuro useranno molte, molte, molte, meno texture. (anche se sull'effetto della GRAM sul Tech5 per ora non ci penso proprio a pronunciarmi).
Comunque ribadisco: io non sto dicendo che un giga non serva e non servirà mai, sto solo cercando di riportarne la percezione nella giusta dimensione.
Ma ci pensate che la Ps3 ha 256MiB di GRAM più 256MiB di RAM di sistema, e i giochi futuri devono poter girare anche su di lei?
(e a pensarci, anche il Tech5)
Eh, magari: io non ho mai giocato a piu' di 1024 x 768, e anzi spesso a 800x600 e tra tutte le componenti di un videogioco, di sicuro la definizione delle textures e' una cosa che ancora non ha raggiunto l'eccellenza (anche se sono stati fatti notevoli progressi negli ultimi tempi)... Immagino che giocando a 1600 la cosa possa solo peggiorare...
Per la play 3: beh, io non l'ho ancora vista in azione dal vivo, ma per le console il discorso e' diverso. Intanto possono ottimizzare in un modo che i pc non potranno mai fare, poi i giochi non hanno la qualita' video che ci si puo' aspettare da un moderno gioco per pc, inoltre molti giocano con televisori (e giochi) in standard definition...
Se dico monate correggetemi pure, eh :)
Nei momenti difficili... :asd:
Infatti le prestazioni van valutate per gli fps, non il 3d merd
quoto
Mercuri0
24-06-2008, 13:08
No, lo dico da esperienze personali, monitorando tramite Rivatuner.
Crysis 1680x1050 4xAA High --> memoria utilzzata = 605MB
Crysis 1680x1050 4xAA VeryHigh --> memoria utilzzata = 630MB
Unreal Tournament 3 (mappa physx_lighthouse con physx enabled, basta installare i driver NVIDIA_physX_8_06_12 che funzionano anche con 175.16 e 175.19, non c'è bisogno di installare i 177.39) 1680x1050 4xAA 16XAF Dettagli MAX--> memoria utilzzata = 630MB
Gears of War 1680x1050 4xAA 16XAF Dettagli MAX--> svariati picchi di 530MB
In tutti i miei post precedenti avevo sottolineato "sulle Radeon" perché commentavo i test sulle Radeon, che non sembrano soffrire la RAM a 512 nei confronti delle GTX260.
Chissà se secondo i tuoi test una G92 a 1GiB avrebbe un grosso margine di vantaggio rispetto a una a 512MiB :mbe: L'unico test che conosco era stato fatto da TechReport su una 8800GT, e i casi in cui aveva dei vantaggi erano molto rari.
Interessanti i tuoi risultati con il Physix.
Hai visto se la dll funziona anche con gli altri giochi che hanno quella libreria (in cui i calcoli vengono eseguiti via CPU), e se le prestazioni aumentano o diminuiscono? E come si comporta nei termini di GRAM? In UT motore del Physix viene usato anche nelle mappe non demo? Hai fatto qualche test sulle prestazioni? E dai dai...
O la presenza della libreria indica i giochi che richiedono esplicitamente l'hardware accelerato? (in quel caso la lista dei "150" giochi che supportano il PhysiX di nVidia si ridurrebbe a due mappe di UT...)
Sono tutte curiosità importanti per capire dove il fumo e dove l'arrosto perché in questo periodo non ci aiutano :)
E poi, secondo te, non ce ne sarà bisogno in futuro? Sono sicuro che converrai con me.
E che ne so :D ? Poi il punto del discorso è quanto in futuro. Un mese o 6 anni?
Sergio_Di_Rio
24-06-2008, 13:10
Quindi la ram in eccesso sarebbe presa dal sistema?
No perchè fosse così me ne freghrei di perdere un po' di ram, ho winxp a 32 bit e 3,25 gb, ma mai arrivo a saturarne 2...
Se la vga deve "attingere" dalle risorse del sistema, avrai un calo nelle prestazioni. Quindi non mi preccuperei tanto della ram di sistema, piuttosto penserei alla scheda video.
Mercuri0
24-06-2008, 13:10
Per la play 3: beh, io non l'ho ancora vista in azione dal vivo, ma per le console il discorso e' diverso. Intanto possono ottimizzare in un modo che i pc non potranno mai fare, poi i giochi non hanno la qualita' video che ci si puo' aspettare da un moderno gioco per pc, inoltre molti giocano con televisori (e giochi) in standard definition...
Sulla RAM non credo che le ottimizzazioni particolari per la console abbiano molti margini di intervento. Leggevo su Beyon3d che i programmatori di Ps3 sono un pò frustrati per questo.
michelgaetano
24-06-2008, 13:11
Se ben ricordate si pensava fossero necessari i 768 mb della gtx, e un anno fa c'è chi infatti la riteneva superiore alla gts 512 (che in OC max è superiore).
Mia opinione: al momento non si sente ancora la necessità di un quantitativo superiore, tranne per chi chiee il massimo e ha monitor superiori.
I test di sergio dimostrano che anche se a 1680, il quantitativo di AA e AF non è indifferente, ragion per cui rinunciando a qualcosina (ma neanche a vedere questa serie 4000) non serve avere ram supplementare.
Se ben ricordate si pensava fossero necessari i 768 mb della gtx, e un anno fa c'è chi infatti la riteneva superiore alla gts 512 (che in OC max è superiore).
Mia opinione: al momento non si sente ancora la necessità di un quantitativo superiore, tranne per chi chiee il massimo e ha monitor superiori.
I test di sergio dimostrano che anche se a 1680, il quantitativo di AA e AF non è indifferente, ragion per cui rinunciando a qualcosina (ma neanche a vedere questa serie 4000) non serve avere ram supplementare.
a risoluzioni alte non ce la fa più la gpu...1gb di vram allo stato attuale sono inutili.
lor68pdit
24-06-2008, 13:24
a risoluzioni alte non ce la fa più la gpu...1gb di vram allo stato attuale sono inutili.
Allora il mio dubbio era esatto.
raffaele1978
24-06-2008, 13:24
Posto questa da parte di utente che allo stato non può:)
http://translate.google.com/translate?u=http%3A%2F%2Fwww.expreview.com%2Ftopic%2F2008-06-24%2F1214282167d9273.html&hl=zh-CN&ie=UTF8&sl=zh-CN&tl=en
Posto questa da parte di utente che allo stato non può:)
http://translate.google.com/translate?u=http%3A%2F%2Fwww.expreview.com%2Ftopic%2F2008-06-24%2F1214282167d9273.html&hl=zh-CN&ie=UTF8&sl=zh-CN&tl=en
gia postato da me ;) prima
raffaele1978
24-06-2008, 13:27
gia postato da me ;) prima
Chiedo scusa, allora, Okorop!:)
Fossero veri i primi presunti test ottimi risultati a 8x :D :read:
Sergio_Di_Rio
24-06-2008, 13:28
I test di sergio dimostrano che anche se a 1680, il quantitativo di AA e AF non è indifferente, ragion per cui rinunciando a qualcosina (ma neanche a vedere questa serie 4000) non serve avere ram supplementare.
Ah bè, puoi sempre sacrificare "qualcosina"..potresti giocare con una vga con 256MB di memoria video a crysis a 1680x1050 con dettagli medium, dato che ne consuma al più 195MB, non saturandola nemmeno!....:rolleyes:
In fondo ho solo sacrificato qualcosina! ;)
albert75
24-06-2008, 13:29
ma che mi postate che mi postate aspettate che esce la scheda e comprate.....
Chiedo scusa, allora, Okorop!:)
sempre per l'utente che non puo'postare....saranno gli stessi? :D
comunque sono molto curioso di vedere la recensione domattina della 4870
michelgaetano
24-06-2008, 13:30
Ah bè, puoi sempre sacrificare "qualcosina"..potresti giocare con una vga con 256MB di memoria video a crysis a 1680x1050 con dettagli medium, dato che ne consuma al più 195MB, non saturandola nemmeno!....:rolleyes:
In fondo ho solo sacrificato qualcosina! ;)
Non mi sembra però che il tuo esempio stia in piedi, una situazione simile non c'è al momento.
Non c'è alcun gioco che vada compeltamente da schifo con una dotazione di 512 mb di ram e invece vada bene con 1 gb.
Lo stesso Crysis, che se ne frega delle 8800 gtx 768, gtx 280 1 gb (si è visto) e 8800 gt 1 gb.
raffaele1978
24-06-2008, 13:32
sempre per l'utente che non puo'postare....saranno gli stessi? :D
comunque sono molto curioso di vedere la recensione domattina della 4870
Ma in che parte della giornata verranno ufficializzate?
Non mi sembra però che il tuo esempio stia in piedi, una situazione simile non c'è al momento.
Non c'è alcun gioco che vada compeltamente da schifo con una dotazione di 512 mb di ram e invece vada bene con 1 gb.
Lo stesso Crysis, che se ne frega delle 8800 gtx 768, gtx 280 1 gb (si è visto) e 8800 gt 1 gb.
quoto.
anche la 3870 andava uguale sia che con 512 che con 1gb.
Per una 4870 con un 1gb dovrebbero alzare un pò il bus d'interfaccia per ottenere un incremento non indifferente di prestazioni.
Poi sicuro mi sbaglierò.......:p
Sergio_Di_Rio
24-06-2008, 13:43
Non mi sembra però che il tuo esempio stia in piedi, una situazione simile non c'è al momento.
Non c'è alcun gioco che vada compeltamente da schifo con una dotazione di 512 mb di ram e invece vada bene con 1 gb.
Lo stesso Crysis, che se ne frega delle 8800 gtx 768, gtx 280 1 gb (si è visto) e 8800 gt 1 gb.
AH! ma era una drammatizzazione! Non un tesi da far stare "in piedi" :doh:
Sono d'accordo che per il momento non ci sono "consistenti" miglioramenti passando da 512mb ad 1gb, ti ho dimostrato però che in alcuni casi la memoria video si satura (e non di poco). La saturazione della memoria non è mai una cosa positiva, può portare ad un calo delle prestazioni oppure, ad esempio, problemi di stuttering (come raramente capita in GoW). Ergo, sicuramente meglio avere 1gb, soprattutto per il futuro. Questo non vuol dire che 512mb di memoria video, al momento, non vadano bene. Se dovessi passare ad una scheda di nuova generazione (gpu + potenti, capaci di gestire risoluzioni e filtri più elevati) sicuramente opterei per un modello con 1gb di ram.
Capi?;)
Marko#88
24-06-2008, 13:45
quanto sono giganti ste schede???
4850 9 pollici = 22.86
4870 9,5 pollici = 24,13
1 pollice = 2,54 cm
corretto???
la x1950 pro quant'è lunga?? 23cm (magari sono 22,86 è che non son riuscito a misurare per benino) la 4870 ha tutto lo spazio che le serve.
Ho postato tanto per fare, magari qualcuno ha come me lo stesso pensiero dello spazio!!:D
pensa che 8800/9800gtx e gtx280/260 sono 27cm...
michelgaetano
24-06-2008, 13:49
AH! ma era una drammatizzazione! Non un tesi da far stare "in piedi" :doh:
Sono d'accordo che per il momento non ci sono "consistenti" miglioramenti passando da 512mb ad 1gb, ti ho dimostrato però che in alcuni casi la memoria video si satura (e non di poco). La saturazione della memoria non è mai una cosa positiva, può portare ad un calo delle prestazioni oppure, ad esempio, problemi di stuttering (come raramente capita in GoW). Ergo, sicuramente meglio avere 1gb, soprattutto per il futuro. Questo non vuol dire che 512mb di memoria video, al momento, non vadano bene. Se dovessi passare ad una scheda di nuova generazione (gpu + potenti, capaci di gestire risoluzioni e filtri più elevati) sicuramente opterei per un modello con 1gb di ram.
Capi?;)
Claro che sì :D
Sergio_Di_Rio
24-06-2008, 13:51
Claro che sì :D
ottimo ;)
webbuffa
24-06-2008, 13:52
:D Dalla prima rece uscita sulla 4870...
http://en.expreview.com/img/review/hd4800/4870vsgtx280.png
Unìalimentatore LC550GP oltre ovviamente a voler sapere se regge ha dei problemi con i connettori o cè dentro un'adattatore?
paolox86
24-06-2008, 13:58
:D Dalla prima rece uscita sulla 4870...
http://en.expreview.com/img/review/hd4800/4870vsgtx280.png
Sarebbero risultati eccellenti!!!
Fire Hurricane
24-06-2008, 14:01
bisonga vedere se quel vantaggio ultra leggero sulle GTX 260 rimarrà tale dopo i super driver Physix di Nvidia.
Non crederete che Nvidia rimanga così con i prezzi vero ?
Una 4870 ho visto da alcuni fornitori darla a 236€, quindi si ci aspetta un calo di Nvidia.
bisonga vedere se quel vantaggio ultra leggero sulle GTX 260 rimarrà tale dopo i super driver Physix di Nvidia.
Non crederete che Nvidia rimanga così con i prezzi vero ?
Una 4870 ho visto da alcuni fornitori darla a 236€, quindi si ci aspetta un calo di Nvidia.
il confronto non è tra gtx280 e 4870??? :stordita:
quella 4870, dalle frequenze delle memorie (900mhz), è la versione ddr3. ;)
il confronto non è tra gtx280 e 4870??? :stordita:
quella 4870, dalle frequenze delle memorie (900mhz), è la versione ddr3. ;)
No, è gddr5. 900Mhz *4 = 3600Mhz ;)
No, è gddr5. 900Mhz *4 = 3600Mhz ;)
perchè per 4???
GDDR5 è Graphics Double Data Rate, non Graphics quadruple Data Rate. :asd:
il confronto non è tra gtx280 e 4870??? :stordita:
quella 4870, dalle frequenze delle memorie (900mhz), è la versione ddr3. ;)
sbagliatissimo. Le GDDR5 sono delle Quad Data Rate cioè 900mhz*4=3600MHz! e poi una 4870 gddr3 non esiste nemmeno!! :)
No, è gddr5. 900Mhz *4 = 3600Mhz ;)
azz :doh:
mi hai anticipato! :D
michelgaetano
24-06-2008, 14:10
perchè per 4???
GDDR5 è Graphics Double Data Rate, non Graphics quadruple Data Rate. :asd:
Non c'entra il nome, è calcolato così ^^"
Stech1987
24-06-2008, 14:10
bisonga vedere se quel vantaggio ultra leggero sulle GTX 260 rimarrà tale dopo i super driver Physix di Nvidia.
Non crederete che Nvidia rimanga così con i prezzi vero ?
Una 4870 ho visto da alcuni fornitori darla a 236€, quindi si ci aspetta un calo di Nvidia.
Per quello che si è visto per ora, i driver physix peggiorano gli fps... secondo me un miglioramento ci sarebbe solo sul multi-gpu... Certo è che nVidia ora come ora non può abbassare più di tanto i prezzi, almeno a quanto si dice in giro, dal momento che le nuove schede sono costate e costano tuttora parecchio alla casa californiana... Credo ragionevole pensare invece che una riduzione anche sostanziale di prezzo si potrà avere con il passaggio da 65 a 55nm, cosa fattibilissima dato che anche nvidia ora ha sviluppato questo processo produttivo, che oltre a costare meno, come sappiamo, dovrebbe portare anche consumi migliori, calore ridotto e maggiore overclockabilità...
Ma ora come ora non penso che più di tanto potrà essere concorrenziale in termine di prezzo...
Naturalmente tutto IMHO (e nessuno mi dia del fanboy ATI prima di dare un'occhiata alla mia firma:read:)
goldorak
24-06-2008, 14:12
Sarebbero risultati eccellenti!!!
Perde fino al 20% in media di prestazioni con una GTX280 costando il 50% in meno.
Che dire e' un best buy !!! :winner: :winner:
sbagliatissimo. Le GDDR5 sono delle Quad Data Rate cioè 900mhz*4=3600MHz! e poi una 4870 gddr3 non esiste nemmeno!! :)
ah, non lo sapevo.
pensavo fosse un qualche sample.
Perde fino al 20% in media di prestazioni con una GTX280 costando il 50% in meno.
Che dire e' un best buy !!! :winner: :winner:
quoto. Cmq la differenza è del 15%... ancora meno... :D
:ciapet: :ciapet: :ciapet: :ciapet: :ciapet: :ciapet:
ah, non lo sapevo.
pensavo fosse un qualche sample.
i sample li avevano fatti con le ddr4 ;)
Perde fino al 20% in media di prestazioni con una GTX280 costando il 50% in meno.
Che dire e' un best buy !!! :winner: :winner:
visto i benck della 4850 con filtri attivi forse la 4870 va più della gtx280 a pari risoluzione o quasi :confused:
se ciò risulta vero questo si che sarebbe il vero colpaccio per Ati :asd:
visto i benck della 4850 con filtri attivi forse la 4870 va più della gtx280 a pari risoluzione o quasi :confused:
se ciò risulta vero questo si che sarebbe il vero colpaccio per Ati :asd:
anche se fosse il 15% in meno è più che un colpaccio. Ha detto bene qualcuno l'altro giorno sul thread di aspettando R700: ATi ha fatto il miracolo! :eek:
perchè per 4???
GDDR5 è Graphics Double Data Rate, non Graphics quadruple Data Rate. :asd:
No, sono proprio GQDR5. Non so perchè le hanno chiamate GDDR5. :D
A comunque quelli di Expreview le hanno overcloccate dal CCC a 1100Mhz, cioè 4,4 Ghz di frequenza effettiva. -> 140 Gb/s di bandwidth
http://en.expreview.com/img/review/hd4800/48703dOCp.jpg
bisonga vedere se quel vantaggio ultra leggero sulle GTX 260 rimarrà tale dopo i super driver Physix di Nvidia.
Ehm, al momento funzionano solo nel 3DMark e nella mod di UT3: ossia in nessun gioco reale. Manco su CellFactor (gioco sviluppato appositamente da Ageia) funzionano. :stordita:
Tu credi davvero che sarà così semplice il passaggio da ppu a gpu? Ma se anche chi aveva la card Ageia si lamentava del supporto penoso, e del fatto che in pratica quando funzionava a volte c'erano comunque dei rallentamenti vistosi nel gioco...
E poi mica tutti i giochi supportano PhysX... :fagiano:
Non crederete che Nvidia rimanga così con i prezzi vero ?
Una 4870 ho visto da alcuni fornitori darla a 236€, quindi si ci aspetta un calo di Nvidia.
In pratica secondo te il prezzo si dovrebbe quasi dimezzare in 15 giorni? :stordita:
Nemmeno R600 è sceso così tanto così rapidamente... :fagiano:
No, sono proprio GQDR5. Non so perchè le hanno chiamate GDDR5. :D
A comunque quelli di Expreview le hanno overcloccate dal CCC a 1100Mhz, cioè 4,4 Ghz di frequenza effettiva. -> 140 Gb/s di bandwidth http://en.expreview.com/img/review/hd4800/48703dOCp.jpg
:eek: Pauroso. :eek:
Ehm, al momento funzionano solo nel 3DMark e nella mod di UT3: ossia in nessun gioco reale. Manco su CellFactor (gioco sviluppato appositamente da Ageia) funzionano. :stordita:
Tu credi davvero che sarà così semplice il passaggio da ppu a gpu? Ma se anche chi aveva la card Ageia si lamentava del supporto penoso, e del fatto che in pratica quando funzionava a volte c'erano comunque dei rallentamenti vistosi nel gioco...
E poi mica tutti i giochi supportano PhysX... :fagiano:
In pratica secondo te il prezzo si dovrebbe quasi dimezzare in 15 giorni? :stordita:
Nemmeno R600 è sceso così tanto così rapidamente... :fagiano:
Il problema è: di quanto può scendere Nvidia senza andare in perdita? :D
vi prego ditemi che quei bench sono veritieri :stordita:
fino a pochi giorni fa neanche ci speravo in un ritorno ad ati :oink:
ne sento la mancanza dalla x1900xtx :fagiano:
Sgt.Pepper89
24-06-2008, 14:28
bisonga vedere se quel vantaggio ultra leggero sulle GTX 260 rimarrà tale dopo i super driver Physix di Nvidia.
Non crederete che Nvidia rimanga così con i prezzi vero ?
Una 4870 ho visto da alcuni fornitori darla a 236€, quindi si ci aspetta un calo di Nvidia.
Super driver?? Sono già disponibili, danno un aiuto (scorretto) al cpu test del 3dmark, ma di giochi che ne usufruiscano ce ne sono davvero pochi.
Si sa che nvidia ha dei costi di produzione ben maggiori con la GTX260, è un chip più grande e con rese minori...se fossero confermati questi risultati, sarebbe una bella batosta per Nvidia anche nella fascia medio-alta.
_morghan_1968
24-06-2008, 14:33
anche se fosse il 15% in meno è più che un colpaccio. Ha detto bene qualcuno l'altro giorno sul thread di aspettando R700: ATi ha fatto il miracolo! :eek:
aspettiamo le prove reali con i giochi
per adesso l' unico a cui ho visto fare i miracoli era un ragazzo che veniva
a skuola con me che faceva sparire le autoradio a posillipo e le faceva
ricomparire a forcella in un' attimo :D :D :D
mircocatta
24-06-2008, 14:39
cavolo, ottima la recensione di expreview! considerando che devono ancora uscire driver seri
tra l'altro anche in lost planet, palesemente pro nvidia, è comunque migliore della mia 8800gt :asd:
Hellrazer
24-06-2008, 14:48
Veramente in Oblivion + QARL già la HD4850 va meglio che G200, mi pare. :stordita:
era per fare un esempio se esce una mod simile alle qarl per un altro gioco i requisiti dello stesso aumentano di parecchio.
Io le quarl le ho trovate molto pesanti di per sè e quindi le ho tirate in ballo solo per dare un'idea
mircocatta
24-06-2008, 14:51
Force3D ha presentato in immagini la nuova ATI Radeon HD4870. La scheda riprende il design dual-slot dei modelli della serie HD 3800 con frequenze per il core di 725MHz e per le memorie GDDR5 di 3.6GB/s. I test rilasciati dalla casa mettono in mostra un guadagno prestazionale di circa 52 punti percentuale rispetto alla scheda video della passata generazione HD3870X2. Per il momento non sono disponibili informazioni sulla disponibilità o il prezzo.
caxxata o verità?
Azz se quei bench di expreview sono veri, ho appena trovato la mia scheda :eek:
E siccome io Lost Planet non l'ho mai visto, e mai lo vedró, siamo solo a -10/11% dalla gtx280 :ave:
Della 4870x2 non sentiró neanche la necessitá....
michelgaetano
24-06-2008, 15:03
Dai test la HD4850 in sostanza eguaglia il CF di 3870, mentre la 4870 le è il 25-30% sopra.
Credo siano un po' troppo ottimistici (52 %, sticazzi!), sse poi son veri ben venga
Magari si riferiscono alla 1 gb :eek:
michelgaetano
24-06-2008, 15:03
E siccome io Lost Planet non l'ho mai visto, e mai lo vedró, siamo solo a -10/11% dalla gtx280 :ave:
E aggiungo che non c'è bisogno di vederlo :asd:
Il problema è: di quanto può scendere Nvidia senza andare in perdita? :D
spero il più possibile perchè così ATI scende di conseguenza!! E ATI sarà sempre e cmq più avvantaggiata di NVIDIA perchè RV770 costa 1/4 rispetto a G200... :D :D
Inoltre non dimentichiamoci che è vero che a ottobre uscirà G200b a 55nm, ma qualche mese dopo uscirà RV770 a 45 o 40nm... :fagiano:
E aggiungo che non c'è bisogno di vederlo :asd:
quoto, avesse almeno una grafica alla crysis... :rolleyes:
Brightblade
24-06-2008, 15:14
Mah, io Lost Planet ce l'ho, ho iniziato a giocarlo con la 7900GT, solo che dato che ho avuto l'occasione di vendere la scheda, l'ho colta al volo e lo continuero' con la HD48xx che comprero'. Non e' malaccio, e non sono assolutamente necessari 60fps costanti per riuscire a giocarci, ma comunque, sacrificando un paio di dettagli riuscivo a giocarci tranquillamente con la 7900GT, quindi non mi preoccupa minimamente il fatto che sia l'unico gioco in cui le nVidia danno ampio distacco alle ATI.
HackaB321
24-06-2008, 15:23
Io non credo, nessuno punta più al GPGPU che al gaming, nel breve. ;)
Per me invece GT200 è un'architettura pensata anche e soprattutto per il gp. Altrimenti perchè inserire le fp64, incrementare il rapporto ALU:TEX (oltre le esigenze dei giochi attuali) o raddoppiare i file di registro. Per avere le prestazioni delle 2*0 nei giochi attuali sarebbe bastato un G92 a 55nm con più banda senza tutto quello spreco di capacità computazionale e ad un costo di ricerca e di produzione notevolmente minore.
Nvidia può anche aver fatto un errore di valutazione sull'evoluzione dei giochi come ATi con R600 (molto difficile però, visto il potere che ha nell'influenzare le scelte degli sviluppatori) ma comunque GT200 resta un'architettura pensata
per il calcolo generico. E d'altronde non producendo CPU e volendo evitare di diventare sempre più un marchio di nicchia per videogiocatori e basta (dato che Intel e AMD punteranno sempre più su piattoforme mono-marchio) deve dimostrare che le GPU hanno un futuro anche in altri ambiti rispetto a quello ludico. E occhio a sottovalutare il general purpose perchè, con la potenza di calcolo delle vga attuali, si tratta in certi ambiti di un mercato potenzialmente miliardiario se verranno forniti strumenti di sviluppo semplici, affidabili e portabili.
Aggiungo inoltre che non sappiamo ancora se la versione da 1GB sia limitata dal bus a 256bit;).
Penso che un cross 2 x 4870/512 sia l'ideale.
Visti i bench della 4850 e considerando che la 4870 ha il doppio della banda, penso si possa affermare che la 4870 non sarà band-limited mai (visto anche che expreview ci ha pure mostrato i margini di oc di quella memoria).
leoneazzurro
24-06-2008, 15:46
Per me invece GT200 è un'architettura pensata anche e soprattutto per il gp. Altrimenti perchè inserire le fp64, incrementare il rapporto ALU:TEX (oltre le esigenze dei giochi attuali) o raddoppiare i file di registro. Per avere le prestazioni delle 2*0 nei giochi attuali sarebbe bastato un G92 a 55nm con più banda senza tutto quello spreco di capacità computazionale e ad un costo di ricerca e di produzione notevolmente minore.
Nvidia può anche aver fatto un errore di valutazione sull'evoluzione dei giochi come ATi con R600 (molto difficile però, visto il potere che ha nell'influenzare le scelte degli sviluppatori) ma comunque GT200 resta un'architettura pensata
per il calcolo generico. E d'altronde non producendo CPU e volendo evitare di diventare sempre più un marchio di nicchia per videogiocatori e basta (dato che Intel e AMD punteranno sempre più su piattoforme mono-marchio) deve dimostrare che le GPU hanno un futuro anche in altri ambiti rispetto a quello ludico. E occhio a sottovalutare il general purpose perchè, con la potenza di calcolo delle vga attuali, si tratta in certi ambiti di un mercato potenzialmente miliardiario se verranno forniti strumenti di sviluppo semplici, affidabili e portabili.
Visti i bench della 4850 e considerando che la 4870 ha il doppio della banda, penso si possa affermare che la 4870 non sarà band-limited mai (visto anche che expreview ci ha pure mostrato i margini di oc di quella memoria).
Non sono d'accordo sulla questione GPGPU: GT200 è una scheda pensata ANCHE per il GPGPU, ma la sua vocazione primaria sono e restano i giochi. Semplicemente, non è semplice costruire un mega-chip monolitico di quella stazza e farlo andare alle frequenze desiderate, e soprattutto il problema sta nell'averlo legato ancora alle GDDR3, che sono del tutto insufficienti per un chip della "mole" di GT200. Da un certo punto di vista RV770 è ancora più GPGPU di GT200, anche per il miglior supporto alla DP.
mircocatta
24-06-2008, 15:50
Visti i bench della 4850 e considerando che la 4870 ha il doppio della banda, penso si possa affermare che la 4870 non sarà band-limited mai (visto anche che expreview ci ha pure mostrato i margini di oc di quella memoria).
quindi meglio avere 1 gb sotto il sedere, tanto la banda non è limitata
-noxius-
24-06-2008, 15:51
Non sapevo nemmeno che fi fosse questo thread , iscritto :) .
Wuei test in clui questa bestiola è inferiore ad una 280sono riferiti alla 512mb vero ? D'altra parte dovrebbe essere così dato che se sono rare le 512 figuriamoci le 1gb .. Questo significa che un altro buon 5% in più lo dovremmo guadagnare avendo un quantitativo doppio di memoria , no ? Certo, dipende dai giochi ma ce ne sono alcuni che ne richiedono davvero molta ,specialmente in dx10 . Se poi dovessimo mettere in campo anche pure le dx10.1 allora mi sa proprio che la 280 perde il primato .
La vera forza sarà nel prezzo e se davvero fosse confermato 229 euro, fra non molto sarà possibile acquistarla a 200 euro . Personalmente credo che aspetterò la soglia dei 190 oppure ripiegherò per una 1gb a 230 euro se necessario :D .. Certo però che pure la X2 mi tenta ..
tutti noi rimanemmo sorpresi vedendo il rapporto qualità/prezzo che offriva la 8800gt al lancio.
Ebbene dopo parecchi mesi, la 4850 al lancio costa come una 8800gt exo e va molto di più ;)
massimomarc
24-06-2008, 16:00
a questo punto tutto quadra, tranne le dichiarazioni di amd :asd:
son 6 mesi che parli di fare una architettura scalare con un chip, rv770, che sarà in fascia medio-alta , per poi passare a x2 per la enthusiast e downcloccato per la fascia medio-bassa...
e poi viene fuori che la 4870 ( 512 mb poi... bisognerà confrontare 1gb vs 1gb ) va il 10% in meno della gtx280 enthusiast di nvidia :asd:
con il jolly di poter creare una 4870x2 .
tutto questo a 250 euro vs 500 euro ( e nvidia voleva prezzarlo a 650 dollari ricordate?)in europa 650 euro
gg cazzo :asd:
cmq il miracolo imho è stato far entrare 800 stream processor, 40 tmu e cazzi e mazzi in un die size che è la metà esatta di gt200. anche questo fosse a 55 nm, non si avvicinerebbe a quello che ha fatto amd con rv770.
restan da vedere i consumi.
a dir la verità resta da vedere se vale la pena giocare ancora con piattaforma il pc, visti i titoli degli ultimi anni, ma vabbe :asd:
Andrea.92
24-06-2008, 16:00
Ciao a tutti, dato che sono interessato a far finire questa bella bestiolina nel mio case, avrei una domanda da farvi... avevo letto riguardo riguardo alla 4870x2 (o come si chiamerà) che la memoria sarà condivisa, quindi non più 512x2, ma 1 gb "effettivo".. erano voci vere? quello che mi ineteressa più che altro è perchè avevo in mente di fare il crossfire fra qualche mese, dato che mi dovrebbe arrivare anche un samsung 2493HM... potrebbe essere che non saranno più 512x2 ma verrà sfruttata la memoria di entrambe le schede?
alla base di questa domanda sta il fatto che anche io (e ho visto che ormai siamo veramente tanti) non sanno se prendere la 512mb o la 1gb... ma se quelle che ho loetto sono solo cavolate, allora mi sa che anrò per la 1gb...
-noxius-
24-06-2008, 16:06
tutti noi rimanemmo sorpresi vedendo il rapporto qualità/prezzo che offriva la 8800gt al lancio.
Ebbene dopo parecchi mesi, la 4850 al lancio costa come una 8800gt exo e va molto di più ;)
Ci hanno rubato come matti all'inizio !! l'8800gt dopo l'effetto novità costavano sui 240 euro e passa con le zotac liscie a 250 e le amp! a 270 euro e , nonostante questo , restavano schede eccellenti , con le gts 512 sui 330 euro .
ATI/AMD cos'ha fatto ? lanciate sui 199$ !!!!! Solo questo vi fa capire bene quanto ci ha preso per il culo InVIDIA fino ad ora e , adesso, è arrivata l'ora DI FARE I CONTI !!! :mad:
Maledetti , grande ati invece che gli ha aperto il .... col cric ..
Qualcuno mi risponde gentilmente per LC550GP.
Ci hanno rubato come matti all'inizio !! l'8800gt dopo l'effetto novità costavano sui 240 euro e passa con le zotac liscie a 250 e le amp! a 270 euro e , nonostante questo , restavano schede eccellenti , con le gts 512 sui 330 euro .
ATI/AMD cos'ha fatto ? lanciate sui 199$ !!!!! Solo questo vi fa capire bene quanto ci ha preso per il culo InVIDIA fino ad ora e , adesso, è arrivata l'ora DI FARE I CONTI !!! :mad:
Maledetti , grande ati invece che gli ha aperto il .... col cric ..
quando la concorrenza dormiva era normale che facessero cosi.
Ma ora è finita la pacchia
-noxius-
24-06-2008, 16:16
Ma infatti sono degli infami, d'ora in poi non spenderò nemmeno 1 centesimo per 1 prodotto nvidia nuovo, solo sull'usato . Questi ebreucci meritano di andare in bancarotta . :muro:
Che figata pazzesca se per fine anno ATI tirasse fuori anche la versione a 40nm di TMSC... magari con frequenze notevolmente aumentate..... :sofico: :sofico: prossime a quel Ghz che tanto speravamo XD
Che figata pazzesca se per fine anno ATI tirasse fuori anche la versione a 40nm di TMSC... magari con frequenze notevolmente aumentate..... :sofico: :sofico: prossime a quel Ghz che tanto speravamo XD
quoto!! immagina che prestazioni potrebbe avere RV770 a 1GHZ! :read: :fagiano:
Mi iscrivo a quest thread, la vga è la più interessante degli ultimi anni...voglio vedere i bench di HWU....
Per me invece GT200 è un'architettura pensata anche e soprattutto per il gp. Altrimenti perchè inserire le fp64, incrementare il rapporto ALU:TEX (oltre le esigenze dei giochi attuali) o raddoppiare i file di registro. Per avere le prestazioni delle 2*0 nei giochi attuali sarebbe bastato un G92 a 55nm con più banda senza tutto quello spreco di capacità computazionale e ad un costo di ricerca e di produzione notevolmente minore.
Nvidia può anche aver fatto un errore di valutazione sull'evoluzione dei giochi come ATi con R600 (molto difficile però, visto il potere che ha nell'influenzare le scelte degli sviluppatori) ma comunque GT200 resta un'architettura pensata
per il calcolo generico. E d'altronde non producendo CPU e volendo evitare di diventare sempre più un marchio di nicchia per videogiocatori e basta (dato che Intel e AMD punteranno sempre più su piattoforme mono-marchio) deve dimostrare che le GPU hanno un futuro anche in altri ambiti rispetto a quello ludico. E occhio a sottovalutare il general purpose perchè, con la potenza di calcolo delle vga attuali, si tratta in certi ambiti di un mercato potenzialmente miliardiario se verranno forniti strumenti di sviluppo semplici, affidabili e portabili.
Su questo sono d'accordo. Sono meno d'accordo sul "soprattutto" per il gpgpu... NVidia ha sempre fatto del gaming il suo punto di forza: sicuramente ora punta tanto su CUDA, ma dal punto di vista delle capacità di GPGPU credo che RV770 sia un progetto superiore (e credo che da quel punto di vista lo fosse anche già R600 vs G80). Quindi a che pro puntare su qualcosa quando rischi poi di essere ultimo sia in un campo che nell'altro?
Quello che intendevo è che non credo che G200 sia nato col gpgpu in mente e per questo l'incremento nei giochi non è così grande come ci si aspettava... Lo stesso potrebbe dirsi per R600, che sicuramente (e lo si vede nei suoi eredi da oltre 1 teraflop) aveva in mente il gpgpu più di quanto non lo avesse G80.
Nel breve periodo (1 anno) checchè se ne dica il gpgpu sarà ancora un mezzo miraggio per la maggior parte degli utenti, tranne che per qualche rara applicazione, così come la fisica gestita dalle gpu, ecc...
Semplicemente non credo che una società scientemente corra il rischio di essere sotto ad ogni price point sopra i 150€, e forse anche sotto quella cifra in futuro, (è una cosa che forse non è successa nemmeno ad ATI nel pieno del periodo R600) solo per andare dietro al gpgpu... ;)
Non sono d'accordo sulla questione GPGPU: GT200 è una scheda pensata ANCHE per il GPGPU, ma la sua vocazione primaria sono e restano i giochi. Semplicemente, non è semplice costruire un mega-chip monolitico di quella stazza e farlo andare alle frequenze desiderate, e soprattutto il problema sta nell'averlo legato ancora alle GDDR3, che sono del tutto insufficienti per un chip della "mole" di GT200. Da un certo punto di vista RV770 è ancora più GPGPU di GT200, anche per il miglior supporto alla DP.
Vedo che mi avevi preceduto, perfettamente d'accordo. ;)
ma quindi raga, quando potremo avere i primi bench di questo giocattolino???:)
michelgaetano
24-06-2008, 17:11
ma quindi raga, quando potremo avere i primi bench di questo giocattolino???:)
Domani :D
appleroof
24-06-2008, 17:34
ma quindi raga, quando potremo avere i primi bench di questo giocattolino???:)
infatti, potevano aspettare di aprire un TU, ogni volta vengo qui e trovo praticamente un "aspettando" :stordita:
infatti, potevano aspettare di aprire un TU, ogni volta vengo qui e trovo praticamente un "aspettando" :stordita:
(Mia Opinione)
I thread ufficiali si dovrebbero aprire lo stesso giorno in cui si lanciano se schede. ;)
lor68pdit
24-06-2008, 17:49
Forse ne ho già trovate 2 (sapphire) nella mia città. Ho mandato una mail e vediamo se mi rispondono.
appleroof
24-06-2008, 17:49
(Mia Opinione)
I thread ufficiali si dovrebbero aprire lo stesso giorno in cui si lanciano se schede. ;)
sono d'accordo ;)
albert75
24-06-2008, 17:55
(Mia Opinione)
I thread ufficiali si dovrebbero aprire lo stesso giorno in cui si lanciano se schede. ;)
quotone e aggiungo:
ANDE A LAVURA BARBUN:ciapet: :ciapet: :ciapet: :ciapet:
Forse ne ho già trovate 2 (sapphire) nella mia città. Ho mandato una mail e vediamo se mi rispondono.
Se ha anche uno shop online fammi sapere, tramite MP, che le ordino anch'io :D
bye
HackaB321
24-06-2008, 18:06
Non sono d'accordo sulla questione GPGPU: GT200 è una scheda pensata ANCHE per il GPGPU, ma la sua vocazione primaria sono e restano i giochi. Semplicemente, non è semplice costruire un mega-chip monolitico di quella stazza e farlo andare alle frequenze desiderate, e soprattutto il problema sta nell'averlo legato ancora alle GDDR3, che sono del tutto insufficienti per un chip della "mole" di GT200. Da un certo punto di vista RV770 è ancora più GPGPU di GT200, anche per il miglior supporto alla DP.
Ma che senso ha fare uscire una gpu così costosa solo per avere le prestazioni della 9800GX2? Quando cioè quelle prestazioni le hai già garantite comunque con margini di guadagno superiori? Oltretutto, contrariamente a quanto si riteneva in un primo momento, i 55nm erano lì pronti e disponibili e una eventuale dual G92 a 55nm avrebbe sicuramente prestazioni superiori alla 280.
Che senso ha introdurre delle modifiche architetturali inutili nei giochi odierni o alzare l'ottimo rapporto ALU:TEX di G92 quando è ovvio che queste modifiche avrebbero occupato spazio senza portare nessun giovamento? Non bastava rielaborare G92 a 55nm per i giochi?
Per me è un progetto nato per altri scopi e cioè per superare i limiti di capacità computazionale in ambiti gp di G80/G92. Che poi ATi riesca a fare anche meglio in metà dello spazio è, purtroppo per Nvidia, un altro discorso.
http://www.force3d.com/press/23_6_08_hd4870_23_6_08_hd4870.jpg
Fonte: sito di Force3D
appleroof
24-06-2008, 18:22
Ma che senso ha fare uscire una gpu così costosa solo per avere le prestazioni della 9800GX2? Quando cioè quelle prestazioni le hai già garantite comunque con margini di guadagno superiori? Oltretutto, contrariamente a quanto si riteneva in un primo momento, i 55nm erano lì pronti e disponibili e una eventuale dual G92 a 55nm avrebbe sicuramente prestazioni superiori alla 280.
Che senso ha introdurre delle modifiche architetturali inutili nei giochi odierni o alzare l'ottimo rapporto ALU:TEX di G92 quando è ovvio che queste modifiche avrebbero occupato spazio senza portare nessun giovamento? Non bastava rielaborare G92 a 55nm per i giochi?
Per me è un progetto nato per altri scopi e cioè per superare i limiti di capacità computazionale in ambiti gp di G80/G92. Che poi ATi riesca a fare anche meglio in metà dello spazio è, purtroppo per Nvidia, un altro discorso.
quoto, è l'opinione che mi son fatto anche io, leggendo qua e là tra l'altro anche su B3D
yossarian
24-06-2008, 18:27
Per me invece GT200 è un'architettura pensata anche e soprattutto per il gp.
è pensata anche per il gpgpu
Altrimenti perchè inserire le fp64,
perchè su un'architettura scalare con alu fp32 come quella di g80, l'unico modo per introdurre la doppia precisione era quello di inserire una alu fp64 per ogni sp.
incrementare il rapporto ALU:TEX (oltre le esigenze dei giochi attuali)
ambito in cui nVidia è ancora indietro, visto che il rapporto di 3:1 era stato introdotto già con R580.
o raddoppiare i file di registro.
perchè c'è una alu fp64 in più per ogni sp
Per avere le prestazioni delle 2*0 nei giochi attuali sarebbe bastato un G92 a 55nm con più banda senza tutto quello spreco di capacità computazionale e ad un costo di ricerca e di produzione notevolmente minore.
un g92 a 55 nm, secondo i bench visti online, sta sotto, con i filtri, ad una 4850; due g92 sarebbero inferiori rispetto a due hd4850. La via del singolo chip permette, invece, a nVidia, di mantenere ancora il primato per le vga a singola gpu; inoltre, con gt2x0 si fa un ulteriore passo verso la realizzazione di gpgpu.
Nvidia può anche aver fatto un errore di valutazione sull'evoluzione dei giochi come ATi con R600 (molto difficile però, visto il potere che ha nell'influenzare le scelte degli sviluppatori) ma comunque GT200 resta un'architettura pensata
per il calcolo generico.
a giudicare da casi come quello di lost planet, non direi che nVidia rischi di commettere errori di valutazione :D . GT200 non si discosta dal trend tipico delle gpu nVidia che da sempre tende a privilegiare le operazioni di texturing rispetto a quelle matematiche (approccio non proprio consono ad una cpu); questo lascia intendere che anche se GT200 è più gpgpu oriented rispetto al passato, comunque non è un chip pensato prevalentemente per il gp.
E d'altronde non producendo CPU e volendo evitare di diventare sempre più un marchio di nicchia per videogiocatori e basta (dato che Intel e AMD punteranno sempre più su piattoforme mono-marchio) deve dimostrare che le GPU hanno un futuro anche in altri ambiti rispetto a quello ludico. E occhio a sottovalutare il general purpose perchè, con la potenza di calcolo delle vga attuali, si tratta in certi ambiti di un mercato potenzialmente miliardiario se verranno forniti strumenti di sviluppo semplici, affidabili e portabili.
perfettamente d'accordo, ma ti faccio presente che le gpu ATi, ora AMD, sono da sempre più gp oriented rispetto a quelle nVidia (R520 era, in alcune applicazioni, tra cui gromacs, fino a 7/8 volte più veloce di G70 e la serie R6x0/RV6x0 è stata la prima ad introdurre i calcoli in dp emulandoli grazie alle alu di tipo vliw).
Non sono d'accordo sulla questione GPGPU: GT200 è una scheda pensata ANCHE per il GPGPU, ma la sua vocazione primaria sono e restano i giochi. Semplicemente, non è semplice costruire un mega-chip monolitico di quella stazza e farlo andare alle frequenze desiderate, e soprattutto il problema sta nell'averlo legato ancora alle GDDR3, che sono del tutto insufficienti per un chip della "mole" di GT200. Da un certo punto di vista RV770 è ancora più GPGPU di GT200, anche per il miglior supporto alla DP.
Su questo sono d'accordo. Sono meno d'accordo sul "soprattutto" per il gpgpu... NVidia ha sempre fatto del gaming il suo punto di forza: sicuramente ora punta tanto su CUDA, ma dal punto di vista delle capacità di GPGPU credo che RV770 sia un progetto superiore (e credo che da quel punto di vista lo fosse anche già R600 vs G80). Quindi a che pro puntare su qualcosa quando rischi poi di essere ultimo sia in un campo che nell'altro?
Quello che intendevo è che non credo che G200 sia nato col gpgpu in mente e per questo l'incremento nei giochi non è così grande come ci si aspettava... Lo stesso potrebbe dirsi per R600, che sicuramente (e lo si vede nei suoi eredi da oltre 1 teraflop) aveva in mente il gpgpu più di quanto non lo avesse G80.
Nel breve periodo (1 anno) checchè se ne dica il gpgpu sarà ancora un mezzo miraggio per la maggior parte degli utenti, tranne che per qualche rara applicazione, così come la fisica gestita dalle gpu, ecc...
Semplicemente non credo che una società scientemente corra il rischio di essere sotto ad ogni price point sopra i 150€, e forse anche sotto quella cifra in futuro, (è una cosa che forse non è successa nemmeno ad ATI nel pieno del periodo R600) solo per andare dietro al gpgpu... ;)
RV770 non sconfessa affatto il progetto R6x0 (come avrete modo di vedere), ma ne riprende gran parte dell'architettura, con le modifiche più importanti apportate a livello di MC e di riorganizzazione di alcune cache interne e un potenziamento a livello di z-ops delle rop's (in questo nVidia ha fatto scuola). Resta l'approccio di tipo vliw che non permette di avere in ogni situazione il massimo parallelismo possibile ma lascia delle "riserve di potenza" per i casi in cui il compilatore riesce a mettere in azione tutte le alu di ogni blocco mimd (da notare che, in termini di Gflops, RV770, anche in versione 4850, è teoricamente superiore a GT2x0)
_morghan_1968
24-06-2008, 18:27
ma non avete l' impressione che qualsiasi scheda si compri...
qualsiasi modello di qualsiasi marca...
si porta a casa la classica coperta troppo corta ???
appleroof
24-06-2008, 18:39
ma non avete l' impressione che qualsiasi scheda si compri...
qualsiasi modello di qualsiasi marca...
si porta a casa la classica coperta troppo corta ???
:mbe: è sempre stato così e sempre sarà così.....(a meno che non fanno una scheda da 10 euro, perfetta a tutte le risoluzioni & filtri, mantenendo queste prestazioni per minimo 5 anni in maniera perfettamente costante, e che consuma 2W in full :D )
tunztunz
24-06-2008, 18:44
bella scheda, ma non capisco i 3.6gb/s nondovrebbero essere 3.6ghz?
raffaele1978
24-06-2008, 18:52
Pensate che domani HWU pubblichi la recensione?
Pensate che domani HWU pubblichi la recensione?
Perché non dovrebbero ?
raffaele1978
24-06-2008, 19:02
Perché non dovrebbero ?
E chi lo sa?:ciapet:
Io spero che sia il prima possibile, comunque, coì mi fiondo a leggerla!:D
Mercuri0
24-06-2008, 19:11
Ci hanno rubato come matti all'inizio !! l'8800gt dopo l'effetto novità costavano sui 240 euro e passa con le zotac liscie a 250 e le amp! a 270 euro e , nonostante questo , restavano schede eccellenti , con le gts 512 sui 330 euro .
ATI/AMD cos'ha fatto ? lanciate sui 199$ !!!!! Solo questo vi fa capire bene quanto ci ha preso per il culo InVIDIA fino ad ora e , adesso, è arrivata l'ora DI FARE I CONTI !!! :mad:
Ho l'impressione che la 4870 seguirà il destino della 8800GT con una impennata dei prezzi nei primi giorni a causa della scarsa disponibilità, e successiva svalutazione.
Diverso è il discorso per la 4850 perché AMD ha fatto il contrario di un paper-launch :D (la scheda ancora non è stata ufficialmente lanciata e già la vendono in volumi...)
Poi non è che AMD è "buona" e nVidia è "cattiva", eh. E' la condizione del mercato che costringe AMD ad avere atteggiamenti più orientati al vantaggio degli utenti.
Ciao a tutti, dato che sono interessato a far finire questa bella bestiolina nel mio case, avrei una domanda da farvi... avevo letto riguardo riguardo alla 4870x2 (o come si chiamerà) che la memoria sarà condivisa, quindi non più 512x2, ma 1 gb "effettivo"
E chi lo sa? Secondo me le cose saranno più complicate di un 512x2 o 1Gb. Vedremo che ci dirà il marketing AMD
alla base di questa domanda sta il fatto che anche io (e ho visto che ormai siamo veramente tanti) non sanno se prendere la 512mb o la 1gb... ma se quelle che ho loetto sono solo cavolate, allora mi sa che anrò per la 1gb...
Beh sulla 4870X2 ci saranno i test nei giochi. Perché invece di preoccuparsi di quanta RAM ha (se 512x2 e 1GiB) semplicemente non ci si preoccupa di vedere come va nei giochi?
Ma che senso ha fare uscire una gpu così costosa solo per avere le prestazioni della 9800GX2? Quando cioè quelle prestazioni le hai già garantite comunque con margini di guadagno superiori?
Digitimes aveva riportato molti mesi fa che nVidia intendeva sostituire la 9800GX2 con una scheda dalle prestazioni e dal costo paragonabile. ("costo", quindi si riferiva lato nVidia).
Secondo me è la 9800GX2 ad essere "fuori posto" in tutta la vicenda. E' dalla 8800GT compresa (a causa del nome e della successiva svalutazione della serie 9) che nVidia sembra avere difficoltà a chiarire la sua roadmap... Inoltre mi sembra che nVidia non possa proprio tollerare di perdere la sua immagine di "quelli che ce l'hanno più duro" neanche per un mese, vedi la 8800GT uscita prematuramente, la 9800GX2, o la 9800GTX+.
Io a dire il vero all'uscita della 3870x2 pensavo che nVidia l'avrebbe buttata su "il multiGPU fa schifo", e per un pò mi è parso di avere ragione: nVidia aveva spedito un'email ai recensori dicendo qualcosa di simile, ed inoltre come d'incanto era apparso su internet il problema del "microstuttering" come se il crossfire l'avessero inventato ieri. :rolleyes:
Poi però è uscita la 9800GX2...
michelgaetano
24-06-2008, 19:20
Nella politica di chi ce l'ha più duro, nVidia deve far uso massicciamente di viagra per come si stan mettendo le cose.
A mio avviso, ma è solo una mia opinione, la 9800gtx+ non è una risposta degna di nVidia.
Mercuri0
24-06-2008, 19:21
Che poi ATi riesca a fare anche meglio in metà dello spazio è, purtroppo per Nvidia, un altro discorso.
Però è pure vero che i TDP non sembrano essere troppo distanti. Bisognerà vedere come si comportano i chip in varie condizioni di utilizzo (GPGPU etc etc) per vederci chiaro, ma sebbene l'area sia un parametro essenziale per i costi, ormai è il TDP che da la misura della tecnologia.
Dal lato TDP sembra (per ora) che non sia stato un cappotto, e la cosa lascia un buon margine per il GT200 a 55nm.
Inoltre mi chiedo come faranno la 4870x2 :mbe:
<^MORFEO^>
24-06-2008, 19:24
Io spero che sia il prima possibile, comunque, coì mi fiondo a leggerla!:D
Io spero anche che facciano dei test utili con i filtri attivi per vedere le reali potenzialità della scheda!
Che la mettano a confronto con la 4850, GTX 260, GTX 280, 9800GX2 e soprattutto con la mia x800GT (in modo da vedere direttamente il guadagno prestazionale che avrò :ciapet: )
<^MORFEO^>
24-06-2008, 19:32
Nella politica di chi ce l'ha più duro, nVidia deve far uso massicciamente di viagra per come si stan mettendo le cose.
A mio avviso, ma è solo una mia opinione, la 9800gtx+ non è una risposta degna di nVidia.
Perchè il barare direttamente sui risultati del 3D Mark falsandoli via sw è una risposta degna??? :rotfl:
Come ho già detto, non sa che pesci pigliare ed è alla disperata ricerca di qualsiasi cosa o sotterfugio che la faccia risultare (o meglio "sembrare") vincitrice anche quando si dimostra palesemente che non lo possa essere :doh:
Ovviamente non ce l'ho con te, ma era solo un commento per il fatto che non ci si deve sorprendere delle soluzioni disperate che è costretta ad adottare per rispondere ad ATI :rolleyes:
gianni1879
24-06-2008, 19:37
(Mia Opinione)
I thread ufficiali si dovrebbero aprire lo stesso giorno in cui si lanciano se schede. ;)
sono daccordo con te, 50pp di speculazioni, sarebbe opportuno chiuderlo e ricominciare uno nuovo quando la vga è disponibile, questo più che altro è un aspettando HD4870
sono daccordo con te, 50pp di speculazioni, sarebbe opportuno chiuderlo e ricominciare uno nuovo quando la vga è disponibile, questo più che altro è un aspettando HD4870
concordo alla grande anche io...
anzi lanciamo un appello ai moderatori in modo che questo diventi aspettando hd4780 e da domani si apra un thread ufficiale...
chi è daccordo con noi lo posti
grazie
mircocatta
24-06-2008, 20:23
edit
NicKonsumaru
24-06-2008, 20:29
concordo alla grande anche io...
anzi lanciamo un appello ai moderatori in modo che questo diventi aspettando hd4780 e da domani si apra un thread ufficiale...
chi è daccordo con noi lo posti
grazie
quotone
Ma che senso ha fare uscire una gpu così costosa solo per avere le prestazioni della 9800GX2? Quando cioè quelle prestazioni le hai già garantite comunque con margini di guadagno superiori?
Nessuno. D'altro canto gli errori non hanno mai molto senso... :D
Come ha già detto Mercuri0 lanciare la GX2, che ha tolto l'effetto sorpresa a G200, non è stata proprio una genialata.
Oltretutto, contrariamente a quanto si riteneva in un primo momento, i 55nm erano lì pronti e disponibili e una eventuale dual G92 a 55nm avrebbe sicuramente prestazioni superiori alla 280.
Beh, come ha confermato yossarian, GX2 sarebbe comunque bottlenecked pure a millemila MHz. Inoltre i 55nm non sono proprio lì. Se avessero potuto lanciare ora le GTX+ l'avrebbero fatto. Che siano già uscite le rece è solo damage control. ;)
Che senso ha introdurre delle modifiche architetturali inutili nei giochi odierni o alzare l'ottimo rapporto ALU:TEX di G92 quando è ovvio che queste modifiche avrebbero occupato spazio senza portare nessun giovamento? Non bastava rielaborare G92 a 55nm per i giochi?
Per me è un progetto nato per altri scopi e cioè per superare i limiti di capacità computazionale in ambiti gp di G80/G92. Che poi ATi riesca a fare anche meglio in metà dello spazio è, purtroppo per Nvidia, un altro discorso.
Sia ATI che NVIdia, a questo giro, non potevano stravolgere l'architettura precedente, dunque si sono "arrangiate" con quello che avevano.
Per non aumentare il rapporto ALU:TEX NVidia poteva percorrere 3 strade:
- aumentare le TMU di pari passo con gli SP, ma un chip ancora più grosso di quello credo che sia impossibile da produrre in serie.
- aumentare meno gli SP, ma si è visto che già i 112SP in più sono abbastanza GGF, figuriamoci se ne avessero messi meno (vedi GTX260).
- usare le GDDR5 ed evitare il crossbar a 512bit e le probabilmente inutili 32ROPs (anche loro infatti mi sembrano abbastanza GGF), per fare spazio a più TMU, ma evidentemente il tutto avrebbe portato dei ritardi nella presentazione, a quel punto tanto valeva attendere i 55nm.
Per il resto G200 è imho una gpu-pezza. Ossia NVidia sapeva che un chip del genere era adeguato solo ai 55nm, ma ha voluto evitare di rimanere fuori dal mercato per troppo tempo lanciandone comunque la versione a 65nm, anche a costo di possibili figuracce.
Tornando alla HD4870, ecco le versioni di HIS:
http://img3.imagebanana.com/img/gtt3grti/thumb/his_hd_4870a_2_dh_fx57.jpg (http://img3.imagebanana.com/view/gtt3grti/his_hd_4870a_2_dh_fx57.jpg)
http://img3.imagebanana.com/img/u3n01vb6/thumb/his_hd_4870a_dh_fx57.jpg (http://img3.imagebanana.com/view/u3n01vb6/his_hd_4870a_dh_fx57.jpg)
e di Gigabyte:
http://img3.imagebanana.com/img/bbn5wn8f/thumb/gigabyte_radeonhd4870a_dh_fx57.jpg (http://img3.imagebanana.com/view/bbn5wn8f/gigabyte_radeonhd4870a_dh_fx57.jpg)
mircocatta
24-06-2008, 20:29
cmq ho tratto una mia conclusione: ati con le sue serie di schede video ha continuato il suo normale sviluppo, ogni serie ha un boost prestazionale dalla top della serie precedente che supera il 50%...
nvidia invece ha dormito sugli allori della serie 8, facendone un refresh, con pochi miglioramenti, e non contenta, ci ha fatto la serie 9, ed è qui che ha sbagliato,la serie 9 non doveva esistere. doveva fare subito un chip come gt200, non avrebbe avuto rivali nel breve termine.
nvidia si adatta molto lentamente, di solito lei prima fa il mostro, poi lo perfeziona...gli è andata bene grazie al mostro che si chiama g80, ma a sto giro non è riuscito a fare il "mostro" che distanzia tutti, sopratutto perchè ati sfida con le doppie gpu
nvidia ora si caga sotto perchè non sa più che fare, la doppia gpu non se la può permettere, si trova con un chip abnorme poco redditizio, che quando lo porterà a 55nm sarà troppo tardi, ATI farà uscire da lì a poco la serie 58xx..
non credete anche voi? :asd:
appleroof
24-06-2008, 20:33
cut
Poi non è che AMD è "buona" e nVidia è "cattiva", eh. E' la condizione del mercato che costringe AMD ad avere atteggiamenti più orientati al vantaggio degli utenti.
quoto, fuori dai cori da stadio è una cosa di una semplicità disarmante
Secondo me è la 9800GX2 ad essere "fuori posto" in tutta la vicenda. E' dalla 8800GT compresa (a causa del nome e della successiva svalutazione della serie 9) che nVidia sembra avere difficoltà a chiarire la sua roadmap... Inoltre mi sembra che nVidia non possa proprio tollerare di perdere la sua immagine di "quelli che ce l'hanno più duro" neanche per un mese, vedi la 8800GT uscita prematuramente, la 9800GX2, o la 9800GTX+.
cut
quoto anche qui (quanto al ce l'ho più duro è proprio anche di Ati -ed Intel, e Amd ecc-: ricordi la x1900 a sei settimane da x1800, per esempio? Solo che a questo giro Ati non si è potuta "adeguare", con r600/rv670)
concordo alla grande anche io...
anzi lanciamo un appello ai moderatori in modo che questo diventi aspettando hd4780 e da domani si apra un thread ufficiale...
chi è daccordo con noi lo posti
grazie
e quoto anche qui :p
secondo voi con ad esempio un q9450@default la 4870 sarebbe cpu limited? e se si, a quanto sarebbe libera da bottleneck da cpu? :D
albert75
24-06-2008, 21:02
secondo voi con ad esempio un q9450@default la 4870 sarebbe cpu limited? e se si, a quanto sarebbe libera da bottleneck da cpu? :D
probabilmente si...............fatti un bel e6420 come il mio e stai tranquillo:D
probabilmente si...............fatti un bel e6420 come il mio e stai tranquillo:D
esatto! con il q9450 di sicuro sei cpu-limited! :rolleyes:
albert75
24-06-2008, 21:14
esatto! con il q9450 di sicuro sei cpu-limited! :rolleyes:
:sofico:
maaaaaaaaaaaammmmmmmmmmmmmmmmmmmmmmaaaaaaaaaaaaaaaaaaaaaaaaaaaaa
come gggggggoooooooooooooooooooooooooDDDDDDDDDDDDDDDOOOOOOOOOOOOOOOOOOOOOOOOOOOOO
non vedo l'ora di metterla nel mio case ì.....aaaaaaahhhhhhhh si si siiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiii:D :D
michelgaetano
24-06-2008, 21:15
almeno 2,8 - 3 ghz servono :D
secondo voi con ad esempio un q9450@default la 4870 sarebbe cpu limited? e se si, a quanto sarebbe libera da bottleneck da cpu? :D
secondo me no
quoto!! immagina che prestazioni potrebbe avere RV770 a 1GHZ! :read: :fagiano:
sto costruendo un phase con anche un adattatore x gpu:D
vi accontenterò mandando questa bestia attorno a 1 ghz:cool:
-noxius-
24-06-2008, 21:27
quoto, fuori dai cori da stadio è una cosa di una semplicità disarmante
Questa non l'ho capita .. quali cori da stadio ?
Se per te allora 220 euro per una gtx è un ottimo prezzo il fatto che ancora non te ne sia presa una mi fa pensare ..
Athlon 64 3000+
24-06-2008, 21:30
vedendo i dati del consumo della HD 4870 sembra che dovrebbe consumare quasi quando la mia ex HD 2900XT cosa che ritengo improbabile perchè se andata a vedere il dissipatore della HD 4870 oltre ad essere un po' più piccolo,ha anche neno heatpipe e sopratutto in rame sono fatte le heatpipe e la base in appoggio sulla gpu mentre il resto del dissipatore e in alluminio quando sapete tutti che il dissipatore di R600 è completamente in rame.
L'articolo c'è oggi a mezzanotte su HWUpgrade?
Enochian
24-06-2008, 21:40
secondo voi con ad esempio un q9450@default la 4870 sarebbe cpu limited? e se si, a quanto sarebbe libera da bottleneck da cpu? :D
Non so io mi sono preso un E8400 da spingere a 4 Ghz per evitare questa eventualità.
vedendo i dati del consumo della HD 4870 sembra che dovrebbe consumare quasi quando la mia ex HD 2900XT cosa che ritengo improbabile perchè se andata a vedere il dissipatore della HD 4870 oltre ad essere un po' più piccolo,ha anche neno heatpipe e sopratutto in rame sono fatte le heatpipe e la base in appoggio sulla gpu mentre il resto del dissipatore e in alluminio quando sapete tutti che il dissipatore di R600 è completamente in rame.
Ma infatti mi pare una mezza fesseria. Basta confrontare i dati di consumo delle altre schede con quelli di HWU della recensione breve di RV770... ;)
gioco a 1280 la configurazione è quella in firma,ora sono con una 7600gs,la 1950 è fusa... prendendo la 4870 da 512 è impossibile che sia limitato dalla mem alla mia risoluzione no?
dato che lunico gioco che potrebbe dare problemi è,lui,senza che lo dico,lo sapete dai, alla mia ris,senza filtri sarebbe giocabile in VH senza cali sotto i 20/25 fps per intero?
ah,lalimentatore finche non muore non lo cambio:D
L'articolo c'è oggi a mezzanotte su HWUpgrade?
penso esca alle 3 di pomeriggio di domani,correggetemi se sbaglio...
Foglia Morta
24-06-2008, 21:49
gioco a 1280 la configurazione è quella in firma,ora sono con una 7600gs,la 1950 è fusa... prendendo la 4870 da 512 è impossibile che sia limitato dalla mem alla mia risoluzione no?
dato che lunico gioco che potrebbe dare problemi è,lui,senza che lo dico,lo sapete dai, alla mia ris,senza filtri sarebbe giocabile in VH senza cali sotto i 20/25 fps per intero?
ah,lalimentatore finche non muore non lo cambio:D
dico che lo cambierai molto presto :D
Nessuno. D'altro canto gli errori non hanno mai molto senso... :D
Come ha già detto Mercuri0 lanciare la GX2, che ha tolto l'effetto sorpresa a G200, non è stata proprio una genialata.
Beh, come ha confermato yossarian, GX2 sarebbe comunque bottlenecked pure a millemila MHz. Inoltre i 55nm non sono proprio lì. Se avessero potuto lanciare ora le GTX+ l'avrebbero fatto. Che siano già uscite le rece è solo damage control. ;)
Sia ATI che NVIdia, a questo giro, non potevano stravolgere l'architettura precedente, dunque si sono "arrangiate" con quello che avevano.
Per non aumentare il rapporto ALU:TEX NVidia poteva percorrere 3 strade:
- aumentare le TMU di pari passo con gli SP, ma un chip ancora più grosso di quello credo che sia impossibile da produrre in serie.
- aumentare meno gli SP, ma si è visto che già i 112SP in più sono abbastanza GGF, figuriamoci se ne avessero messi meno (vedi GTX260).
- usare le GDDR5 ed evitare il crossbar a 512bit e le probabilmente inutili 32ROPs (anche loro infatti mi sembrano abbastanza GGF), per fare spazio a più TMU, ma evidentemente il tutto avrebbe portato dei ritardi nella presentazione, a quel punto tanto valeva attendere i 55nm.
Per il resto G200 è imho una gpu-pezza. Ossia NVidia sapeva che un chip del genere era adeguato solo ai 55nm, ma ha voluto evitare di rimanere fuori dal mercato per troppo tempo lanciandone comunque la versione a 65nm, anche a costo di possibili figuracce.
Tornando alla HD4870, ecco le versioni di HIS:
http://img3.imagebanana.com/img/gtt3grti/thumb/his_hd_4870a_2_dh_fx57.jpg (http://img3.imagebanana.com/view/gtt3grti/his_hd_4870a_2_dh_fx57.jpg)
http://img3.imagebanana.com/img/u3n01vb6/thumb/his_hd_4870a_dh_fx57.jpg (http://img3.imagebanana.com/view/u3n01vb6/his_hd_4870a_dh_fx57.jpg)
e di Gigabyte:
http://img3.imagebanana.com/img/bbn5wn8f/thumb/gigabyte_radeonhd4870a_dh_fx57.jpg (http://img3.imagebanana.com/view/bbn5wn8f/gigabyte_radeonhd4870a_dh_fx57.jpg)
Ma che hanno attaccato nella parte posteriore della scheda gygabyte !!! :asd:
C'è una porta hdmi su una staffa supplementare, ma a che serve ? :mbe:
Sarà semplicemente una quarta uscita che evita l'utilizzo di un adattatore. Diventa triple-slot così he he he.
L'articolo c'è oggi a mezzanotte su HWUpgrade?
ma poveracci vuoi farli sgobbare anche di notte :D
michelgaetano
24-06-2008, 22:04
dico che lo cambierai molto presto :D
Gli implode tutto con quuel coso mi sa :D
ma poveracci vuoi farli sgobbare anche di notte :D
si se sono degli appassionati!
dico che lo cambierai molto presto :D
ma lol hai risposto all'unica domanda che fanno tutti di cui non volevo sentire la risposta!:D
si se sono degli appassionati!
LOL i test li fanno appena gli arriva la scheda non lultima oretta prima dello scadere dellNDA :D
lor68pdit
24-06-2008, 22:15
sono daccordo con te, 50pp di speculazioni, sarebbe opportuno chiuderlo e ricominciare uno nuovo quando la vga è disponibile, questo più che altro è un aspettando HD4870
concordo alla grande anche io...
anzi lanciamo un appello ai moderatori in modo che questo diventi aspettando hd4780 e da domani si apra un thread ufficiale...
chi è daccordo con noi lo posti
grazie
edit
quotone
infatti, potevano aspettare di aprire un TU, ogni volta vengo qui e trovo praticamente un "aspettando" :stordita:
(Mia Opinione)
I thread ufficiali si dovrebbero aprire lo stesso giorno in cui si lanciano se schede. ;)
Vi comoda meglio ora il titolo? O devo fare qualcos'altro?
Vi comoda meglio ora il titolo? O devo fare qualcos'altro?
non dirglielo potrebbero approfittarsi :fiufiu:
:ciapet:
albert75
24-06-2008, 22:52
si ma tra un ora cambialo:D :D :D
Vi comoda meglio ora il titolo? O devo fare qualcos'altro?
lol ormai questo thread verrà ricordato come quello che ha cambiato più titoli in assoluto... :asd:
(guarda che poi domani devi aprire il nuovo: Thread Ufficiale Radeon HD4870) :read:
si ma tra un ora cambialo:D :D :D
no tra un'ora ne deve aprire uno nuovo! :D :D
(guarda che poi domani devi aprire il nuovo: Thread Ufficiale Radeon HD4870) :read:E dovrà farlo proprio lor68pdit. Guai se lo apre uno di quello che si sono lamentati finora postando in maniera piuttosto sterile. I thread ufficiali sono fatti in maniera tale che si possa leggere tutto il succo nel post principale, che per l'appunto riassume tutti gli altri.
albert75
24-06-2008, 23:00
no tra un'ora ne deve aprire uno nuovo! :D :D
;)
...........VOGLIOOOOOOOOOO STA SCHEDAAAAAAAAAAAAA:muro: :muro:
devo giocare a crysis assassin creed mass effect flat out ultimate carnage alan wake episode 2 e episode....rigiocarmi bioshock......troppecose e poi devo anche andare a lavoro pittare casa fare la spesa uscire con la ragazza...con gli amici..organizzare le vacanze...ca@@o ca@@o
gianni1879
24-06-2008, 23:10
Vi comoda meglio ora il titolo? O devo fare qualcos'altro?
mmmmm fammi pensare :asd:
gianni1879
24-06-2008, 23:21
quoto anche qui (quanto al ce l'ho più duro è proprio anche di Ati -ed Intel, e Amd ecc-: ricordi la x1900 a sei settimane da x1800, per esempio? Solo che a questo giro Ati non si è potuta "adeguare", con r600/rv670)
r520 subì durante il suo percorso una serie di ritardi tecnici, r580 invece seguì la sua roadmap senza problemi, mica potevano rimandare proprio lei.
Se ti ricordi all'uscita di x1800xt uscì subito dopo la 7800gtx512 in versione pompata e overvoltata rispetto alla versione da 256mb, solo per dimostrare che avevano la vga più veloce, hwupgrade intolava ai tempi "il ritorno del re"
mmmmm fammi pensare :asd:
Vi riferite al nuovo titolo del thread?
Se è cosi metterei ... tanti piccoli e frignoni ... :D
hardstyler
25-06-2008, 00:05
Ma come niente news? Siamo il 25! Non se ne saran mica dimenticati vero? Muoversi!
Vi riferite al nuovo titolo del thread?
Se è cosi metterei ... tanti piccoli e frignoni ... :D
:D :D :D :D :D
e poi quello della GTX280 HAL stesso lo rinomina come GRANDE GROSSA e INUTILE. :)
<^MORFEO^>
25-06-2008, 00:16
:D :D :D :D :D
e poi quello della GTX280 HAL stesso lo rinomina come GRANDE GROSSA e INUTILE. :)
:eek:
Non ti credo.... :ciapet:
mircocatta
25-06-2008, 00:39
ragazzi ho visto che la 9800gtx+ ha risposto alla grande alla 4850, ma la 4870 rimane sopra come prestazioni e uguale a prezzo?
ora non so più cosa acquistare :doh: :muro: se la 9800gtx+ (che è finalmente a 55nm per questo mi alletta) oppure la 4870.... oppure, dipende quando la faranno, la gtx280 a 55nm!!!!!!!!!! (se sono stati così veloci a fare una 9800gtx a 55nm,perchè non lo devono essere anche per quanto riguarda la gtx280?)
masterintheuniverse
25-06-2008, 00:44
kakkio siamo al 25....voglio il thread della 4870!!! lo voglio adesso!!!
albortola
25-06-2008, 00:48
ragazzi ho visto che la 9800gtx+ ha risposto alla grande alla 4850, ma la 4870 rimane sopra come prestazioni e uguale a prezzo?
ora non so più cosa acquistare :doh: :muro: se la 9800gtx+ (che è finalmente a 55nm per questo mi alletta) oppure la 4870.... oppure, dipende quando la faranno, la gtx280 a 55nm!!!!!!!!!! (se sono stati così veloci a fare una 9800gtx a 55nm,perchè non lo devono essere anche per quanto riguarda la gtx280?)
Suvvia, veloci..6 mesi, contando che 9800gtx=8800gts
<^MORFEO^>
25-06-2008, 00:56
ragazzi ho visto che la 9800gtx+ ha risposto alla grande alla 4850, ma la 4870 rimane sopra come prestazioni e uguale a prezzo?
ora non so più cosa acquistare :doh: :muro: se la 9800gtx+ (che è finalmente a 55nm per questo mi alletta) oppure la 4870.... oppure, dipende quando la faranno, la gtx280 a 55nm!!!!!!!!!! (se sono stati così veloci a fare una 9800gtx a 55nm,perchè non lo devono essere anche per quanto riguarda la gtx280?)
Vedo che hai un pò di confusione... :rolleyes:
Innanzitutto ti posto questo interessante articoletto proprio sulla 9800GTX+:
"The Radeon HD 4850 continues to be a better buy than NVIDIA's GeForce 9800 GTX, even if both are priced at $199. The overclocked, 55nm 9800 GTX+ manages to barely outperform the 4850 in a few titles, but loses by a larger margin in others, so for the most part it isn't competitive enough to justify the extra $30. The 4850 also uses significantly less power than the 9800 GTX+, and AMD was quick to point out that by the time the 9800 GTX+ ships that it will also have factory overclocked 4850s. That should make things even more interesting, because honestly, a factory overclocked Radeon HD 4850 is far more attractive to us than an overclocked GTX+."
Se poi vogliamo parlare di consumi:
http://images.anandtech.com/graphs/geforce9800gtxpreview_062408105205/17127.png
http://images.anandtech.com/graphs/geforce9800gtxpreview_062408105205/17128.png
(e considera che ATI non ha ancora rilasciato i software in grado di abbassare i consumi della serie 4800 e di regolare velocità ventole, OC ecc :rolleyes: )
Ora,se per te questa 9800GTX+ è una gran risposta alla 4850 non lo so... :stordita:
La 4870 in linea teorica sarà praticamente sempre sopra alla 9800GTX+, e questo escludendo l'utilizzo dei filtri perchè altrimenti le sarebbe sicuramente sempre sopra ;)
Per quanto riguarda la GTX280 a 55nm, beh, non penso che sia così facile da produrre come la 9800 a 55nm... sia per causa della maggior complessità del chip GT200, sia perchè è la prima volta che nVidia passa ai 55nm se non sbaglio e quindi deve ancora farsi l'esperienza su questa misura...
ATI invece sui 55nm è già alla seconda generazione :rolleyes:
ragazzi ho visto che la 9800gtx+ ha risposto alla grande alla 4850, ma la 4870 rimane sopra come prestazioni e uguale a prezzo?
ora non so più cosa acquistare :doh: :muro: se la 9800gtx+ (che è finalmente a 55nm per questo mi alletta) oppure la 4870.... oppure, dipende quando la faranno, la gtx280 a 55nm!!!!!!!!!! (se sono stati così veloci a fare una 9800gtx a 55nm,perchè non lo devono essere anche per quanto riguarda la gtx280?)
e te lo chiameresti risposto alla grande??!! :asd:
costa 60€ in più e va il 5% della 4850 (prendendole in molti casi con i filtri attivi) in più consumando molto di più!!
E poi che senso ha passare ai 55nm quando poi la VGA consuma di più della 65nm perchè hanno spinto le frequenze un casino??!!
A sto punto potevano occare la 65nm ed era uguale...
Io non avrei dubbi, se hai 230€ da spendere 4870, se ne hai meno 4850 (150€).
Prendere una 9800GTX ora come ora non ha senso...
masterintheuniverse
25-06-2008, 01:01
Vedo che hai un pò di confusione... :rolleyes:
Innanzitutto ti posto questo interessante articoletto proprio sulla 9800GTX+:
"The Radeon HD 4850 continues to be a better buy than NVIDIA's GeForce 9800 GTX, even if both are priced at $199. The overclocked, 55nm 9800 GTX+ manages to barely outperform the 4850 in a few titles, but loses by a larger margin in others, so for the most part it isn't competitive enough to justify the extra $30. The 4850 also uses significantly less power than the 9800 GTX+, and AMD was quick to point out that by the time the 9800 GTX+ ships that it will also have factory overclocked 4850s. That should make things even more interesting, because honestly, a factory overclocked Radeon HD 4850 is far more attractive to us than an overclocked GTX+."
Se poi vogliamo parlare di consumi:
http://images.anandtech.com/graphs/geforce9800gtxpreview_062408105205/17127.png
http://images.anandtech.com/graphs/geforce9800gtxpreview_062408105205/17128.png
(e considera che ATI non ha ancora rilasciato i software in grado di abbassare i consumi della serie 4800 e di regolare velocità ventole, OC ecc :rolleyes: )
Ora,se per te questa 9800GTX+ è una gran risposta alla 4850 non lo so... :stordita:
La 4870 in linea teorica sarà praticamente sempre sopra alla 9800GTX+, e questo escludendo l'utilizzo dei filtri perchè altrimenti le sarebbe sicuramente sempre sopra ;)
Per quanto riguarda la GTX280 a 55nm, beh, non penso che sia così facile da produrre come la 9800 a 55nm... sia per causa della maggior complessità del chip GT200, sia perchè è la prima volta che nVidia passa ai 55nm se non sbaglio e quindi deve ancora farsi l'esperienza su questa misura...
ATI invece sui 55nm è già alla seconda generazione :rolleyes:
straquoto.io ho la 2900xt da quando è uscita e spero di passare alla 4870....nn vedo l'ora...muovetevi! in jap dovrebbe già essere uscita!
E io aggiungerei (magari mi sbaglio) che la 4850 è decisamente piu orientata al futuro.Ati ha colmato il divario con nvidia con i giochi "vecchi" e secondo me ,con i futuri giochi (si spera più shader intensive, tipo bioshock ) potrebbe,dico potrebbe aumentare la forbice prestazionale.Ora i programmatori hanno una solida base su cui lavorare oltre che all hw nvidia.
Vedremo.
masterintheuniverse
25-06-2008, 01:19
basta! è da 1ora e 20 min che aspetto!!! voglio in bench! nn posso aspettare fino a domani mattina xkè altrimenmti nn dormo xkè sn curioso.se li vedo nn dormo lo stesso ma almeno so a cosa devo pensare....
masterintheuniverse
25-06-2008, 01:45
boh
mmm se ne parla la mattina per i bench allora ? ormai sono impaziente oltre ogni limite
mmm se ne parla la mattina per i bench allora ? ormai sono impaziente oltre ogni limite
Non so l'ora esatta in cui scadrá l' NDA, ma per nVidia é scaduto alle ore 15.
Andate a dormire che é tardi!!! :mad:
:Prrr:
PS: qua sono ancora le 20:56 :ciapet:
il primo bench: http://www.bilgiustam.com/512mb-ati-hd-4870rv770-1gb-geforce-9800-gx2-crysis-ve-3dmark-2006-testleri/
il primo bench: http://www.bilgiustam.com/512mb-ati-hd-4870rv770-1gb-geforce-9800-gx2-crysis-ve-3dmark-2006-testleri/
Nooooooooo
Ancora loro nooooo :cry:
Scherzo eh, é che sono olderrimi e per giunta fake.
Sono giá uscite alcune preview/review comunque, da anandtech e expreview.
Mentre tra qualche ora, il pieno piú totale. :D
Foglia Morta
25-06-2008, 07:07
Quasi sempre superiore alla GTX260 , a volte anche alla GTX 280 , recensione di Anandtech : http://www.anandtech.com/video/showdoc.aspx?i=3341&p=1
Foglia Morta
25-06-2008, 07:09
Altre 2 recensioni della 4870:
http://www.hothardware.com/Articles/ATI_Radeon_HD_4850_and_4870_RV770_Has_Arrived/?page=1
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/8162-palit-radeon-hd4870-512mb-graphics-card-review.html
Marko#88
25-06-2008, 07:22
basta! è da 1ora e 20 min che aspetto!!! voglio in bench! nn posso aspettare fino a domani mattina xkè altrimenmti nn dormo xkè sn curioso.se li vedo nn dormo lo stesso ma almeno so a cosa devo pensare....
aspetta pure allora...uscirà mai un bench all'una del mattino secondo te???:rolleyes:
un po' di calma ehi...
Foglia Morta
25-06-2008, 07:24
Pare che la gpu con 96 shader di cui parlava Orton nel 2006 sia proprio RV770 , poi hanno lavorato sulle performance/area e sono diventati 128 , poi erano "pad limited" ( in pratica non so che vuol dire ) e hanno aggiunto 2 blocchi , 160 .
Qualche caratteristica tecnica di RV770 , dallo staff di B3d:
http://forum.beyond3d.com/showpost.php?p=1181214&postcount=4723
You'll only be waiting for 2.5 hours.
Random question answering from the thread and notes on things, since I won't have anything for NDA expiry (it's already 2am here, I'm not done, and I have work in the morning sadly):
* FP16 filtering is half speed, and the samplers are limited by available interpolators (only 32 texcoords/clk) when processing INT8 at full speed
* 260mm2, 960M transistors or so
* Huge focus on area efficiency and perf/watt
* Chip was pad limited in the beginning***, so the last couple of SIMDs are value adds that weren't originally planned for. Explains the first point a little bit.
* ROPs are mostly 2x everywhere measured with MSAA and really help the chip go fast. ROP MSAA downfilter this time.
* Seems to be 64KiB L1 per sampler with huge L1 bandwidth, new design
* Finding peak rates everywhere on the chip has been easy. I've seen 1Tflop FP32, full bilinear rates and peak INT8 blend and Z-only writes (64 Zs/clock, yay!)
* GDDR5 is really what lets the chip kick some real ass
* GS perf is up compared to RV670, maybe a new (bigger) coalescing stream out cache there, and more threads in flight
* Colour cache is per ROP, same as R6
* 16KiB per SIMD shared memory + 16KiB global (not the SMX)
* All 800 SPs can do integer, fat one only for specials still. 1 FP32 MAD or 1 FP<->INT or 1 integer op/clock for all
* New caching scheme for the RF I think
* Orlando-led design but very distributed in terms of teams. Scott Hartog led, and he worked on i740 at Intel
* Over 5MiB of SRAM on-chip if you count every pool
* New UVD block with 7.1 over HDMI
* No ring bus MC, new controller nice and efficient due to new ROP design
It's the single most impressive graphics processor (and pairing with a memory technology, nice one Joe!) I've ever seen, when looked at as a whole. I don't say that lightly either, there have been some winning chips over the years.
Deeply impressive and really deserves to get ATI back on the map when it comes to performance 3D graphics. Sorry I won't have anything more filling for arch NDA expiry, go read hardware.fr, Tech Report and Morgoth's pieces if you want more data.
*** ^infinity, that's honestly the best thing ever
Mister Tarpone
25-06-2008, 07:29
tohh.. una mezza review da computerbase della 4870:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/33/#abschnitt_radeon_hd_4870_vorschau
qui la comparativa finale con i test in crossfire di 2 4850:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/26/#abschnitt_performancerating_qualitaet
qui una comparativa con i vari metodi di aa di ati e nvidia:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/5/
(che però non ho capito come li han confrontati :confused: :asd:)
adios
Brightblade
25-06-2008, 07:31
Rubate da un post su Xtremesystems :sofico:
http://anandtech.com/video/showdoc.aspx?i=3341
http://www.bjorn3d.com/read.php?cID=1301
http://www.hexus.net/content/item.php?item=13972
http://www.pcper.com/article.php?aid=581
devo ancora iniziare a leggerle.
edit. Tolti alcuni link farlocchi..
Foglia Morta
25-06-2008, 07:36
curioso di vedere se la GTX280 va a 300 euro e la GTX260 a 200 euro
Enochian
25-06-2008, 07:42
Primo prezzo italiano : 277 euro
http://www.overclockplanet.it/overclock-product_info-Ati-Vga_sapphire_ati_pci_e_hd-products_id-14884.html
Credo che il prezzo comparato sarà intorno ai 250.
Mister Tarpone
25-06-2008, 07:42
curioso di vedere se la GTX280 va a 300 euro e la GTX260 a 200 euro
certo. a breve le troveremo anche a 5€
dai dai... mi sembra ovvio che a quei prezzi non ci arriveranno mai
paolox86
25-06-2008, 07:48
Hanno un costo di produzione troppo alto, e ho impressione che anche con la revision a 55 nm costeranno sempre di più dei Radeon
paolox86
25-06-2008, 07:56
http://images.anandtech.com/reviews/video/ATI/4800/rv770vsgtxvspenryn.png
Quindi alla fine,riassumendo,la 4870 supera la GTX200 ma nn arriva ai livelli della gtx280.
Per il prezzo che ha è una bomba sicuramente.
scheda video fantastica, anche se purtroppo ha sempre come tutte le ati il problema di regolazione della ventola come per le 4850......veramente bella
paolox86
25-06-2008, 08:18
Quoto fantastica!! L'unico appunto è il consumo i idle.. ma spero che possa essere sistemato:)
halduemilauno
25-06-2008, 08:19
per chi chiedeva dei consumi...
http://www.hothardware.com/articleimages/Item1172/pw.png
http://www.hothardware.com/Articles/ATI_Radeon_HD_4850_and_4870_RV770_Has_Arrived/?page=12
Brightblade
25-06-2008, 08:24
Leggendo qua e la le rece direi ottima scheda. Per me pero' (considerato il resto del sistema, l'ali e la res a cui gioco) penso che la scheda ottimale sia la 4850+ di cui si e' parlato ieri, se costasse max una 20ina di euro in piu' rispetto alla versione base, ed avesse effettivamente un sistema di dissipazione migliorato, che garantisse magari anche un buon margine di oc, mia al lancio.
goldorak
25-06-2008, 08:30
curioso di vedere se la GTX280 va a 300 euro e la GTX260 a 200 euro
Ma che le svendono ? :stordita:
Foglia Morta
25-06-2008, 08:34
Ma che le svendono ? :stordita:
Ma ieri si diceva che le 4870 erano disponibili a 215 euro in Italia , e nemmeno sono uscite. Cosa vuoi che valgano le GTX260 - GTX280 ?
Andrea.92
25-06-2008, 08:40
Primo prezzo italiano : 277 euro
http://www.overclockplanet.it/overclock-product_info-Ati-Vga_sapphire_ati_pci_e_hd-products_id-14884.html
Credo che il prezzo comparato sarà intorno ai 250.
Io spero anche meno di 250, e poi c'è da considerare che questa a 277 euro è overcloccata (la mem è a 3.9 ghz)...
io spero in un 220-230 al lancio...
lor68pdit
25-06-2008, 16:04
Uscita 4870 e già ordinate!!!!
http://immagini.p2pforum.it/out.php/i337147_hd4870pcie512gddr5liteboxcard.jpg
HackaB321
25-06-2008, 16:05
:eekk: :asd:
http://img106.imageshack.us/img106/2971/img002365720a6c016eo5.th.png (http://img106.imageshack.us/my.php?image=img002365720a6c016eo5.png)
con i filtri va come una 9800Gx2
ninja750
25-06-2008, 16:08
270€ su ebay.. i prezzi per ora mi sembrano ALTI visto che si tratta delle 512mb
Konrad76
25-06-2008, 16:08
Uscita 4870 e già ordinate!!!!
Bene bene...mi piacerebbe fare qualche test per paragonare il crossfire;)
Konrad76
25-06-2008, 16:09
Uscita 4870 e già ordinate!!!!
Ops...doppio post.....sorry...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.