View Full Version : [THREAD UFFICIALE] Geforce 9800GTX + / GTS250
Pagine :
1
2
3
[
4]
5
6
7
8
9
10
11
12
13
14
Fire Hurricane
04-07-2008, 16:37
http://www.dinoxpc.com/News/news.asp?ID_News=14777&What=News&tt=GPU+NVIDIA+compatibili+DirectX+10.1+a+inizio+2009
http://www.tomshw.it/news.php?newsid=14622
:mc:
michelgaetano
04-07-2008, 16:41
http://www.dinoxpc.com/News/news.asp?ID_News=14777&What=News&tt=GPU+NVIDIA+compatibili+DirectX+10.1+a+inizio+2009
http://www.tomshw.it/news.php?newsid=14622
:mc:
Ma se quelle 2 le han postate proprio in seguito alla notizia riportata dal Tarpo lol
halduemilauno
04-07-2008, 17:02
mo so ca**i !
cmq è una news non è sentito dire, la trovi tranquiallemtne nei portali.
http://www.comicus.it/images/rubriche/mc/080504/hulk5.jpg
per parcondico che qualcuno posti Hellboy.
:D
Mister Tarpone
04-07-2008, 17:03
per parcondico che qualcuno posti Hellboy.
:D
bella questa :asd:
michelgaetano
04-07-2008, 17:06
per parcondico che qualcuno posti Hellboy.
:D
Oddio bellissima :sofico:
Fire Hurricane
04-07-2008, 17:16
Hulk schiaccia hellboy
michelgaetano
04-07-2008, 17:17
Hulk schiaccia hellboy
Giustamente se non ti dimostri il solito fanboy non sei contento.
gianni1879
04-07-2008, 17:29
per parcondico che qualcuno posti Hellboy.
:D
http://static.blogo.it/cineblog/hellboy2_cb01.jpg
tra l'altro il due :asd:
questa è un pò più cattiva
michelgaetano
04-07-2008, 17:34
Secondo me serviva un primo piano :P
comunque gennaio-febbraio 2009 usciranno anche le serie 58x0 della ati a 45nm.......:)
michelgaetano
04-07-2008, 17:41
comunque gennaio-febbraio 2009 usciranno anche le serie 58x0 della ati a 45nm.......:)
stica...
Mister Tarpone
04-07-2008, 17:43
comunque gennaio-febbraio 2009 usciranno anche le serie 58x0 della ati a 45nm.......:)
vedremo al prossimo giro chi se ne uscirà con le schede migliori........:)
Fire Hurricane
04-07-2008, 18:32
comunque gennaio-febbraio 2009 usciranno anche le serie 58x0 della ati a 45nm.......:)
linka
quindi stai dicendo che già l'anno prossimo saranno vecchie ?
ammazza asd
michelgaetano
04-07-2008, 18:37
vedremo al prossimo giro chi se ne uscirà con le schede migliori........:)
Sicuro credo che Nvidia non si farà prendere a cazzotti come ora
Sarà ATI a doversi confermare, Nvidia le rsorse le ha tutte :D
Fire Hurricane
04-07-2008, 18:38
Nvidia ora sa il potenziale di ATI
che se non sbaglio prima del lancio la attendevamo con 480 stream a 1Ghz e invece ci ha fatto la sorpresa e l'ha presa in contropiede con 800 stream.
sta volta mi sa che sta preparando la sorpresa anche Nvidia. Se adotta la politica del G92 è concorrenza amara. Tutto frequenza e chip economico. Con i filtri però la vedo dura.
vedremo al prossimo giro chi se ne uscirà con le schede migliori........:)
si vedremo per adesso le schede migliori ma non altrettanto convenienti le ha nvidia...non ha senso parlare adesso delle schede video che usciranno a gennaio febbraio....
Fire Hurricane
04-07-2008, 18:43
Nvidia infatti potrebbe uscire anche prima del 2009, altriemnti a gennaio
Mister Tarpone
04-07-2008, 18:44
Sicuro credo che Nvidia non si farà prendere a cazzotti come ora
Sarà ATI a doversi confermare, Nvidia le rsorse le ha tutte :D
già... nvidia dopo aver avuto la meglio per tanto tempo su ati alla fine si è un pò addormentata... ;)
ma non credo che si farà cogliere impreparata una seconda volta con le prossime schede.....ci scommetterei.. (spero:asd:) ;)
Mister Tarpone
04-07-2008, 18:47
si vedremo per adesso le schede migliori ma non altrettanto convenienti le ha nvidia...non ha senso parlare adesso delle schede video che usciranno a gennaio febbraio....
quoto... nel senso che non ha senso dire già da adesso quali saranno le migliori schede, non avendo quasi punte informazioni... :asd:
ma cmq credo proprio che non deluderanno ne le ati e ne le nvidia... ;)
Fire Hurricane
04-07-2008, 18:53
forse questi canadesi ritorneranno nello sgabuzzino da dove sono usciti :O
Marko#88
04-07-2008, 18:57
forse questi canadesi ritorneranno nello sgabuzzino da dove sono usciti :O
ma sinceramente, piuttosto che postare in maniera palesemente provocatoria e sopratutto inutile ai fini del 3d non è meglio evitare proprio di scrivere certe boiate?:rolleyes:
un conto è dire di essere contenti che amd si è svegliata, un conto è dire che si è sicuri che nvidia non si farà cogliere impreparata...ma post del genere non li capisco...saran le mie recenti sospensioni che mi han fatto meditare....:asd:
forse questi canadesi ritorneranno nello sgabuzzino da dove sono usciti :O
allora oggi in pvt mi hai solo fatto (nuovamente) perdere tempo.. non hai capito un accidenti dei discorsi fatti. Devo dedurre quindi che con te discutere non serva...
sospeso 10gg
>bYeZ<
yossarian
05-07-2008, 01:28
mo so ca**i !
cmq è una news non è sentito dire, la trovi tranquiallemtne nei portali.
http://www.comicus.it/images/rubriche/mc/080504/hulk5.jpg
http://www.dinoxpc.com/News/news.asp?ID_News=14777&What=News&tt=GPU+NVIDIA+compatibili+DirectX+10.1+a+inizio+2009
http://www.tomshw.it/news.php?newsid=14622
:mc:
Ma se quelle 2 le han postate proprio in seguito alla notizia riportata dal Tarpo lol
esatto; e in quella "news" c'è scritto esplicitamente "we hear"
Mercuri0
05-07-2008, 12:05
intepretando i "sentito dire" (we hear, da chi non è specificato :D), entro il Q4 '08 o, al più tardi, il Q1 '09, dovrebbe uscire una nuova architettura sm 4.1 (che GT200 non supporta) e compatibile con le gddr5 (che GT200 non supporta), fino a 2 voilte più veloce di GT200. E magari, direttamente a 55 nm.
A me fine 2008 mi sembra il tempo più indicato per versioni a 55nm del GT200, e magari anche robe come "GT202".
Sulla qualità dei prodotti si vedrà, ma sono molto scettico sul DX10.1, GDDR5, e sopratutto sul 2x le prestazioni di GT200. E ultimamente la mia PDVP (palla di vetro personale) ha funzionato benino ;)
A meno che nVidia non provi a tirar fuori la nuova generazione "DX11" prima possibile, cestinando in fretta il GT200. (GT200B in autunno e nuova generazione in inverno? Vuole fare un salasso a sé e ai patner?)
La maggior priorità di nVidia ora non è "superare" AMD, ma riorganizzare la sua line-up, i suoi chip, e la sua roadmap in modo da non ripetere tutto quello che è successo dalla 8800GT in poi, perché sta facendo fallire i suoi patner.
Inoltre allineare la sua strategia alla "nuova strategia" di AMD. Ho capito che nVidia è nVidia, ma dover coprire con 2/3 chip le fasce di mercato che AMD copre con uno solo, non le conviene proprio, sia finanziarmente sia come prospettive e tempi di R&D.
Nella mia PDVP vedo soluzioni a 55nm derivati dal GT200 qualche settimana prima di "RV870" o come si chiamerà l'ultima incarnazione di R600.
Sulle GDDR5 entro l'anno la vedo dura, ma a nVidia servirebbero davvero tanto.
alex oceano
05-07-2008, 12:12
alloara entro la fine del 2008 abbassamento dei prezzi più novità a volonta troveremo prezzi più concorrenziali rispetto ad adesso ...
yossarian
05-07-2008, 16:38
A me fine 2008 mi sembra il tempo più indicato per versioni a 55nm del GT200, e magari anche robe come "GT202".
Sulla qualità dei prodotti si vedrà, ma sono molto scettico sul DX10.1, GDDR5, e sopratutto sul 2x le prestazioni di GT200. E ultimamente la mia PDVP (palla di vetro personale) ha funzionato benino ;)
A meno che nVidia non provi a tirar fuori la nuova generazione "DX11" prima possibile, cestinando in fretta il GT200. (GT200B in autunno e nuova generazione in inverno? Vuole fare un salasso a sé e ai patner?)
La maggior priorità di nVidia ora non è "superare" AMD, ma riorganizzare la sua line-up, i suoi chip, e la sua roadmap in modo da non ripetere tutto quello che è successo dalla 8800GT in poi, perché sta facendo fallire i suoi patner.
Inoltre allineare la sua strategia alla "nuova strategia" di AMD. Ho capito che nVidia è nVidia, ma dover coprire con 2/3 chip le fasce di mercato che AMD copre con uno solo, non le conviene proprio, sia finanziarmente sia come prospettive e tempi di R&D.
Nella mia PDVP vedo soluzioni a 55nm derivati dal GT200 qualche settimana prima di "RV870" o come si chiamerà l'ultima incarnazione di R600.
Sulle GDDR5 entro l'anno la vedo dura, ma a nVidia servirebbero davvero tanto.
potrebbe farlo: se passasse a 55 nm, abbandonasse le alu a 64 bit a fecesse uno shader core tutto a fp32, potrebbe aumentare di molto il numero di fpu e di tmu. Certo, a quel punto, si farebbero dei passi indietro rispetto a CUDA e al progetto gpgpu; però, con l'architettura scelta di nVidia, non ci sono molte alternative, poichè ogni aggiunta di gruppi di unità di calcolo porta via uno spazio notevole, tra registri, dispositivi e circuiti di controllo e trasmissione.
appleroof
05-07-2008, 16:50
intepretando i "sentito dire" (we hear, da chi non è specificato :D), entro il Q4 '08 o, al più tardi, il Q1 '09, dovrebbe uscire una nuova architettura sm 4.1 (che GT200 non supporta) e compatibile con le gddr5 (che GT200 non supporta), fino a 2 voilte più veloce di GT200. E magari, direttamente a 55 nm.
:sbav: :sbav:
potrebbe farlo: se passasse a 55 nm, abbandonasse le alu a 64 bit a fecesse uno shader core tutto a fp32, potrebbe aumentare di molto il numero di fpu e di tmu. Certo, a quel punto, si farebbero dei passi indietro rispetto a CUDA e al progetto gpgpu; però, con l'architettura scelta di nVidia, non ci sono molte alternative, poichè ogni aggiunta di gruppi di unità di calcolo porta via uno spazio notevole, tra registri, dispositivi e circuiti di controllo e trasmissione.
non credo che dopo aver insistito tanto tornino indietro così presto da questo punto di vista...
Foglia Morta
05-07-2008, 16:51
potrebbe farlo: se passasse a 55 nm, abbandonasse le alu a 64 bit a fecesse uno shader core tutto a fp32, potrebbe aumentare di molto il numero di fpu e di tmu. Certo, a quel punto, si farebbero dei passi indietro rispetto a CUDA e al progetto gpgpu; però, con l'architettura scelta di nVidia, non ci sono molte alternative, poichè ogni aggiunta di gruppi di unità di calcolo porta via uno spazio notevole, tra registri, dispositivi e circuiti di controllo e trasmissione.
Ma le prestazioni in FP64 avevo letto che sono molto scarse... 1/12 rispetto al FP32. Strano occupi tanto spazio , quante sono le alu a 64 bit ?
yossarian
05-07-2008, 16:54
Ma le prestazioni in FP64 avevo letto che sono molto scarse... 1/12 rispetto al FP32. Strano occupi tanto spazio , quante sono le alu a 64 bit ?
sono 30, una per ogni gruppo di 8 alu, ma ciascuna occupa almeno il doppio dello spazio di una alu fp32 (tieni conto di tutti i registri necessari e non solo dello spazio occupato dall'unità di calcolo)
Foglia Morta
05-07-2008, 16:57
sono 30, ma ciascuna occupa almeno il doppio dello spazio di una alu fp32
Edit... ho detto una boiata :D
yossarian
05-07-2008, 16:58
perdona l'ignoranza... ma come sono organizzate queste alu ? GT200 non ha 10 cluster da 24 alu ? 30 come verrebbero suddivise in 10 cluster ? Magari ricordo male io...
GT200 ha 10 cluster da 24 alu; ogni gruppo è suddiviso in 3 sottogruppi di 8 alu ciascuno; per ognuno di questi gruppi è presente una unità fp64 con i relativi registri
Foglia Morta
05-07-2008, 17:02
GT200 ha 10 cluster da 24 alu; ogni gruppo è suddiviso in 3 sottogruppi di 8 alu ciascuno; per ognuno di questi gruppi è presente una unità fp64 con i relativi registri
Ecco appunto... me lo sono ricordato un attimo dopo aver postato.
E come mai le prestazioni soo 1/12 e non 1/8 ?
Mesi fa c'era una slide nVidia che diceva che le prestazioni in FP64 sarebbero state proprio 1/8 . Recentemente invece ho letto 1/12 :confused:
yossarian
05-07-2008, 17:05
Ecco appunto... me lo sono ricordato un attimo dopo aver postato.
E come mai le prestazioni soo 1/12 e non 1/8 ?
Mesi fa c'era una slide nVidia che diceva che le prestazioni in FP64 sarebbero state proprio 1/8 . Recentemente invece ho letto 1/12 :confused:
le prestazioni teoriche sono 1/8. Il fatto che, sperimentalmente, venga fuori 1/12, probabilmente dipende da una non perfetta ottimizzazione del lavoro.
Foglia Morta
05-07-2008, 17:07
le prestazioni teoriche sono 1/8. Il fatto che, sperimentalmente, venga fuori 1/12, probabilmente dipende da una non perfetta ottimizzazione del lavoro.
Le DX11 vorranno gli sp nativi a FP64?
yossarian
05-07-2008, 17:21
Le DX11 vorranno gli sp nativi a FP64?
aspettiamo la presentazione ufficiale :D
Foglia Morta
05-07-2008, 17:31
aspettiamo la presentazione ufficiale :D
vabbe , IMHO Fast14 servirà anche a mantenere accettabili le risorse necessarie per un architettura nativa FP64 ( era poi qui che volevo arrivare :Perfido: ). Ho deciso :D
yossarian
06-07-2008, 01:06
vabbe , IMHO Fast14 servirà anche a mantenere accettabili le risorse necessarie per un architettura nativa FP64 ( era poi qui che volevo arrivare :Perfido: ). Ho deciso :D
i chip ATi supportano i calcoli in fp64 da R600, pur non avendo unità "fisiche" fp64: d'altra parte con l'architettura degli sp dei chip ATi se ne può fare a meno; al contrario, i chip nVidia per poter eseguire calcoli il fp64 hanno bisogno di avere unità dedicate (insomma, forse gli sp di R600 non sono solo grandi, grossi e fregnoni :D )
Foglia Morta
06-07-2008, 07:43
i chip ATi supportano i calcoli in fp64 da R600, pur non avendo unità "fisiche" fp64: d'altra parte con l'architettura degli sp dei chip ATi se ne può fare a meno; al contrario, i chip nVidia per poter eseguire calcoli il fp64 hanno bisogno di avere unità dedicate (insomma, forse gli sp di R600 non sono solo grandi, grossi e fregnoni :D )
Si ma io lo vedo come un buon compromesso , ma sempre di un compromesso si tratta perchè con l'architettura ATi le performance in FP64 saranno sempre una frazione delle performance in FP32. Se un domani tutte le ALU nVidia saranno a 64bit allora considerando che sono molto più ingombranti potrebbe voler dire che se vedremo gpu nVidia a 1 TeraFlop in DP allora ATi competerà con un architettura capace di 5 TeraFlop in singola precisione e una frazione in DP . Magari con Fast14 riusciranno a farle a 64bit ma con un rapporto performance/mm2 ancora vantaggioso. Era questo che volevo dire.
Ho sparato dei numeroni perchè gpu del genere si confronteranno con Larrabee e mi aspetto molto da Intel da questo punto di vista, spero arrivi presto :D
Edit: ovviamente questo me lo sono segnato: http://www.hwupgrade.it/forum/showpost.php?p=23181823&postcount=40
Magari un giorno integrerai con delle info riguardo i costi del pcb :D
Ri-Edit: ho appena letto questo articolo: http://channel.hexus.net/content/item.php?item=14206
Our sources have revealed that NVIDIA has announced another round of price cuts to its AIBs (board partners) on the 9800 GTX, GTX 260 and GTX 280 GPUs.
It’s taking a further $17 off the 9800 GTX, which on top of the $30 channel rebate and £60 reduction announced when AMD/ATI launched the HD 4800 series, gives it a net price to AIBs of $165. This makes the target selling price of $199 very achievable.
If it hasn’t already, NVIDIA is chopping $30 off the AIB price of the GTX 260, leaving it at $222. The recommended selling price is apparently $329, which seems a healthy margin.
Again, if it hasn’t already, NVIDIA is knocking $90 off the AIB price of the GTX 280 to $392. The recommended selling price for the 280 is now $499.
A quick look at Scan this morning reveals that the price cuts have already taken effect. The BFG GTX 280 is going for £351.31, down from £422.87. The XFX GTX 260 XXX is now £246.69, down from £283.52, while the cheapest 9800 GTX is a mere £129.23.
An interesting issue arising from this move is the extent to which NVIDIA is protecting its AIBs and the broader channel from these price cuts. Even if it just protects the AIBs it could be looking at an additional bill of $10 million or so and, obviously, if it extends that to the entire channel the figure will be considerably higher.
The dilemma for NVIDIA is that any channel partners who it doesn’t protect are bound to be pretty unhappy at being left with stock that is now worth considerably less than it did when they bought it.
We would like to hear from any readers who have these GPUs in stock and find out if they have been informed of these price cuts by NVIDIA and if it is giving them price protection.
Additionally, in our poll of HEXUS readers in which we asked what their next graphics card was going to be, there has so far been an overwhelming preference for AMD/ATI cards. We would like to know if these price cuts have changed your mind.
Sempre riguardo al taglio di prezzi che ha praticato nVidia , ma lì aggiungono anche i prezzi che pagherebbero gli AIB per le schede.
halduemilauno
07-07-2008, 13:25
http://forums.vr-zone.com/showthread.php?t=298200
Marko#88
07-07-2008, 13:47
http://forums.vr-zone.com/showthread.php?t=298200
abbastanza inutile senza sapere quanto costerà effettivamente...in questo momento comunque la 4850 e 4870 stanno vendendo bene, si vedrà dopo la GTX+...deve costare davvero poco per essere competitiva però...visto che le 4850 si trovano anche a 135...
http://www.trovaprezzi.it/prezzo_schede-grafiche_4850.aspx
halduemilauno
07-07-2008, 14:08
abbastanza inutile senza sapere quanto costerà effettivamente...in questo momento comunque la 4850 e 4870 stanno vendendo bene, si vedrà dopo la GTX+...deve costare davvero poco per essere competitiva però...visto che le 4850 si trovano anche a 135...
http://www.trovaprezzi.it/prezzo_schede-grafiche_4850.aspx
inutile è la scheda che hai in sign. e gli ho fatto un complimento. no questa 9800gtx+. e nemmeno la 9800gtx.
capito non confondere la non competitività con l'inutilità. oc a 800/2000/2400(e mi sono limitato) la 4850 anche oc se la beve. certo costa di + ma oc va anche di +.
inutile è tutta la paccottiglia che ati ha sfornato negli ultimi due anni prima di queste ultime due. ecco quelle sono schede inutili per non dire altro.
petru916
07-07-2008, 14:10
io le x1xxx nn le ho trovate inutili, anzi....la gtx+ è inutile imho, è uguale alla gtx tranne x i 55 nm....a questo punto uno si prende una gtx260 e fa meglio!:)
halduemilauno
07-07-2008, 14:13
io le x1xxx nn le ho trovate inutili, anzi....la gtx+ è inutile imho, è uguale alla gtx tranne x i 55 nm....a questo punto uno si prende una gtx260 e fa meglio!:)
nei due anni che dicevo mi riferivo alle serie 2000 e 3000. costano di meno e grazie ai 55nm vanno e si oc di +. certo se uno vuole.
appleroof
07-07-2008, 14:15
inutile è la scheda che hai in sign. e gli ho fatto un complimento. no questa 9800gtx+. e nemmeno la 9800gtx.
capito non confondere la non competitività con l'inutilità. oc a 800/2000/2400(e mi sono limitato) la 4850 anche oc se la beve. certo costa di + ma oc va anche di +.
inutile è tutta la paccottiglia che ati ha sfornato negli ultimi due anni prima di queste ultime due. ecco quelle sono schede inutili per non dire altro.
bè, quoto....se partiamo dall'ottica dell'utente medio, le schede si equivalgono e quel risparmio di 20/30 euro forse fà propendere per la 4850, ma in ottica oc (quella del 99% di noi e tanti altri utenti) pare sia cmq preferibile la 9800gtx+, cmq non la definirei inutile
io le x1xxx nn le ho trovate inutili, anzi....la gtx+ è inutile imho, è uguale alla gtx tranne x i 55 nm....a questo punto uno si prende una gtx260 e fa meglio!:)
si riferiva alle 2900 e alle 3800, le peggiori schede mai fatte da Ati, quanto alla 9800gtx+/gtx260, ai prezzi ventilati la differenza di prezzo è abbastanza sostanziosa
yossarian
07-07-2008, 14:45
inutile è la scheda che hai in sign. e gli ho fatto un complimento. no questa 9800gtx+. e nemmeno la 9800gtx.
capito non confondere la non competitività con l'inutilità. oc a 800/2000/2400(e mi sono limitato) la 4850 anche oc se la beve. certo costa di + ma oc va anche di +.
inutile è tutta la paccottiglia che ati ha sfornato negli ultimi due anni prima di queste ultime due. ecco quelle sono schede inutili per non dire altro.
sicuro?
Inoltre, se non ricordo male, tu eri tra quelli che consigliavano di comprare la serie 6 di nVidia piuttosto che la serie 4x0 di ATi, per via della maggior longevità dovuta al supporto allo sm3.0. Il fatto che né G9x, né GT200 supportino lo sm10.1 non può rappresentare un problema?
halduemilauno
07-07-2008, 14:49
bè, quoto....se partiamo dall'ottica dell'utente medio, le schede si equivalgono e quel risparmio di 20/30 euro forse fà propendere per la 4850, ma in ottica oc (quella del 99% di noi e tanti altri utenti) pare sia cmq preferibile la 9800gtx+, cmq non la definirei inutile
si riferiva alle 2900 e alle 3800, le peggiori schede mai fatte da Ati, quanto alla 9800gtx+/gtx260, ai prezzi ventilati la differenza di prezzo è abbastanza sostanziosa
la 9800gtx+ è a mio aviso un'ottima scheda è arrivata/arriverà un mese dopo la 4850 e paga lo scotto di non poter esser sin dall'inizio competitiva sul piano del costo perchè è spinta da sotto dalla 9800gtx cosa che non accade per la 4850 che sotto ha il vuoto + totale.
diamo il tempo che le ci vuole poi tanto si ridurrà il prezzo della 4850 e tanto se si vuole si potrà ridurre quello della 9800gtx+. avendo lo stesso pp possono avere costi molto molto simili.
se la pratica della riduzione dei prezzi la può fare chi fattura - 200 milioni al trimestre pensate che non lo possa fare chi fattura + 900 milioni al trimestre?
senza contare altre novità in arrivo.
halduemilauno
07-07-2008, 14:52
sicuro?
Inoltre, se non ricordo male, tu eri tra quelli che consigliavano di comprare la serie 6 di nVidia piuttosto che la serie 4x0 di ATi, per via della maggior longevità dovuta al supporto allo sm3.0. Il fatto che né G9x, né GT200 supportino lo sm10.1 non può rappresentare un problema?
lo shader model 3 era richiesto dai giochi, giochi che non si installavano senza esso. non mi risulta che ci siano giochi che richiedono i 10.1 altrimenti il gioco non si installa.
ricordi benissimo bei tempi quando i faziosi ati intruppavano su questo.
goldorak
07-07-2008, 14:56
inutile è la scheda che hai in sign. e gli ho fatto un complimento. no questa 9800gtx+. e nemmeno la 9800gtx.
capito non confondere la non competitività con l'inutilità. oc a 800/2000/2400(e mi sono limitato) la 4850 anche oc se la beve. certo costa di + ma oc va anche di +.
inutile è tutta la paccottiglia che ati ha sfornato negli ultimi due anni prima di queste ultime due. ecco quelle sono schede inutili per non dire altro.
Mamma mia quanto sei acido, vuoi che ti passi svariati tronchi da rosicchiare ? :fagiano:
A me non pare che le x1950pro fossero inutili visto che andavano pari pari alle 7800GTX/7900GTX con filtri abilitati.
Non mi pare che le 3870/3850 fossero inutile visto che sono dx 10.1 e hanno un antialiasing migliore delle schede verdi.
Ah si dimenticavo le schede ATI sono talmente inutili che sotto linux si mangiano vive tutte le schede della serie 88xx/98xx.
Cosi' basta, non vorrei che i tronchi d'albero che rosicchi ti strozzassero il collo. :p
yossarian
07-07-2008, 14:59
lo shader model 3 era richiesto dai giochi, giochi che non si installavano senza esso. non mi risulta che ci siano giochi che richiedono i 10.1 altrimenti il gioco non si installa.
ricordi benissimo bei tempi quando i faziosi ati intruppavano su questo.
ci stai girando intorno; i giochi che non si installavano senza lo sm3.0 non si installavano semplicemente perchè nessuno si era preso la briga di fare una path sm2.0, non perchè lo sm3.0 avesse delle feature che non potevano essere emulate, magari a velocità ridotta (ne cito una su tutte: il vertex texturing).
Allo stato attuale non esistono giochi dx10.1, ma ciò non toglie che si potrebbero verificare episodi analoghi se, ad esempio, qualcuno scrivesse codice che prevedesse solo l'utilizzo di più render target per z-ops e color ops (si può fare benissimo utilizzndo un solo render target, come avviene per le dx10, a velocità, ovviamente, molto inferiore, per via della maggior occupazione di banda e dei passaggi di rendering in più).
halduemilauno
07-07-2008, 15:07
ci stai girando intorno; i giochi che non si installavano senza lo sm3.0 non si installavano semplicemente perchè nessuno si era preso la briga di fare una path sm2.0, non perchè lo sm3.0 avesse delle feature che non potevano essere emulate, magari a velocità ridotta (ne cito una su tutte: il vertex texturing).
Allo stato attuale non esistono giochi dx10.1, ma ciò non toglie che si potrebbero verificare episodi analoghi se, ad esempio, qualcuno scrivesse codice che prevedesse solo l'utilizzo di più render target per z-ops e color ops (si può fare benissimo utilizzndo un solo render target, come avviene per le dx10, a velocità, ovviamente, molto inferiore, per via della maggior occupazione di banda e dei passaggi di rendering in più).
è come dici tu, io ero arrivato alle conclusioni. allo stato attuale non ci sono e con le dx11 previste per la seconda metà del 2009 a che prò(per una sh)star li a perder tempo per le dx10.1
cmq visto anche il peso specifico che ha nvidia non credo che ci sarà mai un gioco sviluppato in dx10.1 che se hai solo le dx10 non si installerà.
poi vedremo.
ps ci sta girano intorno Pantaleo Corvino a non cedere Mutu.
HackaB321
07-07-2008, 15:14
potrebbe farlo: se passasse a 55 nm, abbandonasse le alu a 64 bit a fecesse uno shader core tutto a fp32, potrebbe aumentare di molto il numero di fpu e di tmu. Certo, a quel punto, si farebbero dei passi indietro rispetto a CUDA e al progetto gpgpu; però, con l'architettura scelta di nVidia, non ci sono molte alternative, poichè ogni aggiunta di gruppi di unità di calcolo porta via uno spazio notevole, tra registri, dispositivi e circuiti di controllo e trasmissione.
sono 30, una per ogni gruppo di 8 alu, ma ciascuna occupa almeno il doppio dello spazio di una alu fp32 (tieni conto di tutti i registri necessari e non solo dello spazio occupato dall'unità di calcolo)
A me sembra evidente che abbiano fatto una gpu con in testa le capacità computazionali e il gp in primis. Hanno:
-Aumentato il rapporto ALU:TEX di G92 (che per i giochi attuali si era dimostrato perfetto)
-Inserito le unità in dp e raddoppiato i registri (cosa inutile nei giochi)
-Dato enorme attenzione ai consumi della scheda (cosa che francamente interessa più chi usa le schede per il gp piuttosto che un hardcore gamer, il quale sarebbe ben felice di barattare più fps in cambio di consumi un pò superiori)
Il risultato è un fallimento progettuale su tutta la linea: hanno una gpu che nei giochi va uguale ad una grande meno della metà della concorrenza (con tutto ciò che ne consegue in termini di costi di sviluppo e produzione) e nonostante tutta questa attenzione dedicata a CUDA e compagnia, resta indietro anche nei calcoli general purpose (benchè abbia recuperato parte del gap precedente).
appleroof
07-07-2008, 15:17
A me sembra evidente che abbiano fatto una gpu con in testa le capacità computazionali e il gp in primis. Hanno:
-Aumentato il rapporto ALU:TEX di G92 (che per i giochi attuali si era dimostrato perfetto)
-Inserito le unità in dp e raddoppiato i registri (cosa inutile nei giochi)
-Dato enorme attenzione ai consumi della scheda (cosa che francamente interessa più chi usa le schede per il gp piuttosto che un hardcore gamer, il quale sarebbe ben felice di barattare più fps in cambio di consumi un pò superiori)
Il risultato è un fallimento progettuale su tutta la linea: hanno una gpu che nei giochi va uguale ad una grande meno della metà della concorrenza (con tutto ciò che ne consegue in termini di costi di sviluppo e produzione) e nonostante tutta questa attenzione dedicata a CUDA e compagnia, resta indietro anche nei calcoli general purpose (benchè abbia recuperato parte del gap precedente).
....
Mister Tarpone
07-07-2008, 15:18
si riferiva alle 2900 e alle 3800, le peggiori schede mai fatte da Ati, quanto alla 9800gtx+/gtx260, ai prezzi ventilati la differenza di prezzo è abbastanza sostanziosa
quoto... veramente pessima la 2900..
A me sembra evidente che abbiano fatto una gpu con in testa le capacità computazionali e il gp in primis. Hanno:
-Aumentato il rapporto ALU:TEX di G92 (che per i giochi attuali si era dimostrato perfetto)
-Inserito le unità in dp e raddoppiato i registri (cosa inutile nei giochi)
-Dato enorme attenzione ai consumi della scheda (cosa che francamente interessa più chi usa le schede per il gp piuttosto che un hardcore gamer, il quale sarebbe ben felice di barattare più fps in cambio di consumi un pò superiori)
Il risultato è un fallimento progettuale su tutta la linea: hanno una gpu che nei giochi va uguale ad una grande meno della metà della concorrenza (con tutto ciò che ne consegue in termini di costi di sviluppo e produzione) e nonostante tutta questa attenzione dedicata a CUDA e compagnia, resta indietro anche nei calcoli general purpose (benchè abbia recuperato parte del gap precedente).
questa 9800GTX rispetto alla 8800GT come va ? oppure è meglio puntare a qualcos'altro tipo gtx260 o hd4870?
appleroof
07-07-2008, 15:24
questa 9800GTX rispetto alla 8800GT come va ? oppure è meglio puntare a qualcos'altro tipo gtx260 o hd4870?
venendo da 88gt, ti consiglierei una gtx260 o 4870
halduemilauno
07-07-2008, 15:24
....
probabilmente hanno sbagliato thread. questo è quello del g92b sempre a 55nm.
;)
appleroof
07-07-2008, 15:25
probabilmente hanno sbagliato thread. questo è quello del g92b sempre a 55nm.
;)
ma sopratutto non vedo una rece dove g200 và come 4870 (a meno che vogliamo confrontare gtx260 con 4870, cosa che andrebbe specificata ad onor del vero e cmq confronteremmo un chip in versione "castrata" con uno in versione full...:boh: )
yossarian
07-07-2008, 15:26
è come dici tu, io ero arrivato alle conclusioni. allo stato attuale non ci sono e con le dx11 previste per la seconda metà del 2009 a che prò(per una sh)star li a perder tempo per le dx10.1
cmq visto anche il peso specifico che ha nvidia non credo che ci sarà mai un gioco sviluppato in dx10.1 che se hai solo le dx10 non si installerà.
poi vedremo.
sai bene che i tempi di rilascio sono sempre da prendere con le pinze e con le dx10.1 si potrebbero avere delle facilitazioni anche per chi programma (alcune istruzioni semplificate, possibilità di implementare AA di tipo custom con deferred shading, miglioramenti a livello di global illumination).
Sul peso specifico di nVidia non ho alcun dubbio (basta vedere cosa è avvenuto con la path dx10.1 di assassin creed :D ). Certo si dovrà vedere l'evoluzione del mercato nei prossimi mesi
ps ci sta girano intorno Pantaleo Corvino a non cedere Mutu.
bastardo :D
Mister Tarpone
07-07-2008, 15:28
sai bene che i tempi di rilascio sono sempre da prendere con le pinze e con le dx10.1 si potrebbero avere delle facilitazioni anche per chi programma (alcune istruzioni semplificate, possibilità di implementare AA di tipo custom con deferred shading, miglioramenti a livello di global illumination).
ma le nvidia permettono già da tempo l'aa nei motori grafici con deferred shading...
:confused:
halduemilauno
07-07-2008, 15:32
sai bene che i tempi di rilascio sono sempre da prendere con le pinze e con le dx10.1 si potrebbero avere delle facilitazioni anche per chi programma (alcune istruzioni semplificate, possibilità di implementare AA di tipo custom con deferred shading, miglioramenti a livello di global illumination).
Sul peso specifico di nVidia non ho alcun dubbio (basta vedere cosa è avvenuto con la path dx10.1 di assassin creed :D ). Certo si dovrà vedere l'evoluzione del mercato nei prossimi mesi
bastardo :D
appunto prossimi mesi. ma questi prossimi mesi fanno avvicinare sempre + le dx11 e quindi....
no. non ve lo diamo.
:D
inutile è la scheda che hai in sign. e gli ho fatto un complimento. no questa 9800gtx+. e nemmeno la 9800gtx.
capito non confondere la non competitività con l'inutilità. oc a 800/2000/2400(e mi sono limitato) la 4850 anche oc se la beve. certo costa di + ma oc va anche di +.
inutile è tutta la paccottiglia che ati ha sfornato negli ultimi due anni prima di queste ultime due. ecco quelle sono schede inutili per non dire altro.
Ma che cavolo te ne frega della vga che ha in sign, magari ci tiene ad avere un pc silenzioso per vedere i film, poi che cavolo vuol dire paccotiglia? Che la qualità di immagine di ati e sempre su un altro pianeta ce lo dimentichiamo? Io preferisco un pugno di frame in meno e fedelta assoluta dei colori...
Poi va bhe...lo so, la serie 3000 non è stata fortunatissima.
Comunque erano schede che costavano anche poco, la 3870 era un po indietro rispeto la gt, ma anche di prezzo.
Sinceramente non capisco questo odio.
I fan boismi gratuiti proprio non li sopporto.
Gli invasati in generale mi fanno venire la pella d'oca, se hitler non avesse avuto un seguito di invasati probabilmente avremmo qualche milione di morti in meno sulla coscienza...
halduemilauno
07-07-2008, 15:45
Ma che cavolo te ne frega della vga che ha in sign, magari ci tiene ad avere un pc silenzioso per vedere i film, poi che cavolo vuol dire paccotiglia? Che la qualità di immagine di ati e sempre su un altro pianeta ce lo dimentichiamo? Io preferisco un pugno di frame in meno e fedelta assoluta dei colori...
Poi va bhe...lo so, la serie 3000 non è stata fortunatissima.
Comunque erano schede che costavano anche poco, la 3870 era un po indietro rispeto la gt, ma anche di prezzo.
Sinceramente non capisco questo odio.
I fan boismi gratuiti proprio non li sopporto.
Gli invasati in generale mi fanno venire la pella d'oca, se hitler non avesse avuto un seguito di invasati probabilmente avremmo qualche milione di morti in meno sulla coscienza...
parlava di inutilità e su quel termine ho controbattuto e soprattutto faccio presente che io sto parlando di schede video. quindi termine invasati e riferimenti a certi personaggi e loro tristi conseguenze li trovo di pessimo gusto. pessimo.
ma sopratutto non vedo una rece dove g200 và come 4870 (a meno che vogliamo confrontare gtx260 con 4870, cosa che andrebbe specificata ad onor del vero e cmq confronteremmo un chip in versione "castrata" con uno in versione full...:boh: )
:D :friend:
Cosa te ne importa che uno sia castrato o meno, scusa?
Poi non fatemi tirare fuori sempre la sotoria dei prezzi e delle dimensioni superiori del chip del 100% per prestazioni superiori del 10%....e ogni volta che lo si dice nvidia dovrebbe vergognarsi...
parlava di inutilità e su quel termine ho controbattuto e soprattutto faccio presente che io sto parlando di schede video. quindi termine invasati e riferimenti a certi personaggi e loro tristi conseguenze li trovo di pessimo gusto. pessimo.
Non volevo siguramente paragonarti a un crucco! Ci mancherebbe!
Era solo un esempio.
Ma il succo è quello...e poi sinceramente non trovo cosa ci sia di scandalso, questi sono episodi che ogni tanto bisogna tirare fuori e non dimenticarseli, se vogliamo essere sicuri che non ricapitino più...
Comunque tu dai della paccottiglia ad una scheda comunque veloce che ricopriva alla perfezione il segmento di mercato dei 199€, sinceramente non vedo cosa ci sia male in questo. Non è paccottiglia, vale quello che la paghi, e se vuoi fare un rapporto prezzo prestazioni forse era ancora meglio della gt.
HackaB321
07-07-2008, 15:53
....
D'accordo, scusate non uguale, 17% medio meno (fonte hwupgrade) che con la versione da 1Gb della 4870 diventerà 10% di differenza. E il chip è grande meno della metà. Cambia così tanto il senso del discorso?
D'accordo, scusate non uguale, 17% medio meno (fonte hwupgrade) che con la versione da 1Gb della 4870 diventerà 10% di differenza. E il chip è grande meno della metà. Cambia così tanto il senso del discorso?
figurati...stai cercando di smontargli i castelli dalle fondamenta!:D
halduemilauno
07-07-2008, 15:58
D'accordo, scusate non uguale, 17% medio meno (fonte hwupgrade) che con la versione da 1Gb della 4870 diventerà 10% di differenza. E il chip è grande meno della metà. Cambia così tanto il senso del discorso?
e chi l'ha detto che diventerà 10%? ma poi se ti/vi va di parlare del confronto gtx280/4870 che ci state a fare qui nel thread della 9800gtx+?
:boh:
e chi l'ha detto che diventerà 10%? ma poi se ti/vi va di parlare del confronto gtx280/4870 che ci state a fare qui nel thread della 9800gtx+?
:boh:
su questo però ha ragione...;)
halduemilauno
07-07-2008, 16:05
Non volevo siguramente paragonarti a un crucco! Ci mancherebbe!
Era solo un esempio.
Ma il succo è quello...e poi sinceramente non trovo cosa ci sia di scandalso, questi sono episodi che ogni tanto bisogna tirare fuori e non dimenticarseli, se vogliamo essere sicuri che non ricapitino più...
Comunque tu dai della paccottiglia ad una scheda comunque veloce che ricopriva alla perfezione il segmento di mercato dei 199€, sinceramente non vedo cosa ci sia male in questo. Non è paccottiglia, vale quello che la paghi, e se vuoi fare un rapporto prezzo prestazioni forse era ancora meglio della gt.
:boh:
siamo in un thread di schede video?
appleroof
07-07-2008, 16:06
:D :friend:
Cosa te ne importa che uno sia castrato o meno, scusa?
cut.
va bene, allora confrontiamo la gtx280 con la 4850, cosa te ne importa? ;)
D'accordo, scusate non uguale, 17% medio meno (fonte hwupgrade) che con la versione da 1Gb della 4870 diventerà 10% di differenza. E il chip è grande meno della metà. Cambia così tanto il senso del discorso?
17% medio già è una differenza non tracurabile, sul resto parleremo quando avremo le schede, ti pare? :)
yossarian
07-07-2008, 16:09
ma le nvidia permettono già da tempo l'aa nei motori grafici con deferred shading...
:confused:
bisogna vedere come; le dx10.1 prevedono che il pixel processor possa utilizzare più render target ognuno con la sua modalità di blending. Ora si fa ricorso ad un unico render target con sovrascrittura dei dati; il risultato è: prestazioni inferiori e qualità non eccelsa.
:boh:
siamo in un thread di schede video?
il mio era solo un esempio, se poi ti offendi per cosi poco o stai solo sviando non è certo colpa mia...
va bene, allora confrontiamo la gtx280 con la 4850, cosa te ne importa? ;)
17% medio già è una differenza non tracurabile, sul resto parleremo quando avremo le schede, ti pare? :)
per me va bene, tanto sono lo stesso identico chip:D , cambia solo memoria e dissi...vedi se mamma nvidia ci tenesse cosi tanto al consumatore non castrerebbe le sue schedozze...
appleroof
07-07-2008, 16:15
per me va bene, tanto sono lo stesso identico chip:D , cambia solo memoria e dissi...vedi se mamma nvidia ci tenesse cosi tanto al consumatore non castrerebbe le sue schedozze...
sei completamente fuori strada, almeno in merito al discorso con HackaB321 (e anche sul resto)
va bene, allora confrontiamo la gtx280 con la 4850, cosa te ne importa? ;)
17% medio già è una differenza non tracurabile, sul resto parleremo quando avremo le schede, ti pare? :)
17% mi pare fin troppo ottimistico, un distaccamento simile si ha solo a risoluzioni di 2500, abbastanza insignificante la cosa, visto che molti titoli a quelle res, 17%più o in meno sarebbero comunque ingiocabili...fini a 1920 difficilmente la 280 stacca più di un 10% fonte hwupgrade...
sei completamente fuori strada, almeno in merito al discorso con HackaB321 (e anche sul resto)
e perchè sarei furi strada anche sul resto?
appleroof
07-07-2008, 16:16
17% mi pare fin troppo ottimistico, un distaccamento simile si ha solo a risoluzioni di 2500, abbastanza insignificante la cosa, visto che molti titoli a quelle res, 17%più o in meno sarebbero comunque ingiocabili...fini a 1920 difficilmente la 280 stacca più di un 10% fonte hwupgrade...
sei completamente fuori strada, almeno in merito al discorso con HackaB321 (e anche sul resto)
(ti ho anche mostrato come si usa il multiquote :D )
HackaB321
07-07-2008, 16:18
e chi l'ha detto che diventerà 10%? ma poi se ti/vi va di parlare del confronto gtx280/4870 che ci state a fare qui nel thread della 9800gtx+?
:boh:
Lo dice il fatto, evidentissimo per chi lo vuole vedere, che con 512Mb la 4870 è framebuffer limited ad alte risoluzioni.
E comunque, visto che lo chiedi, la differenza, secondo alcune recensioni, è già adesso il 10%. Ad esempio
http://www.hardware.fr/articles/725-22/dossier-amd-radeon-hd-4870-4850.html
Scusate l'OT (anche se non capisco perchè lo dici solo a me visto che sono 2 pagine di, peraltro interessantissimo, OT:D )
halduemilauno
07-07-2008, 16:19
il mio era solo un esempio, se poi ti offendi per cosi poco o stai solo sviando non è certo colpa mia...
ma non è una questione di offesa. hai fatto riferimenti completamente fuori luogo. lo capisci ora?
cmq riprendiamo a parlare di schede video.
yossarian
07-07-2008, 16:20
per me va bene, tanto sono lo stesso identico chip:D , cambia solo memoria e dissi...vedi se mamma nvidia ci tenesse cosi tanto al consumatore non castrerebbe le sue schedozze...
se avessero rese del 100% o, comunque, molto più elevate delle attuali, non si divertirebbero a tirare fuori chip integri per poi castrarli e venderli ad un prezzo ridotto; si limiterebbero a vendere tutti chip interi ad un prezzo inferiore rispetto all'attuale, così tutti potrebbero avere una 280GTX ad un prezzo più basso di quello odierno. Oppure, al massimo si limiterebbero a modificare le frequenze di funzionamento
appleroof
07-07-2008, 16:21
e perchè sarei furi strada anche sul resto?
sempre ricordandoti l'uso del multiquote, HackaB321 mi parlava di un chip (g200) che và uguale ad un altro (rv770). Ebbene se questa cosa è vera se confrontiamo 4870 con gtx260, allo stato, non è vera se confrontiamo 4870 con gtx280, sempre allo stato
ora, se tu mi parli in assoluto di prestazioni (perchè "va uguale", "va meno", "va più" di quello si parla) non è corretto, e l'ho fatto notare (tranne poi che a volte le percentuali assumono rilevanza opposta a seconda dei casi, a volte contano nulla, altre volte -sempre quelle- fanno una differenza abissale :asd: )
quanto a schede castrate (con un concetto in senso lato, riferendosi a tutta la scheda oppure solo al chip: rv770 della 4850 è la versione meno prestante di quella presente su 4870) ecc, ci sono in casa Nvidia (o se preferisci mamma nvidia) e da papà Ati, ecco perchè eri completamente fuoristrada
Mister Tarpone
07-07-2008, 16:23
bisogna vedere come; le dx10.1 prevedono che il pixel processor possa utilizzare più render target ognuno con la sua modalità di blending. Ora si fa ricorso ad un unico render target con sovrascrittura dei dati; il risultato è: prestazioni inferiori e qualità non eccelsa.
cmq è sempre meglio che non poterlo attivare.
le prestazioni vanno benone.. dato che riesco ad attivarlo io con una 96GT...figuriamoci chi ha una gts 512 o una GTX 260-280..
per quanto riguarda la qualità è buona... bioshock, unreal 3, gow, mass effect ecc con i filtri attivi migliorano parecchio come grafica :oink: ;)
appleroof
07-07-2008, 16:23
se avessero rese del 100% o, comunque, molto più elevate delle attuali, non si divertirebbero a tirare fuori chip integri per poi castrarli e venderli ad un prezzo ridotto; si limiterebbero a vendere tutti chip interi ad un prezzo inferiore rispetto all'attuale, così tutti potrebbero avere una 280GTX ad un prezzo più basso di quello odierno. Oppure, al massimo si limiterebbero a modificare le frequenze di funzionamento
sai meglio di me che è un'utopia e commercialmente non avrebbe alcun senso, nè per Nvidia, nè per qualunque altra azienda (nonostante mi pare tu alluda a rv770 alla fine del post....)
Lo dice il fatto, evidentissimo per chi lo vuole vedere, che con 512Mb la 4870 è framebuffer limited ad alte risoluzioni.
E comunque, visto che lo chiedi, la differenza, secondo alcune recensioni, è già adesso il 10%. Ad esempio
http://www.hardware.fr/articles/725-22/dossier-amd-radeon-hd-4870-4850.html
Scusate l'OT (anche se non capisco perchè lo dici solo a me visto che sono 2 pagine di, peraltro interessantissimo, OT:D )
appunto, bisogna poi vedere quanto sarà conveniente il modello da un gb....
ma non è una questione di offesa. hai fatto riferimenti completamente fuori luogo. lo capisci ora?
cmq riprendiamo a parlare di schede video.
Se non ti piace come scrivo segnalami
se avessero rese del 100% o, comunque, molto più elevate delle attuali, non si divertirebbero a tirare fuori chip integri per poi castrarli e venderli ad un prezzo ridotto; si limiterebbero a vendere tutti chip interi ad un prezzo inferiore rispetto all'attuale, così tutti potrebbero avere una 280GTX ad un prezzo più basso di quello odierno. Oppure, al massimo si limiterebbero a modificare le frequenze di funzionamento
integri nel senso, che è integra la parte non castrata...
sempre ricordandoti l'uso del multiquote, HackaB321 mi parlava di un chip (g200) che và uguale ad un altro (rv770). Ebbene se questa cosa è vera se confrontiamo 4870 con gtx260, allo stato, non è vera se confrontiamo 4870 con gtx280, sempre allo stato
ora, se tu mi parli in assoluto di prestazioni (perchè "va uguale", "va meno", "va più" di quello si parla) non è corretto, e l'ho fatto notare (tranne poi che a volte le percentuali assumono rilevanza opposta a seconda dei casi, a volte contano nulla, altre volte -sempre quelle- fanno una differenza abissale :asd: )
quanto a schede castrate (con un concetto in senso lato, riferendosi a tutta la scheda oppure solo al chip: rv770 della 4850 è la versione meno prestante di quella presente su 4870) ecc, ci sono in casa Nvidia (o se preferisci mamma nvidia) e da papà Ati, ecco perchè eri completamente fuoristrada
Chissa perchè le percentuali in cui stacca di più sono quelle che contano...
poi perchè dici che 260 e 4870 vanno uguale che non è vero?:D
yossarian
07-07-2008, 16:33
sai meglio di me che è un'utopia e commercialmente non avrebbe alcun senso, nè per Nvidia, nè per qualunque altra azienda (nonostante mi pare tu alluda a rv770 alla fine del post....)
commercialmente non ha senso avere chip identici volutamente castrati, poichè dovrei venderli ad un prezzo ridotto pur costandomi, se mi va bene, la stessa cifra. Discorso diverso è se dalla produzione di un chip ottengo un certo numero di esemplari non perfettamente funzionanrti o di cui non posso garantire il perfetto funzionamento; in tal caso è d'obbligo "castrarli" per evitare di doverli sprecare. Questo soprattutto su chip in cui il margine d'errore è ridottissimo e, quindi, a priori non sono in condizioni di decidere cosa disabilitare (GT200 non ha cluster ridondanti).
Anche ad RV670 (hd3850 ed hd3870 sono lo stesso chip)
appleroof
07-07-2008, 16:35
cut
Chissa perchè le percentuali in cui stacca di più sono quelle che contano...:D
guarda, non penso sia interessante una (ennesima) polemica da stadio, io ho spiegato come la penso, e credo attualmente sia il massimo di obiettività, poi se non sei d'accordo ok contento tu contenti tutti, resta il fatto che ora come ora il chip più veloce tra rv770 e g200 è quest'ultimo
poi che quello Ati abbia il miglior rapporto prezzo/prestazioni, costi di meno e sia solo poco meno veloce di g200, abbia le ddr5 e faccia la barba ed il caffè compreso nel prezzo (ed infatti la 4870 è fortissimamente candidata a sostituire la mia 88gtx, ora come ora e se mi decido) è altrettanto il massimo della obiettività, ma la cosa in questo caso non si sviluppava in tal senso
michelgaetano
07-07-2008, 16:37
oddio si sotiene ancora il chip singolo più potente e tutto i lresto appresso, che tristezza
scambierei quel 10 % in più della gtx 280 tutta la vita, per 170-200 euro in tasca
il resto sono solite, inutili, polemiche.
yossarian
07-07-2008, 16:41
oddio si sotiene ancora il chip singolo più potente e tutto i lresto appresso, che tristezza
scambierei quel 10 % in più della gtx 280 tutta la vita, per 170-200 euro in tasca
il resto sono solite, inutili, polemiche.
non è una diatriba tra sostenitori e detrattori del chip singolo. Si tratta di scelte progettuali completamente differenti. Detto in parole molto povere e limitandomi al minimo indispensabile, potrei affermare che mentra ATi ha ottimizzato tutto il resto e si è affidata alla forza bruta per lo shader processor (motivo per cui ha bisogno di tanti sp per poter avere prestazioni elevate), nVidia ha ottimizzato il funzionamento dello shader core e si è affidata alla forza bruta per tutto il resto (motivo per cui il chip è tanto più grande di quello della controparte)
:D
michelgaetano
07-07-2008, 16:42
non è una diatriba tra sostenitori e detrattori del chip singolo. Si tratta di scelte progettuali completamente differenti. Detto in parole molto povere e limitandomi al minimo indispensabile, potrei affermare che mentra ATi ha ottimizzato tutto il resto e si è affidata alla forza bruta per lo shader processor (motivo per cui ha bisogno di tanti sp per poter avere prestazioni elevate), nVidia ha ottimizzato il funzionamento dello shader core e si è affidata alla forza bruta per tutto il resto
:D
Agli atti pratici: a che serve?
Io guardo alle prestazioni e al portafogli.
Non mi faccio i compelssi se la mia scehda va il 10-15% in meno, quando ho risparmiato tutta quella barca di soldi :)
appleroof
07-07-2008, 16:42
commercialmente non ha senso avere chip identici volutamente castrati, poichè dovrei venderli ad un prezzo ridotto pur costandomi, se mi va bene, la stessa cifra. Discorso diverso è se dalla produzione di un chip ottengo un certo numero di esemplari non perfettamente funzionanrti o di cui non posso garantire il perfetto funzionamento; in tal caso è d'obbligo "castrarli" per evitare di doverli sprecare. Questo soprattutto su chip in cui il margine d'errore è ridottissimo e, quindi, a priori non sono in condizioni di decidere cosa disabilitare (GT200 non ha cluster ridondanti).
Anche ad RV670 (hd3850 ed hd3870 sono lo stesso chip)
approfitto :D per chiederti (parte in neretto), ma i g84, g86 e così via, non sono altro che g80 castrati (e omologhi 65nm)?
cmq dicevo che commercialmente non avrebbe senso avere da un chip una unica scheda ad un unico prezzo sul mercato (tu facevi riferimento alla gtx280, nell'ipotesi che prospettavi e che mi pare un'utopia) altrimenti, perchè Ati non vende esclusivamente la 4870 a, diciamo, 100 euro? non so se mi spiego....
oddio si sotiene ancora il chip singolo più potente e tutto i lresto appresso, che tristezza
scambierei quel 10 % in più della gtx 280 tutta la vita, per 170-200 euro in tasca
il resto sono solite, inutili, polemiche.
appunto
guarda, non penso sia interessante una (ennesima) polemica da stadio, io ho spiegato come la penso, e credo attualmente sia il massimo di obiettività, poi se non sei d'accordo ok contento tu contenti tutti, resta il fatto che ora come ora il chip più veloce tra rv770 e g200 è quest'ultimo
poi che quello Ati abbia il miglior rapporto prezzo/prestazioni, costi di meno e sia solo poco meno veloce di g200, abbia le ddr5 e faccia la barba ed il caffè compreso nel prezzo (ed infatti la 4870 è fortissimamente candidata a sostituire la mia 88gtx, ora come ora e se mi decido) è altrettanto il massimo della obiettività, ma la cosa in questo caso non si sviluppava in tal senso
Ti facevo meno obiettivo....ma perchè per te sono così importanti le prestazioni assolute ad ogni costo? anche se non sono x nulla convenienti ed una presa in giro se parperagonato a quello che offre una scheda dal costo dimezzato?
appleroof
07-07-2008, 16:46
Agli atti pratici: a che serve?
Io guardo alle prestazioni e al portafogli.
Non mi faccio i compelssi se la mia scehda va il 10-15% in meno, quando ho risparmiato tutta quella barca di soldi :)
bravo, è sempre meglio non farsi complessi in nessuna occasione; per il resto si sottolineava che non si parlava di prezzo/prestazioni (certo che o non leggete bene i post ed il loro senso logico, oppure vi rifiutate di farlo :boh: ) ma tutto è partito da un'affermazione un pò "distratta"
appunto
Ti facevo meno obiettivo....ma perchè per te sono così importanti le prestazioni assolute ad ogni costo? anche se non sono x nulla convenienti ed una presa in giro se parperagonato a quello che offre una scheda dal costo dimezzato?
come sopra :rolleyes:
yossarian
07-07-2008, 16:49
Agli atti pratici: a che serve?
Io guardo alle prestazioni e al portafogli.
Non mi faccio i compelssi se la mia scehda va il 10-15% in meno, quando ho risparmiato tutta quella barca di soldi :)
all'atto pratico, la scelta di nVidia ha pagato nel breve e medio periodo, quindi a qualcosa è servita.
Si tratta di due filosofie differenti: nVidia ha da sempre scelto la via più "facile" e più redditizia nell'immediato anche se poi questo la costringe ad operare, nelle successive generazioni, in molti casi una totale revisione del chip.
Tieni presente il fatto che si tratta di due aziende che hanno, tra i principali scopi, anche quello di fare profitto (e le strade per farlo sono tante, dal vendere molto nell'immediato per rubare quote di mercato al cercare di contenere i costi di produzione)
Foglia Morta
07-07-2008, 16:49
non è una diatriba tra sostenitori e detrattori del chip singolo. Si tratta di scelte progettuali completamente differenti. Detto in parole molto povere e limitandomi al minimo indispensabile, potrei affermare che mentra ATi ha ottimizzato tutto il resto e si è affidata alla forza bruta per lo shader processor (motivo per cui ha bisogno di tanti sp per poter avere prestazioni elevate), nVidia ha ottimizzato il funzionamento dello shader core e si è affidata alla forza bruta per tutto il resto (motivo per cui il chip è tanto più grande di quello della controparte)
:D
Ed S3 che scelte progettuali ha fatto :D ?
Nessuno se ne è interessato... sai qualcosa ?
Sapevo ad esempio G9X e G8X sono debolucci con i geometry shader , mentre le ATi vanno meglio. A giudicare però da questo test (http://forum.beyond3d.com/showpost.php?p=1179982&postcount=57) le S3 sono impressionanti... problemi di driver ? Test con il quale S3 si trova particolamente a suo agio oppure la sua architettura ha importanti punti di forza ?
all'atto pratico, la scelta di nVidia ha pagato nel breve e medio periodo, quindi a qualcosa è servita.
Si tratta di due filosofie differenti: nVidia ha da sempre scelto la via più "facile" e più redditizia nell'immediato anche se poi questo la costringe ad operare, nelle successive generazioni, in molti casi una totale revisione del chip.
Tieni presente il fatto che si tratta di due aziende che hanno, tra i principali scopi, anche quello di fare profitto (e le strade per farlo sono tante, dal vendere molto nell'immediato per rubare quote di mercato al cercare di contenere i costi di produzione)
a me sembra che la scelta di ati stia pagando sprattutto nell'immediato...
appleroof
07-07-2008, 16:58
a me sembra che la scelta di ati stia pagando sprattutto nell'immediato...
infatti, r600 è stato da subito formidabile :asd:
rv770 non è uno stravolgimento completo di r600 come g200 non lo è di g80
yossarian
07-07-2008, 17:04
approfitto :D per chiederti (parte in neretto), ma i g84, g86 e così via, non sono altro che g80 castrati (e omologhi 65nm)?
non mi risulta; vedere se si tratta dello stesso chip è semplice: se hanno le stesse dimensioni di die a parità di processo produttivo.
cmq dicevo che commercialmente non avrebbe senso avere da un chip una unica scheda ad un unico prezzo sul mercato (tu facevi riferimento alla gtx280, nell'ipotesi che prospettavi e che mi pare un'utopia) altrimenti, perchè Ati non vende esclusivamente la 4870 a, diciamo, 100 euro? non so se mi spiego....
commercialmente è quello che accadeva in passato, con architetture più semplici che non prevedevano eventuali scarti riutilizzabili (ad esempio le varie Riva tnt o matrox G200 o ATi rage o le voodoo 1, 2, 3, ecc.). All'aumentare della complessità delle architetture sono iniziate a comparire le versioni "castrate" (GF2 MX, Radeon VE, ecc).
Il motivo per cui ATi non vende tutte 4870 a, diciamo, 150 o 170 € è che non tutte le gpu prodotte presentano lo stesso livello di affidabilità a determinate frequenze. Quindi, poichè si deve garantire il buon funzionamento a frequenze di default, non è possibile vendere tutti chip funzionanti a 750 MHz con V-core più elevato. Qualora quel processo produttivo avesse rese del 100%, allora uscirebbero solo chip per 4850 e 4870.
yossarian
07-07-2008, 17:07
a me sembra che la scelta di ati stia pagando sprattutto nell'immediato...
oltre un anno dall'uscita di R600 non mi pare si possa definire periodo breve (certo lo è se paragonato alle ere geologiche :D )
appleroof
07-07-2008, 17:11
non mi risulta; vedere se si tratta dello stesso chip è semplice: se hanno le stesse dimensioni di die a parità di processo produttivo.
ok, ho perso la scommessa :stordita:
commercialmente è quello che accadeva in passato, con architetture più semplici che non prevedevano eventuali scarti riutilizzabili (ad esempio le varie Riva tnt o matrox G200 o ATi rage o le voodoo 1, 2, 3, ecc.). All'aumentare della complessità delle architetture sono iniziate a comparire le versioni "castrate" (GF2 MX, Radeon VE, ecc).
Il motivo per cui ATi non vende tutte 4870 a, diciamo, 150 o 170 € è che non tutte le gpu prodotte presentano lo stesso livello di affidabilità a determinate frequenze. Quindi, poichè si deve garantire il buon funzionamento a frequenze di default, non è possibile vendere tutti chip funzionanti a 750 MHz con V-core più elevato. Qualora quel processo produttivo avesse rese del 100%, allora uscirebbero solo chip per 4850 e 4870.
quindi è utopia :sofico:
cmq grazie mille delle risposte, veramente sempre interessantissime :)
Marko#88
07-07-2008, 17:27
inutile è la scheda che hai in sign. e gli ho fatto un complimento. no questa 9800gtx+. e nemmeno la 9800gtx.
capito non confondere la non competitività con l'inutilità. oc a 800/2000/2400(e mi sono limitato) la 4850 anche oc se la beve. certo costa di + ma oc va anche di +.
inutile è tutta la paccottiglia che ati ha sfornato negli ultimi due anni prima di queste ultime due. ecco quelle sono schede inutili per non dire altro.
mi riferivo alla notizia inutile, non alla vga...:rolleyes:
e mi sembrava anche palese visto che ho detto: "inutile senza sapere il prezzo"...in italiano cosa vorrebbe dire questa frase se mi fossi riferito alla vga? proprio nulla...mentre cosa vorrebbe dire riferendomi alla news? che è una notizia inutile visto che non dice quanto costerà ma fa vedere solo una fotina che peraltro serve a poco visto che la scheda è identica alla GTX liscia...comunque non ci siamo intesi, spero di essere stato più chiaro ora...:)
poi spiegami un po': l'HD2600XT è inutile? non mi sembra visto che non devo giocarci e il suo lavoro di non consumare molto e non fare casino lo sta facendo più che egregiamente...e prima che tu possa rispondere che era meglio comprare una 8600...beh, me l'hanno regalata questa...inutile è parecchio relativo, se voglio posso dire che la gts320 è inutile perchè ha solo 320mb di vram o posso dire che la GTX280 è inutile perchè non serve a nulla fare 200fps quando me ne bastano 40 oppure ancora che la 4870x2 è inutile per lo stesso motivo...ma non lo dico perchè ogni persona ha delle priorità, vuoi giocare? prendi una vga incazzata. Non te ne frega nulla per adesso? ti accontenti di una vga di fascia bassa che per di più non hai pagato...e ripeto, per l'utilizzo che ne devo fare va più che bene...sulle 2900 ti do ragione che sono state delle cose abominevoli e lo sai benissimo che la penso così anch'io...non sono certo io il fanboy...;)
un ultimo appunto: le 4850 si stanno cominciando ad occare visto che mi pare sia uscito un programma che lo permette...sicuramente non salgono come le gtx+ ma il rapporto prezzo prestazioni rimane ottimo...riusciranno le gtx+ a contrastarle? dovrebbero costare non più di 150 euro...si vedrà, non manca molto...
oltre un anno dall'uscita di R600 non mi pare si possa definire periodo breve (certo lo è se paragonato alle ere geologiche :D )
ma no! io mi riferivo solo a questa serie! Tu indendevi l'architettura? gia base delle2000
yossarian
07-07-2008, 18:32
ma no! io mi riferivo solo a questa serie! Tu indendevi l'architettura? gia base delle2000
già
già
Non credo però che loro sapessero a priori di arrivare a questo punto...cioè lo vedo poco plausibile che abbiano detto, ma si facciamo uscire st'architettura anche se non è proprio il massimo, poi man mano correggiamo il tiro...
Che poi in efetti l'hanno fatto...aggiustati i consumi con la serie 3000 e le prestazioni con la 4000, però non ce lo vedo sto ragionamento...
yossarian
07-07-2008, 19:22
Non credo però che loro sapessero a priori di arrivare a questo punto...cioè lo vedo poco plausibile che abbiano detto, ma si facciamo uscire st'architettura anche se non è proprio il massimo, poi man mano correggiamo il tiro...
Che poi in efetti l'hanno fatto...aggiustati i consumi con la serie 3000 e le prestazioni con la 4000, però non ce lo vedo sto ragionamento...
poco plausibile il fatto che si facciano progetti a medio-lungo termine?
L'architettura di base è rimasta la stessa di R600: la tipologia delle alu, quella delle TMU, il rapporto alu/tmu. Alcune cose sono state cambiate ed altre migliorate, ma l'architettura di base è la stessa; questo signifca che non era sbagliata
poco plausibile il fatto che si facciano progetti a medio-lungo termine?
L'architettura di base è rimasta la stessa di R600: la tipologia delle alu, quella delle TMU, il rapporto alu/tmu. Alcune cose sono state cambiate ed altre migliorate, ma l'architettura di base è la stessa; questo signifca che non era sbagliata
noooo...intendo che probabilmente quando hanno messo in commercio le 2900xt si vedeva che avevano tentato il colpaccio di trionfare come scheda top di gamma...cioè...penso che il vero potenziale di questa architettura lo abbiano scoerto man mano, ma non con tebelle o piani precisi...non so poi mi sbaglio, è solo una mia impressione...
leoneazzurro
07-07-2008, 20:00
poco plausibile il fatto che si facciano progetti a medio-lungo termine?
L'architettura di base è rimasta la stessa di R600: la tipologia delle alu, quella delle TMU, il rapporto alu/tmu. Alcune cose sono state cambiate ed altre migliorate, ma l'architettura di base è la stessa; questo signifca che non era sbagliata
Anzi le TMU sono leggermente "peggiorate" rispetto a R600 :D
Comunque in percentuale RV770 rispetto a RV670 è "salito" in capacità più rispetto a quanto abbia fatto GTX280 rispetto alla 9800 GTX (+) (ROPs permettendo, e ovviamente questo è anche permesso dall'architettura :) )
yossarian
07-07-2008, 20:02
noooo...intendo che probabilmente quando hanno messo in commercio le 2900xt si vedeva che avevano tentato il colpaccio di trionfare come scheda top di gamma...cioè...penso che il vero potenziale di questa architettura lo abbiano scoerto man mano, ma non con tebelle o piani precisi...non so poi mi sbaglio, è solo una mia impressione...
avevano già un'architettura a shader unificati (R500) a cui sarebbe bastato aggiungere uno shader core di tipo scalare con alu fp32 invece di quelle vect4 + sclar, per avere un chip sul modello di G80. Hanno scelto di far ricorso a sp di tipo vliw che comportano notevoli difficoltà nella gesione dell'ILP.
Secondo te avrebbero fatto tutto questo senza una pianificazione a tavolino?
yossarian
07-07-2008, 20:13
Anzi le TMU sono leggermente "peggiorate" rispetto a R600 :D
in effetti, con l'utilizzo di texture filtrate a fp16, con rv670 non si avevano cali di prestazioni, mentre con rv770 si ha un calo di oltre il 35%. :D
Comunque in percentuale RV770 rispetto a RV670 è "salito" in capacità più rispetto a quanto abbia fatto GTX280 rispetto alla 9800 GTX (ROPs permettendo, e ovviamente questo è anche permesso dall'architettura :) )
indubbiamente; se consideri, però, che il rapporto tra unità di calcolo era molto più sbilanciato nel raffronto tra R600/G80 che non in quello tra RV770/GT200; ad esempio, per le tmu si è passati da un rapporto 1:4 ad uno 1:2; per gli sp da 1:2 a 3:2 (considerando 64 sp per R600 e 160 sp per RV770). Anche nelle rop's ci sono state modifiche sostanziali il cui effetto sarà più evidente con l'adozione delle DX10.1 che prevedono il filtraggio a fp32 come standard e l'applicazione di AA almeno in modalità 4x.
Poi c'è la revisione del MC, le alu migliorate (dimensioni ridotte in seguito all'eliminazione delle unità dedicate alle operazioni di integer bitshift che ora possono essere eseguite da ciascuna alu)
domanda ot:D,ma di larrabee cosa mi dite,potrà essere competitivo allo stadio in cui sono le gpu attuali di ati e nvidia...
ho letto questa notizia oggi,è sono molto incuriosito:
http://www.hwupgrade.it/news/skvideo/larrabee-basato-su-core-pentium-p54c_25884.html
ma è possibile che per avere la potenza di una gpu attuale intel debba mettere in campo ben 32 core x86 e via dicendo? ... ma non è un pò troppo costoso come progetto?:stordita:
se è troppo ot come domanda magari si potrebbe creare un topic per parlare di tutto ciò,boh ditemmi tè leonardo:D :p ..
avevano già un'architettura a shader unificati (R500) a cui sarebbe bastato aggiungere uno shader core di tipo scalare con alu fp32 invece di quelle vect4 + sclar, per avere un chip sul modello di G80. Hanno scelto di far ricorso a sp di tipo vliw che comportano notevoli difficoltà nella gesione dell'ILP.
Secondo te avrebbero fatto tutto questo senza una pianificazione a tavolino?
Sai una cosa? in queto ragionamento ti ho seguito poco!
Dov'è che potrei trovare informazioni riguardo i vari tipi di tmu,alu e sp? Mi piacerebbe documentarmi in generale sull'architettura di una gpu...
Mister Tarpone
07-07-2008, 23:24
bohhh le posto qui ste notizie...
Dual GPU cards going cheap
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8317&Itemid=1
Sub- €100 graphics for bargain hunters
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8314&Itemid=1
yossarian
07-07-2008, 23:35
Sai una cosa? in queto ragionamento ti ho seguito poco!
Dov'è che potrei trovare informazioni riguardo i vari tipi di tmu,alu e sp? Mi piacerebbe documentarmi in generale sull'architettura di una gpu...
bella domanda; la prima risposta che mi viene in mente è un libro sui circuiti digitali. Oppure dovresti trovare qualche discussione su forum stranieri (tipo B3D) o qualche analisi di architetture attuali e passate.
Comunque, detto brevemente, i chip hanno delle unità che si occupano di svolgere delle operazioni matematiche, addizioni e moltiplicazioni soprattutto, da cui le abbreviazioni che si trovano spesso: ADD. MUL e MADD o MAD, dove i primi due stanno per addizione e moltiplicazione e il terzo è una moltiplicazione seguita da un'addizione. Quindi, quando senti parlare di alu di tipo MADD significa che quelle alu sono in grado di fare una moltiplicazione e un'addizione, teoricamente in un solo ciclo (in pratica non è così, poichè si tratta di alu complesse, composte da due unità logiche, la prima delle quali esegue una moltiplicazione predendo i dati contenuti all'interno di 2 registri (costanti o temporanei) e trasferisve il risultato in un altro registro (temporaneo, questa volta); nel ciclo successivo, la prima unità esegue ancora una MUL prendendo altri 2 dati da altri 2 registri, mentre la seconda preleva il dato fornito dalla prima e fa una ADD con un altro dato contenuto in un altro registro ancora.
Questo unità (MUL, ADD, MADD) possono essere di tipo intero o lavorare in virgola mobile (nle primo caso si indicano con INT, nel secondo con FP). Inoltre, possono essere di tipo vettoriale o scalare; un vettore è un ente geometrico definito da 3 coordinate spaziali (x, y, z) che ne danno la posizione, più una quarta (w) che ne indica la direzione (con un vettore a 4 componenti si possono fare tante altre cose, come ad esempio indicare i 3 valori RGB dei 3 colori fondamentali e il valore di luminanza, ossia di intensità luminosa di questi 3 colori). Ci sono alu che sono di tipo full vect4 ossia che hanno 4 unità in parallelo che operano sui dati di un vettore completo a 4 componenti; il vettore in ingresso vede queste 4 unità parallele come un'unica unità di calcolo; ci sono poi alu di tipo vect3 + scalar che operano su 3 grandezze in parallelo (e sono viste dai dati in ingresso come un'unica unità) con in parallelo un'unità scalare che è vista come un'unità separata da quella vettoriale. Unità di tipo vect4 sono quelle, ad esempio, presenti nel pixel shader processor di chip tipo R200, NV20/NV25 o NV30 e derivati. Alu del tipo vect3 + scalar sono presenti nel pixel shader processor di R300 e derivati. G80 e GT200 hanno, invece, unità completamente scalari; questo significa che ogni unità fp32 (che vuol dire che lavorano in floating point, ovvero in virgola mobile) è vista come separata dalle altre e ciascuna può operare su un differente thread. Unità tipo quelle di R500 (il chip della x360) sono di tipo a shader unificati (non c'è più la distinzione tra vertex shader e pixel shader) di tipo vect4 + scalar. Quelle di R600 e derivati sono di tipo fp32 scalari, ma riunite a gruppi di 5. Ovvero, ogni stream processor di R600, RV670 e RV770 ha 5 unità che possono lavorare in parallelo su istruzioni differenti relative allo stesso thread. Per questo motivo, hanno bisogno che il compilatore presente nei driver raggruppi tutte le istruzioni relative allo stesso thread (per aumentare il parallelismo ed essere più efficienti). Questo significa che se faccio uso di thread ognuno dei quali, per assurdo, ha una sola istruzione, ogni sp di RV770 lavora ad 1/5 del suo potenziale di calcolo teorico (quindi si comporta come se avesse 160 alu invece di 800); discorso analogo se faccio uso di istruzioni di tipo "dependent read", ovvero di istruzioni che dipendono dal risultato di un'operazione precedente. Al contrario, se si fa uso di thread con molte istruzioni indipendenti, allora, per ogni ciclo, uno sp di RV770 può eseguire 5 istruzioni in parallelo, mentre ogni sp di G80 o GT200 una sola.
Con unità di tipo vettoriale, invece, qualora si debbano processare vettori completi, l'elaborazione è più veloce rispetto ad un'architettura scalare, in caso contrario, si ha un problama analogo a quello delle architetture vliw, ovvero una perdita di efficienza. Quindi, la scalare sembrerebbe quella mediamente più efficiente con pressochè tutte le condizioni di impiego; lo svantaggio principale è il molto spazio occupato (hanno bisogno di un gran numero di registri e di unità e circuiti di controllo, trasmissione e feedback, con relativi buffer). Un'architettura vliw, invece, è complessivamente meno efficiente, ma occupa molto meno spazio e, con codice ottimizzato, è più veloce
bella domanda; la prima risposta che mi viene in mente è un libro sui circuiti digitali. Oppure dovresti trovare qualche discussione su forum stranieri (tipo B3D) o qualche analisi di architetture attuali e passate.
Comunque, detto brevemente, i chip hanno delle unità che si occupano di svolgere delle operazioni matematiche, addizioni e moltiplicazioni soprattutto, da cui le abbreviazioni che si trovano spesso: ADD. MUL e MADD o MAD, dove i primi due stanno per addizione e moltiplicazione e il terzo è una moltiplicazione seguita da un'addizione. Quindi, quando senti parlare di alu di tipo MADD significa che quelle alu sono in grado di fare una moltiplicazione e un'addizione, teoricamente in un solo ciclo (in pratica non è così, poichè si tratta di alu complesse, composte da due unità logiche, la prima delle quali esegue una moltiplicazione predendo i dati contenuti all'interno di 2 registri (costanti o temporanei) e trasferisve il risultato in un altro registro (temporaneo, questa volta); nel ciclo successivo, la prima unità esegue ancora una MUL prendendo altri 2 dati da altri 2 registri, mentre la seconda preleva il dato fornito dalla prima e fa una ADD con un altro dato contenuto in un altro registro ancora.
Questo unità (MUL, ADD, MADD) possono essere di tipo intero o lavorare in virgola mobile (nle primo caso si indicano con INT, nel secondo con FP). Inoltre, possono essere di tipo vettoriale o scalare; un vettore è un ente geometrico definito da 3 coordinate spaziali (x, y, z) che ne danno la posizione, più una quarta (w) che ne indica la direzione (con un vettore a 4 componenti si possono fare tante altre cose, come ad esempio indicare i 3 valori RGB dei 3 colori fondamentali e il valore di luminanza, ossia di intensità luminosa di questi 3 colori). Ci sono alu che sono di tipo full vect4 ossia che hanno 4 unità in parallelo che operano sui dati di un vettore completo a 4 componenti; il vettore in ingresso vede queste 4 unità parallele come un'unica unità di calcolo; ci sono poi alu di tipo vect3 + scalar che operano su 3 grandezze in parallelo (e sono viste dai dati in ingresso come un'unica unità) con in parallelo un'unità scalare che è vista come un'unità separata da quella vettoriale. Unità di tipo vect4 sono quelle, ad esempio, presenti nel pixel shader processor di chip tipo R200, NV20/NV25 o NV30 e derivati. Alu del tipo vect3 + scalar sono presenti nel pixel shader processor di R300 e derivati. G80 e GT200 hanno, invece, unità completamente scalari; questo significa che ogni unità fp32 (che vuol dire che lavorano in floating point, ovvero in virgola mobile) è vista come separata dalle altre e ciascuna può operare su un differente thread. Unità tipo quelle di R500 (il chip della x360) sono di tipo a shader unificati (non c'è più la distinzione tra vertex shader e pixel shader) di tipo vect4 + scalar. Quelle di R600 e derivati sono di tipo fp32 scalari, ma riunite a gruppi di 5. Ovvero, ogni stream processor di R600, RV670 e RV770 ha 5 unità che possono lavorare in parallelo su istruzioni differenti relative allo stesso thread. Per questo motivo, hanno bisogno che il compilatore presente nei driver raggruppi tutte le istruzioni relative allo stesso thread (per aumentare il parallelismo ed essere più efficienti). Questo significa che se faccio uso di thread ognuno dei quali, per assurdo, ha una sola istruzione, ogni sp di RV770 lavora ad 1/5 del suo potenziale di calcolo teorico (quindi si comporta come se avesse 160 alu invece di 800); discorso analogo se faccio uso di istruzioni di tipo "dependent read", ovvero di istruzioni che dipendono dal risultato di un'operazione precedente. Al contrario, se si fa uso di thread con molte istruzioni indipendenti, allora, per ogni ciclo, uno sp di RV770 può eseguire 5 istruzioni in parallelo, mentre ogni sp di G80 o GT200 una sola.
Con unità di tipo vettoriale, invece, qualora si debbano processare vettori completi, l'elaborazione è più veloce rispetto ad un'architettura scalare, in caso contrario, si ha un problama analogo a quello delle architetture vliw, ovvero una perdita di efficienza. Quindi, la scalare sembrerebbe quella mediamente più efficiente con pressochè tutte le condizioni di impiego; lo svantaggio principale è il molto spazio occupato (hanno bisogno di un gran numero di registri e di unità e circuiti di controllo, trasmissione e feedback, con relativi buffer). Un'architettura vliw, invece, è complessivamente meno efficiente, ma occupa molto meno spazio e, con codice ottimizzato, è più veloce
:D grazie! Questa pagina l'ho anche salvata nei preferiti!:read:
Quindi è per questo che le schede ati necessitano di molta più cura nei driver...quindi per assurdo chi dice che i driver ati sono poco curati dice una boiata perche nvidia ha relativamente minor bisogno di ottimizzazione
HackaB321
08-07-2008, 11:39
9800GTX+ della Palit (con adesivo più brutto nella storia delle schede video:D )
http://www.vr-zone.com/articles/Palit_Launched_GeForce_9800_GTX%2B/5929.html
michelgaetano
08-07-2008, 11:44
9800GTX+ della Palit (con adesivo più brutto nella storia delle schede video:D )
http://www.vr-zone.com/articles/Palit_Launched_GeForce_9800_GTX%2B/5929.html
Certo che quella rana è proprio brutta...
Certo che quella rana è proprio brutta...
e non smbra per niente cattiva...
Marko#88
08-07-2008, 13:28
9800GTX+ della Palit (con adesivo più brutto nella storia delle schede video:D )
http://www.vr-zone.com/articles/Palit_Launched_GeForce_9800_GTX%2B/5929.html
:asd:
halduemilauno
09-07-2008, 10:04
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8349&Itemid=1
Launch at €199
Nvidia's partners are getting stock of Geforce 9800 GTX+ cards as we speak and it looks that the card is ready for July 15th launch.The card will officially launch at $229 suggested etail price in USA and it looks that the card will soon drop to €149 suggested etail price in Europe.
The first batch should be selling around €200+ in European Etail including 20 percent VAT.
After a bit higher prices at launch they will sink down in a few weeks. This will put much more pressure on Radeon HD 4870 and 4850 and will probably force ATI to move the prices down.
Radeon HD 4870 is hard to get but welling well while Radeon HD 4850 is available and also selling well, but not as well as 4870.
As we said many times before, this will be remembered as the time of price wars.
;)
nickfede
09-07-2008, 10:36
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8349&Itemid=1
Launch at €199
Nvidia's partners are getting stock of Geforce 9800 GTX+ cards as we speak and it looks that the card is ready for July 15th launch.The card will officially launch at $229 suggested etail price in USA and it looks that the card will soon drop to €149 suggested etail price in Europe.
The first batch should be selling around €200+ in European Etail including 20 percent VAT.
After a bit higher prices at launch they will sink down in a few weeks. This will put much more pressure on Radeon HD 4870 and 4850 and will probably force ATI to move the prices down.
Radeon HD 4870 is hard to get but welling well while Radeon HD 4850 is available and also selling well, but not as well as 4870.
As we said many times before, this will be remembered as the time of price wars.
;)
Fammi capire......Launch at 199$, come 4850.....e poi si scopre che verranno proposte all'inizio a più di 200 Euro.....
Dopo "poche settimane" poi scenderanno a 149 Euro (sempre cmq maggiore del prezzo della 4850...) e questo dovrebbe forzare ATI ad abbassare i prezzi ??? Magari le 4850 scenderanno sui 120/130 (anche se ci stanno già quasi), ma chi vieta ad AMD di fare uscire la 4850+ allo stesso prezzo della 9800+ visto che andranno sensibilmente di + ??
Iantikas
10-07-2008, 14:12
http://www.guru3d.com/article/radeon-4850-and-4870-review-force3d/1
HD4850, 9800GTX+, HD4870 a confronto...
...se la 9800GTX+ venisse venduta allo stesso prezzo della HD4850 o di poco superiore sarebbe molto competitiva sul mercato dato ke anke da questa rece in media appare leggermente in vantaggio...ciao
Marko#88
10-07-2008, 17:36
http://www.guru3d.com/article/radeon-4850-and-4870-review-force3d/1
HD4850, 9800GTX+, HD4870 a confronto...
...se la 9800GTX+ venisse venduta allo stesso prezzo della HD4850 o di poco superiore sarebbe molto competitiva sul mercato dato ke anke da questa rece in media appare leggermente in vantaggio...ciao
è quel che dico da tanto ormai...se il prezzo fosse allineato sarebbe davvero competitiva...ma anche LEGGERMENTE superiore, per carità...diciamo una quindicina di euri in più...fino a questa cifra imho sarebbe da preferire viste le prestazioni leggermente superiori, il doppio slot (e sappiamo tutti che la 4850 non ha un mostro di dissipatore) e maggiori capacità in oc...oltre questa cifra però avrebbe poco senso...sempre imho...:)
michelgaetano
10-07-2008, 17:57
Esattamente, il problema è che non vogliono saperne di far calare i prezzi :muro:
alex oceano
10-07-2008, 18:08
i prezzi non li vogliono calare sti produttori ma forse a settembre troveremo una 9800gtx+ a 180€
che dite possibile o stò navigando con la fantasia???:cool:
non so voi ragazzi ma ora come ora il migliore rapporto prezzo/prestazioni è in mano ad ati.... 210 euro per una 4870 sono da preferirsi secondo me ai prezzi stratosferici di g2X0 e ai 210 euro della 9800GTX che cmq riusulta inferiore....
http://www.techpowerup.com/65380/NVIDIA_Preparing_GT300_Graphics_Processor?.html
Fonte originale hardspell.
Sarebbero 16 TPC da 24SP l'uno. In totale quindi 128TMU. A quelle frequenze è il doppio di GT200 come valori teorici. A 45nm con un MC rimaneggiato e 32ROPs dovrebbe starci in 500 mm^2 e avere circa 2,2 miliardi di transistor. :stordita:
michelgaetano
10-07-2008, 18:27
non so voi ragazzi ma ora come ora il migliore rapporto prezzo/prestazioni è in mano ad ati.... 210 euro per una 4870 sono da preferirsi secondo me ai prezzi stratosferici di g2X0 e ai 210 euro della 9800GTX che cmq riusulta inferiore....
È risaputo. Il punto è che Nvidia già ci ha messo una pezza altrove. Ma non da noi :(
i prezzi non li vogliono calare sti produttori ma forse a settembre troveremo una 9800gtx+ a 180€
che dite possibile o stò navigando con la fantasia???:cool:
A cosa servirebbe? Le 4850 stanno a 135 euro, a settembre qualcos'altro lo perderanno.
50 euro sono troppi per due schede chev anno uguali.
La 9800gtx + dovrebbe a mio avviso costare intorno ai 10-15 euro in più alla ATi, volendo anche essere buoni.
Marko#88
10-07-2008, 18:45
i prezzi non li vogliono calare sti produttori ma forse a settembre troveremo una 9800gtx+ a 180€
che dite possibile o stò navigando con la fantasia???:cool:
180euri?? con 200 adesso ti prendi una 4870 che va ben di più...a settembre sarà essa a costare 180...adesso come adesso la 9800GTX+ dovrebbe costare non più di 150 euri per competere con amd in rapporto prezzo/prestazioni...;)
A cosa servirebbe? Le 4850 stanno a 135 euro, a settembre qualcos'altro lo perderanno.
50 euro sono troppi per due schede chev anno uguali.
La 9800gtx + dovrebbe a mio avviso costare intorno ai 10-15 euro in più alla ATi, volendo anche essere buoni.
esattamente quel che ho detto prima, la penso proprio come te..:)
appleroof
10-07-2008, 18:57
180euri?? con 200 adesso ti prendi una 4870 che va ben di più...a settembre sarà essa a costare 180...adesso come adesso la 9800GTX+ dovrebbe costare non più di 150 euri per competere con amd in rapporto prezzo/prestazioni...;)
già...senza contare che per dopo l'estate potremmo già avere una gtx260@55nm sui 200 euro....:)
michelgaetano
10-07-2008, 18:57
già...senza contare che per dopo l'estate potremmo già avere una gtx260@55nm sui 200 euro....:)
Speriamo :D :D :D
appleroof
10-07-2008, 19:00
Speriamo :D :D :D
di certo la 4870 c'è oggi e costa quello che costa, g200 @55nm invece è ancora nei rumors, sempre più insistenti, però....;)
michelgaetano
10-07-2008, 19:06
di certo la 4870 c'è oggi e costa quello che costa, g200 @55nm invece è ancora nei rumors, sempre più insistenti, però....;)
A me basta che schede top come HD4870 e gtx 260 arrivino sui 200 euro e sotto, poi mi interessa poco.
Poter disporre del meglio sul mercato a questi prezzi, è a mio avviso fantastico.
In barba a chi spende migliaia di euro (me compreso, ricordo i 613 € per la 8800 gtx :D)
appleroof
10-07-2008, 19:09
A me basta che schede top come HD4870 e gtx 260 arrivino sui 200 euro e sotto, poi mi interessa poco.
Poter disporre del meglio sul mercato a questi prezzi, è a mio avviso fantastico.
In barba a chi spende migliaia di euro (me compreso, ricordo i 613 € per la 8800 gtx :D)
esempio sbagliato, non credo (ma lo auguro ai possessori) che la 4870 o la gtx260 possano mantenere il livello che ha mantenuto (e mantiene) la 88gtx per così tanto tempo (e cmq se le dx11 sono alle porte saranno obsolete ben prima di quanto è accaduto alla 88gtx)
se è vero che le dx11 debutteranno l'anno prox, la 88gtx si è praticamente fatta indisturbata (forse l'ultimo anno la vedrà "capitolare", dipende dalla risoluzione a cui si gioca) un'intera libreria dx, e sempre al top :)
michelgaetano
10-07-2008, 19:15
Non hai capito, era un esempio di spesa enorme.
Per quanto la 8800 gtx meritasse, non lo rifarei mai più :D
Marko#88
10-07-2008, 19:19
già...senza contare che per dopo l'estate potremmo già avere una gtx260@55nm sui 200 euro....:)
esatto, però aspettiamo a parlare per sicurezza...:D secondo me dopo l'estate le 4870 le troveremo trnauille tranquille sui 180 euri...e a quel punto le gtx260 a 200 doventerebbero competitive (visto che adesso non lo sono per nulla, vanno meno e costano di più)...considerando poi il die shrink e conseguentemente l'innalzamento delle frequenze...però c'è tempo, si vedrà...
l'unica cosa che si può dire adesso è: beata la concorrenza!! nvidia ha fatto per troppo tempo il cacchio che gli pareva...e non la biasimo, lo scopo di ogni impresa è fare euri alla fine...ma per noi utenti è molto meglio questa situazione...:D
appleroof
10-07-2008, 19:24
Non hai capito, era un esempio di spesa enorme.
Per quanto la 8800 gtx meritasse, non lo rifarei mai più :D
ah, parlavi a titolo personale, allora ti dico che io lo rifarei eccome (a 1920 quante vga avrei dovuto cambiare in 2 anni per giocare al top come ho fatto e faccio?), ma a questo punto solo per una scheda di una nuova generazione, viste come stanno le cose...
esatto, però aspettiamo a parlare per sicurezza...:D secondo me dopo l'estate le 4870 le troveremo trnauille tranquille sui 180 euri...e a quel punto le gtx260 a 200 doventerebbero competitive (visto che adesso non lo sono per nulla, vanno meno e costano di più)...considerando poi il die shrink e conseguentemente l'innalzamento delle frequenze...però c'è tempo, si vedrà...
l'unica cosa che si può dire adesso è: beata la concorrenza!! nvidia ha fatto per troppo tempo il cacchio che gli pareva...e non la biasimo, lo scopo di ogni impresa è fare euri alla fine...ma per noi utenti è molto meglio questa situazione...:D
già ;)
michelgaetano
10-07-2008, 19:36
ah, parlavi a titolo personale, allora ti dico che io lo rifarei eccome (a 1920 quante vga avrei dovuto cambiare in 2 anni per giocare al top come ho fatto e faccio?), ma a questo punto solo per una scheda di una nuova generazione, viste come stanno le cose...
Questo è indubbio. Il problema è un altro: nessuno ci assicura che un'altra scheda durerà così tanto ^^
Per questa incognita, preferisco rimanere su cifre più basse. E se non avvengono miglioramenti non si cambia! :D
appleroof
10-07-2008, 19:48
Questo è indubbio. Il problema è un altro: nessuno ci assicura che un'altra scheda durerà così tanto ^^
Per questa incognita, preferisco rimanere su cifre più basse. E se non avvengono miglioramenti non si cambia! :D
ora come ora, con le dx11 alle porte (?), e cmq con le dx10 "mature" sono ultraconvinto che tu abbia ragione ;)
Free Gordon
11-07-2008, 01:51
vedremo al prossimo giro chi se ne uscirà con le schede migliori........:)
Non è mai detto effettivamente, ma vedendo l'andamento degli ultimi 6 anni, punterei su ATI..
Free Gordon
11-07-2008, 02:06
inutile è tutta la paccottiglia che ati ha sfornato negli ultimi due anni prima di queste ultime due. ecco quelle sono schede inutili per non dire altro.
Ultimi due anni che poi è uno.. :D dato che R600 è uscito a maggio 2007 ed RV770 a giugno..
Inoltre, si può dire che la 3870 sia stata molto più competitiva rispetto a 8800GT e 9600GT della 9800GTX/GTX+ rispetto alla 4850, date soprattutto le abissali differenze di prezzo di quest'ultima (in produzione e vendita)... ;)
Free Gordon
11-07-2008, 02:11
bè, quoto....se partiamo dall'ottica dell'utente medio, le schede si equivalgono e quel risparmio di 20/30 euro forse fà propendere per la 4850, ma in ottica oc (quella del 99% di noi e tanti altri utenti) pare sia cmq preferibile la 9800gtx+, cmq non la definirei inutile
Da trovaprezzi son 60 gli euro, cmq.. :D
http://www.trovaprezzi.it/prezzo_schede-grafiche_9800gtx$2b.aspx
http://www.trovaprezzi.it/categoria.aspx?libera=4850&id=28&prezzoMin=&prezzoMax=&sbox=sb
cmq continuiamo pure questo siparietto dell'OC che è divertente... :asd:
Free Gordon
11-07-2008, 02:16
lo shader model 3 era richiesto dai giochi, giochi che non si installavano senza esso. non mi risulta che ci siano giochi che richiedono i 10.1 altrimenti il gioco non si installa.
ricordi benissimo bei tempi quando i faziosi ati intruppavano su questo.
I primi giochi SM3-obbligati sono arrivati 18 mesi buoni dopo l'introduzione delle 6800... quando c'erano già le 7800 e ATI stava presentando una sua proposta SM3. ;)
Senza considerare che ATI, a fine 2005, aveva già un'architettura "quasi" SM4 con Xenos.. :asd: (infatti si vede che figura sta facendo PS3 ora, con la 7900 che si ritrova sotto... :sofico: )
Free Gordon
11-07-2008, 02:35
Questo è indubbio. Il problema è un altro: nessuno ci assicura che un'altra scheda durerà così tanto ^^
Per questa incognita, preferisco rimanere su cifre più basse. E se non avvengono miglioramenti non si cambia! :D
Più che altro, il metro di giudizio dovrebbero essere i giochi..(a cui uno è interessato)
Oggi il più pesante è Crysis e personalmente mi piace assai!! :D
Ma se esce Alan Wake ed è due volte più pesante di Crysis (per assurdo) e mi interessa, il cambio lo faccio eccome (anche se la scheda potrebbe non durare molto...), con la scheda che mi permette di farlo girare al meglio (sempre considerando il portafoglio, ovviamente ;) ).
Free Gordon
11-07-2008, 02:39
Comunque, detto brevemente, i chip hanno delle unità che si occupano di svolgere delle operazioni matematiche, addizioni e moltiplicazioni soprattutto, da cui le abbreviazioni che si trovano spesso: ADD. MUL e MADD o MAD, dove i primi due stanno per addizione e moltiplicazione e il terzo è una moltiplicazione seguita da un'addizione. Quindi, quando senti parlare di alu di tipo MADD significa che quelle alu sono in grado di fare una moltiplicazione e un'addizione, teoricamente in un solo ciclo (in pratica non è così, poichè si tratta di alu complesse, composte da due unità logiche, la prima delle quali esegue una moltiplicazione predendo i dati contenuti all'interno di 2 registri (costanti o temporanei) e trasferisve il risultato in un altro registro (temporaneo, questa volta); nel ciclo successivo, la prima unità esegue ancora una MUL prendendo altri 2 dati da altri 2 registri, mentre la seconda preleva il dato fornito dalla prima e fa una ADD con un altro dato contenuto in un altro registro ancora.
Questo unità (MUL, ADD, MADD) possono essere di tipo intero o lavorare in virgola mobile (nle primo caso si indicano con INT, nel secondo con FP). Inoltre, possono essere di tipo vettoriale o scalare; un vettore è un ente geometrico definito da 3 coordinate spaziali (x, y, z) che ne danno la posizione, più una quarta (w) che ne indica la direzione (con un vettore a 4 componenti si possono fare tante altre cose, come ad esempio indicare i 3 valori RGB dei 3 colori fondamentali e il valore di luminanza, ossia di intensità luminosa di questi 3 colori). Ci sono alu che sono di tipo full vect4 ossia che hanno 4 unità in parallelo che operano sui dati di un vettore completo a 4 componenti; il vettore in ingresso vede queste 4 unità parallele come un'unica unità di calcolo; ci sono poi alu di tipo vect3 + scalar che operano su 3 grandezze in parallelo (e sono viste dai dati in ingresso come un'unica unità) con in parallelo un'unità scalare che è vista come un'unità separata da quella vettoriale. Unità di tipo vect4 sono quelle, ad esempio, presenti nel pixel shader processor di chip tipo R200, NV20/NV25 o NV30 e derivati. Alu del tipo vect3 + scalar sono presenti nel pixel shader processor di R300 e derivati. G80 e GT200 hanno, invece, unità completamente scalari; questo significa che ogni unità fp32 (che vuol dire che lavorano in floating point, ovvero in virgola mobile) è vista come separata dalle altre e ciascuna può operare su un differente thread. Unità tipo quelle di R500 (il chip della x360) sono di tipo a shader unificati (non c'è più la distinzione tra vertex shader e pixel shader) di tipo vect4 + scalar. Quelle di R600 e derivati sono di tipo fp32 scalari, ma riunite a gruppi di 5. Ovvero, ogni stream processor di R600, RV670 e RV770 ha 5 unità che possono lavorare in parallelo su istruzioni differenti relative allo stesso thread. Per questo motivo, hanno bisogno che il compilatore presente nei driver raggruppi tutte le istruzioni relative allo stesso thread (per aumentare il parallelismo ed essere più efficienti). Questo significa che se faccio uso di thread ognuno dei quali, per assurdo, ha una sola istruzione, ogni sp di RV770 lavora ad 1/5 del suo potenziale di calcolo teorico (quindi si comporta come se avesse 160 alu invece di 800); discorso analogo se faccio uso di istruzioni di tipo "dependent read", ovvero di istruzioni che dipendono dal risultato di un'operazione precedente. Al contrario, se si fa uso di thread con molte istruzioni indipendenti, allora, per ogni ciclo, uno sp di RV770 può eseguire 5 istruzioni in parallelo, mentre ogni sp di G80 o GT200 una sola.
Con unità di tipo vettoriale, invece, qualora si debbano processare vettori completi, l'elaborazione è più veloce rispetto ad un'architettura scalare, in caso contrario, si ha un problama analogo a quello delle architetture vliw, ovvero una perdita di efficienza. Quindi, la scalare sembrerebbe quella mediamente più efficiente con pressochè tutte le condizioni di impiego; lo svantaggio principale è il molto spazio occupato (hanno bisogno di un gran numero di registri e di unità e circuiti di controllo, trasmissione e feedback, con relativi buffer). Un'architettura vliw, invece, è complessivamente meno efficiente, ma occupa molto meno spazio e, con codice ottimizzato, è più veloce
:winner: :winner: :winner:
:cincin:
Mister Tarpone
11-07-2008, 02:47
:winner: :winner: :winner:
:cincin:
6 post di fila :winner: :winner: :winner:
:cincin:
Marko#88
11-07-2008, 06:32
6 post di fila :winner: :winner: :winner:
:cincin:
si era rotto il multiquote?:asd:
-noxius-
11-07-2008, 14:53
A me basta che schede top come HD4870 e gtx 260 arrivino sui 200 euro e sotto, poi mi interessa poco.
Poter disporre del meglio sul mercato a questi prezzi, è a mio avviso fantastico.
In barba a chi spende migliaia di euro (me compreso, ricordo i 613 € per la 8800 gtx :D)
da trovaprezzi :
9800gtx = 197 euro
HD4870 = 195 euro
Servono commenti ?
appleroof
11-07-2008, 14:56
Non è mai detto effettivamente, ma vedendo l'andamento degli ultimi 6 anni, punterei su ATI..
davvero? Da te chissà perchè non me lo sarei mai aspettato...:asd:
6 post di fila :winner: :winner: :winner:
:cincin:
:D :D
ninja750
11-07-2008, 15:09
se è vero che le dx11 debutteranno l'anno prox, la 88gtx si è praticamente fatta indisturbata (forse l'ultimo anno la vedrà "capitolare", dipende dalla risoluzione a cui si gioca) un'intera libreria dx, e sempre al top :)
se le DX11 verranno sfruttate come le DX10 ad oggi (alcuni benchmark e quanti..? 3-4 giochi?) non sarà il caso di passare ad una nuova vga _solo_ per quel motivo
almeno quando sono stati introdotti gli shader model 3.0 quasi tutti i giochi che sono usciti li utilizzavano e se la tua vga non li supportava in molti casi non si installavano nemmeno.. con le DX10 invece c'è quasi sempre la versione DX9 compatibile (per ovvi motivi)
Marko#88
11-07-2008, 15:24
da trovaprezzi :
9800gtx = 197 euro
HD4870 = 195 euro
Servono commenti ?
decisamente no, mi sembra chiara la situazione...:)
appleroof
11-07-2008, 15:26
se le DX11 verranno sfruttate come le DX10 ad oggi (alcuni benchmark e quanti..? 3-4 giochi?) non sarà il caso di passare ad una nuova vga _solo_ per quel motivo
almeno quando sono stati introdotti gli shader model 3.0 quasi tutti i giochi che sono usciti li utilizzavano e se la tua vga non li supportava in molti casi non si installavano nemmeno.. con le DX10 invece c'è quasi sempre la versione DX9 compatibile (per ovvi motivi)
:confused:
non capisco: se ci fosse, per assurdo, una scheda dx11 domani che andasse il doppio di una 8800gtx e fosse retrocompatibile (come la 88gtx lo è per le dx9) però appunto pronta per le dx11, non la compreresti solo perchè non ci sono giochi dx11?
Allora non avrei dovuto comprare la 88gtx come ho fatto nel novembre 2006, allora il 90% di quelli che bazzicano su questo forum non avrebbero dovuto comprare alcuna scheda dx10 (visto che di giochi dx10 manco l'ombra e siamo a metà 2008) seguendo il tuo ragionamento :what:
Marko#88
11-07-2008, 15:36
:confused:
non capisco: se ci fosse, per assurdo, una scheda dx11 domani che andasse il doppio di una 8800gtx e fosse retrocompatibile (come la 88gtx lo è per le dx9) però appunto pronta per le dx11, non la compreresti solo perchè non ci sono giochi dx11?
Allora non avrei dovuto comprare la 88gtx come ho fatto nel novembre 2006, allora il 90% di quelli che bazzicano su questo forum non avrebbero dovuto comprare alcuna scheda dx10 (visto che di giochi dx10 manco l'ombra e siamo a metà 2008) seguendo il tuo ragionamento :what:
ma non la si compra per le dx, la si compra per le prestazioni...se la 8800GTX fosse andata come una 7900gtx ma avesse avuto le dx10 l'avresti comprata? io certo che no, almeno finchè le dx in questione sarebbero state sfruttate...
secondo me ninja intendeva per quello...ovvio che se si vuole cambiare vga si guardano le prestazioni, non è che non la si compra perchè è avanti con le dx...:asd:
appleroof
11-07-2008, 15:42
ma non la si compra per le dx, la si compra per le prestazioni...se la 8800GTX fosse andata come una 7900gtx ma avesse avuto le dx10 l'avresti comprata? io certo che no, almeno finchè le dx in questione sarebbero state sfruttate...
secondo me ninja intendeva per quello...ovvio che se si vuole cambiare vga si guardano le prestazioni, non è che non la si compra perchè è avanti con le dx...:asd:
ah ok, così sono d'accordo, infatti non capivo bene e l'ho scritto :read:...
per il resto dò per scontato che una nuova architettura vada meglio di quella precedente, almeno di sicuro con i giochi della "libreria precedente", non credi? :stordita:
cmq questa storia delle dx11 e dei rumors che vorrebbero la nuova architettura Nvidia già a primavera 2009 mi scombussola un poco i piani di upgrade della vga, era solo per quello che l'ho sollevata (tanto già mi stavo orientando su 4870 a gtx260) e per quello ho deciso di ignorare definitivamente sia l'attuale gtx280 che 4870x2, per ora
ninja750
11-07-2008, 16:04
secondo me ninja intendeva per quello...ovvio che se si vuole cambiare vga si guardano le prestazioni, non è che non la si compra perchè è avanti con le dx...:asd:
ho scritto "_solo_" mica per niente!
Marko#88
11-07-2008, 16:11
ah ok, così sono d'accordo, infatti non capivo bene e l'ho scritto :read:...
per il resto dò per scontato che una nuova architettura vada meglio di quella precedente, almeno di sicuro con i giochi della "libreria precedente", non credi? :stordita:
cmq questa storia delle dx11 e dei rumors che vorrebbero la nuova architettura Nvidia già a primavera 2009 mi scombussola un poco i piani di upgrade della vga, era solo per quello che l'ho sollevata (tanto già mi stavo orientando su 4870 a gtx260) e per quello ho deciso di ignorare definitivamente sia l'attuale gtx280 che 4870x2, per ora
si, tecnicamente una nuova architettura dovrebbe andare parecchio più della precedente, almeno parlando di schede video di fascia alta ecc...io credo che a fine estate prenderò una 4870 oltre ad aggiornare scheda madre e cpu...tanto costa relativamente pocoe volendo la potrò ricambiare quando ne avrò voglia...attualmente non sto giocando e non mi va, è solo per questo che aspetto ad acquistare...
ho scritto "_solo_" mica per niente!
;)
Free Gordon
11-07-2008, 16:47
davvero? Da te chissà perchè non me lo sarei mai aspettato...:asd:
:D :D
L'unica cosa è che non è una considerazione dipendente dal "cuore" ma da ottime ragioni tecniche. ;)
Anche se il mio cuore è rosso, sicuramente. ;)
appleroof
11-07-2008, 16:51
L'unica cosa è che non è una considerazione dipendente dal "cuore" ma da ottime ragioni tecniche. ;)
Anche se il mio cuore è rosso, sicuramente. ;)
parliamone :D
ma oggi non doveva uscire la 9800GTX+?? :confused:
sto aspettando l'uscita per prendermi la 2° 4850 a prezzi ribassati :D :D
michelgaetano
11-07-2008, 18:19
ma oggi non doveva uscire la 9800GTX+?? :confused:
sto aspettando l'uscita per prendermi la 2° 4850 a prezzi ribassati :D :D
? Davvero ?
:confused:
? Davvero ?
:confused:
avevano detto 11 luglio... :confused:
alex oceano
11-07-2008, 18:31
allora vedremo la gtx 260 a 200€??? finalmente!!! settembre potrebbe essere il mese che compro la vga nuova e sono interessato a questa ma anche un 'pò indeciso!
michelgaetano
11-07-2008, 18:36
allora vedremo la gtx 260 a 200€??? finalmente!!! settembre potrebbe essere il mese che compro la vga nuova e sono interessato a questa ma anche un 'pò indeciso!
a meno di 200 euro c'è la 4870 che va uguale -_-
Marko#88
11-07-2008, 18:53
avevano detto 11 luglio... :confused:
io avevo capito 15...sbaglio? ad ogni modo con la 4850 a 130 e la 4780 sotto i 200 la gtx+ dovrà costare davvero poco per avere senso..
michelgaetano
11-07-2008, 18:56
io avevo capito 15...sbaglio? ad ogni modo con la 4850 a 130 e la 4780 sotto i 200 la gtx+ dovrà costare davvero poco per avere senso..
Prezzo gisuto sarebbe 150 imo
Prezzo gisuto sarebbe 150 imo
si 150€ sarebbe un prezzo giusto, ma meglio a 140€ così la 4850 scende a 120€ :D :D
allora vedremo la gtx 260 a 200€??? finalmente!!! settembre potrebbe essere il mese che compro la vga nuova e sono interessato a questa ma anche un 'pò indeciso!
ma prendi la 4870 che va uguale e costa già ora 200€... :)
Marko#88
11-07-2008, 19:08
Prezzo gisuto sarebbe 150 imo
è quel che dico anch'io da parecchio ormai...:)
Free Gordon
12-07-2008, 02:32
parliamone :D
L'unica GPU Nvidia, del pari periodo, prestazionalmente superiore alla controparte ATI, è stata G80 e figli.
A livello di features invece, manco quella. ;)
(beh no, diciamo che la 6800, sulla carta, da quel pdv era meglio di X800).
Sempre parlando dell'arco di tempo che intercorre tra il 2002 e il 2008, prima ATI era un'azienda in erba...non paragonabile ad Nvidia.
alex oceano
12-07-2008, 10:16
allora ribadendo...
la gtx 260 va uguale di prestazioni alla ati 4870 giusto
ho visto i prezzi in un negozio e sono i seguenti ati 4870 a 259€ e nvidea a 400€
il pensiero ora è su ati...
allora ribadendo...
la gtx 260 va uguale di prestazioni alla ati 4870 giusto
ho visto i prezzi in un negozio e sono i seguenti ati 4870 a 259€ e nvidea a 400€
il pensiero ora è su ati...
quei prezzi sono troppo elevati, poi quello della gtx260 non ne parliamo proprio:doh::rolleyes: ..
ma da quale rivenditore ti servi?
......
tò ecco i prezzi in germania della 9800gtx+:
http://geizhals.at/eu/?fs=9800gtx%2B&x=32&y=10&in=
alex oceano
12-07-2008, 10:38
so che scrivere il nome del rivendito è vietato !! o no se vuoi te lo dico in privato se no se lo posso scrivere qui tanto meglio... ciao
so che scrivere il nome del rivendito è vietato !! o no se vuoi te lo dico in privato se no se lo posso scrivere qui tanto meglio... ciao
ti ho mandato un messaggio in pvt..
ciao
halduemilauno
12-07-2008, 11:11
allora ribadendo...
la gtx 260 va uguale di prestazioni alla ati 4870 giusto
ho visto i prezzi in un negozio e sono i seguenti ati 4870 a 259€ e nvidea a 400€
il pensiero ora è su ati...
a 400€ si trovano quasi le gtx280. le gtx260 si trovano intorno ai 250€. e le 4870 a meno ancora.
a 400€ si trovano quasi le gtx280. le gtx260 si trovano intorno ai 250€. e le 4870 a meno ancora.
intanto le 9800gtx si cominciano a trovare a 179 euro:
http://www.trovaprezzi.it/categoria.aspx?libera=9800gtx&id=28&prezzoMin=&prezzoMax=&sbox=sb
;)
halduemilauno
12-07-2008, 11:29
intanto le 9800gtx si cominciano a trovare a 179 euro:
http://www.trovaprezzi.it/categoria.aspx?libera=9800gtx&id=28&prezzoMin=&prezzoMax=&sbox=sb
;)
bene ma la vera botta al prezzo la darà il 15 luglio quando verrà presentata ufficialmente la 9800gtx+ che nel frattempo pare che avrà un prezzo di 199$.
;)
michelgaetano
12-07-2008, 11:33
allora ribadendo...
la gtx 260 va uguale di prestazioni alla ati 4870 giusto
ho visto i prezzi in un negozio e sono i seguenti ati 4870 a 259€ e nvidea a 400€
il pensiero ora è su ati...
Che ladri :eek: !
prendile online, che stanno a 195 e 250 :doh:
overclock83
12-07-2008, 15:44
ma questa 9800 gtx+ ha un leggerissimo overclock che si puo tenere tranquillamente con una 9800 standart senza nessun rischio secondo me e veramente una ladrata
-noxius-
12-07-2008, 16:31
ma questa 9800 gtx+ ha un leggerissimo overclock che si puo tenere tranquillamente con una 9800 standart senza nessun rischio secondo me e veramente una ladrata
Non è vero , le ''+'' le puoi overcloccare a 20-30MHz in più sul core !!! :eek: :doh:
michelgaetano
12-07-2008, 17:17
Non è vero , le ''+'' le puoi overcloccare a 20-30MHz in più sul core !!! :eek: :doh:
:asd:
HackaB321
15-07-2008, 10:34
Dalla recensione di hwup sulla 4870x2 sembra che questa scheda abbia notevoli problemi di consumo rispetto alla concorrente 4850.
http://img244.imageshack.us/img244/3175/power29b1bf20ba7.th.png (http://img244.imageshack.us/my.php?image=power29b1bf20ba7.png)
halduemilauno
15-07-2008, 10:57
Dalla recensione di hwup sulla 4870x2 sembra che questa scheda abbia notevoli problemi di consumo rispetto alla concorrente 4850.
http://img244.imageshack.us/img244/3175/power29b1bf20ba7.th.png (http://img244.imageshack.us/my.php?image=power29b1bf20ba7.png)
io vedo appena un 5/10 watt in + rispetto alla 9800gtx ovvero la scheda che deve sostituire. dopotutto il nuovo pp a 55nm se lo sfrutti(in questo caso giustamente)sull'altare delle frequenze superiori non ne puoi gioire su quello dei consumi.
imho.
consuma quasi quanto la 280... e per fortuna che è a 55nm... :muro:
HackaB321
15-07-2008, 11:22
io vedo appena un 5/10 watt in + rispetto alla 9800gtx ovvero la scheda che deve sostituire. dopotutto il nuovo pp a 55nm se lo sfrutti(in questo caso giustamente)sull'altare delle frequenze superiori non ne puoi gioire su quello dei consumi.
imho.
facevo un confronto con 4850, la scheda contro la quale Nvidia vuol mettere questa GTX+. Come consumi da quel grafico non ci siamo (anche se manca il dato in idle): la 4850 consuma molto meno.
per farvi un'indea più o meno sui consumi effettivi che potrebbe avere la gtx+:
http://www.xbitlabs.com/articles/video/display/zotac-gf9800gtx-amp_4.html#sect0
la 9800gtx+ dovrebbe avere un consumo analogo alla zotac oc o addirittura più basso visto che ha frequenze di funzionamento più basse..
Marko#88
15-07-2008, 13:42
io vedo appena un 5/10 watt in + rispetto alla 9800gtx ovvero la scheda che deve sostituire. dopotutto il nuovo pp a 55nm se lo sfrutti(in questo caso giustamente)sull'altare delle frequenze superiori non ne puoi gioire su quello dei consumi.
imho.
facevo un confronto con 4850, la scheda contro la quale Nvidia vuol mettere questa GTX+. Come consumi da quel grafico non ci siamo (anche se manca il dato in idle): la 4850 consuma molto meno.
quoto Hacka, da li pare che la 4850 consumi parecchio meno dell'avversaria...
gianni1879
15-07-2008, 14:08
quoto Hacka, da li pare che la 4850 consumi parecchio meno dell'avversaria...
http://www.hwupgrade.it/articoli/skvideo/2007/power.png
effettivamente sembra così, siamo a +50W con Crysis e +80W in full cpu+gpu, il che non è pochissimo considerando il costo di questa vga
alex oceano
15-07-2008, 18:20
oggi è uscita la 9800gtx quando si assesteranno i prezzi della 9800 e i prezzo della nuova settembre o prima...
appleroof
15-07-2008, 18:22
http://www.hwupgrade.it/articoli/skvideo/2007/power.png
effettivamente sembra così, siamo a +50W con Crysis e +80W in full cpu+gpu, il che non è pochissimo considerando il costo di questa vga
che c'entrano i consumi con il costo della vga? :D
gianni1879
15-07-2008, 19:30
che c'entrano i consumi con il costo della vga? :D
in fascia media si è più attenti ai consumi, in fascia alta un pò meno :D
poichè sono "ormai fascia media" mi pare anche giusto valutare questo fattore
appleroof
15-07-2008, 22:09
in fascia media si è più attenti ai consumi, in fascia alta un pò meno :D
poichè sono "ormai fascia media" mi pare anche giusto valutare questo fattore
bè, quelle di computer base a detta di molti sono le rece migliori sotto tutti i punti di vista, li non c'è molta distanza tra le due...(la gtx+ consumerebbe tra il 3% in full ed il 5% in idle sempre in più)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/26/
;)
yossarian
15-07-2008, 22:37
bè, quelle di computer base a detta di molti sono le rece migliori sotto tutti i punti di vista, li non c'è molta distanza tra le due...(la gtx+ consumerebbe tra il 3% in full ed il 5% in idle sempre in più)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/26/
;)
è anche il 49% più lenta a 1600x1200 con i filtri al massimo :D
halduemilauno
16-07-2008, 10:59
un'altra rece...
http://www.hexus.net/content/item.php?item=14351&page=1
;)
michelgaetano
16-07-2008, 11:23
Ragazzi ma quando esce quindi?
Non se ne può più, la 9800gtx è ancora a 180 euro -_-
ma sono già in vendita le gtx+ in italia? cmq le 9800GTX è già scesa a 174€, mentre la 4850 si avvia verso i 130€ tondi... :D :D
michelgaetano
16-07-2008, 11:53
Non ci sono ancora...considerando che verrebbero ocmmerciate a 199 dollari, sarebbe ottimo per tutti...
Foglia Morta
16-07-2008, 13:19
Prima 9800 GT ( non GTX+ ) a listino, 149 euro http://www.grafikkartenpower.de/shop/catalog/product_info.php?products_id=816&referer=PSM_DE
Fire Hurricane
16-07-2008, 13:33
ragazzi ancora di sta 4870 X2, ?
forte forte e poi le prende in crysis dalla GTX 280 !
Ma per favore.
gianni1879
16-07-2008, 13:43
ragazzi ancora di sta 4870 X2, ?
forte forte e poi le prende in crysis dalla GTX 280 !
Ma per favore.
non era il thread della 9800gtx+ :rolleyes:
gianni1879
16-07-2008, 13:44
Prima 9800 GT ( non GTX+ ) a listino, 149 euro http://www.grafikkartenpower.de/shop/catalog/product_info.php?products_id=816&referer=PSM_DE
ma non si era detto che la 9800gt non sarebbe stata prodotta??
Fire Hurricane
16-07-2008, 13:55
Raga secondo wikipedia la 9800GTX+ fa 703GFlops/s contro i 733 della GTX 260.
MA è vero ?
Suppongo che quindi a basse risoluzioni le differenze siano leggere no ?
bè, quelle di computer base a detta di molti sono le rece migliori sotto tutti i punti di vista, li non c'è molta distanza tra le due...(la gtx+ consumerebbe tra il 3% in full ed il 5% in idle sempre in più)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/26/
;)
una volta che il powerplay verra' implementato nei driver (si spera con gli 8.7) i consumi saranno nettamente a favore di ati, dato che il powerplay implementato nella serie 4.xxx dovrebbe essere ancora piu' efficiente di quello della serie 3xxx
michelgaetano
16-07-2008, 14:03
ragazzi ancora di sta 4870 X2, ?
forte forte e poi le prende in crysis dalla GTX 280 !
Ma per favore.
Spero la smetterai con le tue solite insinuazioni, non è il posto giusto.
[edit, che è meglio.]
Tornando in tema: possibile che vi sia una sorta di roadmap, o qualcos'altro per la data d'uscita?
halduemilauno
16-07-2008, 14:07
Raga secondo wikipedia la 9800GTX+ fa 703GFlops/s contro i 733 della GTX 260.
MA è vero ?
Suppongo che quindi a basse risoluzioni le differenze siano leggere no ?
no. sono 715 per la gtx260 e 470 per la 9800gtx+ mentre per la 9800gtx sono 432.
;)
halduemilauno
16-07-2008, 14:08
Spero la smetterai con le tue solite insinuazioni, non è il posto giusto.
[edit, che è meglio.]
Tornando in tema: possibile che vi sia una sorta di roadmap, o qualcos'altro per la data d'uscita?
a quali schede ti riferisci?
Fire Hurricane
16-07-2008, 14:15
no ne fa 520 la 8800GTX
michelgaetano
16-07-2008, 14:19
a quali schede ti riferisci?
Beh, la 9800 gtx+ ^^"
Se non si sbrigano ad immetterla sul mercato, continueranno a perdere nei confronti di ATI.
Io spero lo facciano quanto prima, così avremo un ulteriore abbassamento dei prezzi :D
halduemilauno
16-07-2008, 14:22
Beh, la 9800 gtx+ ^^"
Se non si sbrigano ad immetterla sul mercato, continueranno a perdere nei confronti di ATI.
Io spero lo facciano quanto prima, così avremo un ulteriore abbassamento dei prezzi :D
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juli/geforce_9800_gtx_150_euro/
poi sul fatto che continuano a perdere per molta parte dell'utenza mondiale ati non è nemmeno conosciuta. che si sbrighino cmq è bene.
cmq le ultime news sono li basta leggerle.
michelgaetano
16-07-2008, 14:27
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juli/geforce_9800_gtx_150_euro/
poi sul fatto che continuano a perdere per molta parte dell'utenza mondiale ati non è nemmeno conosciuta. che si sbrighino cmq è bene.
cmq le ultime news sono li basta leggerle.
Non mi pare che ATI sia una marca sconosciuta :confused:
Da noi almeno, Nvidia sta perdendo tante potenziali vendite: se avesse tirato più presto la 9800gtx+, o avesse comunque ridotto davvero il prezzo della 9800gtx, moltissime persone non avrebbero preso una HD4850, non credi?
Non penso ciò avvenga solo in Italia, francamente.
Il tedesco comunque non è mio amico :asd:, ma non ho intravisto date, solo 150 euro (che si spera calino, visti i 130 della concorrente)
halduemilauno
16-07-2008, 14:29
Non mi pare che ATI sia una marca sconosciuta :confused:
Da noi almeno, Nvidia sta perdendo tante potenziali vendite: se avesse tirato più presto la 9800gtx+, o avesse comunque ridotto davvero il prezzo della 9800gtx, moltissime persone non avrebbero preso una HD4850, non credi?
Non penso ciò avvenga solo in Italia, francamente.
Il tedesco comunque non è mio amico :asd:, ma non ho intravisto date, solo 150 euro (che si spera calino, visti i 130 della concorrente)
cmq pochi giorni.
yossarian
16-07-2008, 14:46
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juli/geforce_9800_gtx_150_euro/
poi sul fatto che continuano a perdere per molta parte dell'utenza mondiale ati non è nemmeno conosciuta. che si sbrighino cmq è bene.
cmq le ultime news sono li basta leggerle.
neanche nVidia, se è per questo. Se vogliamo essere pignoli, la maggior parte di coloro che acquistano un computer conoscono intel e microsoft; poi c'è amd. Tanti non sanno neppure cosa sia una vga o a cosa serva :D
halduemilauno
16-07-2008, 14:50
neanche nVidia, se è per questo. Se vogliamo essere pignoli, la maggior parte di coloro che acquistano un computer conoscono intel e microsoft; poi c'è amd. Tanti non sanno neppure cosa sia una vga o a cosa serva :D
certo intel e microsoft son decisamente + noti. parlavo delle vga. credo che sia + nota ancora 3dfx che ati.
ps che bello mi replicherai con il tuo 5000.
Tidus.hw
16-07-2008, 14:53
certo intel e microsoft son decisamente + noti. parlavo delle vga. credo che sia + nota ancora 3dfx che ati.
ps che bello mi replicherai con il tuo 5000.
ma si, ma anche la s3 è più nota di ati XD XD
halduemilauno
16-07-2008, 14:55
ma si, ma anche la s3 è più nota di ati XD XD
d'accordo. ora riparliamo in topic.
yossarian
16-07-2008, 14:57
certo intel e microsoft son decisamente + noti. parlavo delle vga. credo che sia + nota ancora 3dfx che ati.
mi sono sbagliato, in realtà: la maggior parte degli utenti pc conosce windows e il pentium e molti non sanno neppure cosa sia una vga :D
ps che bello mi replicherai con il tuo 5000.
vero, non ci avevo fatto caso :)
Tidus.hw
16-07-2008, 14:58
d'accordo. ora riparliamo in topic.
certo! anche se non penso ci sia molto da dire su questa vga, l'unica cosa di cui si può discutere è su quando avverrà effettivamente il taglio del prezzo. :D per il resto è la solita minestra riscaldata..
mi sono sbagliato, in realtà: la maggior parte degli utenti pc conosce windows e il pentium e molti non sanno neppure cosa sia una vga :D
"che pc hai?" "ho un windows xp"
non sai quante volte l'ho sentito xD
Fire Hurricane
16-07-2008, 14:59
Non mi pare che ATI sia una marca sconosciuta :confused:
Da noi almeno, Nvidia sta perdendo tante potenziali vendite: se avesse tirato più presto la 9800gtx+, o avesse comunque ridotto davvero il prezzo della 9800gtx, moltissime persone non avrebbero preso una HD4850, non credi?
Non penso ciò avvenga solo in Italia, francamente.
Il tedesco comunque non è mio amico :asd:, ma non ho intravisto date, solo 150 euro (che si spera calino, visti i 130 della concorrente)
bè si ma una 4850 non so verclocca come una 9800gtx, figurati contro una gtx+.
appleroof
16-07-2008, 15:03
non so se già postata, interessanti aspetti legati al phisx:
http://forums.slizone.com/index.php?showtopic=24853&st=0&p=193453&#entry193453
michelgaetano
16-07-2008, 15:08
bè si ma una 4850 non so verclocca come una 9800gtx, figurati contro una gtx+.
Ma cosa ne sai tu scusa?
Non hai una 4850, non hai provato, nè puoi dimostrarlo.
Errik nel topic della 4850 ha avuto incrementi prestazionali del 10-15 % arrivando a 700 mhz (altri sono oltre), e altri utenti stanno ancora aspettando Rivatuner.
Anche io tra 4850 e 9800 gtx + a parità di prezzo sceglierei la proposta Nvidia, ma tu fai di tutto per sminuire le proposte ATI.
Per quanto riguarda Physix, spero in applicazioni migliori, in UT3 è una vera buffonata, come se la gente se ne importa nel mezzo di un TDM della vetrina pubblicitaria che si spacca :(
halduemilauno
16-07-2008, 15:11
Ma cosa ne sai tu scusa?
Non hai una 4850, non hai provato, nè puoi dimostrarlo.
Errik nel topic della 4850 ha avuto incrementi prestazionali del 10-15 % arrivando a 700 mhz (altri sono oltre), e altri utenti stanno ancora aspettando Rivatuner.
Anche io tra 4850 e 9800 gtx + a parità di prezzo sceglierei la proposta Nvidia, ma tu fai di tutto per sminuire le proposte ATI.
Per quanto riguarda Physix, spero in applicazioni migliori, in UT3 è una vera buffonata, come se la gente se ne importa nel mezzo di un TDM della vetrina pubblicitaria che si spacca :(
non confondiamo l'oc numerico con la sua resa. in questo le nvidia sono avvantaggiate proprio perchè hanno i clock core e shader separati. un 15% ha diversa valenza.
Foglia Morta
16-07-2008, 15:14
ma non si era detto che la 9800gt non sarebbe stata prodotta??
bhe ma comunque è solo una questione di cambiargli il nome... non cambia niente rispetto a prima. E' solo una "curiosità"
Tidus.hw
16-07-2008, 15:14
non confondiamo l'oc numerico con la sua resa. in questo le nvidia sono avvantaggiate proprio perchè hanno i clock core e shader separati. un 15% ha diversa valenza.
perchè sarebbero avvantaggiate?
e spero che tu sia al corrente del fatto che le 4800 scalano quasi linearmente all'aumentare della frequenza, mentre la 9800 no.
appleroof
16-07-2008, 15:17
cut ma tu fai di tutto per sminuire le proposte ATI.
Per quanto riguarda Physix, spero in applicazioni migliori, in UT3 è una vera buffonata, come se la gente se ne importa nel mezzo di un TDM della vetrina pubblicitaria che si spacca :(
:asd: :asd: :asd:
halduemilauno
16-07-2008, 15:21
perchè sarebbero avvantaggiate?
e spero che tu sia al corrente del fatto che le 4800 scalano quasi linearmente all'aumentare della frequenza, mentre la 9800 no.
perchè si può spingere ancora di + sul fronte shader. sia relativo perchè hanno gia in partenza clock diversi e sia perchè sono separati quindi quando il core arriva al capolinea magari con gli shader puoi salire ancora di +.
una cosa è 625/625 che diventano 700/700 e un'altra è 738/1836 che diventano 840/2100. e a 840/2100 c'è il rischio che puoi cominciare a dare fastidio alla 4870. rischio. alle ris. tipiche della 9800gtx+ ovviamente.
gianni1879
16-07-2008, 15:26
bhe ma comunque è solo una questione di cambiargli il nome... non cambia niente rispetto a prima. E' solo una "curiosità"
quindi niente 55nm per la 9800gt?
Foglia Morta
16-07-2008, 15:30
quindi niente 55nm per la 9800gt?
ci saranno degli "scarti" anche con le gpu prodotte a 55nm e saranno senz'altro usati sulle 9800 GT . Ma all'acquirente cambia poco... la scheda più o meno è sempre quella ;)
gianni1879
16-07-2008, 15:31
perchè si può spingere ancora di + sul fronte shader. sia relativo perchè hanno gia in partenza clock diversi e sia perchè sono separati quindi quando il core arriva al capolinea magari con gli shader puoi salire ancora di +.
una cosa è 625/625 che diventano 700/700 e un'altra è 738/1836 che diventano 840/2100. e a 840/2100 c'è il rischio che puoi cominciare a dare fastidio alla 4870. rischio. alle ris. tipiche della 9800gtx+ ovviamente.
+12% di rv770 a 700 MHz
+13% core e +14% shaders su G92b
Non mi pare tutto questo abisso incrementale di differenza tra le due vga, differiscono si e no di un 1/2%
Certo come se la hd4870 non si overclocchi per nulla.... la HD4850 è distante dal 20/30% rispetto alla HD4870, questo rischio con la 9800gtx+ non c'è di raggiungerla.......
gianni1879
16-07-2008, 15:31
ci saranno degli "scarti" anche con le gpu prodotte a 55nm e saranno senz'altro usati sulle 9800 GT . Ma all'acquirente cambia poco... la scheda più o meno è sempre quella ;)
:sisi: era una curiosità più che altro ;)
halduemilauno
16-07-2008, 15:35
+12% di rv770 a 700 MHz
+13% core e +14% shaders su G92b
Non mi pare tutto questo abisso incrementale di differenza tra le due vga, differiscono si e no di un 1/2%
Certo come se la hd4870 non si overclocchi per nulla....
è chiaro che era in riferimento alla 4870 default. mai detto abisso ho detto diversa valenza.
e tu cmq hai fatto la % dei numeri. quindi mi sa che non hai ben capito quello che intendevo.
gianni1879
16-07-2008, 15:37
è chiaro che era in riferimento alla 4870 default. mai detto abisso ho detto diversa valenza.
e tu cmq hai fatto la % dei numeri. quindi mi sa che non hai ben capito quello che intendevo.
no ho capito perfettamente, sostenevi che l'oc da te citato sulla 9800gtx+ in virtù degli shaders più spinti avrebbe compensato meglio, invece non è proprio così, i numeri non smentiscono, portare una hd4850 a 700 MHz equivale, come incremento percentuale, ad oc una 9800gtx+
una cosa è 625/625 che diventano 700/700 e un'altra è 738/1836 che diventano 840/2100
l'hai detto tu, mica io
michelgaetano
16-07-2008, 15:43
:asd: :asd: :asd:
Se mi spieghi il senso.
Perdere tempo su titoli simili è inutile, e lo dico da giocatore.
Physix andrebbe implementato in altro.
Non che non sia la benvenuta su UT, ma renderlo in qualche modo fruibile, non quella buffonata.
Chessò, riempire di buchi un muro e farlo crollare. Non spaccare una vetrina.
E no, non sto "sminuendo" Nvidia e Physix, se è a quello che alludevi.
Ultimamente sembra che tu ti diverta a farmi passare per un partigiano rosso, apple.
Sull'OC: io non vedo grosse vittorie da una o dall'altra parte al momento, chi dice che le ATI non salgono lo fa senza cognizione di causa (un odegli ultimi post nel thread era un bel 730/1150). CHe poi anche io preferisco l'archiettura con gli shader separati.
HackaB321
16-07-2008, 15:44
non confondiamo l'oc numerico con la sua resa. in questo le nvidia sono avvantaggiate proprio perchè hanno i clock core e shader separati. un 15% ha diversa valenza.
il vantaggio per nvidia sta nel fatto che con clock separati è possibile intervenire sullo shader core o sulle TMU a seconda di quale dei due fattori sia più limitante. Su G92 aveva più efficacia un oc degli shaders, sulle nuove GTX forse ha più senso un oc della gpu (sarebbe interessante avere/fare test in questo senso).
Quanto ad ATi ciò che dici era vero per R600/RV670 nel senso che l'architettura era sbilanciata, l'oc separato non era possibile e quindi anche la scheda occata restava sbilanciata con, di conseguenza, una bassa resa dell'oc.
RV770 invece essendo una gpu più efficiente ed equilibrata ha un ottimo oc anche in termini di rese.
yossarian
16-07-2008, 16:38
non confondiamo l'oc numerico con la sua resa. in questo le nvidia sono avvantaggiate proprio perchè hanno i clock core e shader separati. un 15% ha diversa valenza.
vedi hal, quella che tu interpreti come una drittata, ovvero clock separati per shader e resto della gpu, è, invece, una necessità: una singola alu di G80 o di GT200 è troppo voluminosa perchè se ne possano allocare in gran numero; di conseguenza si deve puntare sulla frequenza per avere più Gflops teorici (il numero di ops per ciclo è davvero esiguo, pochè parliamo di 240 MADD e 240 MUL per GT200, per un totale di 720 flops, e di 384 flops totali per G80, tenendo per buone le MUL dichiarate da nVidia).
appleroof
16-07-2008, 16:39
Se mi spieghi il senso.
Perdere tempo su titoli simili è inutile, e lo dico da giocatore.
Physix andrebbe implementato in altro.
Non che non sia la benvenuta su UT, ma renderlo in qualche modo fruibile, non quella buffonata.
Chessò, riempire di buchi un muro e farlo crollare. Non spaccare una vetrina.
E no, non sto "sminuendo" Nvidia e Physix, se è a quello che alludevi.
Ultimamente sembra che tu ti diverta a farmi passare per un partigiano rosso, apple.
cut
EDIT
Foglia Morta
16-07-2008, 16:43
vedi hal, quella che tu interpreti come una drittata, ovvero clock separati per shader e resto della gpu, è, invece, una necessità: una singola alu di G80 o di GT200 è troppo voluminosa perchè se ne possano allocare in gran numero; di conseguenza si deve puntare sulla frequenza per avere più Gflops teorici (il numero di ops per ciclo è davvero esiguo, pochè parliamo di 240 MADD e 240 MUL per GT200, per un totale di 720 flops, e di 384 flops totali per G80, tenendo per buone le MUL dichiarate da nVidia).
hai quotato me :D
confondermi con hal ce ne voleva :asd:
michelgaetano
16-07-2008, 16:45
Io non reputo di averlo sminuito, se avessi voluto farlo avrei detto che fa schfo, che non serve a niente, che havok è meglio e qualche altra serie di amenità :D
Non la penso così, semplicemente allo stato attuale non è qualcosa che viene sfruttato. E c'è chi lo esalta in maniera davvero sfrontata.
So che non mi hai definito come tale (non me lo aspetterei certo, dai tuoi post cerchi sempre di risultare neutrale :)), però ho avuto quell'impressione da 2-3 posts.
Poi ognuno la pensa come vuole :D
Peace & Love :D
yossarian
16-07-2008, 16:48
hai quotato me :D
confondermi con hal ce ne voleva :asd:
vero, scusami, rettifico subito :muro:
fatto :D
appleroof
16-07-2008, 16:52
Io non reputo di averlo sminuito, se avessi voluto farlo avrei detto che fa schfo, che non serve a niente, che havok è meglio e qualche altra serie di amenità :D
Non la penso così, semplicemente allo stato attuale non è qualcosa che viene sfruttato. E c'è chi lo esalta in maniera davvero sfrontata.
So che non mi hai definito come tale (non me lo aspetterei certo, dai tuoi post cerchi sempre di risultare neutrale :)), però ho avuto quell'impressione da 2-3 posts.
Poi ognuno la pensa come vuole :D
Peace & Love :D
ok :mano:
per il resto, non so altri, io lo esalto perchè (a livello di principio) considero eccellente un'implementazione nuova su una vga che (particolare non secondario) ho già da quasi 2 anni nel case :)
ovvio che se rimarrà come le dx10.1 per le schede Ati, una feature presente ma mai sfruttata, non me ne faccio una cippa :stordita:
michelgaetano
16-07-2008, 16:53
ok :mano:
per il resto, non so altri, io lo esalto perchè (a livello di principio) considero eccellente un'implementazione nuova su una vga che (particolare non secondario) ho già da quasi 2 anni nel case :)
ovvio che se rimarrà come le dx10.1 per le schede Ati, una feature presente ma mai sfruttata, non me ne faccio una cippa :stordita:
Sì, ed è un vero peccato che simili tecnologie non vengano sfruttate.
Poi ci ritroviamo con mattono indigeribili come Crysis :muro:
appleroof
16-07-2008, 16:54
è anche il 49% più lenta a 1600x1200 con i filtri al massimo :D
si parlava di consumi, non di prestazioni: dovevi proprio sottolinearlo nel tread della 9800gtx+, nevvero? :)
appleroof
16-07-2008, 17:01
Sì, ed è un vero peccato che simili tecnologie non vengano sfruttate.
cut
è tutto un problema di rapporti di forza, che alla fine si scarica tutto su noi consumatori finali: se per assurdo ci fosse un'unico produttore hw, che da solo proponesse il meglio dell'evoluzione tecnologica, la grafica di crysis oggi sembrerebbe obsoleta come quella di HL1 :read:
purtroppo a questo "gioco" partecipano tutti :mad:
mamma mia...ormai il 3d di ste due schede inutili che sono la gtx+ e la 260 attira solo più dei flame, daltronde sono indifendibili....
Però hal ha ragione qundo dice che ati è sconosciuta...va bhe è un po un parolone, ma è vero, chi non segue, non sa, si fa consigliare dal negozio e la maggior parte dei tecnici dei negozzi ti da la "g-force" poi magari rifila uno schifo di cheda fda 80€ con 2gb di ram, ma comunque tendenzialmente, nvidia.
Simile ma ancorea peggio per amd...ma chi lo conosce? Pubblicita?bho.Tv?
anni fà faceva grandi proci che la gente non conosceva e continuava a comprare "il pentium", cioè il processore...brutto ma è così
michelgaetano
16-07-2008, 17:25
Non son od'accordo però Blake: se Nvidia tira via altri 30 euro alla 260, e la 9800 gtx+ esce allo stesso prezzo della 4850, sono due validissime proposte.
Sono i prezzi di gtx 260 e 9800gtx al momento che non le danno spazio.
halduemilauno
16-07-2008, 17:26
vedi hal, quella che tu interpreti come una drittata, ovvero clock separati per shader e resto della gpu, è, invece, una necessità: una singola alu di G80 o di GT200 è troppo voluminosa perchè se ne possano allocare in gran numero; di conseguenza si deve puntare sulla frequenza per avere più Gflops teorici (il numero di ops per ciclo è davvero esiguo, pochè parliamo di 240 MADD e 240 MUL per GT200, per un totale di 720 flops, e di 384 flops totali per G80, tenendo per buone le MUL dichiarate da nVidia).
allora vedi che è una drittata perchè se fa di necessità fa virtù...
e poi ricordo che all'epoca del g80 anche tu ti complimentavi con nvidia per la drittata. e dato che il gt200 ne è figlio legittimo...come anche credo il gt300.
aspetta che nvidia adotti lo stesso pp a 55nm e poi vediamo a pari pp il risultato finale.
tocca aspettare. magari pure poco.
chissa.
Non son od'accordo però Blake: se Nvidia tira via altri 30 euro alla 260, e la 9800 gtx+ esce allo stesso prezzo della 4850, sono due validissime proposte.
Sono i prezzi di gtx 260 e 9800gtx al momento che non le danno spazio.
Allora sarebbe un'altra storia, equo prezzo per ottime prestazioni
Fire Hurricane
16-07-2008, 17:29
Ma cosa ne sai tu scusa?
Non hai una 4850, non hai provato, nè puoi dimostrarlo.
Errik nel topic della 4850 ha avuto incrementi prestazionali del 10-15 % arrivando a 700 mhz (altri sono oltre), e altri utenti stanno ancora aspettando Rivatuner.
Anche io tra 4850 e 9800 gtx + a parità di prezzo sceglierei la proposta Nvidia, ma tu fai di tutto per sminuire le proposte ATI.
Per quanto riguarda Physix, spero in applicazioni migliori, in UT3 è una vera buffonata, come se la gente se ne importa nel mezzo di un TDM della vetrina pubblicitaria che si spacca :(
invece si posso dimostrarlo caro mio, fai un saltino nel thread ufficiale, nessuna sale a oltre 700Mhz in daily. Oppure puoi benissimo guardare le recensioni. Nessuno ce la fa.
Ma chi ha parlato di Physix ???
Stai delirando :ciapet:
MODERA I TERMINI CMQ.
halduemilauno
16-07-2008, 17:33
Non son od'accordo però Blake: se Nvidia tira via altri 30 euro alla 260, e la 9800 gtx+ esce allo stesso prezzo della 4850, sono due validissime proposte.
Sono i prezzi di gtx 260 e 9800gtx al momento che non le danno spazio.
va be ma gia adesso la gtx tenendo conto di quel popò di ram in + i 40€ di differenza son belli che strapagati. e con i titoli che si avvicinano comprare oggi una scheda di fascia alta o medioalta con soli 512 mega a mio modesto avviso è un'azzardo dalla longevità molto molto bassa.
ovviamente parlo per quelli che comprano la 4870 nel suo scenario tipico dei 24 pollici ovvero 1920x1200 e ripeto ora potrebbero bastare ma fra qualche mese?????
in quanto alla 9800gtx+ è chiaro che per essa adeguarsi è un problema grosso avendo dietro tutto un'entroterra fatto di schede valide. la 4850 dietro aveva il deserto.
ovviamente tutto imho.
invece si posso dimostrarlo caro mio, fai un saltino nel thread ufficiale, nessuna sale a oltre 700Mhz in daily. Oppure puoi benissimo guardare le recensioni. Nessuno ce la fa.
Ma chi ha parlato di Physix ???
Stai delirando :ciapet:
MODERA I TERMINI CMQ.
Io starei calmino e modererei i termini...visto che te (e anche io:D ) sei appena tornato da un ban...vediamo di non farci buttare di nuovo fuori:D
va be ma gia adesso la gtx tenendo conto di quel popò di ram in + i 40€ di differenza son belli che strapagati. e con i titoli che si avvicinano comprare oggi una scheda di fascia alta o medioalta con soli 512 mega a mio modesto avviso è un'azzardo dalla longevità molto molto bassa.
ovviamente parlo per quelli che comprano la 4870 nel suo scenario tipico dei 24 pollici ovvero 1920x1200 e ripeto ora potrebbero bastare ma fra qualche mese?????
in quanto alla 9800gtx+ è chiaro che per essa adeguarsi è un problema grosso avendo dietro tutto un'entroterra fatto di schede valide. la 4850 dietro aveva il deserto.
ovviamente tutto imho.
scusate la mia domanda idiota...percaso esistono motitor con risoluzioni intermedie a 1600 e 1900?
Fire Hurricane
16-07-2008, 17:44
sta volta non ho alzato la voce, mi ha aggredito subito senza lasciarmi scampo.
mi è sembrato esasperato :ciapet:
halduemilauno
16-07-2008, 17:44
i 40€ in + che citavo son diventati 27.5€.
http://www.trovaprezzi.it/categoria.aspx?libera=GTX260&id=28&prezzoMin=&prezzoMax=&sbox=sb
http://www.trovaprezzi.it/categoria.aspx?libera=4870&id=28&prezzoMin=&prezzoMax=&sbox=sb
;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.