PDA

View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25

appleroof
31-05-2008, 16:51
La storia delle acquisizioni di nVidia è piena di morti premature. nVidia compra sempre il know how o la concorrenza, questa volta non sono più ottimista delle precedenti.

mah...3dfx ha dato vita allo sli, uli il suo know-how nei chipset poi? inoltre l'acquisto di havok da parte di Intel mi suggerisce che sia stata una mossa strategica (come le altre, del resto)

Mister Tarpone
31-05-2008, 16:55
aspetto il terzo round :gluglu:

vediamo cosa dirà ALM :gluglu:

appleroof
31-05-2008, 16:57
aspetto il terzo round :gluglu:

vediamo cosa dirà ALM :gluglu:

:asd:

goldorak
31-05-2008, 17:01
A dire il vero il :tapiro: va anche ad AMD che avra' bisogno di 4 schede (4x HD4870 o 2x hd4870x2) per fare una roba del genere...:asd: senno' poi ti dicono che sei di parte :sofico:



Beh ma Crysis e' un gioco TWIMTBP :sofico: cosi' come Assassin's Creed.
Che vadano peggio sulle ATI e' assodato (e' anche di proposito vedi appunto il caso di AC :p ), ma che dopo anni e anni di sviluppo, milioni di $ di mazzette da parte di Nvidia, la Crytek se ne esca fuori con un gioco che nessuna scheda top di gamma a distanza di 1 anno riesca a farlo girare al massimo io lo chiamo una bella :ciapet: ai consumatori.
Se 600 € non ti garantiscono prestazioni da favola sul gioco del momento a che serve ? :p

_morghan_1968
31-05-2008, 17:10
dalla mia esperienza...
crysis NON è l' unico gioco che mette in crisi le schede video :
ci sono già diversi titoli che giocati a 1900 x 1200 con tutte le impostazioni al max rischiano di scendere sotto i 30 fps
questo x tutti quelli che sono convinti dell' inutilità di vga TOP ....

A.L.M.
31-05-2008, 17:11
ridi ridi, ma continui a non far bene i compitini :nonsifa:

AGEIA Technologies, la nota azienda impegnata nello sviluppo di soluzioni hardware per la simulazione della fisica nei videogiochi, ha annunciato oggi di aver reso disponibili gratuitamente per tutti le SDK PhysX. In questo modo chiunque avrà la possibilità di utilizzare i tool di sviluppo forniti da AGEIA e le componenti runtime in prodotti commerciali e non commerciali, senza dover versare alcuna royalty.

anche l'havok di Intel sarà gratuito per la stessa ragione

inoltre, se un gioco implementa phisix, una vga non Nvidia è cmq in grado di farlo funzionare questo toglie ogni dubbio ad un finanziatore se implementarlo o meno (ammesso che dia un valore aggiunto al gioco) perchè non si taglia grosse fette di mercato

ora, io non dico che da domani tutti i giochi in giro supporteranno Phisix (anche Havok è molto diffuso ed ottimo) ma capisci che è un valore aggiungto non da poco, che un'azienda non spende milioni di dollari se non crede di averne vantaggio (proprio tu che sei così economista :asd: )

se Intel e Nvidia (non certo fanfulla s.rl. e fratelli rossi s.n.c.) si muovono in questo senso, o sono delle onlus (tanto dx11 imporrà il suo standard :rolleyes: ) oppure c'è qualcosa che non ti torna, mi pare (forse che Ati non ha la sua proposta? :asd: )

Ehm, lì si dice che agli sviluppatori (leggi: software house di giochi) non costa nulla usare le sdk PhysX, non che alle società di hw che volessero creare sistemi per supportare PhysX non costa nulla, almeno non è scritto espressamente.
Lì servirebbe che rendessero disponibili i DDK (driver development kit).
http://it.wikipedia.org/wiki/Software_development_kit

Però non vedo perchè dovrebbero fare beneficenza. Penso che NVidia invece spinga il pedale sulla diffusione di PhysX come uno standard nel settore (ecco il perchè della diffusione gratuita degli SDK).

Sul fatto di spendere milioni di dollari per nulla, il discorso è molto complesso e alquanto OT.

Ti anticipo però che Huang, CEO di NVidia, aveva accolto con grande disappunto l'acquisto di Havok da parte di Intel...

Guarda cosa si diceva il 22/11/2007, cioè solo poche settimane prima che NVidia ufficializzasse l'acquisto di Ageia (non volevo postarla, ma è troppo lollosa... :asd: )

GPU Physics, Dead and Buried Until DirectX 11

Havok's acquisition turned the gaming industry upside down

Computer gaming is more than classy graphics and excellent storyline. The digital television impacted over the gamers' brain, who now demand detail depth and realistic physics. Of course, these features get reflected in complicated mathematic calculations, necessary for particle rendering accuracy. If you experienced FPS freeze while using a smoke grenade in
a game, then you've met the physics engine.
Physics processing is highly appreciated both in the ATI and Nvidia spheres, but things have taken an unusual turn after Intel bought Havok, the most commonly used physics engine by worldwide producers. Before its acquisition, Havok was an independent provider of physics engines and other interactive middleware for game developers.
After the Havok-Intel fusion, things have changed radically for the physics engine producer, who already announced that the Havok FX engine, if released at all, will not feature any support. Since Havok FX is responsible for computing GPU physics, AMD’s Developer Relations Chief, Richard Huddy stated that "GPU physics is dead for now".
Huddy also confirmed that there is no sense in AMD promoting physics calculations on its multi-core processors, since the technology is highly unlikely to gain popularity without the appropriate development tools. Physics processing will become popular once Microsoft releases DirectX 11, who is projected to support physics on the GPU natively.
The Nvidia competition thinks similarly: Jen-Hsun Huang, chief executive officer at Nvidia confirmed that Intel acquiring Havok is prone to create "negative synergies" in respects for the GPU physics. Nvidia proves more optimistic and considers that there would be other companies to take up the niche place of Havoc.
"Physics processing has a long way to go and there are so many companies out there.
[There are] quite a few middleware companies out there that are creating technology in this area, and many games, many game developers incorporate their own physics engine. So my sense is that there’s a lot of invention still left to do in this area. I’m not sure why they bought that company, to tell you the truth. It might give them some advantages with respect to Havok, but it obviously creates negative synergies everywhere else", said Mr. Huang.

http://news.softpedia.com/newsPDF/GPU-Physics-Dead-and-Buried-Until-DirectX-11-71598.pdf

Ma come, 6 mesi fa Huang diceva che c'era ancora parecchio lavoro da fare nell'ambito fisica nei giochi (e aveva ragione, imho), ed ora tutto quel lavoro è già stato fatto? :sbonk:
Miracolo! :O

Mister Tarpone
31-05-2008, 17:14
dalla mia esperienza...
crysis NON è l' unico gioco che mette in crisi le schede video :
ci sono già diversi titoli che giocati a 1900 x 1200 con tutte le impostazioni al max rischiano di scendere sotto i 30 fps
questo x tutti quelli che sono convinti dell' inutilità di vga TOP ....

lo stavo per scrivere... ;)

concordo... a 1920x ce ne sono /e ci saranno..di giochi che fanno girare i coglioni :asd:

appleroof
31-05-2008, 17:21
Ehm, lì si dice che agli sviluppatori (leggi: software house di giochi) non costa nulla usare le sdk PhysX, non che alle società di hw che volessero creare sistemi per supportare PhysX non costa nulla, almeno non è scritto espressamente.
Lì servirebbe che rendessero disponibili i DDK (driver development kit).
http://it.wikipedia.org/wiki/Software_development_kit

Però non vedo perchè dovrebbero fare beneficenza. Penso che NVidia invece spinga il pedale sulla diffusione di PhysX come uno standard nel settore (ecco il perchè della diffusione gratuita degli SDK).

Sul fatto di spendere milioni di dollari per nulla, il discorso è molto complesso e alquanto OT.

Ti anticipo però che Huang, CEO di NVidia, aveva accolto con grande disappunto l'acquisto di Havok da parte di Intel...

Guarda cosa si diceva il 22/11/2007, cioè solo poche settimane prima che NVidia ufficializzasse l'acquisto di Ageia (non volevo postarla, ma è troppo lollosa... :asd: )



http://news.softpedia.com/newsPDF/GPU-Physics-Dead-and-Buried-Until-DirectX-11-71598.pdf

Ma come, 6 mesi fa Huang diceva che c'era ancora parecchio lavoro da fare nell'ambito fisica nei giochi (e aveva ragione, imho), ed ora tutto quel lavoro è già stato fatto? :sbonk:
Miracolo! :O

Ma tu davvero credi che quello che dicono ufficialmente è quello che davvero pensano/decidono eccetera? Dai A.L.M. se così fosse sarebbe abbastanza deludente da un utente così attento come te.....

per il resto, non è per beneficienza che lo rendono gratuito, ma appunto per non scoraggiare gli sviluppatori ad usarlo, ma poi il gioco per sfruttare phisix deve girare su vga Nvidia (ecco il ritorno economico, sorpresa :eek: :asd: )

per il resto ddk o sdk ti riposto la notizia completa, prima in effetti avevo dimenticato di linkare la fonte:

Manju Hegde, cofondatore e CEO di AGEIA Technologies, ha dichiarato: "Tutti gli sviluppatori possono implementare ora le nostre soluzioni per la fisica nei propri prodotti, facilmente e senza alcuna spesa".


ed infatti l'intento era poi di spingere le vendite delle ppu (prima che arrivasse Nvidia)



AGEIA si trova quindi nella situazione di poter stimolare la domanda da parte del pubblico per poter così aumentare la base di installato

http://www.hwupgrade.it/news/skvideo/19322.html
[/I]

A.L.M.
31-05-2008, 17:28
Ma tu davvero credi che quello che dicono ufficialmente è quello che davvero pensano/decidono eccetera? Dai A.L.M. se così fosse sarebbe abbastanza deludente da un utente così attento come te.....

per il resto, non è per beneficienza che lo rendono gratuito, ma appunto per non scoraggiare gli sviluppatori ad usarlo, ma poi il gioco per sfruttare phisix deve girare su vga Nvidia (ecco il ritorno economico, sorpresa :eek: :asd: )

per il resto ddk o sdk ti riposto la notizia completa, prima in effetti avevo dimenticato di linkare la fonte:

Manju Hegde, cofondatore e CEO di AGEIA Technologies, ha dichiarato: "Tutti gli sviluppatori possono implementare ora le nostre soluzioni per la fisica nei propri prodotti, facilmente e senza alcuna spesa".


ed infatti l'intento era poi di spingere le vendite delle ppu (prima che arrivasse Nvidia)



AGEIA si trova quindi nella situazione di poter stimolare la domanda da parte del pubblico per poter così aumentare la base di installato

http://www.hwupgrade.it/news/skvideo/19322.html
[/I]

Quindi quello che dicevo fin dall'inizio era giusto.
Per ottenere i DDK devi pagare, anzi non li puoi proprio ottenere perchè i driver per PhysX li farà solo NVidia (se no che vantaggio ne traggono?). :)
Ossia rimarrà uno standard supportato esclusivamente dalle vga NVidia, giusto?
Dunque credi che Intel (togliamo AMD che c'ha le pezze al culo) si piegherà, e dopo aver acquisito Havok lascerà correre. Mah, tutto può essere, però io ne dubito. E se le DX11 supporteranno la fisica (co, PhysX finirà nel dimenticatoio.

Errik89
31-05-2008, 17:29
lo stavo per scrivere... ;)

concordo... a 1920x ce ne sono /e ci saranno..di giochi che fanno girare i coglioni :asd:
azzo... allora mi devo preoccupare... sto per prendere un LCD da 24" e pensavo che, visto il ristagno completo dei titoloni per PC, una HD4870 mi sarebbe durata almeno un anno o anche più a far girare decentemente i giochi a quella risoluzione... :eek:

Mister Tarpone
31-05-2008, 17:35
capisco che c'è il ristagno nei giochi... ma si parla pur sempre della 1920x1200 (e metti anche i filtri) :eek:
mica la 1280x1024 :asd:

appleroof
31-05-2008, 17:35
Quindi quello che dicevo fin dall'inizio era giusto.
Per ottenere i DDK devi pagare, anzi non li puoi proprio ottenere perchè i driver per PhysX li farà solo NVidia (se no che vantaggio ne traggono?). :)
Ossia rimarrà uno standard supportato esclusivamente dalle vga NVidia, giusto?
Dunque credi che Intel (togliamo AMD che c'ha le pezze al culo) si piegherà, e dopo aver acquisito Havok lascerà correre. Mah, tutto può essere, però io ne dubito. E se le DX11 supporteranno la fisica (co, PhysX finirà nel dimenticatoio.

ma certo che i driver li fà Nvidia :doh:

ma una swh non paga se vuole implementare phisix nel suo gioco (che che per quella parte di gioco necessiterà però di una vga Nvidia) chiaro? [ UE3 già lo supporta......]



p.s.: Intel ancora non ha vga.....

azzo... allora mi devo preoccupare... sto per prendere un LCD da 24" e pensavo che, visto il ristagno completo dei titoloni per PC, una HD4870 mi sarebbe durata almeno un anno o anche più a far girare decentemente i giochi a quella risoluzione... :eek:

finora in realtà al 99% secondo me basta, ma in previsione.....(io infatti credo di cambiare la vga a fine anno)

sommojames
31-05-2008, 17:42
capisco che c'è il ristagno nei giochi... ma si parla pur sempre della 1920x1200 (e metti anche i filtri) :eek:
mica la 1280x1024 :asd:

Secondo voi per quanto riguarda l'aliasing a 1920*1200 senza AA su un 24'' si nota come a 1280*1024 su un 17'' o di meno? Insomma anche alle alte risoluzioni serve l'AA per fare andar via l'aliasing?

appleroof
31-05-2008, 17:44
Secondo voi per quanto riguarda l'aliasing a 1920*1200 senza AA su un 24'' si nota come a 1280*1024 su un 17'' o di meno? Insomma anche alle alte risoluzioni serve l'AA per fare andar via l'aliasing?

dipende dal gioco, io quando il gioco lo permette un aa2x o 4x, anche multisampling, lo metto

ci sono altri giochi in cui invece 'assenza di aa non si nota molto, ovvio poi il discorso è soggettivo

The_SaN
31-05-2008, 17:48
Secondo voi per quanto riguarda l'aliasing a 1920*1200 senza AA su un 24'' si nota come a 1280*1024 su un 17'' o di meno? Insomma anche alle alte risoluzioni serve l'AA per fare andar via l'aliasing?

Ho visto all' opera un dell 24" e l' aliasing si nota, ma poco.
Ho visto poi un lenovo da 22" e 1920x1200 e l'aliasing era praticamente inesistente... (e mi sono innamorato del suddetto monitor, anche se esteticamente é bruttino)

Milotto
31-05-2008, 18:00
Secondo voi per quanto riguarda l'aliasing a 1920*1200 senza AA su un 24'' si nota come a 1280*1024 su un 17'' o di meno? Insomma anche alle alte risoluzioni serve l'AA per fare andar via l'aliasing?

Conti alla mano , monitor da 24 e 17 pollici hanno quasi il medesimo numero di pixel per cm (ovviamente riferiti ai lati del rettangolo/quadrato e non alla diagonale)...........quindi in termini qualitativi una risoluzione di 1920*1200 su un 24" senza AA ha la medesima qualità di una risoluzione di 1280*1024 senz AA su un 17" .

Ho visto all' opera un dell 24" e l' aliasing si nota, ma poco.
Ho visto poi un lenovo da 22" e 1920x1200 e l'aliasing era praticamente inesistente... (e mi sono innamorato del suddetto monitor, anche se esteticamente é bruttino)

Infatti il monitor da 22" ha più pixel per cm ed ovviamente una qualità maggiore del monitor con la medesima risoluzione ma a 24"; motivo per cui sul 22 si nota meno aliasing...

The_SaN
31-05-2008, 18:07
Conti alla mano considerando monitor da 24 e 17 pollici Indicativamente hanno il medesimo numero di pixel per cm (ovviamente riferiti ai lati del rettangolo/quadrato e non alla diagonale)...........quindi in termini qualitativi una risoluzione di 1920*1200 su un 24" senza AA ha la medesima qualità di una risoluzione di 1280*1024 senz AA su un 17" .



Infatti il monitor da 22" ha più pixel per cm ed ovviamente una qualità maggiore del monitor con la medesima risoluzione ma a 24"

;)

DriftKing
31-05-2008, 18:08
Ho visto all' opera un dell 24" e l' aliasing si nota, ma poco.
Ho visto poi un lenovo da 22" e 1920x1200 e l'aliasing era praticamente inesistente... (e mi sono innamorato del suddetto monitor, anche se esteticamente é bruttino)

esistono monitor del genere? :eek:

jp77
31-05-2008, 18:10
--cut--
;)


Potrebbe esserci anche un alleanza con AMd....non so se hai letto questo articolo http://translate.google.it/translate?u=http%3A%2F%2Fwww.hkepc.com%2F%3Fid%3D1210%26fs%3Dc1n&sl=zh-CN&tl=en&hl=it&ie=UTF-8 parla della possibilità che AMD adotti PhysX e visto che lo scrive HKEPC fonte tradizionalmente molto vicina (ed informata) sulle vicende legata ad AMD\ATI forse qualcosa di vero c'è...in questo caso ci sarebbe uno standard di fatto e nemmeno Intel potrebbe farci molto.

The_SaN
31-05-2008, 18:16
esistono monitor del genere? :eek:

Quello che ho visto si chiama l220x :)
Esteticamente come ho giá scritto é proprio bruttino...ma ha un bel pannello e un dot pitch bassissimo, oltre ad avere un input lag buono per il tipo di pannello ;)
Che dire, sono rimasto piacevolmente sorpreso, estetica a parte.

Milotto
31-05-2008, 18:20
Quello che ho visto si chiama l220x :)
Esteticamente come ho giá scritto é proprio bruttino...ma ha un bel pannello e un dot pitch bassissimo, oltre ad avere un input lag buono per il tipo di pannello ;)
Che dire, sono rimasto piacevolmente sorpreso, estetica a parte.

Un po' spigoloso , e forse con una base troppo grande..vagamente retro :)

mircocatta
31-05-2008, 18:29
Nessuno sta dicendo che Nvidia abbia fatto male ad acquisire un'azienda già affermata nel campo, anzi, ha fatto molto bene, imho: le serviva del know-how nel campo.
Molto semplicemente però tutti presto o tardi supporteranno la fisica in una modalità concordata e probabilmente inserita nelle prossime DX: nel frattempo la fisica sarà una feature sicuramente utile, ma dall'applicabilità nell'immediato discutibile, proprio come le DX10.1. ;)

è quello che ho sempre pensato, ok ha una sua fisica, ma se non sarà utilizzata e supportata da tutti sarà inutile, vedi directx10.1 di Ati

mircocatta
31-05-2008, 18:31
edit

@ndrey
31-05-2008, 18:41
esistono monitor del genere? :eek:

è il ThinkVision L220x .., ma a qst prezzo prenderei uno da 24'' :O o due da 22'' come il mio :sofico:

A.L.M.
31-05-2008, 18:58
ma certo che i driver li fà Nvidia :doh:

ma una swh non paga se vuole implementare phisix nel suo gioco (che che per quella parte di gioco necessiterà però di una vga Nvidia) chiaro? [ UE3 già lo supporta......]

Che era appunto quello che dicevo io. :)
Dunque i miei dubbi erano motivati: ossia NVidia sta tentando di imporre il suo standard. :)

p.s.: Intel ancora non ha vga.....

Ma è praticamente sicuro che ne avrà più d'una a partire da fine 2009 (quasi ufficialmente confermato già anche da Intel). ;)

appleroof
31-05-2008, 19:02
Che era appunto quello che dicevo io. :)
Dunque i miei dubbi erano motivati: ossia NVidia sta tentando di imporre il suo standard. :)

si ma sostenevi pure tante altre cose che (credo) ti ho dimostrato essere inesatte :)



Ma è praticamente sicuro che ne avrà più d'una a partire da fine 2009 (quasi ufficialmente confermato già anche da Intel). ;)

si ma solo per questo (nella guerra dello standard come implicitamente la intendi tu) è in grosso ritardo, se non altro per l'arrivo anche delle dx11 per più o meno quell'epoca ;)

DriftKing
31-05-2008, 19:10
Quello che ho visto si chiama l220x :)
Esteticamente come ho giá scritto é proprio bruttino...ma ha un bel pannello e un dot pitch bassissimo, oltre ad avere un input lag buono per il tipo di pannello ;)
Che dire, sono rimasto piacevolmente sorpreso, estetica a parte.

nn sapevo che esistevano monitor del genere ... vederlo in azione sara una bellezza ... :eek: ... pero mi sembra un modello ... non vecchio ... pero neanche nuovo ... sbaglio? ... x adesso costa troppo x le mie tasche ... pero ... chissa ... se quando arriveranno i nehalem il suo prezzo (o quello di un monitor che possiede le sue caratteristiche) scendera sui 350e ... forse me lo piglio :D

Un po' spigoloso , e forse con una base troppo grande..vagamente retro :)

si ... diciamo che nn e all'ultimo grido ... pero a me nn dispiace ... tanto ... io guardo solo quello che mi mostra il monitor ... nn il monitor in se ... ma questo e personale :)

è il ThinkVision L220x .., ma a qst prezzo prenderei uno da 24'' :O o due da 22'' come il mio :sofico:

io invece prenderei questo ... secondo me si vede meglio che su un 24" (non che su quest'ultimo si veda male ... pero ...)

The_SaN
31-05-2008, 19:10
è il ThinkVision L220x .., ma a qst prezzo prenderei uno da 24'' :O o due da 22'' come il mio :sofico:

Si, negli States e in Europa non é il massimo della convenienza...anche se si vede piú definito che su un 24"
Ma qui in Brasile, stranamente, costa uguale ad un 22" TN della samsung.
Mentre usa un buon S-PVA 1920x1200 :D

Edit: rispondendo anche sull' etá del monitor per non fare un altro post: é uscito 5 mesi fa, quindi é bello nuovo.Di vecchio ha solo il look. :D

The_SaN
31-05-2008, 19:15
Tornando a parlare di gtx280 :D
Qualcuno ha capito rispetto a chi si riferiscono quelle X di prestazioni riferite agli ambiti non-gaming?
É da un po' che ci penso su...

DriftKing
31-05-2008, 19:18
Tornando a parlare di gtx280 :D
Qualcuno ha capito rispetto a chi si riferiscono quelle X di prestazioni riferite agli ambiti non-gaming?
É da un po' che ci penso su...

si :D scusate x l'OT

cmq ... personalmentre nn ho capito proprio nulla ... che cosa rappresenta? :stordita:

Futura12
31-05-2008, 19:20
Quello che ho visto si chiama l220x :)
Esteticamente come ho giá scritto é proprio bruttino...ma ha un bel pannello e un dot pitch bassissimo, oltre ad avere un input lag buono per il tipo di pannello ;)
Che dire, sono rimasto piacevolmente sorpreso, estetica a parte.

Tutti gli IBM fanno un poco cagare di estetica....ma è cosi da sempre...pure i portatili sono orrendi:stordita:

appleroof
31-05-2008, 19:23
Tornando a parlare di gtx280 :D
Qualcuno ha capito rispetto a chi si riferiscono quelle X di prestazioni riferite agli ambiti non-gaming?
É da un po' che ci penso su...

si :D scusate x l'OT

cmq ... personalmentre nn ho capito proprio nulla ... che cosa rappresenta? :stordita:

le applicazioni di GPGPU (medicina, calcoli fisici e più in generale scientifici)

Tutti gli IBM fanno un poco cagare di estetica....ma è cosi da sempre...pure i portatili sono orrendi:stordita:

quoto :asd:

The_SaN
31-05-2008, 19:36
le applicazioni di GPGPU (medicina, calcoli fisici e più in generale scientifici)


Si si, questo l'ho capito :D

Ma 8-10-24X rispetto a chi?
É questo che mi faceva pensare ;)
quoto :asd:
Vabbé, la bellezza non é tutto :D
PS: se no la fidanzata che ci faceva con me :asd:

marco7773
31-05-2008, 19:42
Scusatemi ma qualcuno di voi a mai usato AI Suite v1.03.15 e PC Probe II V1.04.23 perchè li o installati visto che erano in dotazione con la mobo ma non ci capisco una mazza.

DriftKing
31-05-2008, 19:46
le applicazioni di GPGPU (medicina, calcoli fisici e più in generale scientifici)


ah ... e io che pensavo fossero dei bench :Prrr: :stordita: :D

appleroof
31-05-2008, 19:47
Si si, questo l'ho capito :D

Ma 8-10-24X rispetto a chi?
É questo che mi faceva pensare ;)

mi pare rispetto ad una 3870...

Vabbé, la bellezza non é tutto :D
PS: se no la fidanzata che ci faceva con me :asd:

:D :D

ah ... e io che pensavo fossero dei bench :Prrr: :stordita: :D

:asd: ;)

A.L.M.
31-05-2008, 19:56
Tornando un po' più in topic, slide di performance direttamente da CJ (e da NVidia, ovviamente). :D

http://resources.vr-zone.com//newspics/May08/30/gtx200-series-performance.jpg

E mi sa tra l'altro che cadono le famose ipotesi dei 50-60fps a 1920x1200, ma anche i 40 forse ( :sob: )... Una GTX ha performance dell'85% superiori ad una HD3870X2.

http://www.hwupgrade.it/articoli/skvideo/1936/crysis_veryhigh2.png

Fatti 2 conti, 12fps*1.85=22 fps.

Per il resto sembra in media il 90% più rapida di una HD3870X2. Considerando che una GX2 alle alte risoluzioni e con l'AA arriva ad essere il 40%-50% più rapida di una R680, direi che GTX280=GX2 + 25-30%.

Andrea deluxe
31-05-2008, 20:01
ok quindi ci vuole un bel sli per giocare!


ok mi procuro questa:
http://img.hexus.net/v2/internationalevents/cebit2008/TS/Monday/Fox790-big.jpg
e 2 gtx 280

ale0bello0pr
31-05-2008, 20:02
Tornando un po' più in topic, slide di performance direttamente da CJ (e da NVidia, ovviamente). :D

http://resources.vr-zone.com//newspics/May08/30/gtx200-series-performance.jpg

E mi sa tra l'altro che cadono le famose ipotesi dei 50-60fps a 1920x1200, ma anche i 40 forse ( :sob: )... Una GTX ha performance dell'85% superiori ad una HD3870X2.

http://www.hwupgrade.it/articoli/skvideo/1936/crysis_veryhigh2.png

Fatti 2 conti, 12fps*1.85=22 fps.

Per il resto sembra in media il 90% più rapida di una HD3870X2. Considerando che una GX2 alle alte risoluzioni e con l'AA arriva ad essere il 40%-50% più rapida di una R680, direi che GTX280=GX2 + 25-30%.


cioè World in Conflict ha trovato la VGA miracolosa???
e xkè Crysis non proprio??? :muro: :mad:
Crytekkkkkk :ncomment: :nera:

@ndrey
31-05-2008, 20:08
ok quindi ci vuole un bel sli per giocare!


ok mi procuro questa:
http://img.hexus.net/v2/internationalevents/cebit2008/TS/Monday/Fox790-big.jpg
e 2 gtx 280

sti @zzi :eek:
Hai un contratto con enel speciale e con sconti particolari?!
quad+sli gtx280 immagino tutto in oc va toccare 1kw :sofico: :ciapet:

leoneazzurro
31-05-2008, 20:11
Tornando un po' più in topic, slide di performance direttamente da CJ (e da NVidia, ovviamente). :D

http://resources.vr-zone.com//newspics/May08/30/gtx200-series-performance.jpg

E mi sa tra l'altro che cadono le famose ipotesi dei 50-60fps a 1920x1200, ma anche i 40 forse ( :sob: )... Una GTX ha performance dell'85% superiori ad una HD3870X2.

http://www.hwupgrade.it/articoli/skvideo/1936/crysis_veryhigh2.png

Fatti 2 conti, 12fps*1.85=22 fps.

Per il resto sembra in media il 90% più rapida di una HD3870X2. Considerando che una GX2 alle alte risoluzioni e con l'AA arriva ad essere il 40%-50% più rapida di una R680, direi che GTX280=GX2 + 25-30%.

Bisognerebbe vedere a che risoluzione e settaggi sono presi quei dati, oltretutto.

Crysis90
31-05-2008, 20:13
La 4870 X2 costerà 499 dollari e se la vedrà con la GTX 260:

http://forums.vr-zone.com/showthread.php?t=282845

"However, the 4870 X2, will face stiff competition from the GeForce GTX 260: Radeon 4870 X2 cards will sell for $499, while the GeForce GTX 260 is likely to debut at $449".

Quindi, il top di gamma sarà GTX 280!!

appleroof
31-05-2008, 20:21
La 4870 X2 costerà 499 dollari e se la vedrà con la GTX 260:

http://forums.vr-zone.com/showthread.php?t=282845

"However, the 4870 X2, will face stiff competition from the GeForce GTX 260: Radeon 4870 X2 cards will sell for $499, while the GeForce GTX 260 is likely to debut at $449".

Quindi, il top di gamma sarà GTX 280!!

bisogna sempre prenderle piano queste notizie, fino a che non si vedono all'opera le vga :)

Mister Tarpone
31-05-2008, 20:22
Bisognerebbe vedere a che risoluzione e settaggi sono presi quei dati, oltretutto.

già..... :confused:

A.L.M.
31-05-2008, 20:27
Bisognerebbe vedere a che risoluzione e settaggi sono presi quei dati, oltretutto.

Già, ma essendo materiale di marketing mi aspetto che il tutto sia cherry-picked. ;)
Aggiungerei anche che si sono guardati bene dall'inserire la GX2 nei grafici, dato che si sarebbe potuto notare che il 50% in più descritto nelle altre slides è abbastanza virtuale, in verità. :)

Mister Tarpone
31-05-2008, 20:28
ok quindi ci vuole un bel sli per giocare!


ok mi procuro questa:
[img]http://img.hexus.net/v2/internationalevents/cebit2008/TS/Monday/Fox790-big.jpg
e 2 gtx 280

ma a sto punto non fai prima a volare dalla finestra Crysis??? :confused:


dammi retta è più una furbata se fai così :asd:

Mister Tarpone
31-05-2008, 20:34
Già, ma essendo materiale di marketing mi aspetto che il tutto sia cherry-picked. ;)
Aggiungerei anche che si sono guardati bene dall'inserire la GX2 nei grafici, dato che si sarebbe potuto notare che il 50% in più descritto nelle altre slides è abbastanza virtuale, in verità. :)

be ma la GX2 quanto va in media rispetto alla 3870X2??

aspè che vado a vedere la comparativa di computerbase..... :ops:

Glorfindelor
31-05-2008, 20:36
scusate ragazzi! si sa bene o male quando dovrebbero uscire le nuove schede? :)

A.L.M.
31-05-2008, 20:47
be ma la GX2 quanto va in media rispetto alla 3870X2??

aspè che vado a vedere la comparativa di computerbase..... :ops:

E' molto variabile a seconda dei giochi e di impostazioni filtri/risoluzioni. Si va dal 15% o meno a più del 50% in più.

Mister Tarpone
31-05-2008, 20:49
a 2560x1600 4xAA/16xAF c'è un 12% a favore della gx2..

mentre a 1600x1200 4xAA/16xAF un 22%

Milotto
31-05-2008, 20:52
Cmq sul fronte Nvidia , per quanto queste info siano da prendere con le molle ,un minimo di idea sulle performnce ce la siamo fatta..:GTX280 25-30% più veloce di GX2 e GTX260 più o meno allineata a quest'ultima....
Il problema è i che paragoni venendo fatti sulle dual GPU (sia GX2 che 3870X2) sono poco "solidi" perchè le VGA in oggetto hanno performance fortemente altalenanti..in funzione dei driver , framebuffer e quant'altro....
Cmq è magnifico vedere quanto sia ingannevole la pubblicità....se i valori che vanno da 0 a 1 lungo l'asse y venissero rappresentati con la stessa unità di misura di quelli che vanno da 1 in poi....

thx
31-05-2008, 20:56
Tornando un po' più in topic, slide di performance direttamente da CJ (e da NVidia, ovviamente). :D

http://resources.vr-zone.com//newspics/May08/30/gtx200-series-performance.jpg



http://img102.imageshack.us/img102/3669/immaginetr4.jpg (http://imageshack.us)

Crysis

Certo che Nvidia per far bella figura risalta bene i suoi grafici.:sofico:
Il secondo grafico(fatto da me) infatti non crea quell'effetto differenza.:read:

leoneazzurro
31-05-2008, 20:57
be ma la GX2 quanto va in media rispetto alla 3870X2??

aspè che vado a vedere la comparativa di computerbase..... :ops:

In alcuni casi menzionati in quelle slide la 9800 GX2 ha già un vantaggio notevole rispetto alla 3870X2

ES: in CoD 4 è già il 50% in più, Crysis pure, Oblivion il 15%, in Call Of Juarez in alcuni scenari il 100%, in Company of Heroes in alcuni scenari il 60%, in ETQW il 40-50%, in FEAR il 10%, in UT3 anche l'80% con AA. Ma si varia tantissimo con risoluzione e settaggi.
Sto parlando ovviamente dei vantaggi massimi.

Milotto
31-05-2008, 21:05
Inoltre sembra che il grafico relativo al vantage sia poco compatibile con i rumors relativi a pochi giorni addietro...
Cmq sia,stiamo discutendo di bench di cui non conosciamo config , risoluzione condizioni....:)

nico88desmo
31-05-2008, 21:06
Nonostante le tabelle, è difficile fare paragoni perchè non si conoscono le impostazioni utilizzate in ciascun gioco.
Ciò nonostante, si vede come crysis sia mal digerito anche da questa nuova GPU. Tra l'altro è l'unico gioco dove si sperava aumenti importanti di fps dato che gli altri gioco sono già ora giocabili con le schede attuali.
Per ora, nonostante la potenza di 240SP, non sarei del tutto soddisfatto.
Comunque prima di trarre conclusioni affrettate, attendo i bench di HwUpgrade. ;)

Kharonte85
31-05-2008, 21:07
Cmq sul fronte Nvidia , per quanto queste info siano da prendere con le molle ,un minimo di idea sulle performnce ce la siamo fatta..:GTX280 25-30% più veloce di GX2 e GTX260 più o meno allineata a quest'ultima....
Il problema è i che paragoni venendo fatti sulle dual GPU (sia GX2 che 3870X2) sono poco "solidi" perchè le VGA in oggetto hanno performance fortemente altalenanti..in funzione dei driver , framebuffer e quant'altro....
Cmq è magnifico vedere quanto sia ingannevole la pubblicità....se i valori che vanno da 0 a 1 lungo l'asse y venissero rappresentati con la stessa unità di misura di quelli che vanno da 1 in poi....
Concordo su tutto ;)

Mister Tarpone
31-05-2008, 21:08
quindi se una GX2 con crysis è il 50% superiore alla X2, mentre una GTX 280 è superiore del 85% (ma alla fine la differenza sarà di +)
automaticamente tra 9800GX2 e GTX 280 ci dovrebbe essere un 35% + di performance + con il gioco più pesante in circolazione...


o no??? ma però si fa male... anche perchè non si capisce che ris. e impo. hanno usato in quel confronto di quella tabella..

cmq ripeto, credo che alla fine la differenza sarà ancor + alta..

ale0bello0pr
31-05-2008, 21:15
Scusate se mi permetto di chiederlo, ma c'è ancora qualcuno che sta giocando a Crysis?

nohttp://gaming.ngi.it/images/ngismiles/asd2.gif

Milotto
31-05-2008, 21:15
quindi se una GX2 con crysis è il 50% superiore alla X2, mentre una GTX 280 è superiore del 85% (ma alla fine la differenza sarà di +)
automaticamente tra 9800GX2 e GTX 280 ci dovrebbe essere un 35% + di performance + con il gioco più pesante in circolazione...


o no??? ma però si fa male... anche perchè non si capisce che ris. e impo. hanno usato in quel confronto di quella tabella..

cmq ripeto, credo che alla fine la differenza sarà ancor + alta..

Dubito che assisteremo a differenze di performance maggiori...anzi probabilmente , trattandosi di propaganda, i test riportati rappresentano i migliori scenari possibili....:non mi meraviglierei se a conti fatti le differenze prestazionali fossero minori...

Mister Tarpone
31-05-2008, 21:15
Scusate se mi permetto di chiederlo, ma c'è ancora qualcuno che sta giocando a Crysis?

io!!!!!







... lo uso solo come bench per testare l'oc della mia scheda :asd:

Amph
31-05-2008, 21:16
io si, a me piace, forse anche xche è l'unico fps che ho, mi son avvicinato a questo genere con crysis.

Mister Tarpone
31-05-2008, 21:17
Dubito che assisteremo a differenze di performance maggiori...anzi probabilmente , trattandosi di propaganda, i test riportati rappresentano i migliori scenari possibili....:non mi meraviglierei se a conti fatti le differenze prestazionali fossero minori...



forse farò un esempio idiota... ma vi ricordo che nvidia pubblicizava la 9600GT come il 90% + performante della 8600... (me lo ricordo come se fosse ieri)

quando alla fine nella peggiore delle ipotesi questa si è dimostrata un 125% + performante rispetto la 8600.

...e con i filtri attivati invece addirittura dal 145% fino al 190% +.

stai a vedre che anche a sto giro alla fine andranno di + ste schede... magari è una ca22ata eh.. però...

__
;)

Milotto
31-05-2008, 21:19
forse farò un esempio idiota... ma vi ricordo che nvidia pubblicizava la 9600GT come il 90% + performante della 8600... (me lo ricordo come se fosse ieri)

quando alla fine nella peggiore delle ipotesi questa si è dimostrata un 125% + performante rispetto la 8600.

...e con i filtri attivati invece addirittura dal 145% fino al 190% +.


__
;)


Se al marketing ci sono ancora i deficienti di cui descrivi le gesta tutto è possibile...:D

Mister Tarpone
31-05-2008, 21:21
Se al marketing ci sono ancora i deficienti di cui descrivi le gesta tutto è possibile...:D

lo scopriremo presto.. :asd:

Gabriyzf
31-05-2008, 21:25
bah, speriamo che non siano veritieri questi risultati, anche se , a dire il vero, io crysis l'ho finito tempo fa con l'88gt a 1280x1024 con tutto in high, ed è andato benissimo: non me ne può fregare di meno di rigiocarlo a impostazioni più alte.
Tutti glii altri giochi alla mia vga, non dico che fanno il solletico, ma comunque.girano tutti a palla senza problemi.
Questa 280 che consuma come una centrale necleare e costa più di una rata di mutuo può stare per me dove sta: l'88gt si avvia a diventare una delle vga più longeve e dal miglior rapporto q/p della storia

Mister Tarpone
31-05-2008, 21:42
se giochi a 1280x1024 ste schede qui sono sprecate.. :sofico:

queste le prendi per giocare strafluido e con i filtri a 1920x1200....

per la 1280x come è stato detto 3000 volte bastano anche le schede attuali da 100€ ...

DriftKing
31-05-2008, 21:46
se giochi a 1280x1024 ste schede qui sono sprecate.. :sofico:

queste le prendi per giocare strafluido e con i filtri a 1920x1200....

per la 1280x come è stato detto 3000 volte bastano anche le schede attuali da 100€ ...

quoto ... si sa nulla sul gt200b?
dite che uscira prima dei nehalem?
lo chiedo xche queste vga mi sa che mi serviranno x giocare con il mio bel 22" full-hd :D (nn riesco piu a togliermelo dalla testa ... mi son innamorato :p :D ... maledetto The_SaN :mad: :D ) ...

ale0bello0pr
31-05-2008, 22:00
azz se questa è la mossa di AMD.... prepariamoci a dei prezzi folli da Nvidia...:cry:

http://forums.vr-zone.com/showthread.php?t=282845

Mister Tarpone
31-05-2008, 22:01
quoto ... si sa nulla sul gt200b?...

:boh:

azz se questa è la mossa di AMD.... prepariamoci a dei prezzi folli da Nvidia...:cry:

http://forums.vr-zone.com/showthread.php?t=282845

4870 X2 $499
GeForce GTX 260 $449

AZZ ...

halduemilauno
31-05-2008, 22:05
http://resources.vr-zone.com//newspics/May08/30/gtx200-series-performance.jpg

in base a questa slide con la 9800gx2 il 35/40% in media + performante della 3870x2 anche la gtx260 è superiore alla 9800gx2. e in qualche gioco pure di parecchio. e almeno negli usa a 100$ di meno. e tenendo conto che la 4870 sarà + o - sempre in media come la 3870x2...
a questo punto aspettiamoci l'unica cosa che ati possa fare, ribassi di prezzo. sempre in base a questa slide.
;)

Kharonte85
31-05-2008, 22:08
:boh:



4870 X2 $499
GeForce GTX 260 $449

AZZ ...
Di per se non significa molto (se non che la TOP gamma AMD/ATI sara' la x2)...il tutto chiaramente dipendera' dalle prestazioni delle schede, certo che se la GeForce GTX 260 dovesse riuscire a tenerle testa sarebbe un brutto colpo per ATI...

DriftKing
31-05-2008, 22:36
http://resources.vr-zone.com//newspics/May08/30/gtx200-series-performance.jpg

in base a questa slide con la 9800gx2 il 35/40% in media + performante della 3870x2 anche la gtx260 è superiore alla 9800gx2. e in qualche gioco pure di parecchio. e almeno negli usa a 100$ di meno. e tenendo conto che la 4870 sarà + o - sempre in media come la 3870x2...
a questo punto aspettiamoci l'unica cosa che ati possa fare, ribassi di prezzo. sempre in base a questa slide.
;)

c'e sempre la x2 ...

halduemilauno
31-05-2008, 22:50
c'e sempre la x2 ...

certo la 4870x2. ma avendo come base la 4870 single e + dell'70/80%(credo)non può offrire...è chiaro che adesso come adesso si possono fare solo supposizioni a carattere generale quindi in media. però un'idea ripeto un'idea credo che uno se la possa fare. ripeto credo.
cmq per carità aspettiamo bench esaustivi i 17/18 giugno son vicini.

;)

Amph
31-05-2008, 22:50
si xo 600 euro che ca**o so troppi

leoneazzurro
31-05-2008, 22:51
Di per se non significa molto (se non che la TOP gamma AMD/ATI sara' la x2)...il tutto chiaramente dipendera' dalle prestazioni delle schede, certo che se la GeForce GTX 260 dovesse riuscire a tenerle testa sarebbe un brutto colpo per ATI...

Qualcuno si è lasciato prendere un attimino la mano...

http://forum.beyond3d.com/showpost.php?p=1168835&postcount=2296

anzi, neppure troppo considerando che la HD4870 potrebbe, secondo rumors, essere superiore alla HD3870x2 :D

Ovviamente adesso si stanno tirando i dadi..

Comunque, su GTX 260 e 280 converrà avere CPU veramente potenti (e intendo dire VERAMENTE)

ale0bello0pr
31-05-2008, 22:52
gia mi immagino la 280x2 :sbav:

anch'io già mi immagino la 380x2biturbo :eek: :sbav:

:sbonk:

Mister Tarpone
31-05-2008, 22:59
Comunque, su GTX 260 e 280 converrà avere CPU veramente potenti (e intendo dire VERAMENTE)

praticamente come la mia :sborone: ;)




(:sbonk: :D )

Amph
31-05-2008, 23:11
anch'io già mi immagino la 380x2biturbo :eek: :sbav:

:sbonk:

sei riuscito a leggere prima che editassi, sapevo che qualcuno l'avrebbe visto
:asd:

appleroof
31-05-2008, 23:15
http://resources.vr-zone.com//newspics/May08/30/gtx200-series-performance.jpg

in base a questa slide con la 9800gx2 il 35/40% in media + performante della 3870x2 anche la gtx260 è superiore alla 9800gx2. e in qualche gioco pure di parecchio. e almeno negli usa a 100$ di meno. e tenendo conto che la 4870 sarà + o - sempre in media come la 3870x2...
a questo punto aspettiamoci l'unica cosa che ati possa fare, ribassi di prezzo. sempre in base a questa slide.
;)

però con crysis non sarà nulla di che



























:asd: :asd: :asd:

Mister Tarpone
31-05-2008, 23:16
però con crysis non sarà nulla di che

:asd: :asd: :asd:


:sbonk: :sbonk:
:sbonk: :sbonk:

halduemilauno
31-05-2008, 23:16
Qualcuno si è lasciato prendere un attimino la mano...

http://forum.beyond3d.com/showpost.php?p=1168835&postcount=2296

anzi, neppure troppo considerando che la HD4870 potrebbe, secondo rumors, essere superiore alla HD3870x2 :D

Ovviamente adesso si stanno tirando i dadi..

Comunque, su GTX 260 e 280 converrà avere CPU veramente potenti (e intendo dire VERAMENTE)

si ma anche accreditandogli una superiorità del 5/10%(ripeto accreditandogli)la 4870 rimane cmq ben sotto alla 9800gx2 e alla gtx260 che è la sua avversaria diretta. ora essa è la base della 4870x2 è chiaro che rispetto a quest'ultima la 9800gx2 viene risucchiata all'istante ma c'è sempre un'altra scheda che è ancor più prestante della gtx260 che è la gtx280.
cmq come gia detto aspettiamo i bench e ovviamente d'accordo con te cpu veramente potenti. quindi niente amd.

MaBru
31-05-2008, 23:18
CUT
Ma il reparto PR Nvidia non chiude almeno il sabato sera?:D

halduemilauno
31-05-2008, 23:23
Ma il reparto PR Nvidia non chiude almeno il sabato sera?:D

:fuck:

leoneazzurro
31-05-2008, 23:23
si ma anche accreditandogli una superiorità del 5/10%(ripeto accreditandogli)la 4870 rimane cmq ben sotto alla 9800gx2 e alla gtx260 che è la sua avversaria diretta. ora essa è la base della 4870x2 è chiaro che rispetto a quest'ultima la 9800gx2 viene risucchiata all'istante ma c'è sempre un'altra scheda che è ancor più prestante della gtx260 che è la gtx280.
cmq come gia detto aspettiamo i bench e ovviamente d'accordo con te cpu veramente potenti. quindi niente amd.

A parte che dare percentuali è prematuro e le che le fasce di prezzo evidentemente sono un'opinione estremamente soggettiva, non si stava giocando al salto in alto. Si faceva vedere che le slides provenienti dal marketing sono spesso fuorvianti. E certo non consiglierei CPU AMD a chi fa del gaming un mestiere (neanche i quad Intel, a dire la verità)

halduemilauno
31-05-2008, 23:26
A parte che dare percentuali è prematuro e le che le fasce di prezzo evidentemente sono un'opinione estremamente soggettiva, non si stava giocando al salto in alto. Si faceva vedere che le slides provenienti dal marketing sono spesso fuorvianti. E certo non consiglierei CPU AMD a chi fa del gaming un mestiere (neanche i quad Intel, a dire la verità)

quindi che cpu intel consiglieresti? da che base partiresti?

Mister Tarpone
31-05-2008, 23:30
e8500 ????

:confused:

zorco
31-05-2008, 23:30
quindi che cpu intel consiglieresti? da che base partiresti?
itanium:p :fagiano:

DVD2005
31-05-2008, 23:31
A parte che dare percentuali è prematuro e le che le fasce di prezzo evidentemente sono un'opinione estremamente soggettiva, non si stava giocando al salto in alto. Si faceva vedere che le slides provenienti dal marketing sono spesso fuorvianti. E certo non consiglierei CPU AMD a chi fa del gaming un mestiere (neanche i quad Intel, a dire la verità)

Popenderesti, ad es., più per un E8500 rispetto ai nuovi quad ?

e comunque Tarpone ed io siamo già attrezzati :cool: :asd:

halduemilauno
31-05-2008, 23:34
e8500 ????

:confused:

certo escluso i quad c'è l'E8500.
;)

okorop
31-05-2008, 23:34
io consiglierei una bella piattaforma skulltrail, l'unica piattaforma sul quale non sara cpu limited la gtx280, e poi sarebbe il logo della nvidia: it's meant to be presi per il :ciapet:
:D :D :D :D

Mister Tarpone
31-05-2008, 23:35
e comunque Tarpone ed io siamo già attrezzati :cool: :asd:

capitooooo :cool: ;)





( ma certamente.....come no... :mc: :mc: :asd: )

paolo.guidx
31-05-2008, 23:44
mah...3dfx ha dato vita allo sli, uli il suo know-how nei chipset poi? inoltre l'acquisto di havok da parte di Intel mi suggerisce che sia stata una mossa strategica (come le altre, del resto)

Si, ma ti pare che nvidia abbia preso spunto? L'erede della VooDoo5 ha più la forma di una 3870x2 che di una 9800GX2......

Ho visto all' opera un dell 24" e l' aliasing si nota, ma poco.
Ho visto poi un lenovo da 22" e 1920x1200 e l'aliasing era praticamente inesistente... (e mi sono innamorato del suddetto monitor, anche se esteticamente é bruttino)

:eek: Forse era 1680x1050....... ;)

Scusate se mi permetto di chiederlo, ma c'è ancora qualcuno che sta giocando a Crysis?

Io l'ho finito, ma giocando a 1920x1200 dalla metà del gioco in poi ho dovuto buttare giù di brutto i dettagli, altrimenti era difficile anche sopravvivere..... Siccome però sono uno che le sfide le vuole vincere in toto non appena esce una scheda con i controc@xxi lo rigioco al top dei dettagli.

quoto ... si sa nulla sul gt200b?
dite che uscira prima dei nehalem?
lo chiedo xche queste vga mi sa che mi serviranno x giocare con il mio bel 22" full-hd :D (nn riesco piu a togliermelo dalla testa ... mi son innamorato :p :D ... maledetto The_SaN :mad: :D ) ...

Visto i processori che propone adesso AMD penso che dovrai aspettare prima di vedere nehalem, diciamo primo trim.2009 :O

anch'io già mi immagino la 380x2biturbo :eek: :sbav:

:sbonk:

Ho già telefonato al Berlusconi, voglio due, facciamo tre, centrali nucleari in cantina.:mad:

A parte che dare percentuali è prematuro e le che le fasce di prezzo evidentemente sono un'opinione estremamente soggettiva, non si stava giocando al salto in alto. Si faceva vedere che le slides provenienti dal marketing sono spesso fuorvianti. E certo non consiglierei CPU AMD a chi fa del gaming un mestiere (neanche i quad Intel, a dire la verità)

Ora come ora AMD non lo consiglierei nemmeno a chi usa il PC solo per leggere le email.....:cool: E per AMD includo pure ATI.......

leoneazzurro
31-05-2008, 23:45
Dall' E8400 in su.
Ovviamente se si avesse un quad da 3.2 GHz schifo non fa, tutt'altro, ma al momento direi che sono troppo pochi i giochi che potrebbero trarne un sia pur minimo vantaggio, e considerando le differenze di prezzo direi che non c'è molta storia. Poi, chi vuole esagerare va in OC.

ale0bello0pr
31-05-2008, 23:46
io consiglierei questa CPU appena sfornata...

http://pic.xfastest.com/sxs112/Intel/Neh/02.jpg


Muhauhahauhauhauhahttp://gaming.ngi.it/images/ngismiles/muhehe.gif

paolo.guidx
31-05-2008, 23:48
Ma le nuove GTX280 e GTX260 avranno la possibilità di attivare HDR e AA insieme? Questo era uno dei punti deboli della serie 8 (e precedenti), giusto?
Ovviamente se un gioco lo implementw già di suo è escluso....

leoneazzurro
31-05-2008, 23:48
Ora come ora AMD non lo consiglierei nemmeno a chi usa il PC solo per leggere le email.....:cool: E per AMD includo pure ATI.......

Adesso non esageriamo, le preferenze possono anche esserci, ma AMD in fascia bassa ha buone proposte, ed anche in fascia media per le schede video.
Si deve riprendere, come successe a Intel con il P4E e a Nvidia stessa con la serie 5.

Mister Tarpone
31-05-2008, 23:50
Ma le nuove GTX280 e GTX260 avranno la possibilità di attivare HDR e AA insieme? Questo era uno dei punti deboli della serie 8 (e precedenti), giusto?
Ovviamente se un gioco lo implementw già di suo è escluso....

no. questo era il punto debole della vecchia serie 7...

halduemilauno
31-05-2008, 23:54
no. questo era il punto debole della vecchia serie 7...

se non della vecchia serie 6. ma non insisto.
;)

john18
31-05-2008, 23:54
no. questo era il punto debole della vecchia serie 7...


E precedenti...:D

J!MmΨ
31-05-2008, 23:54
no. questo era il punto debole della vecchia serie 7...

esatto ... ;)

The_SaN
31-05-2008, 23:54
:eek: Forse era 1680x1050....... ;)

No no, é proprio 1920x1200 :D
Dot pitch bassissimo e aliasing praticamente invisibile.

Ora come ora AMD non lo consiglierei nemmeno a chi usa il PC solo per leggere le email.....:cool: E per AMD includo pure ATI......Ok che per la fascia alta le proposte AMD sono praticamente inesistenti, ma dalla media alla bassa direi che fanno concorrenza e ci sono dei bei prodotti ;)

The_SaN
31-05-2008, 23:56
Ma le nuove GTX280 e GTX260 avranno la possibilità di attivare HDR e AA insieme? Questo era uno dei punti deboli della serie 8 (e precedenti), giusto?
Ovviamente se un gioco lo implementw già di suo è escluso....

Il problema é giá stato risolto a partire da g80 (incluso)

john18
31-05-2008, 23:56
Ok che per la fascia alta le proposte AMD sono praticamente inesistenti, ma dalla media alla bassa direi che fanno concorrenza e ci sono dei bei prodotti ;)



Super quotone...:gluglu:

DVD2005
31-05-2008, 23:56
Adesso non esageriamo, le preferenze possono anche esserci, ma AMD in fascia bassa ha buone proposte, ed anche in fascia media per le schede video.
Si deve riprendere, come successe a Intel con il P4E e a Nvidia stessa con la serie 5.

quoto, capita spesso di assistere a fasi di alternanza al vertice e comunque in casa Amd non è tutto da buttare, anzi, probabilmente per pc non dedicati al gioco si può risparmiare avendo comunque prestazioni + che suff.

paolo.guidx
31-05-2008, 23:57
Adesso non esageriamo, le preferenze possono anche esserci, ma AMD in fascia bassa ha buone proposte, ed anche in fascia media per le schede video.
Si deve riprendere, come successe a Intel con il P4E e a Nvidia stessa con la serie 5.

Si, ma sia INTEL che nVidia erano rimasti indietro non per problemi di architettura, ma perchè ne stavano sviluppando una nuova. Intel già con i primi PentiumD aveva già ripreso la scia di AMD, nVidia con la serie 6 ha iniziato a prendere a bastonate ATI...... Adesso invece AMD è alle prese con i Phenom che non riescono a superare delle frequenze accettabili, ATI (anche se è sempre AMD) riesce a malapena a sfornare schede di fascia media:muro: .... Se fossi Hector Ruiz (CEO di amd per chi non lo sapesse) un pochetto sarei preoccupato....

ale0bello0pr
31-05-2008, 23:59
la scheda migliore e piu longeva di AMD (anzi ATI)
è stata la X1900 XT

la peggio....ehm.. hai l'imbarazzo della sciolta:stordita:

paolo.guidx
01-06-2008, 00:00
No no, é proprio 1920x1200 :D
Dot pitch bassissimo e aliasing praticamente invisibile.

Ok che per la fascia alta le proposte AMD sono praticamente inesistenti, ma dalla media alla bassa direi che fanno concorrenza e ci sono dei bei prodotti ;)

Boh, strano, mai visto un pannello 22'' con quella risoluzione.:rolleyes:

john18
01-06-2008, 00:00
Si, ma sia INTEL che nVidia erano rimasti indietro non per problemi di architettura, ma perchè ne stavano sviluppando una nuova. Intel già con i primi PentiumD aveva già ripreso la scia di AMD, nVidia con la serie 6 ha iniziato a prendere a bastonate ATI...... Adesso invece AMD è alle prese con i Phenom che non riescono a superare delle frequenze accettabili, ATI (anche se è sempre AMD) riesce a malapena a sfornare schede di fascia media:muro: .... Se fossi Hector Ruiz (CEO di amd per chi non lo sapesse) un pochetto sarei preoccupato....



E chi te lo dice che non stia succedendo la stessa cosa...;)

J!MmΨ
01-06-2008, 00:01
Si, ma sia INTEL che nVidia erano rimasti indietro non per problemi di architettura, ma perchè ne stavano sviluppando una nuova. Intel già con i primi PentiumD aveva già ripreso la scia di AMD, nVidia con la serie 6 ha iniziato a prendere a bastonate ATI...... Adesso invece AMD è alle prese con i Phenom che non riescono a superare delle frequenze accettabili, ATI (anche se è sempre AMD) riesce a malapena a sfornare schede di fascia media:muro: .... Se fossi Hector Ruiz (CEO di amd per chi non lo sapesse) un pochetto sarei preoccupato....

guarda che le schede di fascia media ATI sono decisamente buone, anche se sono delle "fascia alte/medio-alte rinominate" ... la hd3870 è al pari delle 9600gt, come l' hd3850 appena uscita andava il doppio della 8600gts, ad un prezzo poco superiore ... poi che ci sono tanti che preferiscono nvidia e buttarsi sulla sua fascia media sono altri discorsi ;)

The_SaN
01-06-2008, 00:03
Si, ma sia INTEL che nVidia erano rimasti indietro non per problemi di architettura, ma perchè ne stavano sviluppando una nuova. Intel già con i primi PentiumD aveva già ripreso la scia di AMD, nVidia con la serie 6 ha iniziato a prendere a bastonate ATI...... Adesso invece AMD è alle prese con i Phenom che non riescono a superare delle frequenze accettabili, ATI (anche se è sempre AMD) riesce a malapena a sfornare schede di fascia media:muro: .... Se fossi Hector Ruiz (CEO di amd per chi non lo sapesse) un pochetto sarei preoccupato....

Ci sarebbero 2 inesattezze (se mi permetti :) ):

1- Il divario prestazionale in campo vga tra nVidia e ATi é iniziato solo con la serie 8 vs hd. La serie 6 e la x8xx se la vedevano alla pari, mentre la successiva é iniziata alla pari, ma ATi ha sfornato il "miglior refresh".

2- Nvidia con la serie 5 non é rimasta indietro perché stava sviluppando un' architettura nuova. La serie 5 ERA l' architettura nuova. E l' hanno dovuta mantenere anche nei refresh. (cosi come ha fatto AMD ora)

The_SaN
01-06-2008, 00:04
Boh, strano, mai visto un pannello 22'' con quella risoluzione.:rolleyes:

Lenovo l220x se vuoi documentarti ;)

halduemilauno
01-06-2008, 00:04
HD 4850 => 10 Prozent schneller als 9800 GTX
HD 4870 => 40 Prozent schneller als 9800 GTX
HD 4870 X2 => 30 Prozent schneller als 9800 GX2
http://www.hardware-infos.com/news.php?news=2110
significa % + veloce.
;)

john18
01-06-2008, 00:05
guarda che le schede di fascia media ATI sono decisamente buone, anche se sono delle "fascia alte/medio-alte rinominate" ... la hd3870 è al pari delle 9600gt, come l' hd3850 appena uscita andava il doppio della 8600gts, ad un prezzo poco superiore ... poi che ci sono tanti che preferiscono nvidia e buttarsi sulla sua fascia media sono altri discorsi ;)




Quoto!:)

paolo.guidx
01-06-2008, 00:05
E chi te lo dice che non stia succedendo la stessa cosa...;)

Cioè??? AMD butta nel cesto sia Phenom che le HD????? :rotfl::rotfl::rotfl:
Ma dai...... Quella che vedi adesso è la NUOVA architettura di AMD. Sia per le CPU che per le GPU. Stop.

ale0bello0pr
01-06-2008, 00:05
HD 4850 => 10 Prozent schneller als 9800 GTX
HD 4870 => 40 Prozent schneller als 9800 GTX
HD 4870 X2 => 30 Prozent schneller als 9800 GX2
http://www.hardware-infos.com/news.php?news=2110
;)


ho già visto quel sito 1 oretta fa ma purtroppo non si capisce una mazza e non fa tradurre :muro:

cmq x me son ennesime bufale xkè se fosse vero allora GT280 = 4870X2 (o quasi)
:mbe:

Mister Tarpone
01-06-2008, 00:06
HD 4850 => 10 Prozent schneller als 9800 GTX
HD 4870 => 40 Prozent schneller als 9800 GTX
HD 4870 X2 => 30 Prozent schneller als 9800 GX2
http://www.hardware-infos.com/news.php?news=2110
;)

che significherebbe?? :confused:


parla di percentuali??

leoneazzurro
01-06-2008, 00:06
Si, ma sia INTEL che nVidia erano rimasti indietro non per problemi di architettura, ma perchè ne stavano sviluppando una nuova. Intel già con i primi PentiumD aveva già ripreso la scia di AMD, nVidia con la serie 6 ha iniziato a prendere a bastonate ATI...... Adesso invece AMD è alle prese con i Phenom che non riescono a superare delle frequenze accettabili, ATI (anche se è sempre AMD) riesce a malapena a sfornare schede di fascia media:muro: .... Se fossi Hector Ruiz (CEO di amd per chi non lo sapesse) un pochetto sarei preoccupato....

No, veramente Intel e Nvidia avevano proprio cannato con Prescott e la serie 5, tanto è vero che c'è voluto un bel pò a entrambe prima di uscire con Core 2 e la serie 6, e nel frattempo ad esempio Nvidia aveva anche perso per un certo periodo il primato di vendita delle VGA discrete. Il Pentium D era quello che è ora il Phenom in confronto ad un Core 2 Quad: più lento e con consumi superiori. Addirittura Intel aveva cancellato Tejas, il successore di Prescott.

http://en.wikipedia.org/wiki/Tejas_and_Jayhawk

Dicevo, va bene avere preferenze, ma la storia va letta un attimo in maniera più obiettiva.

halduemilauno
01-06-2008, 00:07
che significherebbe?? :confused:


parla di percentuali??

Ja.
;)

leoneazzurro
01-06-2008, 00:09
che significherebbe?? :confused:


parla di percentuali??

HD4850 10% più veloce di 9800 GTX
HD4870 40% più veloce di 9800 GTX
HD4870x2 30% più veloce di 9800GX2

(tradotto letteralmente). Ma potrebbero semplicemente essere rumors basati sui leak di CJ.

okorop
01-06-2008, 00:10
la 4870x2 è data il 30% piu veloce della 9800gx2 e a quanto pare la gtx260 avra piu o meno lo stesso risultato o sbaglio?

Mister Tarpone
01-06-2008, 00:10
ah ma quindi tradotto verrebbe:

HD 4850 => 10% sopra la 9800 GTX
HD 4870 => 40% sopra la 9800 GTX
HD 4870 X2 => 30% sopra la 9800 GX2


AZZ... ho capito bene??? :confused: :eek:

paolo.guidx
01-06-2008, 00:10
Lenovo l220x se vuoi documentarti ;)

Non male, però è brutto. Meglio il mio caro (in tutti i sensi:( ) Dell 2707wfp;) .... Molto più elegante e con dettagli più curati.

john18
01-06-2008, 00:11
Cioè??? AMD butta nel cesto sia Phenom che le HD????? :rotfl::rotfl::rotfl:
Ma dai...... Quella che vedi adesso è la NUOVA architettura di AMD. Sia per le CPU che per le GPU. Stop.



Amd non butta nel cesto proprio nulla!I guadagni ce li ha comunque e non sono pochi proprio perchè i suoi prodotti hanno prezzi competitivi.E quando dico competitivi,intendo tanto di meno...L'architettura amd è nuova un pò come lo era quella nvidia con la serie 5xxx.:asd:

Mister Tarpone
01-06-2008, 00:13
HD4850 10% più veloce di 9800 GTX
HD4870 40% più veloce di 9800 GTX
HD4870x2 30% più veloce di 9800GX2

(tradotto letteralmente). Ma potrebbero semplicemente essere rumors basati sui leak di CJ.

son dati molto positivi :eek:

ma continuo a restare un pò scettico.... mo vedremo...

leoneazzurro
01-06-2008, 00:13
la 4870x2 è data il 30% piu veloce della 9800gx2 e a quanto pare la gtx260 avra piu o meno lo stesso risultato o sbaglio?

Dipende dalle applicazioni, in media non credo ma si vedrà

ah ma quindi tradotto verrebbe:

HD 4850 => 10% sopra la 9800 GTX
HD 4870 => 40% sopra la 9800 GTX
HD 4870 X2 => 30% sopra la 9800 GX2


AZZ... ho capito bene??? :confused: :eek:

Si, ma come detto sono rumors

J!MmΨ
01-06-2008, 00:14
HD4850 10% più veloce di 9800 GTX
HD4870 40% più veloce di 9800 GTX
HD4870x2 30% più veloce di 9800GX2

(tradotto letteralmente). Ma potrebbero semplicemente essere rumors basati sui leak di CJ.

questi risultati, imho, andrebbero analizzato sotto la luce del prezzo ... se proposte ad un prezzo decente, queste schede potrebbero anche vendere fino alla nuova presentazione delle schede nvidia di fascia medio-alta/media ;) ma sempre di rumors si parla ;)

halduemilauno
01-06-2008, 00:14
Amd non butta nel cesto proprio nulla!I guadagni ce li ha comunque e non sono pochi proprio perchè i suoi prodotti hanno prezzi competitivi.E quando dico competitivi,intendo tanto di meno...L'architettura amd è nuova un pò come lo era quella nvidia con la serie 5xxx.:asd:

come guadagni? son sei trimestri consecutivi che è in perdita. complessivamente per 4.3 miliardi di $. me li chiami guadagni?
:boh:

okorop
01-06-2008, 00:15
come guadagni? son sei trimestri consecutivi che è in perdita. complessivamente per 4.3 miliardi di $. me li chiami guadagni?
:boh:

amd è in perdita quando ha acquisito ati e deve ancora pagare quel deficit che si è creata....

son dati molto positivi :eek:

ma continuo a restare un pò scettico.... mo vedremo...

anche io sono molto scettico anche perche se cosi fosse vero è un bel segno di ati almeno il divario con g80 la ripreso alla grande sperando in rv870 se non fallira prima:)

The_SaN
01-06-2008, 00:16
come guadagni? son sei trimestri consecutivi che è in perdita. complessivamente per 4.3 miliardi di $. me li chiami guadagni?
:boh:

La divisione grafica, dopo le perdite della serie 2xxx é ritornata al pareggio grazie alle 3xxx ;)

Mister Tarpone
01-06-2008, 00:16
anche io sono molto scettico anche perche se cosi fosse vero è un bel segno di ati almeno il divario con g80 la ripreso alla grande sperando in rv870 se non fallira prima:)

speriamo di no dai :) (Azz... )

J!MmΨ
01-06-2008, 00:17
speriamo di no dai :) (Azz... )

se amd fallisce per comprare una scheda decente nvidia falliremo noi :asd:

Mister Tarpone
01-06-2008, 00:18
se amd fallisce per comprare una scheda decente nvidia falliremo noi :asd:

:asd:

paolo.guidx
01-06-2008, 00:18
No, veramente Intel e Nvidia avevano proprio cannato con Prescott e la serie 5, tanto è vero che c'è voluto un bel pò a entrambe prima di uscire con Core 2 e la serie 6, e nel frattempo ad esempio Nvidia aveva anche perso per un certo periodo il primato di vendita delle VGA discrete. Il Pentium D era quello che è ora il Phenom in confronto ad un Core 2 Quad: più lento e con consumi superiori. Addirittura Intel aveva cancellato Tejas, il successore di Prescott.

http://en.wikipedia.org/wiki/Tejas_and_Jayhawk

Dicevo, va bene avere preferenze, ma la storia va letta un attimo in maniera più obiettiva.[/

Sempre stato un fan di AMD-ATI, ma se devo essere obbiettivo allora bisogna anche dire che i PentiumD si occavano che era uno spettacolo, così come le serie 6 di nVidia...... Adesso cosa ci faì con i Phenom? E' già qualcosa se funzionano con le specifiche standard.... Poi come hai detto te, Intel quando si è accorta che la strada imboccata era un vicolo cieco ha svoltato e cambiato progetti ed architettura, AMD ha provato ad abbattere il muro dei problemi. Ma te lo sai quanto è spesso quel muro?

halduemilauno
01-06-2008, 00:18
son dati molto positivi :eek:

ma continuo a restare un pò scettico.... mo vedremo...

come positivi? addirittura molto? praticamente ha detto che che ha gia perso su due schede e la terza dice che vince del 10%(e vista l'esiguità credo che sia tutta da dimostrare). me li chiami positivi?
ok vedremo.
;)

paolo.guidx
01-06-2008, 00:20
La divisione grafica, dopo le perdite della serie 2xxx é ritornata al pareggio grazie alle 3xxx ;)

Si, ma AMD produce anche processori.... e li se la passano maluccio.

J!MmΨ
01-06-2008, 00:20
come positivi? addirittura molto? praticamente ha detto che che ha gia perso su due schede e la terza dice che vince del 10%(e vista l'esiguità credo che sia tutta da dimostrare). me li chiami positivi?
ok vedremo.
;)

imho ripeto che vanno visti , se sono veri i dati, sotto il profilo prezzi ... ;)

halduemilauno
01-06-2008, 00:21
amd è in perdita quando ha acquisito ati e deve ancora pagare quel deficit che si è creata....



anche io sono molto scettico anche perche se cosi fosse vero è un bel segno di ati almeno il divario con g80 la ripreso alla grande sperando in rv870 se non fallira prima:)

mica è una scusante è una aggravante. e pure bella pesante.

La divisione grafica, dopo le perdite della serie 2xxx é ritornata al pareggio grazie alle 3xxx ;)

ancora con la divisione grafica??? si sta parlando del bersaglio grosso, di amd.

ale0bello0pr
01-06-2008, 00:21
come positivi? addirittura molto? praticamente ha detto che che ha gia perso su due schede e la terza dice che vince del 10%(e vista l'esiguità credo che sia tutta da dimostrare). me li chiami positivi?
ok vedremo.
;)

la terza vince del 10 % ?:mbe:

forse è la notte che porta confusione :confused:

halduemilauno
01-06-2008, 00:23
la terza vince del 10 % ?:mbe:

forse è la notte che porta confusione :confused:

cosi dice il link/rumors postato. e io ho aggiunto "vista l'esiguità...."

okorop
01-06-2008, 00:25
mica è una scusante è una aggravante. e pure bella pesante.
.
se amd ha dovuto pagare ati non ha potuto investire in ricerca e sviluppo per 2 annetti e quindi ora i trova coi remi in barca perche deve rincorrere....io non la ponevo come scusante anzi, se le due società fossero state divise sarebbe stato molto ma molto meglio per tutti noi, ma purtroppo......

paolo.guidx
01-06-2008, 00:26
imho ripeto che vanno visti , se sono veri i dati, sotto il profilo prezzi ... ;)

Non dimentichi una cosa? Cioè che le schede a SX (ATI) devono ancora uscire (e quindi AMD ancora non ci ha preso un nichelino) mentre quelle a DX sono già in vendita da MESI e che nVidia si stà riempendo le tasche? E che quando usciranno le schede a SX nella colonna a DX ci saranno schede tipo GTX2xx e le percentuali saranno negative? Sei sempre sicuro di quello che dici?

halduemilauno
01-06-2008, 00:26
se amd ha dovuto pagare ati non ha potuto investire in ricerca e sviluppo per 2 annetti e quindi ora i trova coi remi in barca perche deve rincorrere....io non la ponevo come scusante anzi, se le due società fossero state divise sarebbe stato molto ma molto meglio per tutti noi, ma purtroppo......

dovuto, mica l'ha ordinato il dottore di comprare ati.

J!MmΨ
01-06-2008, 00:27
Non dimentichi una cosa? Cioè che le schede a SX (ATI) devono ancora uscire (e quindi AMD ancora non ci ha preso un nichelino) mentre quelle a DX sono già in vendita da MESI e che nVidia si stà riempendo le tasche? E che quando usciranno le schede a SX nella colonna a DX ci saranno schede tipo GTX2xx e le percentuali saranno negative? Sei sempre sicuro di quello che dici?

non c ho capito una minchia ...

paolo.guidx
01-06-2008, 00:28
dovuto, mica l'ha ordinato il dottore di comprare ati.

Giusto, più che dovuto voluto.....Purtroppo :( (per le ns. tasche)....:sofico:

ale0bello0pr
01-06-2008, 00:29
se amd ha dovuto pagare ati non ha potuto investire in ricerca e sviluppo per 2 annetti e quindi ora i trova coi remi in barca perche deve rincorrere....io non la ponevo come scusante anzi, se le due società fossero state divise sarebbe stato molto ma molto meglio per tutti noi, ma purtroppo......

ti devo dare ragione visto che AMD ha avuto le palle di investire e rischiare ponendosi sia nel mercato CPU che VGA e stare dietro a Intel e Nvidia contemporaneamente è un impresa da titani certamente, basta vedere come corre il mostro di Intel...
si stanno mettendo ai ripari creando la CPU+GPU (Fusion) ma è ancora presto per parlarne..

okorop
01-06-2008, 00:29
dovuto, mica l'ha ordinato il dottore di comprare ati.

sbagliare è umano hanno sbagliato non dovevano fare quell'acquisizione ....pero giunti all'opa si certo dovevano pagare le azioni ati, c'è una legge che lo regolamenta

john18
01-06-2008, 00:29
come guadagni? son sei trimestri consecutivi che è in perdita. complessivamente per 4.3 miliardi di $. me li chiami guadagni?
:boh:



Ti hanno gia risposto...;)

Mister Tarpone
01-06-2008, 00:30
come positivi? addirittura molto? praticamente ha detto che che ha gia perso su due schede e la terza dice che vince del 10%(e vista l'esiguità credo che sia tutta da dimostrare). me li chiami positivi?
ok vedremo.
;)

bisogna vedere anche i prezzi dai...

cmq la 4870x2 dice che costerà + di una gtx260... e non mi convince perchè è un crossfire...


poi intendevo positivi perchè fino adesso le ipotesi erano che la 4850 andasse come la gtx.. mentre la 4870 un 30%... mentre a veder li andrebbero ancora (se pur di poco) meglio...

considera poi che io ho ancora qualche dubbio che andranno a questa maniera....... cioè 4850 = 98GTX e 4870 = 30% +

ma vedremo..... :boh:

paolo.guidx
01-06-2008, 00:31
non c ho capito una minchia ...

Sarà l'ora tarda, ma le schede ai di ATI non le vedrai negli scaffali prima di 2-3 settimane, quelle nVidia le puoi comprare anche domattina. Minchia (da quanto non lo dicevo.....:D ) Quindi che la HD4850 sià più veloce di questa mazza nVidia conta poco.

J!MmΨ
01-06-2008, 00:32
ti devo dare ragione visto che AMD ha avuto le palle di investire e rischiare ponendosi sia nel mercato CPU che VGA e stare dietro a Intel e Nvidia contemporaneamente è un impresa da titani certamente, basta vedere come corre il mostro di Intel...
si stanno mettendo ai ripari creando la CPU+GPU (Fusion) ma è ancora presto per parlarne..

ale ma non è con le palle che si guadagna ... ruiz non ha di sicuro il demone di socrate :asd:

john18
01-06-2008, 00:33
Sempre stato un fan di AMD-ATI, ma se devo essere obbiettivo allora bisogna anche dire che i PentiumD si occavano che era uno spettacolo, così come le serie 6 di nVidia...... Adesso cosa ci faì con i Phenom? E' già qualcosa se funzionano con le specifiche standard.... Poi come hai detto te, Intel quando si è accorta che la strada imboccata era un vicolo cieco ha svoltato e cambiato progetti ed architettura, AMD ha provato ad abbattere il muro dei problemi. Ma te lo sai quanto è spesso quel muro?




Intel se lo può permettere...Hai presente il potere economico di intel rispetto ad amd? E' più dannosa una scelta da parte di amd che di intel!

ale0bello0pr
01-06-2008, 00:35
ale ma non è con le palle che si guadagna ... ruiz non ha di sicuro il demone di socrate :asd:

tanto io l'ho detto e lo ripeto :O IntelliNvidia inside vs SAMDSUNG (cit.)

paolo.guidx
01-06-2008, 00:36
ale ma non è con le palle che si guadagna ... ruiz non ha di sicuro il demone di socrate :asd:

Mega-Quotone :mano: :ubriachi:
AMD è convinta di farcela, ma è dura....... Mi sembra un davide contro due golia E non ci sono sassi per la fionda.... azz.

john18
01-06-2008, 00:37
dovuto, mica l'ha ordinato il dottore di comprare ati.



Scusa cosa significa? Tutte le società tentano di acquistarne altre per diventare più potenti.Se poi una scelta può creare danni come è successo con amd e ati,mica possiamo stare a farne una tragedia...

halduemilauno
01-06-2008, 00:37
bisogna vedere anche i prezzi dai...

cmq la 4870x2 dice che costerà + di una gtx260... e non mi convince perchè è un crossfire...


poi intendevo positivi perchè fino adesso le ipotesi erano che la 4850 andasse come la gtx.. mentre la 4870 un 30%...

considera che io cmq ho qualche dubbio che andranno a questa maniera....... cioè 4850 = 98GTX e 4870 = 30% +

ma vedremo..... :boh:

il confronto 9800gtx vs 4850 è corretto e quindi tocca vedere i prezzi e appunto le prestazioni e quindi quando si dichiarano un 10% in + qualche dubbio ti può venire.
poi per quanto riguarda la 4870 la sua avversaria è la gtx260 che pare(diciamo pare)è superiore alla 9800gx2 quindi...
e certamente la 4870x2 se la vedrà con la gtx280 e pure per queste qualche considerazioni gia la si potrebbe fare.
i prezzi? 349$ per la 4870 e 449$ per la gtx260 vedendo la differenza...
stessa differenza per le altre due 549$ per la 4870x2 e 649$ per la gtx680.
per carità detto un milione di volte aspettiamo bench.
;)

ale0bello0pr
01-06-2008, 00:38
Mega-Quotone :mano: :ubriachi:
AMD è convinta di farcela, ma è dura....... Mi sembra un davide contro due golia E non ci sono sassi per la fionda.... azz.

forse non c'è neanke la fionda:asd:

cmq non è ancora fallita ed è già un traguardo :ave:

paolo.guidx
01-06-2008, 00:39
Intel se lo può permettere...Hai presente il potere economico di intel rispetto ad amd? E' più dannosa una scelta da parte di amd che di intel!

E si ritorna a quello che dicevo prima, AMD ATI non può battere Intel e nVidia. Ma nessuno ha obbligato AMD a fare quello che ha fatto. Se nehalem uscisse alla fine dell'anno (spero di no) AMD CHIUDE!!!!! Perchè tanto con le GPU ATI non riesce a recuperare, ai voglia tornare in pareggio..... AMD ha i debiti. E per ripianare bisogna portare UTILI.

okorop
01-06-2008, 00:39
il confronto 9800gtx vs 4850 è corretto e quindi tocca vedere i prezzi e appunto le prestazioni e quindi quando si dichiarano un 10% in + qualche dubbio ti può venire.
poi per quanto riguarda la 4870 la sua avversaria è la gtx260 che pare(diciamo pare)è superiore alla 9800gx2 quindi...
e certamente la 4870x2 se la vedrà con la gtx280 e pure per queste qualche considerazioni gia la si potrebbe fare.
i prezzi? 349$ per la 4870 e 449$ per la gtx260 vedendo la differenza...
stessa differenza per le altre due 549$ per la 4870x2 e 649$ per la gtx680.
per carità detto un milione di volte aspettiamo bench.
;)

sarebbe interesante fare confronti tra sli di 9800gtx e 9800gx2....quale soluzione è piu prestante?

halduemilauno
01-06-2008, 00:40
Scusa cosa significa? Tutte le società tentano di acquistarne altre per diventare più potenti.Se poi una scelta può creare danni come è successo con amd e ati,mica possiamo stare a farne una tragedia...

chiedilo agli azionisti che han perso 4.3 miliardi di $. oltre ovviamente ai 9.8 sempre miliardi di $ per comprare il carrozzone ati. dico carrozzone proprio per la spesa esagerata fuori mercato e condannata e criticata da tutti. parlo dell'entità della spesa.

Mister Tarpone
01-06-2008, 00:41
mahh... sta a diventà tutto un casino.... co sti prezzi e precentuali varie.... :hic:

okorop
01-06-2008, 00:41
chiedilo agli azionisti che han perso 4.3 miliardi di $. oltre ovviamente ai 9.8 sempre miliardi di $ per comprare il carrozzone ati. dico carrozzone proprio per la spesa esagerata fuori mercato e condannata e criticata da tutti. parlo dell'entità della spesa.

i furbi esistono in tutti i campi....adesso gli azionisti di ati sicuramente coi soldi che han preso compreranno solo nvidia:D :D :D

ale0bello0pr
01-06-2008, 00:41
E si ritorna a quello che dicevo prima, AMD ATI non può battere Intel e nVidia. Ma nessuno ha obbligato AMD a fare quello che ha fatto. Se nehalem uscisse alla fine dell'anno (spero di no) AMD CHIUDE!!!!! Perchè tanto con le GPU ATI non riesce a recuperare, ai voglia tornare in pareggio..... AMD ha i debiti. E per ripianare bisogna portare UTILI.

sarebbe interessante vedere nei prox anni SAMDSUNG vs INTELLINVIDIA (Terza Guerra Fredda :asd:)

john18
01-06-2008, 00:41
E si ritorna a quello che dicevo prima, AMD ATI non può battere Intel e nVidia. Ma nessuno ha obbligato AMD a fare quello che ha fatto. Se nehalem uscisse alla fine dell'anno (spero di no) AMD CHIUDE!!!!!



Col tempo chi lo sa...Guarda che ha acquisito ati proprio per cercare di cominciare un ciclo nuovo.Se non rischi non vai da nessuna parte...

Mister Tarpone
01-06-2008, 00:44
Col tempo chi lo sa...Guarda che ha acquisito ati proprio per cercare di cominciare un ciclo nuovo.Se non rischi non vai da nessuna parte...

AZZ... vedo che purtroppo non è cominciato tanto bene però...... :sob:

leoneazzurro
01-06-2008, 00:45
Sempre stato un fan di AMD-ATI, ma se devo essere obbiettivo allora bisogna anche dire che i PentiumD si occavano che era uno spettacolo, così come le serie 6 di nVidia...... Adesso cosa ci faì con i Phenom? E' già qualcosa se funzionano con le specifiche standard.... Poi come hai detto te, Intel quando si è accorta che la strada imboccata era un vicolo cieco ha svoltato e cambiato progetti ed architettura, AMD ha provato ad abbattere il muro dei problemi. Ma te lo sai quanto è spesso quel muro?

Veramente si "occavano" anche le controparti.
E comunque, non è che si cambia dall'oggi al domani. Intel e Nvidia ci hanno messo 2 anni. Proprio perchè quel muro è spesso per tutti.

paolo.guidx
01-06-2008, 00:47
Scusa cosa significa? Tutte le società tentano di acquistarne altre per diventare più potenti.Se poi una scelta può creare danni come è successo con amd e ati,mica possiamo stare a farne una tragedia...

Questa è la più grande c@xx@ta della storia. Nel 99,99% dei casi una società ne acquisice un'altra per eliminare un rivale concorrente (e magari prenderne le tecnologie). Così ha fatto nVidia con 3DFX. Ti sembra che nVidia abbia preso spunto da 3DFX? No. Quando 3DFX se la passava male (un pò la situazione di adesso) nVidia ha aperto il libretto degli assegni e li ha liquidati. AMD va incontro alla stessa fine grazie a quella sciagurata operazione perchè non aveva idea di quello che comprava non essendo il suo campo.

The_SaN
01-06-2008, 00:47
il confronto 9800gtx vs 4850 è corretto e quindi tocca vedere i prezzi e appunto le prestazioni e quindi quando si dichiarano un 10% in + qualche dubbio ti può venire.
poi per quanto riguarda la 4870 la sua avversaria è la gtx260 che pare(diciamo pare)è superiore alla 9800gx2 quindi...
e certamente la 4870x2 se la vedrà con la gtx280 e pure per queste qualche considerazioni gia la si potrebbe fare.
i prezzi? 349$ per la 4870 e 449$ per la gtx260 vedendo la differenza...
stessa differenza per le altre due 549$ per la 4870x2 e 649$ per la gtx680.
per carità detto un milione di volte aspettiamo bench.
;)

Ma ancora con sta storia delle 4870 vs gtx260?
Avranno $120 di differenza...
AMD lascerá una fascia scoperta (quella delle gtx260), fino all' arrivo di 4870x2 che coterá 50 dollari in piú.
E nVidia lascerá scoperta quella delle 4870, che sono $329.

E nella fascia dei 300 dollari oggi nVidia ha solo le 9800gtx (che, sempre secondo i rumors) sará superata da una da $229.

tufogiulia
01-06-2008, 00:48
ciao ragazzi posto questo link se non sbaglio si parla di bench

guardate un po:D

http://www.vr-zone.com/articles/GeForce_GTX_280_%26_GTX_260_Gaming_Performance/5817.html

se gia riportata la notizia scusate.

paolo.guidx
01-06-2008, 00:48
Veramente si "occavano" anche le controparti.
E comunque, non è che si cambia dall'oggi al domani. Intel e Nvidia ci hanno messo 2 anni. Proprio perchè quel muro è spesso per tutti.

Aridaje..... te ne approfitti perchè moderatore eh???:ciapet:

The_SaN
01-06-2008, 00:49
AZZ... vedo che purtroppo non è cominciato tanto bene però...... :sob:

Il ciclo nuovo non inizia subito dopo l' acquisto, ma un po' dopo.
r600 era un progetto fatto solo da ATi, mentre la serie 3000 é stato l' inizio del nuovo ciclo. E direi che sono migliorati un bel po' ;)

halduemilauno
01-06-2008, 00:50
Col tempo chi lo sa...Guarda che ha acquisito ati proprio per cercare di cominciare un ciclo nuovo.Se non rischi non vai da nessuna parte...

ripeto non contesto l'acquisizione ma il costo per la stessa e le immediate conseguenze. poi è chiaro che le cause dei sei trimestri in passivo sono soprattutto la scarsa competitività dei suoi prodotti.

paolo.guidx
01-06-2008, 00:51
Ma ancora con sta storia delle 4870 vs gtx260?
Avranno $120 di differenza...
AMD lascerá una fascia scoperta (quella delle gtx260), fino all' arrivo di 4870x2 che coterá 50 dollari in piú.E nVidia lascerá scoperta quella delle 4870, che sono $329.

E nella fascia dei 300 dollari oggi nVidia ha solo le 9800gtx (che, sempre secondo i rumors) sará superata da una da $229.

Che se non ricordo male usciranno tra la metà e la fine di luglio, quindi insieme alle controparti nVidia GX2..... Solita storia, solito gap da recuperare, solita fascia alta scoperta....
E più facile tappare una fascia media che arrivare in alto....

ale0bello0pr
01-06-2008, 00:51
ciao ragazzi posto questo link se non sbaglio si parla di bench

guardate un po:D

http://www.vr-zone.com/articles/GeForce_GTX_280_%26_GTX_260_Gaming_Performance/5817.html

se gia riportata la notizia scusate.

è piu old dell'old quand'è nato
noi qui siamo avanti piu' dell'avanti
:rolleyes:

john18
01-06-2008, 00:51
Questa è la più grande c@xx@ta della storia. Nel 99,99% dei casi una società ne acquisice un'altra per eliminare un rivale concorrente (e magari prenderne le tecnologie). Così ha fatto nVidia con 3DFX. Ti sembra che nVidia abbia preso spunto da 3DFX? No. Quando 3DFX se la passava male (un pò la situazione di adesso) nVidia ha aperto il libretto degli assegni e li ha liquidati. AMD va incontro alla stessa fine grazie a quella sciagurata operazione perchè non aveva idea di quello che comprava non essendo il suo campo.



Guarda che quello che hai scritto comporta quello che ho scritto io.:rolleyes: Voglio dire prima di rispondere con certi termini poco consoni al discorso poi,cercherei di leggere meglio.;)

leoneazzurro
01-06-2008, 00:51
Questa è la più grande c@xx@ta della storia. Nel 99,99% dei casi una società ne acquisice un'altra per eliminare un rivale concorrente (e magari prenderne le tecnologie). Così ha fatto nVidia con 3DFX. Ti sembra che nVidia abbia preso spunto da 3DFX? No. Quando 3DFX se la passava male (un pò la situazione di adesso) nVidia ha aperto il libretto degli assegni e li ha liquidati. AMD va incontro alla stessa fine grazie a quella sciagurata operazione perchè non aveva idea di quello che comprava non essendo il suo campo.

No, si acquisisce anche per acquisire know how. Nel caso in questione, i dirigenti AMD hanno deciso che serviva il know how ATI per proporre qualcosa che la loro rivale Intel proponeva già e che loro non potevano dare: una piattaforma integrata da proporre al mercato.
Se poi l'acquisizione sarà stata un fallimento o una cosa buona lo si potrà vedere solo nel lungo termine (5 anni minimo) e non nel medio (1-2 anni). Sicuramente al momento attuale la situazione non è rosea, anzi.

-noxius-
01-06-2008, 00:51
ciao ragazzi posto questo link se non sbaglio si parla di bench

guardate un po:D

http://www.vr-zone.com/articles/GeForce_GTX_280_%26_GTX_260_Gaming_Performance/5817.html

se gia riportata la notizia scusate.

Guarda un pò chi si rivede !! Come va quella belva di gx2 ?

okorop
01-06-2008, 00:51
Il ciclo nuovo non inizia subito dopo l' acquisto, ma un po' dopo.
r600 era un progetto fatto solo da ATi, mentre la serie 3000 é stato l' inizio del nuovo ciclo. E direi che sono migliorati un bel po' ;)

han detto che sforneranno vga ogni sei mesi, gia se rispettano questa cosa è gia un passo avanti......comunque credo che nvidia (gt200 a 55nm) abbia piu cartucce in canna come intel (neahlem) e quindi potrebbero far fallire subito o quasi amd

john18
01-06-2008, 00:52
Il ciclo nuovo non inizia subito dopo l' acquisto, ma un po' dopo.
r600 era un progetto fatto solo da ATi, mentre la serie 3000 é stato l' inizio del nuovo ciclo. E direi che sono migliorati un bel po' ;)


Esattamente...;)

ale0bello0pr
01-06-2008, 00:52
han detto che sforneranno vga ogni sei mesi, gia se rispettano questa cosa è gia un passo avanti......comunque credo che nvidia abbia piu cartucce in canna come intel e quindi potrebbero far finire subito amd

tanto è impossibile che AMD fallisca (99,99%) , questo spero l'abbiate capito :rolleyes:

leoneazzurro
01-06-2008, 00:52
Aridaje..... te ne approfitti perchè moderatore eh???:ciapet:

Approfittarne per dire cose che dovrebbero essere ovvie? :mbe:

Mister Tarpone
01-06-2008, 00:54
Il ciclo nuovo non inizia subito dopo l' acquisto, ma un po' dopo.
r600 era un progetto fatto solo da ATi, mentre la serie 3000 é stato l' inizio del nuovo ciclo. E direi che sono migliorati un bel po' ;)

sicuramente... rispetto a quel bidone di r600 si...
come fascia mainstream le 3800 sono ok.

ma per la fascia medio alta e alta... lasciamo perdere.. (mi riferisco alle x2)

adesso vedremo poi con la serie 4000 che banda sarà....

halduemilauno
01-06-2008, 00:55
Il ciclo nuovo non inizia subito dopo l' acquisto, ma un po' dopo.
r600 era un progetto fatto solo da ATi, mentre la serie 3000 é stato l' inizio del nuovo ciclo. E direi che sono migliorati un bel po' ;)

si sono allontanati dal Titanic. stanno aspettando il Carpathia.

The_SaN
01-06-2008, 00:55
han detto che sforneranno vga ogni sei mesi, gia se rispettano questa cosa è gia un passo avanti......comunque credo che nvidia (gt200 a 55nm) abbia piu cartucce in canna come intel (neahlem) e quindi potrebbero far fallire subito o quasi amd

Ma anche AMD le sue cartucce le ha...resta solo da vedere come andranno rispetto alle controparti ;)
Il tempo passa per tutti, e ambedue lo stanno investendo per fare nuove architetture.

tufogiulia
01-06-2008, 00:55
Guarda un pò chi si rivede !! Come va quella belva di gx2 ?

ciao matteo io bene la gx2 va piu che bene adesso vediamo queste fantomatiche
gtx280 se gira crysis come si deve allora prendiamo anche questa, aspettiamo i primi bench reali io penso che andra non piu del 30% della gx2:D

john18
01-06-2008, 00:57
Noto che qui tutti apprezzerebbero un fallimento combinato amd-ati.:D Penso siate informati delle conseguenze di una simile cosa,anche se fantascientifica.:D

Mister Tarpone
01-06-2008, 00:57
si sono allontanati dal Titanic. stanno aspettando il Carpathia.

eh eh eh eh... ;)

leoneazzurro
01-06-2008, 00:58
han detto che sforneranno vga ogni sei mesi, gia se rispettano questa cosa è gia un passo avanti......comunque credo che nvidia (gt200 a 55nm) abbia piu cartucce in canna come intel (neahlem) e quindi potrebbero far fallire subito o quasi amd

Il discorso è che la maggior parte delle schede video si vendono nella fascia da 100$ a 300$. E stiamo parlando di ben oltre il 50%. AMD si sta focalizzando dove il mercato vende di più e cerca di focalizzare le proprie risorse che sono inferiori a quelle di Intel e Nvidia. Quindi niente mega-chip ma alte performance per area di silicio in modo da alzare i margini.
La situazione si ripeterà con Nehalem-Shanghai perchè Nehalem sarà a quanto pare un bel "pezzone di silicio" pure lui mentre Shanghai avrà a quanto pare dimensioni inferiori e si giocherà quindi sui prezzi.

paolo.guidx
01-06-2008, 01:00
No, si acquisisce anche per acquisire know how. Nel caso in questione, i dirigenti AMD hanno deciso che serviva il know how ATI per proporre qualcosa che la loro rivale Intel proponeva già e che loro non potevano dare: una piattaforma integrata da proporre al mercato.
Se poi l'acquisizione sarà stata un fallimento o una cosa buona lo si potrà vedere solo nel lungo termine (5 anni minimo) e non nel medio (1-2 anni). Sicuramente al momento attuale la situazione non è rosea, anzi.

E ti sembra che lo stanno facendo? Speriamo ci arrivi AMD a 5 anni.....

paolo.guidx
01-06-2008, 01:03
Noto che qui tutti apprezzerebbero un fallimento combinato amd-ati.:D Penso siate informati delle conseguenze di una simile cosa,anche se fantascientifica.:D

Dimmi chi. Cosi lo faccio fuori subito. Il fallimento di AMD non sarebbe una tragedia. Sarebbe una catastrofe, l'apocalisse dell'informatica. Avremmo un monopolio stile Microsoft (e chissa che il Bill non le acquisisca).

john18
01-06-2008, 01:04
E ti sembra che lo stanno facendo? Speriamo ci arrivi AMD a 5 anni.....



Capisco che sei "affezionato" ad una piattaforma ma non ti sembra di esagerare...:ciapet:

Mister Tarpone
01-06-2008, 01:05
apparte sapete che... a me piacerebbe tanto se entrasse una nuova concorrente nel campo delle schede video... che ste due marche alla fine mi stanno a stufà... :asd:


ma purtroppo la vedo dura..... ... . . .

leoneazzurro
01-06-2008, 01:06
E ti sembra che lo stanno facendo? Speriamo ci arrivi AMD a 5 anni.....

Lo hanno già fatto (proporre una piattaforma), il problema è che al momento la "piattaforma integrata" è ancora composta da una CPU AMD e un chipse ATI, se capisci cosa intendo. In futuro l'integrazione sarà certamente migliore.
Poi ci sono parecchie iniziative (Fusion, Torrenza) che potrebbero avere buona sorte come no, ma essendo nate dopo l'acquisizione, si vedranno realisticamente tra il 2009 e il 2010.

Comunque siamo OT, quindi direi di tornare a parlare delle VGA GT200

paolo.guidx
01-06-2008, 01:07
Ma anche AMD le sue cartucce le ha...resta solo da vedere come andranno rispetto alle controparti ;)
Il tempo passa per tutti, e ambedue lo stanno investendo per fare nuove architetture.

Diciamo che AMD ha la pistola e Intel-nVidia il fucile. E quando un uomo con la pistola incontra uno con il fucile quello con la pistola è un uomo morto. (se non hai il giubbotto antiproiettile, e dubito che AMD ne abbia uno).

paolo.guidx
01-06-2008, 01:08
Lo hanno già fatto (proporre una piattaforma), il problema è che al momento la "piattaforma integrata" è ancora composta da una CPU AMD e un chipse ATI, se capisci cosa intendo. In futuro l'integrazione sarà certamente migliore.
Poi ci sono parecchie iniziative (Fusion, Torrenza) che potrebbero avere buona sorte come no, ma essendo nate dopo l'acquisizione, si vedranno realisticamente tra il 2009 e il 2010.

Comunque siamo OT, quindi direi di tornare a parlare delle VGA GT200

Vabbè, sennò mi sospendi....:ciapet: ;)

Mister Tarpone
01-06-2008, 01:10
Diciamo che AMD ha la pistola e Intel-nVidia il fucile. E quando un uomo con la pistola incontra uno con il fucile quello con la pistola è un uomo morto. (se non hai il giubbotto antiproiettile, e dubito che AMD ne abbia uno).

questa l'hai tirata fuori da qualche film di clint eastwood vero??? :asd:

paolo.guidx
01-06-2008, 01:13
apparte sapete che... a me piacerebbe tanto se entrasse una nuova concorrente nel campo delle schede video... che ste due marche alla fine mi stanno a stufà... :asd:


ma purtroppo la vedo dura..... ... . . .

Si, certo, lanciamo la HWUP3D. La GPU è un cinesino che disegna a mano i poligoni e li illumina con la torcia. Però è ingombrante. Se ti interessa c'è pure la versione x2 (con il cinesino ambidestro).

Accontentati di queste due marche. Se poi le GTX sono molto più veloci della concorrenza bene (o male, dipende dai punti di vista).

The_SaN
01-06-2008, 01:14
questa l'hai tirata fuori da qualche film di clint eastwood vero??? :asd:

Per un pugno di dollari :D
Troppo ganzo :asd:

paolo.guidx
01-06-2008, 01:15
questa l'hai tirata fuori da qualche film di clint eastwood vero??? :asd:

Per un pugno di dollari, lo stò guardando adesso.... Come farò a dormire, ancora mi fischiano le orecchie....

paolo.guidx
01-06-2008, 01:17
Capisco che sei "affezionato" ad una piattaforma ma non ti sembra di esagerare...:ciapet:

AAAARGGGHHHH!!!! Ma come te lo devo spiegare. Per me AMD sta ad INTEL-NVIDIA come LINUX a WINDOWS. Ma se vuoi giocare seriamente non hai scelta oggi come oggi, almeno se hai un 27'' come me.
Potessi scegliere.....

Kharonte85
01-06-2008, 01:21
Qualcuno si è lasciato prendere un attimino la mano...

http://forum.beyond3d.com/showpost.php?p=1168835&postcount=2296

anzi, neppure troppo considerando che la HD4870 potrebbe, secondo rumors, essere superiore alla HD3870x2 :D

Ovviamente adesso si stanno tirando i dadi..

Comunque, su GTX 260 e 280 converrà avere CPU veramente potenti (e intendo dire VERAMENTE)
Eh sì stanno un po' sparando :asd:, comunque io mi riferivo soprattutto alle caratteristiche secondarie (in caso di eventuale paragonabilità di prestazioni): costanza delle performance ai consumi e meno "problemi generici"...a tutti i vantaggi del singolo chip in sostanza :)

Comunque, tenendo per buono che quei grafici diano un'indicazione realistica almeno internamente a nvidia, mi pare proprio che la distanza che separa la 260 dalla 280 sia comparabile a quella che fu fra GTS e GTX...o sbaglio?

Ma il reparto PR Nvidia non chiude almeno il sabato sera?:D
:sbonk:

paolo.guidx
01-06-2008, 01:25
Eh sì stanno un po' sparando :asd:, comunque io mi riferivo soprattutto alle caratteristiche secondarie (in caso di eventuale paragonabilità di prestazioni): costanza delle performance ai consumi e meno "problemi generici"...a tutti i vantaggi del singolo chip in sostanza :)

Comunque, tenendo per buono che quei grafici diano un'indicazione realistica almeno internamente a nvidia, mi pare proprio che la distanza che separa la 260 dalla 280 sia comparabile a quella che fu fra GTS e GTX...o sbaglio?


Dai grafici così sembra.... poi i giochi spesso son altra cosa.

A.L.M.
01-06-2008, 04:25
Ma ancora con sta storia delle 4870 vs gtx260?
Avranno $120 di differenza...
AMD lascerá una fascia scoperta (quella delle gtx260), fino all' arrivo di 4870x2 che coterá 50 dollari in piú.
E nVidia lascerá scoperta quella delle 4870, che sono $329.

E nella fascia dei 300 dollari oggi nVidia ha solo le 9800gtx (che, sempre secondo i rumors) sará superata da una da $229.

Come non quotare The_SaN. In quella fascia NVidia non ha nulla e dubito che riuscirà a cavare qualcosa pure da G92b (30-40% di performance in più su quel chip solo alzando le frequenze la vedo impossibile). Dunque diciamo che, stando alle info trapelate finora, si profilerebbe un dominio NVidia sopra i 400$, almeno fino all'arrivo di R700, ed uno ATI nella fascia tra i 200$ ed i 400$.
P.S.: R700 dovrebbe essere più potente del solo 65% di HD3870X2 (forse il 70-80%).

http://i114.photobucket.com/albums/n273/Wirmish/GeForceGTX200GPUs.png

P.P.S.: CJ, che ha postato queste slides, dice che i valori sono a 2560x1600.
http://gathering.tweakers.net/forum/view_message/30163213

Mercuri0
01-06-2008, 08:09
Comunque, su GTX 260 e 280 converrà avere CPU veramente potenti (e intendo dire VERAMENTE)
Ma perché dici questo leoneazzurro?

I casi in cui la GTX280 sarà CPU-bound non sarranno soltanto i casi in cui farà ben oltre i 60 frame? Semmai sarebbe la GTX280 ad essere sovradimensionata per i giochi attuali: i giochi futuri, più complessi, dovrebbero tornare ad essere GPU-bound anche per lei.

O ci sono giochi CPU-bound a 20FPS? :confused:

E Crysis? La GTX280 fa 80% in più della 3870x2. Vuol dire che Crysis è ancora ingiocabile? Ma cosa è che fa da collo di bottiglia a quel cavolo di gioco?

jok3r87
01-06-2008, 09:07
Ma perché dici questo leoneazzurro?

I casi in cui la GTX280 sarà CPU-bound non sarranno soltanto i casi in cui farà ben oltre i 60 frame? Semmai sarebbe la GTX280 ad essere sovradimensionata per i giochi attuali: i giochi futuri, più complessi, dovrebbero tornare ad essere GPU-bound anche per lei.

O ci sono giochi CPU-bound a 20FPS? :confused:

E Crysis? La GTX280 fa 80% in più della 3870x2. Vuol dire che Crysis è ancora ingiocabile? Ma cosa è che fa da collo di bottiglia a quel cavolo di gioco?

Chi l'ha scritto !!! :asd:

Kharonte85
01-06-2008, 09:36
Come non quotare The_SaN. In quella fascia NVidia non ha nulla e dubito che riuscirà a cavare qualcosa pure da G92b (30-40% di performance in più su quel chip solo alzando le frequenze la vedo impossibile). Dunque diciamo che, stando alle info trapelate finora, si profilerebbe un dominio NVidia sopra i 400$, almeno fino all'arrivo di R700, ed uno ATI nella fascia tra i 200$ ed i 400$.
Mi pare di aver sentito che nvidia presentera' qualcosa nel q3 in quella fascia fra la gtx 260 e la 9800gtx...io avevo ipotizzato una gtx 260 con la metà del quantitativo di memoria (come fece per la GTS 320mb) :D

P.S.: R700 dovrebbe essere più potente del solo 65% di HD3870X2 (forse il 70-80%).

secondo me è decisamente irrealistico...vorrebbe dire che anche la singola HD4870 dovrebbe andare circa il doppio rispetto alla singola hd3870, mentre invece mi pare di aver capito che se la hd4850=9800gtx la hd4870 invece sara' il 30% in piu' di quest'ultima quindi circa = alla HD3870x2 o poco piu' e considerando che il rendimento della x2 è di circa il 60% medio quei grafici potrebbero essere "corretti"...

J!MmΨ
01-06-2008, 10:00
Ma perché dici questo leoneazzurro?

I casi in cui la GTX280 sarà CPU-bound non sarranno soltanto i casi in cui farà ben oltre i 60 frame? Semmai sarebbe la GTX280 ad essere sovradimensionata per i giochi attuali: i giochi futuri, più complessi, dovrebbero tornare ad essere GPU-bound anche per lei.

O ci sono giochi CPU-bound a 20FPS? :confused:

E Crysis? La GTX280 fa 80% in più della 3870x2. Vuol dire che Crysis è ancora ingiocabile? Ma cosa è che fa da collo di bottiglia a quel cavolo di gioco?

imho la gtx280 ha bisogno sicuramente di cpu potenti, ma imho un q6600 o un e8400 con relativo oc possono andare benissimo ... anche perchè non so chi spenda tutti quei soldi per giocarci a 1440x900 o 1280x1024 :asd:

il collo di bottiglia? il motore grafico :asd:

halduemilauno
01-06-2008, 10:16
Mi pare di aver sentito che nvidia presentera' qualcosa nel q3 in quella fascia fra la gtx 260 e la 9800gtx...io avevo ipotizzato una gtx 260 con la metà del quantitativo di memoria (come fece per la GTS 320mb) :D

secondo me è decisamente irrealistico...vorrebbe dire che anche la singola HD4870 dovrebbe andare circa il doppio rispetto alla singola hd3870, mentre invece mi pare di aver capito che se la hd4850=9800gtx la hd4870 invece sara' il 30% in piu' di quest'ultima quindi circa = alla HD3870x2 o poco piu' e considerando che il rendimento della x2 è di circa il 60% medio quei grafici potrebbero essere "corretti"...

GTS280 o anche GTX240.
;)

leoneazzurro
01-06-2008, 10:20
Ma perché dici questo leoneazzurro?

I casi in cui la GTX280 sarà CPU-bound non sarranno soltanto i casi in cui farà ben oltre i 60 frame? Semmai sarebbe la GTX280 ad essere sovradimensionata per i giochi attuali: i giochi futuri, più complessi, dovrebbero tornare ad essere GPU-bound anche per lei.

O ci sono giochi CPU-bound a 20FPS? :confused:

E Crysis? La GTX280 fa 80% in più della 3870x2. Vuol dire che Crysis è ancora ingiocabile? Ma cosa è che fa da collo di bottiglia a quel cavolo di gioco?


Come avevo già scritto, si è CPU limited quando la CPU non passa abbastanza in fretta le informazioni (vertici, ecc.) alla scheda video. Ora, questo può accadere con pochi vertici (alti FPS se la scheda video è abbastanza potente) sia con moltissimi vertici (FPS "meno alti"). Poi c'è da distinguere tra FPS medi, massimi e minimi. Poi non guardiamo sempre e solo Crysis, che è un caso a sè e per cui era stato detto che avrebbe sfruttato in maniera egregia i quad core e invece...

Alcuni esempi di gioco che può essere CPU limited:

http://www.guru3d.com/article/cpu-scaling-in-games-with-quad-core-processors/4
http://www.guru3d.com/article/cpu-scaling-in-games-with-quad-core-processors/8

Poi devi pensare un'altra cosa: salendo con la risoluzione spesso aumenta anche il carico della CPU (maggiore area visiva e maggior numero di pixel-> maggiori dettagli di cui la CPU deve tenere conto) e del sistema quindi anche se a 1280x1024 il gioco gira a 60 FPS, non è detto che a 2560x1600 (il terreno di battaglia delle GT200) giri alla stessa velocità anche se la scheda video in teoria non fosse il fattore limitante.

leoneazzurro
01-06-2008, 10:27
invece mi pare di aver capito che se la hd4850=9800gtx la hd4870 invece sara' il 30% in piu' di quest'ultima quindi circa = alla HD3870x2 o poco piu' e considerando che il rendimento della x2 è di circa il 60% medio quei grafici potrebbero essere "corretti"...

Magari la X2 andasse il 30% in più della 9800 GTX in media...
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_sapphire_radeon_hd_3870_x2_atomic/3/#abschnitt_benchmarks
(è circa il 20%, il 25% a 2560x1600 senza AA, ma la gestione della memoria nelle ATI è leggermente migliore e si sente meno l'effetto del framebuffer limitato).

Mercuri0
01-06-2008, 10:32
Come avevo già scritto, si è CPU limited quando la CPU non passa abbastanza in fretta le informazioni (vertici, ecc.) alla scheda video. Ora, questo può accadere con pochi vertici (alti FPS se la scheda video è abbastanza potente) sia con moltissimi vertici (FPS "meno alti"). Poi c'è da distinguere tra FPS medi, massimi e minimi.

Alcuni test su AnandTech a proposito dello SLI della GX2 su Skulltrail avevano evidenziato che il sistema non fosse "CPU-limited" ma "System-limited" perché dava più vantaggi l'overclock del chipset della scheda madre che non della CPU!

Io mi domando e dico: se davvero servisse una CPU "uber" per passare i poligoni alla scheda grafica, allora semplicemente l'architettura del PC per i videogiochi è da buttare.

(Eppure stavano pensando anche a diminuire questo collo di bottiglia con roba come tessellatore etc etc. Se e quando i giochi lo useranno.)

Io trovo semplicemente ridicola la sproporzione tra la potenza dei PC rispetto a quella della console, paragonata all'esperienza di gioco.


Poi non guardiamo sempre e solo Crysis, che è un caso a sè e per cui era stato detto che avrebbe sfruttato in maniera egregia i quad core e invece...
In realtà a me di Crysis non me ne frega niente, soprattutto considerando che in giro ci sono un sacco di tweak per sistemare una resa grafica tipo Very-High con hardware DX9 a non so che percentuale in più di velocità rispetto alla Very High ufficiale.

Mi chiedo solo cosa ci sia nella Vey High ufficiale che uccida le prestazioni senza aumentare la qualità grafica...

-noxius-
01-06-2008, 10:37
Non centrerà un tubo con questa discussione ma è interessante notare un punto : in dx10 va meglio che in dx9, a parità di settaggi (S3 CHROME 430GT) , al contrario delle 8400GT e delle HD3450.

Che siano i driver o cosa ?

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_s3_chrome_430_gt/12/

Mercuri0
01-06-2008, 10:41
Mi pare di aver sentito che nvidia presentera' qualcosa nel q3 in quella fascia fra la gtx 260 e la 9800gtx...io avevo ipotizzato una gtx 260 con la metà del quantitativo di memoria (come fece per la GTS 320mb) :D

Forse l'unico tallone d'achille dell'attuale architettura di nVidia è l'averci l'ampiezza del bus verso la memoria e il numero di ROP legate al quantitativo di memoria.

Per questo, siccome si dice che la 9800GTX è limitata dalla banda, se fai una scheda con il GT200 e 512MiB di GRAM, è anch'essa limitata dalla banda e ti va spiccicata uguale a una 9800GTX.

La 4870 sembra essere piazzata in una zona prezzo/prestazioni "protetta" che nVidia sembra poter raggiungere solo con modifiche sostanziali ai suoi chip... magari usando le GDDR5, tanto per cominciare.


secondo me è decisamente irrealistico...vorrebbe dire che anche la singola HD4870 dovrebbe andare circa il doppio rispetto alla singola hd3870, mentre invece mi pare di aver capito che se la hd4850=9800gtx la hd4870 invece sara' il 30% in piu' di quest'ultima quindi circa = alla HD3870x2 o poco piu' e considerando che il rendimento della x2 è di circa il 60% medio quei grafici potrebbero essere "corretti"...
Imo è terribilmente complicato fare previsioni in percentuali quando ci sono di mezzo le X2. Io aspetterei meglio i test delle HD4870 in crossfire, prima di accendere la mia palla di vetro ;)

halduemilauno
01-06-2008, 10:43
Forse l'unico tallone d'achille dell'attuale architettura di nVidia è l'averci l'ampiezza del bus verso la memoria e il numero di ROP legate al quantitativo di memoria.

Per questo, siccome si dice che la 9800GTX è limitata dalla banda, se fai una scheda con il GT200 e 512MiB di GRAM, è anch'essa limitata dalla banda e ti va spiccicata uguale a una 9800GTX.


Imo è terribilmente complicato fare previsioni in percentuali quando ci sono di mezzo le X2. Io aspetterei meglio i test delle HD4870 in crossfire, prima di accendere la mia palla di vetro ;)

GTX240 144shader, 24 rops, 384 bit, 768 mega. questo per dirti che tra le attuali e i 512 ci può essere altro.

A.L.M.
01-06-2008, 10:45
Mi pare di aver sentito che nvidia presentera' qualcosa nel q3 in quella fascia fra la gtx 260 e la 9800gtx...io avevo ipotizzato una gtx 260 con la metà del quantitativo di memoria (come fece per la GTS 320mb) :D

Sinceramente una vga a 448MB non mi pare una grande idea a certi livelli. Sul lungo anche la GTS320 ha mostrato i suoi limiti...
Più probabile che facciano un GT200 ancora più castrato, imho... :fagiano:


secondo me è decisamente irrealistico...vorrebbe dire che anche la singola HD4870 dovrebbe andare circa il doppio rispetto alla singola hd3870, mentre invece mi pare di aver capito che se la hd4850=9800gtx la hd4870 invece sara' il 30% in piu' di quest'ultima quindi circa = alla HD3870x2 o poco piu' e considerando che il rendimento della x2 è di circa il 60% medio quei grafici potrebbero essere "corretti"...

Le ultimissime voci sui soliti forum cinesi danno la HD4850 alla pari con G92 a 128SP e la HD4870 che batte la HD3870X2. Dunque RV770 potrebbe essere un 10%-15% più veloce in media di R680. Aggiungendoci lo scaling CF, che in media è del 55% in più (fonte Computerbase), si supera tranquillamente il 70% di performance in più rispetto a HD3870X2. Senza contare che l'incremento potrebbe essere maggiore con l'AA, visto il probabile miglioramento delle performance coi filtri.
Già nel worst case scenario sarebbe sopra la GTX260 in 6 giochi su 9, e sopra la GTX280 in 3. Figuriamoci nel best case. ;)

leoneazzurro
01-06-2008, 10:46
Alcuni test su AnandTech a proposito dello SLI della GX2 su Skulltrail avevano evidenziato che il sistema non fosse "CPU-limited" ma "System-limited" perché dava più vantaggi l'overclock del chipset della scheda madre che non della CPU!

Io mi domando e dico: se davvero servisse una CPU "uber" per passare i poligoni alla scheda grafica, allora semplicemente l'architettura del PC per i videogiochi è da buttare.

(Eppure stavano pensando anche a diminuire questo collo di bottiglia con roba come tessellatore etc etc. Se e quando i giochi lo useranno.)

Io trovo semplicemente ridicola la sproporzione tra la potenza dei PC rispetto a quella della console, paragonata all'esperienza di gioco.

La qualità grafica dei giochi per PC è fuori portata per le console attuali, in termini di risoluzione e AA. Che poi questo non si traduca in un'analoga differenza di esperienza ludica è un altro discorso, ed infatti io da sempre sostengo che giocare a risoluzioni ultraelevate con effetti superspinti sia decisamente eccessivo. Detto questo, la piattaforma PC deve fare i conti con il fatto di essere nata per fare anche altre cose che non i giochi, il che si ripercuote nel SO utilizzato e in dei possibili colli di bottiglia che in una console possono essere ridotti ed ottimizzati. Nel tuo caso con la piattaforma Skulltrail, che non è nemmeno la tipica configurazione da utente medio, evidentemente il chipset costituiva uno di questi colli di bottiglia, evidentemente perchè il bus PCI-E o le latenze verso la RAM di sistema costituivano un limite per un sistema multi-GPU.



In realtà a me di Crysis non me ne frega niente, soprattutto considerando che in giro ci sono un sacco di tweak per sistemare una resa grafica tipo Very-High con hardware DX9 a non so che percentuale in più di velocità rispetto alla Very High ufficiale.

Mi chiedo solo cosa ci sia nella Vey High ufficiale che uccida le prestazioni senza aumentare la qualità grafica...

A volte bastano uno-due effetti che però devono essere applicati a tutta l'immagine che uccidono le prestazioni.

-noxius-
01-06-2008, 10:50
GTX240 144shader, 24 rops, 384 bit, 768 mega. questo per dirti che tra le attuali e i 512 ci può essere altro.

Ovvero una 8800GTX @ HD4870

Mercuri0
01-06-2008, 10:55
GTX240 144shader, 24 rops, 384 bit, 768 mega. questo per dirti che tra le attuali e i 512 ci può essere altro.
Certo hal, non lo avevo evidenziato perché non era importante al mio ragionamento di prima.

Infatti per fare una scheda della classe di prestazione della HD4870 nVidia dovrebbe usare la soluzione che proponi, che però ha un costo maggiore.
(nVidia potrebbe scegliere di avere minori margini, ma anche AMD potrebbe scegliere di abbassare il prezzo della 4870. Questo intendevo nel dire che la 4870 mi sembra in una zona del rapporto prezzo/prestazioni "scoperta" dagli attuali/prossimi previsti chip nVidia)
Sinceramente una vga a 448MB non mi pare una grande idea a certi livelli. Sul lungo anche la GTS320 ha mostrato i suoi limiti...

GT200 con 448, per quando detto sopra, dovrebbe andare più lento delle G92.


Le ultimissime voci sui soliti forum cinesi danno la HD4850 alla pari con G92 a 128SP e la HD4870 che batte la HD3870X2. Dunque RV770 potrebbe essere un 10%-15% più veloce in media di R680. Aggiungendoci lo scaling CF, che in media è del 55% in più (fonte Computerbase), si supera tranquillamente il 70% di performance in più rispetto a HD3870X2. Senza contare che l'incremento potrebbe essere maggiore con l'AA, visto il probabile miglioramento delle performance coi filtri.
Già nel worst case scenario sarebbe sopra la GTX260 in 6 giochi su 9, e sopra la GTX280 in 3. Figuriamoci nel best case. ;)
Sulla 4870X2 si fanno i conti senza l'oste, che è il consumo di potenza.
A meno di novità architetturali nel multi-gpu, la 4870x2 dovrà per forza andare meno di due 4870 in crossfire. Al momento fare qualunque previsione su quella scheda è proprio un azzardo.

halduemilauno
01-06-2008, 11:03
Certo hal, non lo avevo evidenziato perché non era importante al mio ragionamento di prima.

Infatti per fare una scheda della classe di prestazione della HD4870 nVidia dovrebbe usare la soluzione che proponi, che però ha un costo maggiore.
(nVidia potrebbe scegliere di avere minori margini, ma anche AMD potrebbe scegliere di abbassare il prezzo della 4870. Questo intendevo nel dire che la 4870 mi sembra in una zona del rapporto prezzo/prestazioni "scoperta" dagli attuali/prossimi previsti chip nVidia)

GT200 con 448, per quando detto sopra, dovrebbe andare più lento delle G92.


Sulla 4870X2 si fanno i conti senza l'oste, che è il consumo di potenza.
A meno di novità architetturali nel multi-gpu, la 4870x2 dovrà per forza andare meno di due 4870 in crossfire. Al momento fare qualunque previsione su quella scheda è proprio un azzardo.


tu hai ipotizzato una gt200 con 512 mega e quindi con il difettuccio della banda limitata. a parte che cmq se ci metti + shader e tmu(dico rispetto al g92)in tutti i casi il miglioramento è avvertibile nei confronti della 9800gtx ma io ti ho fatto presente che tra i 512 e i 896 ci sono appunto i 768 con annessi 384 bit e 24 rops. il tutto ovviamente a meno prezzo(di quanto? 100$?) e meno consumo.


ps ripeto un gt200 con 448 mega andrebbe cmq + forte del g92 da 512 non esiste solo la bp.

Mercuri0
01-06-2008, 11:09
ps ripeto un gt200 con 448 mega andrebbe cmq + forte del g92 da 512 non esiste solo la bp.
Penso proprio di no, senti che ne pensano gli altri a proposito :)

"Collo di bottiglia" significa proprio "fattore limitante". Quindi è inutile che aumenti altra roba se non riesci prima ad allargarlo.

(a meno che il GT200 non sia più efficiente nella gestione della memoria, cosa che non abbiamo alcun motivo per credere) .

halduemilauno
01-06-2008, 11:12
Penso proprio di no, senti che ne pensano gli altri a proposito :)

"Collo di bottiglia" significa proprio "fattore limitante". Quindi è inutile che aumenti altra roba se non riesci prima ad allargarlo.

(a meno che il GT200 non sia più efficiente nella gestione della memoria, cosa che non abbiamo alcun motivo per credere) .

ok che è limitante ma se alla 9800gtx si mettono 160shader per forza di cose va meglio di quella da 128. è fisiologico. e io sto appunto parlando di un'altro chip quale il gt200.

gianni1879
01-06-2008, 11:27
ok che è limitante ma se alla 9800gtx si mettono 160shader per forza di cose va meglio di quella da 128. è fisiologico. e io sto appunto parlando di un'altro chip quale il gt200.

la 9800gtx non va il doppio rispetto alla 9600gt, pur avendo il doppio degli SP, quindi un'ipotetica 9800gtx a 160SP, andrebbe poco lontana, accentuando ancora di più il discorso da collo di bottiglia della banda passante e quantità memoria

halduemilauno
01-06-2008, 11:37
la 9800gtx non va il doppio rispetto alla 9600gt, pur avendo il doppio degli SP, quindi un'ipotetica 9800gtx a 160SP, andrebbe poco lontana, accentuando ancora di più il discorso da collo di bottiglia della banda passante e quantità memoria

ma perchè per andare il doppio rispetto a un'altra basta avere il doppio negli shader? non può andare il doppio perchè ha stesse frequenze, stesso bus e stessa ram, stesse rops ma cmq va ben di +. e ripeto io stavo sto parlando della gt200.

D4N!3L3
01-06-2008, 11:41
Il gioco.

:asd:

Marko#88
01-06-2008, 11:55
Il gioco.

:rotfl:

gianni1879
01-06-2008, 11:56
ma perchè per andare il doppio rispetto a un'altra basta avere il doppio negli shader? non può andare il doppio perchè ha stesse frequenze, stesso bus e stessa ram, stesse rops ma cmq va ben di +. e ripeto io stavo sto parlando della gt200.

parlavi anche, nel tuo messaggio, di un 160sp che sarebbe andato più forte rispetto al 128, e cmq un gt200 castrato non so fino a che punto potrebbe andare più di g92, a parte il costo superiore, non capisco il senso

halduemilauno
01-06-2008, 12:02
parlavi anche, nel tuo messaggio, di un 160sp che sarebbe andato più forte rispetto al 128, e cmq un gt200 castrato non so fino a che punto potrebbe andare più di g92, a parte il costo superiore, non capisco il senso

era un'esempio. il gt200 castrato(come descritto da me) non sai se andrà più forte del g92???? se lo beve a colazione il g92 e con le debite proporzioni pure l'rv770.

gianni1879
01-06-2008, 12:16
era un'esempio. il gt200 castrato(come descritto da me) non sai se andrà più forte del g92???? se lo beve a colazione il g92 e con le debite proporzioni pure l'rv770.

un gt200 con 448MB?

convinto tu....

-noxius-
01-06-2008, 12:22
Perchè ? Potrebbe essere pure possibile , ma di certo se ne riparlerà ad ottobre, non di certo ora .

gianni1879
01-06-2008, 12:24
Perchè ? Potrebbe essere pure possibile , ma di certo se ne riparlerà ad ottobre, non di certo ora .

aspettiamo gtx280 e gtx260 poi il resto si vedrà, Nvidia non abbandonerà tanto presto G92(B), un motivo ci sarà senza dubbio

halduemilauno
01-06-2008, 12:28
un gt200 con 448MB?

convinto tu....

aridaje il gt200 a 448 mega lo ha detto l'altro. io ho detto un gt200(GTX240)a 144 shader, 24 rops, 384 bit, 768 mega.
è tutto scritto sopra.

gianni1879
01-06-2008, 12:31
aridaje il gt200 a 448 mega lo ha detto l'altro. io ho detto un gt200(GTX240)a 144 shader, 24 rops, 384 bit, 768 mega.
è tutto scritto sopra.

ok quella versione andrebbe sicuramente di più e non ci sarebbero colli di bottiglia, non avevo letto tutte le discussioni precedenti.

Cmq magari un nuovo chip grafico ad hoc poichè castrare il top sarebbe uno spreco di silicio non indifferente

halduemilauno
01-06-2008, 12:34
ok quella versione andrebbe sicuramente di più e non ci sarebbero colli di bottiglia, non avevo letto tutte le discussioni precedenti.

Cmq magari un nuovo chip grafico ad hoc poichè castrare il top sarebbe uno spreco di silicio non indifferente

ok.
non a caso se hai letto tutto ho parlato sia di GTX240 che di GTS280.

halduemilauno
01-06-2008, 12:35
cmq rilasciato il nuovo GPUz 2.3 pronto per le gtx200.
http://forums.vr-zone.com/showthread.php?t=283113
;)

gianni1879
01-06-2008, 12:39
ok.
non a caso se hai letto tutto ho parlato sia di GTX240 che di GTS280.

si sto rileggendo un pò di pagine indietro

Kharonte85
01-06-2008, 12:52
Magari la X2 andasse il 30% in più della 9800 GTX in media...
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_sapphire_radeon_hd_3870_x2_atomic/3/#abschnitt_benchmarks
(è circa il 20%, il 25% a 2560x1600 senza AA, ma la gestione della memoria nelle ATI è leggermente migliore e si sente meno l'effetto del framebuffer limitato).
Dal tuo stesso link fa vedere proprio una differenza di circa il 30%

http://img81.imageshack.us/img81/7512/immaginezb2.png

o sbaglio? :fagiano:
Forse l'unico tallone d'achille dell'attuale architettura di nVidia è l'averci l'ampiezza del bus verso la memoria e il numero di ROP legate al quantitativo di memoria.

Per questo, siccome si dice che la 9800GTX è limitata dalla banda, se fai una scheda con il GT200 e 512MiB di GRAM, è anch'essa limitata dalla banda e ti va spiccicata uguale a una 9800GTX.
:confused: Non capisco...la banda passante rimane la stessa se la scheda la fai con un quantitativo di memoria dimezzato (come fu per 8800gts 320mb)

Semmai è limitata dalla Memoria video, ma fino a che quei mb di ram non sono saturati le prestazioni saranno identiche alla versione normale...del resto anche la hd4870 è prevista con 512mb di Ram quindi non vedo il problema di averne 448mb (solo 64mb in meno)

La 4870 sembra essere piazzata in una zona prezzo/prestazioni "protetta" che nVidia sembra poter raggiungere solo con modifiche sostanziali ai suoi chip... magari usando le GDDR5, tanto per cominciare.

Non è strettamente necessario...basta castrare il chip in modo da bilanciarne le prestazioni e i consumi...
Sinceramente una vga a 448MB non mi pare una grande idea a certi livelli. Sul lungo anche la GTS320 ha mostrato i suoi limiti...
Più probabile che facciano un GT200 ancora più castrato, imho... :fagiano:
Vedi sopra, comunque si' puo' essere che facciano un chip piu' castrato, e per certi versi sarebbe meglio dal lato consumo e ingombro...

Le ultimissime voci sui soliti forum cinesi danno la HD4850 alla pari con G92 a 128SP e la HD4870 che batte la HD3870X2. Dunque RV770 potrebbe essere un 10%-15% più veloce in media di R680. Aggiungendoci lo scaling CF, che in media è del 55% in più (fonte Computerbase), si supera tranquillamente il 70% di performance in più rispetto a HD3870X2. Senza contare che l'incremento potrebbe essere maggiore con l'AA, visto il probabile miglioramento delle performance coi filtri.
Già nel worst case scenario sarebbe sopra la GTX260 in 6 giochi su 9, e sopra la GTX280 in 3. Figuriamoci nel best case. ;)
:boh: Vedremo...a me paiono ottimistiche (come anche quelle di chi crede la GTX 260 molto superiore alla gx2) secondo me + o - ci siamo a livello di collocazione e rapporti di forza fra le schede ma ho la sensazione che sara' tutto (Ati e Nvidia) livellato verso il basso...

Milotto
01-06-2008, 13:10
Dal tuo stesso link fa vedere proprio una differenza di circa il 30%

http://img81.imageshack.us/img81/7512/immaginezb2.png

o sbaglio? :fagiano:

:boh: Vedremo...a me paiono ottimistiche (come anche quelle di chi crede la GTX 260 molto superiore alla gx2) secondo me + o - ci siamo a livello di collocazione e rapporti di forza fra le schede ma ho la sensazione che sara' tutto (Ati e Nvidia) livellato verso il basso...

Anche io ho l'impressione che sarà tutto livellato verso il basso....
e se la 4870 performasse un 10-15% in più alla 3870X2 equivarrebbe la GX2...:confused:
Non si capisce più un Ca**o

halduemilauno
01-06-2008, 13:11
edit.
;)

appleroof
01-06-2008, 13:42
A parte che dare percentuali è prematuro e le che le fasce di prezzo evidentemente sono un'opinione estremamente soggettiva, non si stava giocando al salto in alto. Si faceva vedere che le slides provenienti dal marketing sono spesso fuorvianti. E certo non consiglierei CPU AMD a chi fa del gaming un mestiere (neanche i quad Intel, a dire la verità)

hai giustamente citato il gaming, vien da sè che per uno con il pc non gioca e basta (per quello sono molto più convenienti le consolle)

ma a prte queste ovvia considerazioni potremmo parlare di longevità, dove il prezzo maggiore paga, appunto, ma sarebbe un discorso mooooolto lungo e completamente ot qui :D

Ma perché dici questo leoneazzurro?

I casi in cui la GTX280 sarà CPU-bound non sarranno soltanto i casi in cui farà ben oltre i 60 frame? Semmai sarebbe la GTX280 ad essere sovradimensionata per i giochi attuali: i giochi futuri, più complessi, dovrebbero tornare ad essere GPU-bound anche per lei.

O ci sono giochi CPU-bound a 20FPS? :confused:

E Crysis? La GTX280 fa 80% in più della 3870x2. Vuol dire che Crysis è ancora ingiocabile? Ma cosa è che fa da collo di bottiglia a quel cavolo di gioco?

insomma come sempre..:D

Come avevo già scritto, si è CPU limited quando la CPU non passa abbastanza in fretta le informazioni (vertici, ecc.) alla scheda video. Ora, questo può accadere con pochi vertici (alti FPS se la scheda video è abbastanza potente) sia con moltissimi vertici (FPS "meno alti"). Poi c'è da distinguere tra FPS medi, massimi e minimi. Poi non guardiamo sempre e solo Crysis, che è un caso a sè e per cui era stato detto che avrebbe sfruttato in maniera egregia i quad core e invece...

Alcuni esempi di gioco che può essere CPU limited:

http://www.guru3d.com/article/cpu-scaling-in-games-with-quad-core-processors/4
http://www.guru3d.com/article/cpu-scaling-in-games-with-quad-core-processors/8

Poi devi pensare un'altra cosa: salendo con la risoluzione spesso aumenta anche il carico della CPU (maggiore area visiva e maggior numero di pixel-> maggiori dettagli di cui la CPU deve tenere conto) e del sistema quindi anche se a 1280x1024 il gioco gira a 60 FPS, non è detto che a 2560x1600 (il terreno di battaglia delle GT200) giri alla stessa velocità anche se la scheda video in teoria non fosse il fattore limitante.

ecco, già qui vedo i quad più avanti dei dual :D

sommojames
01-06-2008, 15:28
Ma queste schede sono DVI o HDMI?

paolo.guidx
01-06-2008, 15:50
Ma queste schede sono DVI o HDMI?

Entrambe?:confused:

Mercuri0
01-06-2008, 16:15
:confused: Non capisco...la banda passante rimane la stessa se la scheda la fai con un quantitativo di memoria dimezzato (come fu per 8800gts 320mb)

Hai ragione, mi era parso di capire che bit di bus, numero di rop, e quantità memoria nei G80 e derivati fossero collegati. Forse c'è un inghippo sul differente numero di piedini usati dai chip di GRAM sulle due GTS.
Alcuni esempi di gioco che può essere CPU limited:

http://www.guru3d.com/article/cpu-scaling-in-games-with-quad-core-processors/4
http://www.guru3d.com/article/cpu-scaling-in-games-with-quad-core-processors/8

Capit, ma in quegli stessi test il processore più scarso fa 40fps nello scenario in cui e cpu-bound! (alle basse risoluzioni). E la differenza tra tutti gli altri sta in una decina di frame sopra la frequenza di refresh degli LCD. (Penso che la CPU sia magari più critica per gli FPS minimi.)

Il discorso che facevo è che anche se sono sicuro che GTX280 sarà spesso limitata dalla CPU, lo sarà sempre ben oltre i 60fps! Quindi più che processore migliore... semmai comprerei una scheda grafica più economica :D Oppure lo farei nell'attesa di giochi più pesanti.

Infatti di solito si vedono i test a framerate Uber per avere una idea di come andranno i giochi futuri. Il problema è che non è mica facile prevedere come scalano i requisiti di CPU all'aumentare della qualità grafica (perché ad altre ragioni credo poco - o ne avrei motivo?)

paolo.guidx
01-06-2008, 16:21
ecco, già qui vedo i quad più avanti dei dual :D
Scusa HAL, se confronti CPU in linea tra loro (x6800-QX6850-E8400) la differenza tra quad e dual è marginale, il QX9770 è fuori discussione che sia più veloce, ma anche la frequenza in più vorrà dire qualcosa? O no? Secondo me se disabiliti due core nel 9770 non cambia una virgola.

halduemilauno
01-06-2008, 16:30
Scusa HAL, se confronti CPU in linea tra loro (x6800-QX6850-E8400) la differenza tra quad e dual è marginale, il QX9770 è fuori discussione che sia più veloce, ma anche la frequenza in più vorrà dire qualcosa? O no? Secondo me se disabiliti due core nel 9770 non cambia una virgola.

hai quotato appleroof.
;)

paolo.guidx
01-06-2008, 16:41
hai quotato appleroof.
;)

:stordita: :doh:

Vabbè, rispondi te......

halduemilauno
01-06-2008, 16:47
:stordita: :doh:

Vabbè, rispondi te......

ma è un'argomento che avrà sollevato appleroof.
;)

halduemilauno
01-06-2008, 17:00
qui...
http://www.hardware-infos.com/news.php?news=2111
hanno tirato le somme della famosa slide.
gtx260 + 70%.
gtx280 +100%.
ovviamente aspettiamo bench esaustivi.
;)

Andrea deluxe
01-06-2008, 17:03
qui...
http://www.hardware-infos.com/news.php?news=2111
hanno tirato le somme della famosa slide.
gtx260 + 70%.
gtx280 +100%.
ovviamente aspettiamo bench esaustivi.
;)


Ich liebe die GTX 280!

appleroof
01-06-2008, 17:12
Scusa HAL, se confronti CPU in linea tra loro (x6800-QX6850-E8400) la differenza tra quad e dual è marginale, il QX9770 è fuori discussione che sia più veloce, ma anche la frequenza in più vorrà dire qualcosa? O no? Secondo me se disabiliti due core nel 9770 non cambia una virgola.

Allora, Tarpo....ehm paolo.guidx :D se guardi l'e8400 è dietro il qx9770 effettivamente parliamo di 200mhz in più, ma se guardi il q9450 deafult vedi che è avanti all'[email protected]

ma l'articolo dice che wic "...definitely utilizes at least 2 logical CPU cores and loves the newer processors." quindi possiamo dire che è un esempio dove più core hai meglio è...

cmq oggi come oggi i dual core non sono sfruttati appieno, cominciano ad esserlo (UT3 ad esempio li sfrutta) e quindi capisco e condivido (credo) l'intervento di leoneazzurro in relazione al famoso rapporto prezzo/prestazioni (un e8400 raggunge tra l'altro freq. prossime ai 4giga molto facilmente :eek: )

ma in ottica longevità (e secondo me non manca molto, certo molto meno secondo me che nello sfruttamento single/dual) il quad è senza dubbio migliore ,tenendo presente che anche essi si occano bene, meno dei dual, ma molto bene lo stesso e che appunto cmq hanno il doppio dei core

ovviamente fermandoci all'ambito gaming, in altri ambiti ovviamente il dual, anche quello più occato, non ha le prestazioni di un quad a metà della frequenza


hai quotato appleroof.
;)

:stordita: :doh:

Vabbè, rispondi te......

ma è un'argomento che avrà sollevato appleroof.
;)

....... :sbonk: :sbonk: :sbonk:

A.L.M.
01-06-2008, 17:27
qui...
http://www.hardware-infos.com/news.php?news=2111
hanno tirato le somme della famosa slide.
gtx260 + 70%.
gtx280 +100%.
ovviamente aspettiamo bench esaustivi.
;)

Escludendo il 3DMark, abbiamo +66.1% per la GTX260 e +91.6% per la GTX280, a 2560x1600 (come ha detto CJ).
Secondo le tabelle di Computerbase.de (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/#abschnitt_performancerating) la GX2 è in media il 30% più veloce di una X2 a quella risoluzione, il che quindi si traduce in un + 27.77% per la GTX260 rispetto alla GX2, e in un +47.38% per la GTX280 vs GX2. In effetti le alte risoluzioni potrebbero essere il famoso best case scenario, per via dei limiti di GX2 causati da banda e framebuffer. :)

ale0bello0pr
01-06-2008, 17:48
basta supposizioni voglio prove certe!!!:mad: