PDA

View Full Version : ATI Radeon HD 5870: la prima scheda video per DirectX 11


Pagine : 1 2 [3]

Pr|ckly
24-09-2009, 23:49
per quanto riguarda il confronto con gtx280/285 che sia... non lo si può fare perchè nvidia ancora deve proporre il suo nuovo prodotto, nn si può confrontare un monitor LCD di ora con un tubo catodico del 90

Basta con questa storia.
Esce ora e la si confronta con la top di gamma singlegpu avversaria che è presente sul mercato, amen.
Quando uscirà G300 ci sarà la 5870X2 o la 5890 e il confronto si farà con quelle, ha sempre funzionato cosi, anche quando era Ati a presentarsi in ritardo.
Che poi diciamola tutta, la 5870 non batte la 285, la ASFALTA e può benissimo reggere il paragone con la dualgpu avversaria visto che in molte occasioni riesce pure a stargli davanti.
Torno a ripetermi, discutere questa scheda mi pare davvero fuori da ogni logica.

The Gold Bug
24-09-2009, 23:49
http://images.anandtech.com/graphs/rv870_092209122344/20106.png
Insomma, ci sono 10 frame di differenza con i filtri attivi (e nemmeno al massimo), non mi pare una cosa da poco, sopratutto parlando di un titolo come Crysis.
Che poi non serva la corsa all'acquisto spasmodica sono d'accordo, si gioca di tutto anche con schede "vecchie" ma la scheda in sè tecnicamente imho ha davvero pochi punti deboli.

38,5-29,1= 9,4

9,4 : 29,1 = X : 100

100*9,4/29.1

32% esattamente

DarkVampire
25-09-2009, 00:06
Basta con questa storia.

Che poi diciamola tutta, la 5870 non batte la 285, la ASFALTA e può benissimo reggere il paragone con la dualgpu avversaria visto che in molte occasioni riesce pure a stargli davanti.
Torno a ripetermi, discutere questa scheda mi pare davvero fuori da ogni logica.

grazie al ca...rciofo...se uan nuova vga di nuova famiglia nn batte l'avversario e se stessa allora stanno nella cacca...ma gia lo sli e il crossfire li risupera..e ora ke uscira' la gt300...asfaltera' ati visto ke nvidia di solito fa vga piu' potenti di uno sli di famiglia precedente...

ma cmq sto 3d e tutta sta discussione la ritengo inutile...confrontare questa nuova vga con quelle altre attuali non ha senso...se non solo per vedere gli OVVI miglioramenti che ci dovrebbero essere..

ha invece senso..anzi avra' senso solo quando l'avversaria mettera' pure lei la sua top..e st'anno nn c''e nessuna attera si nuovi processi produttivi...entrambe sullo stesso piano..vedremo

okorop
25-09-2009, 00:08
Dai, non ci piove che chi deve upgradare partendo da un hw obsoleto... fa bene ad acquistare questa gpu... saltando tutte le altre... ma onestamente, x chi ha già hw tipo gtx280\260\295\4890\4870X2... starà benissimo con queste gpu x tanti altri mesi.

su questo non ci piove anche se io preferisco tenere una single gpu rispetto a una dual ergo fossi stato in coloro che avevano o una gtx295 o una 4870x2 l'avrei venduta prima del lancio delle nuove ati.....io che voglio sempre il top cambio spesso configurazione video quindi sono un caso a parte :asd:
per consumi temperature nuove librerie ecc ognuno fa i conti di tasca propria.....a se va male e non va come si deve me ne torno con la 9600gt come ho fatto con le gtx285 fischianti vendute dopo un meno....

Evangelion01
25-09-2009, 00:12
ma cmq sto 3d e tutta sta discussione la ritengo inutile...confrontare questa nuova vga con quelle altre attuali non ha senso...se non solo per vedere gli OVVI miglioramenti che ci dovrebbero essere..

Invece ha senso eccome... il mercato ORA propone questo, se uno deve scegliere ex-novo, non è che chiede g300... così come se uno vuol upgradare adesso. ;)
Inho dalla 275 in poi nvidia è proprio fuori mercato, forse è il caso che adegui i prezzi..

okorop
25-09-2009, 00:14
Invece ha senso eccome... il mercato ORA propone questo, se uno deve scegliere ex-novo, non è che chiede g300... così come se uno vuol upgradare adesso. ;)
Inho dalla 275 in poi nvidia è proprio fuori mercato, forse è il caso che adegui i prezzi..

secondo me dalla gtx260 in poi anche se sinceramente ora come ora con quei prezzi se ne salvano poche......

The Gold Bug
25-09-2009, 00:14
Veramente io non capisco, una top single chip esce a 300 euro al lancio, sta a pari con una dual avversaria,ok una generazione più vecchia, ma che costa 60 euro di più (vi lascio immaginare la caduta dei prezzi) , e non vi sta bene?
Mi sembra che alcuni rosichino a non poter dire "vedi? pure ati al lancio spara due milioni per la top di gamma"
Ma poi la cosa più assurda è che ci sono ANCHE quelli che dicono che sta scheda costa troppo....senza parole

okorop
25-09-2009, 00:35
La sapphire game edition... oltre al gioco battlestation pacific, incluso... offre un Coupon Dirt 2.

Sapete in cosa consiste?

appena esce il gioco lo scarichi dal sito ufficiale :)

okorop
25-09-2009, 00:37
bella attesa...

fino a gennaio 2010... :doh:

e vabbe dai un gioco te lo danno e l'altro che secondo me sarà un giocone te lo regalano ovviamente non dipende da amd se è stato posticipato ;)

okorop
25-09-2009, 00:38
Esce a inizio dicembre...

davvero :eek: :eek: pensavo l'avessero posticipato....altra bella notizia :sofico:

okorop
25-09-2009, 00:42
No x carità... mica è colpa di AMD... è colpa delle aggiunte DX11 che dicono che inseriranno sul vecchio codice (:doh: ).

Sarebbe stato bello un bundle con shift o batman... ma sono x physx. :fagiano:

da te questa frecciatina non me l'aspettavo, comunque sia shift sia batman potevano essere rilasciati senza physx che era la stessa cosa.....poi shift non è che sia chissa cosa, han copiato mezzo grid....dirt 2 sarà spettacolo invece!!!!! poi per carità è solo questione di gusti
oramai vedo di tutto e quindi non ci faccio piu' caso a ste cose......
L'hanno posticipato, per questo esce a dicembre :D
a perchè doveva uscire prima? avevo letto comunque fine ottobre....

okorop
25-09-2009, 00:51
No, non è una frecciatina... è semplicemente una constatazione.

Sono 2 giochi che se fossero stati abbinati in bundle alla 5870 avrebbero potuto fare da ulteriore traino alle vendite, ma ovviamente non credo che li vedremo mai in bundle con una gpu ATI proprio x il discorso legato al physx.




si si ci mancherebbe pero' messa così.......;)

okorop
25-09-2009, 00:54
Potevano mettere in bundle Crysis. Non si parla d'altro da due anni a questa parte...

vabbe oramai l'han tutti :asd: io son contento dei due giochi che han messo, sarebbe stato ancora piu' bello se avessero messo anche command and conquer 4 :sofico:

Brom
25-09-2009, 00:56
Potevano mettere in bundle Crysis. Non si parla d'altro da due anni a questa parte...

effettivamente...
così puoi benchare appena comprata la scheda :D
con le nvidia davano assassin's se non sbaglio

Kharonte85
25-09-2009, 01:01
Sarebbe stato figo STALKER, ma quello esce davvero a gennaio, quindi meglio DiRT 2. D'altra parte posso capire che non ci siano giochi come The Secret of Monkey Island, ma se porto sul mercato la prima VGA DX11 e ci metto insieme il primo gioco DX11 do più impulso alle vendite che a metterci un Batman, visto che il cliente sa di prendere insieme la nuova feature e compreso nel prezzo anche il gioco per provarla...

Io scommetto che con DIRT2 ci ritroveremo di nuovo a fare il gioco: "trova le differenze"


Con AVP2 forse...

okorop
25-09-2009, 01:01
Sarebbe stato figo STALKER, ma quello esce davvero a gennaio, quindi meglio DiRT 2. D'altra parte posso capire che non ci siano giochi come The Secret of Monkey Island, ma se porto sul mercato la prima VGA DX11 e ci metto insieme il primo gioco DX11 do più impulso alle vendite che a metterci un Batman, visto che il cliente sa di prendere insieme la nuova feature e compreso nel prezzo anche il gioco per provarla...

stalker sarà uno spettacolo solo per pc, quello si che è un giocone in dx11....ovviamente tra gli amd game!!!!
Per questo gli han fatto togliere il supporto DX10.1, troppo ridicoli :asd:

mi ricordo lol e non dovevamo aggiornarlo che andava peggio :asd:

Io scommetto che con DIRT2 ci ritroveremo di nuovo a fare il gioco: "trova le differenze"


Con AVP2 forse...
qualche effetto in piu non è male :) in stalker invece si notavano differenze sostanziali tra dx10 e dx10.1 molto meglio giocarlo con le seconde.....ovviamente se non andava a scatti....

Sergio_Di_Rio
25-09-2009, 01:02
Che dire: veramente un mostro di scheda.

Secondo la review di HWU


+ 48% in media rispetta alla scheda a chip singolo più potente della propria gen precedente (4890)

+ 31,2% di media rispetto alla gpu singola più potente della vecchia gen (GTX285)

Quasi alla pari con le schede dual chip della gen antecedente (in media -5% sulla 4870x2 e -7.5% sulla GTX295)
Ora, cara ATi, attendiamo driver ben ottimizzati (soprattutto nel crossfiire).

E poi cosa aspettarsi?

RV870--->G300--->R800--->Price War--->RV890 + G300b-->Price War--->C.C. (Consumatori Contenti) ;)

speriamo..

Kharonte85
25-09-2009, 01:03
stalker sarà uno spettacolo solo per pc, quello si che è un giocone in dx11....ovviamente tra gli amd game!!!!
Dx8 vorrai dire...:asd:

okorop
25-09-2009, 01:07
Dx8 vorrai dire...:asd:

spero che il motore l'abbiano cambiato....

okorop
25-09-2009, 01:20
sempre il solito... e

ormai inizia a sentire il peso degli anni (già da Clear Sky in effetti)

ho letto che lo stanno mdoficando pesantemente per renderlo maggiormente compatibile con le dx10 aggiungendo effetti e miglior supporto per l'aa....inoltre la fase di testing è migliorata assai, poi se vogliono renderlo compatibile con le dx8 è una loro scelta, basta aumentare il dettaglio e in automatico cambia dx....poi come gameplay non c'è storia: il migliore fps a cui ho mai giocato del genere ......

DarkVampire
25-09-2009, 03:21
Dirt 2 invece, l'ho provato su PS3 e mi ha profondamente deluso sia rispetto a Dirt che rispetto a Grid. Tra l'altro l'introduzione di vetture puramente inventate e l'abolizione del classico campionato rally oltre al motore di guida x nulla realistico (non che mi aspettassi chissà cosa... ma almeno un pò di decenza nella simulazione del comportamento della vettura in curva etc.), ne fanno un gioco che non posso consigliare. Sia chiaro, graficamente è ottimo
FINE OT

parliamo della codemaster...coi gioki di guida ha sempre fatto acqua (nn me ne piace uno..troppo arcade..o con dei controlli di merda)...e sta anke rovinando la f1 mo ke esce il loro gioco..sara' l'enensimo arcade semi semi semi semi simulazione...aaaah meno male ke rfactor 2 si avvicina sempre piu!!

mi piacerebeb sapere cosa sta di physx in shift O_o..diciamo ke servirebeb per meglio simulare la fisica dei danni...ma i danni di shift fanno skifo al pisello...e la vettura non ne risente nemmeno a danni completi

Pr|ckly
25-09-2009, 08:56
bella attesa...

fino a gennaio 2010... :doh:

Dai, pensa a chi aveva preso una 9600 pensando che da li a qualche mese avrebbe scaricato HL2 gratuitamente... :asd:

killer978
25-09-2009, 09:04
No, non è una frecciatina... è semplicemente una constatazione.

Sono 2 giochi che se fossero stati abbinati in bundle alla 5870 avrebbero potuto fare da ulteriore traino alle vendite, ma ovviamente non credo che li vedremo mai in bundle con una gpu ATI proprio x il discorso legato al physx.

...CUT....


Perche secondo te la gente avrebbe preferito Shift a Dirt2?

Assurdo!.......

Con 300€ ti prendi la miglior VGA del momento + 2 giochi del valore di 80/90€ scusate se è poco :D

Sab-Zero
25-09-2009, 09:36
edit

Sab-Zero
25-09-2009, 09:36
grazie al ca...rciofo...se uan nuova vga di nuova famiglia nn batte l'avversario e se stessa allora stanno nella cacca...ma gia lo sli e il crossfire li risupera..e ora ke uscira' la gt300...asfaltera' ati visto ke nvidia di solito fa vga piu' potenti di uno sli di famiglia precedente...

ma cmq sto 3d e tutta sta discussione la ritengo inutile...confrontare questa nuova vga con quelle altre attuali non ha senso...se non solo per vedere gli OVVI miglioramenti che ci dovrebbero essere..

ha invece senso..anzi avra' senso solo quando l'avversaria mettera' pure lei la sua top..e st'anno nn c''e nessuna attera si nuovi processi produttivi...entrambe sullo stesso piano..vedremo

quoto in pieno

Basta con questa storia.
Esce ora e la si confronta con la top di gamma singlegpu avversaria che è presente sul mercato, amen.
Quando uscirà G300 ci sarà la 5870X2 o la 5890 e il confronto si farà con quelle, ha sempre funzionato cosi, anche quando era Ati a presentarsi in ritardo.
Che poi diciamola tutta, la 5870 non batte la 285, la ASFALTA e può benissimo reggere il paragone con la dualgpu avversaria visto che in molte occasioni riesce pure a stargli davanti.
Torno a ripetermi, discutere questa scheda mi pare davvero fuori da ogni logica.

bahh sembri un tantino contradditorio:fagiano:




Certo:

"scusi mi da quella scheda video"
"quale questa HD5870?"
"no quella nVidia che non si sa quando uscirà"



-.-
certo che se vado in un negozio per comprare una vga e devo spendere 300 per solo gaming mi accerto prima della concorrenza e delle sue contromosse, non prendo il primo modello che essendo nuovo per tanti deve essere per forza migliore

Evangelion01
25-09-2009, 10:56
certo che se vado in un negozio per comprare una vga e devo spendere 300 per solo gaming mi accerto prima della concorrenza e delle sue contromosse, non prendo il primo modello che essendo nuovo per tanti deve essere per forza migliore

La concorrenza in questo caso è rimasta parecchio indietro, visto che fino a Natale come minimo di g300 non si vedrà nulla... ergo bisogna guardare cosa offre il mercato al momento dell' acquisto , e vista la situazione odierna direi che la scelta può essere solo una, specialmente coi prezzi attuali...:oink:

Goofy Goober
25-09-2009, 11:12
per far funzionare l'ATI Eyefininty i monitor devono essere 3 identici (nel caso si volessero usare 3 monitor ovviamente) oppure possono essere 3 monitor anche con risoluzioni diverse? tipo 2 monitor 1680x1050 e un monitor 1920*1080?

sniperspa
25-09-2009, 11:24
io li ho provati entrambi... e ho scelto shift su pc piuttosto che dirt 2 su PS3.

e non c'è proprio paragone

Eh perchè shift te lo giochi a megarisoluzione....ma personalmente anche dirt1 lo trovo più divertente di shift :O
Poi oh,son gusti...

Futura12
25-09-2009, 11:34
io li ho provati entrambi... e ho scelto shift su pc piuttosto che dirt 2 su PS3.

e non c'è proprio paragone

il fatto è che non c'è proprio paragone fra un computer tipo il tuo,e una scarsa consolle....quindi perchè paragonare 2 realtà diverse?

DarkVampire
25-09-2009, 11:58
ho sentito ke dirt l'hanno rovinato (gia' nn era un granke' l'altro..con quei comandi ritardati poi)

ci dovrebbero essere auto totalmente inventate e addirittura hanno tolto il classico rally...boh...

resto col mio rfactor XD

DarkVampire
25-09-2009, 12:03
La concorrenza in questo caso è rimasta parecchio indietro, visto che fino a Natale come minimo di g300 non si vedrà nulla... ergo bisogna guardare cosa offre il mercato al momento dell' acquisto , e vista la situazione odierna direi che la scelta può essere solo una, specialmente coi prezzi attuali...:oink:

meglio che faccia le cose piano ma ottime...e vedi che madonna di scheda sfornera'..(spero).
il debutto anticipato di ati ci sta tutto..e' l'unico modo che ha di recuperare terreno sulle attuali. ma come ho sempre detto..ati punta piu' alla fascia media medio/alta (viste le potenze delel singole GPU)..cosa che sara' così appen anvidia fara' la sua mossa.. (adesso e' ovvio che questa mossa anticipata la pone in fascia alta..ma nn per molto)

Futura12
25-09-2009, 12:45
che c'entra la consolle riguardo al modello di guida?

se stiamo parlando di schede grafiche...credevo fosse scontato si parlasse di grafica..

Futura12
25-09-2009, 12:46
ho sentito ke dirt l'hanno rovinato (gia' nn era un granke' l'altro..con quei comandi ritardati poi)

ci dovrebbero essere auto totalmente inventate e addirittura hanno tolto il classico rally...boh...

resto col mio rfactor XD

Se non fosse per la grafica:rolleyes: spero che esca presto Rfactor2:sofico:

MiKeLezZ
25-09-2009, 13:32
La concorrenza in questo caso è rimasta parecchio indietro, visto che fino a Natale come minimo di g300 non si vedrà nulla... ergo bisogna guardare cosa offre il mercato al momento dell' acquisto , e vista la situazione odierna direi che la scelta può essere solo una, specialmente coi prezzi attuali...:oink:Veramente è di oggi la notizia che NVIDIA ha smentito tutti i vari rumors delle basse rese di GT300 ed è stato lasciare intendere un debutto verso Novembre, con addirittura preview possibili in Ottobre
Io dubito fortemente si troveranno impreparati al lancio di Windows 7, fosse anche mandino schede di pre-produzione ai recensori e poi l'effettiva commercializzazione avvenga 1,5 mesi dopo

yossarian
25-09-2009, 13:47
Veramente è di oggi la notizia che NVIDIA ha smentito tutti i vari rumors delle basse rese di GT300 ed è stato lasciare intendere un debutto verso Novembre, con addirittura preview possibili in Ottobre
Io dubito fortemente si troveranno impreparati al lancio di Windows 7, fosse anche mandino schede di pre-produzione ai recensori e poi l'effettiva commercializzazione avvenga 1,5 mesi dopo

da quando "voci = smentite"?

Prima di fare affermazioni sarebbe opportuno aspettare comunicazioni certe, con relative date di presentazione e di lancio; finora, sotto questo aspetto, mi pare non ci sia nulla.
Così come sarebbe opportuno aspettare la presentazione o, almeno, qualche informazione sulle specifiche reali, prima di fare previsioni sulle prestazioni di GT300 :read:

Futura12
25-09-2009, 13:54
Veramente è di oggi la notizia che NVIDIA ha smentito tutti i vari rumors delle basse rese di GT300 ed è stato lasciare intendere un debutto verso Novembre, con addirittura preview possibili in Ottobre
Io dubito fortemente si troveranno impreparati al lancio di Windows 7, fosse anche mandino schede di pre-produzione ai recensori e poi l'effettiva commercializzazione avvenga 1,5 mesi dopo

Ma se hanno avuto sempre grossi problemi di produzione dal G80 in poi ora mi vogliono far credere il contrario? la realtà e che si stanno mangiando le mani,e secondo me GT300 non è ancora ultimato....visto che vogliono fare i sboroni con 512bit e mazzi vari...aspettano:asd:

MiKeLezZ
25-09-2009, 14:03
da quando "voci = smentite"?

Prima di fare affermazioni sarebbe opportuno aspettare comunicazioni certe, con relative date di presentazione e di lancio; finora, sotto questo aspetto, mi pare non ci sia nulla.
Così come sarebbe opportuno aspettare la presentazione o, almeno, qualche informazione sulle specifiche reali, prima di fare previsioni sulle prestazioni di GT300 :read:La pazienza è la virtù dei forti :-)

yossarian
25-09-2009, 14:11
La pazienza è la virtù dei forti :-)

chi di speranza vive disperato muore :D

DjLode
25-09-2009, 14:14
chi di speranza vive disperato muore :D

Io la sapevo diversamente: chi visse sperando, muore cac... :D

MiKeLezZ
25-09-2009, 14:17
Io la sapevo diversamente: chi visse sperando, muore cac... :DFra l'altro le parole speranza e pazienza mi sembrano decisamente diverse, così come il loro significato
Si è preso una licenza... diciamo di trolling, piuttosto che poetica...

yossarian
25-09-2009, 14:41
Fra l'altro le parole speranza e pazienza mi sembrano decisamente diverse, così come il loro significato
Si è preso una licenza... diciamo di trolling, piuttosto che poetica...

speranza e pazienza hanno più attinenza di quanto ne abbia la tua risposta alla mia obiezione. Licenza per licenza, la tua è più.................lunga :D

!fazz
25-09-2009, 14:55
dopo la parentesi letteraria i proverbi e tutto il resto

si torna a parlare della 5870????

killer978
25-09-2009, 17:02
dopo la parentesi letteraria i proverbi e tutto il resto

si torna a parlare della 5870????

CHE COSA VOGLIAMO DIRE DI + :D è una signora scheda non c'è nulla da fare 2,2miliardi di transistor in 330mm2 è arte non tecnologia :D

hanno gia pronta la X2 avete visto la prima pagina? hanno pensato anche alla vasellina x quando uscirà GT300 (se mai uscirà) :asd:

killer978
25-09-2009, 17:05
Secondo me Nvidia tra un po uscirà con il G80 a 40nm almeno darà un nuovo nome alle varie 8800/9800 e potra dire io c'ero con i 40nm :rotfl:

ReDeX
25-09-2009, 17:18
Secondo me Nvidia tra un po uscirà con il G80 a 40nm almeno darà un nuovo nome alle varie 8800/9800 e potra dire io c'ero con i 40nm :rotfl:

Io direi che la 5870 è un'ottima scheda e che ati ora può giustamente godersi il primato tecnologico.

Ma farsi prendere da facili entusiasmi quando GT300 non è ancora uscito e non si conoscono ancora le sue effettive potenzialità è quantomeno prematuro.

Se poi nvidia si decidesse a tenere una politica di prezzi più aggressiva al pari di ati allora si che se ne vedrebbero delle belle, soprattutto per noi che godremmo di prezzi più concorrenziali da ambo i lati. ;)

Axelt
25-09-2009, 17:23
Io direi che la 5870 è un'ottima scheda e che ati ora può giustamente godersi il primato tecnologico.

Ma farsi prendere da facili entusiasmi quando GT300 non è ancora uscito e non si conoscono ancora le sue effettive potenzialità è quantomeno prematuro.

Se poi nvidia si decidesse a tenere una politica di prezzi più aggressiva al pari di ati allora si che se ne vedrebbero delle belle, soprattutto per noi che godremmo di prezzi più concorrenziali da ambo i lati. ;)

hai detto giusto "Se" ........poi appena escono le nuove vga spara i prezzi a valori assurdi e chi ci gode è Ati che vende un fottio di schede anche se vanno qualche "frame" in meno a livello di prestazioni..........spero che nvidia si svegli su questo campo e se nn lo fa vuol dire che i suoi costi di produzione sono tali da nn poter avere margini di calo

DukeIT
25-09-2009, 17:33
hanno gia pronta la X2 avete visto la prima pagina? hanno pensato anche alla vasellina x quando uscirà GT300 (se mai uscirà) :asd:Beh, ma si spera che esca, che sia un prodotto ottimo e che venga venduto ad un buon prezzo.
Se così non fosse verrebbe a mancare quello che ha permesso in questi ultimi tempi un notevole ribasso dei prezzi: la concorrenza.
Per gli acquirenti, cambierebbe poco se ad imporre i prezzi fosse ATI al posto di Nvidia.
E' un po' quello che non capivano i fanboy Nvidia quando contenti della supremazia della loro VGA preferita, la compravano felicemente a 600 euro e sucessivamente continuavano a darle la preferenza anche quando ATI proponeva prodotti dal rapporto prestazioni/prezzo superiore.

ReDeX
25-09-2009, 17:48
hai detto giusto "Se" ........poi appena escono le nuove vga spara i prezzi a valori assurdi e chi ci gode è Ati che vende un fottio di schede anche se vanno qualche "frame" in meno a livello di prestazioni..........spero che nvidia si svegli su questo campo e se nn lo fa vuol dire che i suoi costi di produzione sono tali da nn poter avere margini di calo

Già, e onestamente il fatto che a questo giro per coprire la fascia media e bassa abbia riciclato G92 farebbe pensare a un problema genere.

Se alla prossima generazione non riesce a proporre un prodotto più versatile temo che non ci saranno physx e cuda che tengano, visto che al contrario ati può proporre prezzi più bassi mantenendo un certo margine di guadagno.

appleroof
25-09-2009, 20:35
Io direi che la 5870 è un'ottima scheda e che ati ora può giustamente godersi il primato tecnologico.

Ma farsi prendere da facili entusiasmi quando GT300 non è ancora uscito e non si conoscono ancora le sue effettive potenzialità è quantomeno prematuro.

Se poi nvidia si decidesse a tenere una politica di prezzi più aggressiva al pari di ati allora si che se ne vedrebbero delle belle, soprattutto per noi che godremmo di prezzi più concorrenziali da ambo i lati. ;)

temo sarà difficile, per via dei costi di produzione necessariamente più alti di gt300 rispetto a rv870. Certo Nvidia potrebbe vendere al "prezzo di costo" o addirittura in perdita per un periodo breve (magari in attesa dei 28nm, che però ricordo appannaggio pure di Ati con la storia che potrebbe ripetersi...)

Inoltre c'è un altro fattore pesante a carico di Nvidia: la mancanza di proposte competitive nella fascia media e bassa, oggi raffazzonata come ricordi con g92, ormai però al capolinea, non fosse altro che è dx10 (ora dx10.1); forse potrebbe mettere una pezza con i chip top di gamma fallati, ma ammesso che sia possibile coprire un'intera gamma così sarebbe cmq una pezza temporanea....

non lo so, l'impressione, da quando sono usciti g80 e r600, è che Nvidia ha fatto la cicala e Ati la formica, onestamente ora come ora occorre una forte svolta in casa Nvidia, fermo restando che innanzitutto le top basate su gt300 non devono deludere...

appleroof
25-09-2009, 20:48
Questo vale per il marketing ed ha un certo peso, ma il problema più grosso per nVidia non è competere in quella fascia, ma tirare fuori qualcosa che possa competere con AMD nel sub-300$. La 5850 ho impressione che ucciderà il mercato ben più di quanto sia riuscita a fare la 4850, e fra 20gg ci saranno anche le 57xx, e in quelle zone veramente nVidia non ha niente con cui ribattere, soprattutto non da poterci arrivare con dei G300 pesantemente rimaneggiati.

Vabbè vedremo...

è esattamente il senso del mio intervento da te quotato :D

appunto quello che intendevo è che innanzitutto le top devono fare il loro dovere, cioè trainare l'immagine dell'azienda (e cmq assicurare un certo profitto) e poi di fretta mettere una pezza nelle fasce inferiori: entrambe sono sfide, ma la seconda ora come ora è quella che vedo più difficile, per i motivi che sono sotto gli occhi di tutti (ma magari occorrerebbero quelli el CEO Nvidia per sapere davvero le cose...:D )

Brom
25-09-2009, 21:54
ho dubbi che nvidia sparerà i prezzi soliti altissimi: l'ha sempre fatto perchè dominando il mercato usciva per prima con le schede e faceva bello e cattivo tempo.
siccome ati ha recuperato terreno e stavolta è la prima sulla nuova generazione, molto presumibilmente i prezzi saranno allineati e la scelta si baserà solo su funzioni agguntive (eyecoso+dx11 piuttosto che cuda+physx etc)

appleroof
25-09-2009, 23:16
Io credo che una pezza possa esserci messa con un GT200c, a livello prestazionale, il problema è il non avere l'halo effect delle DX11, che nella stessa fascia la concorrenza avrà fra meno di un mese...

esatto...

michelgaetano
25-09-2009, 23:45
Io credo che una pezza possa esserci messa con un GT200c, a livello prestazionale, il problema è il non avere l'halo effect delle DX11, che nella stessa fascia la concorrenza avrà fra meno di un mese...

esatto...

Quello che pensavo a riguardo di un ipotetico GT200c, è che difficilmente si discosterà molto da quel che vediamo ora, probabilmente solo degli step più avanzati sui clock (vedi GTX 280 -> 285; e va visto, per noi che guardiamo alla cosa, se i limiti massimi poi saliranno).

A questo aumento prestazionale facilmente ignorabile, andrebbero visti i prezzi: correggetemi se sbaglio, ma non mi pare che produrre a 40nm costi già di meno che, ad esempio, a 55. Aggiungete l'effetto novità che Nvidia vorrà far pagare su schede comunque nuove, ed ecco che ci ritroviamo con delle schede che praticamente vanno ancora uguale, con prezzi che dovrebbero essere ancora quelli (se la 5850 scende presto, ad Nvidia non farà piacere) e nessuna ombra di directx 11 e l'halo effect di cui prima.

okorop
25-09-2009, 23:47
mi sa che son colui che ha fatto il record di ordini per sta vga ben 8 :asd: poi qualcuno li disdico sia chiaro :asd:

3DMark79
25-09-2009, 23:49
Infatti sembra che Nvidia con il suo GT300 stia cercando di velocizzare i tempi anche se penso che la perdita di acquirenti l'avrà ugualmente soprattutto se non si adegua anche con i prezzi!;)

http://www.tomshw.it/news.php?newsid=19508

appleroof
26-09-2009, 00:52
Quello che pensavo a riguardo di un ipotetico GT200c, è che difficilmente si discosterà molto da quel che vediamo ora, probabilmente solo degli step più avanzati sui clock (vedi GTX 280 -> 285; e va visto, per noi che guardiamo alla cosa, se i limiti massimi poi saliranno).

A questo aumento prestazionale facilmente ignorabile, andrebbero visti i prezzi: correggetemi se sbaglio, ma non mi pare che produrre a 40nm costi già di meno che, ad esempio, a 55. Aggiungete l'effetto novità che Nvidia vorrà far pagare su schede comunque nuove, ed ecco che ci ritroviamo con delle schede che praticamente vanno ancora uguale, con prezzi che dovrebbero essere ancora quelli (se la 5850 scende presto, ad Nvidia non farà piacere) e nessuna ombra di directx 11 e l'halo effect di cui prima.

bè no, a parità di chip costa meno...

michelgaetano
26-09-2009, 01:24
bè no, a parità di chip costa meno...

Più che altro mi riferivo alle rese produttive, credevo la cosa inficiasse ancora allo stato attuale... ho cannato in toto? :stordita:

okorop
26-09-2009, 01:29
Più che altro mi riferivo alle rese produttive, credevo la cosa inficiasse ancora allo stato attuale... ho cannato in toto? :stordita:

per nvida mi sa di si per ati no, comunque la resa deve essere tra il 100% difficilmente realizzabile e l'80% senno manco conviene mettere in commercio una vga, vedi casini che ha nvida ora....

Futura12
26-09-2009, 01:31
Non ho capito la domanda, provo a rispondere alla cieca.

Ogni GPU ha delle misure ed è prodotta su un processo produttivo con le librerie di una certa fonderia.

Tutto ciò determina (insieme ovviamente al progetto stesso della GPU) gli yelds.

Per capirsi due GPU diverse (per dimensione e per progetto) che siano prodotte su un certo processo di TMSC avranno yelds diversi.

Ma anche due GPU di dimensione identica ma progettualmente diverse o viceversa.

Tutto ciò per dire che un processo non può avere degli yelds, ma ce l'ha un chip prodotto ad un certo processo di una certa fonderia ;)

le nuove gpu nvidia dalle ultime indescrezioni di questi giorni,attualmente hanno uno yelds dei chip pari al 10%:cry:

okorop
26-09-2009, 01:34
le nuove gpu nvidia dalle ultime indescrezioni di questi giorni,attualmente hanno uno yelds dei chip pari al 10%:cry:

dunque resa produttiva del 10% ovvero su 100 10 sono utilizzabili e le altre 80 da buttar via, se pero' riescono ad ottenere due yelds li va bene....

Futura12
26-09-2009, 01:34
Sulle future GPU nVidia si stanno sprecando tutti nelle previsioni più disparate, tutte rigorosamente ufficiose.

Un chip con yelds al 10% non è commerciabile (100 schede prodotte al mese non è "commerciare")

Infatti,forse è proprio per questo che stanno cosi indietro,magari il chip è gia fatto è pronto...ma hanno problemi di produzione:rolleyes:

appleroof
26-09-2009, 01:38
Sulle future GPU nVidia si stanno sprecando tutti nelle previsioni più disparate, tutte rigorosamente ufficiose.

Un chip con yelds al 10% non è commerciabile (100 schede prodotte al mese non è "commerciare")

esatto, e stando alle "indiscrezioni" potremmo ad esempio prendere quella di tom's dove un non meglio specificato dirigente Nvidia avrebbe dichiarato che non hanno problemi di produzione

nel dubbio, lascerei del tutto perdere questo tipo di "indiscrezioni" (molto spesso pilotate, in un senso o nell'altro), lasciano davvero il tempo che trovano.

Futura12
26-09-2009, 01:42
esatto, e stando alle "indiscrezioni" potremmo ad esempio prendere quella di tom's dove un non meglio specificato dirigente Nvidia avrebbe dichiarato che non hanno problemi di produzione

nel dubbio, lascerei del tutto perdere questo tipo di "indiscrezioni" (molto spesso pilotate, in un senso o nell'altro), lasciano davvero il tempo che trovano.

Gia,ma la mancanza di una risposta secca di Nvidia a R870 non c'è stata al momento (anche se esce fra 1-2 mesetti qualcosa potevano far vedere),anzi continuano a batter chiodo su quella grandissima caxxata di Physix...senza dare alcun segnale di GT300.

appleroof
26-09-2009, 01:48
Gia,ma la mancanza di una risposta secca di Nvidia a R870 non c'è stata al momento (anche se esce fra 1-2 mesetti qualcosa potevano far vedere),anzi continuano a batter chiodo su quella grandissima caxxata di Physix...senza dare alcun segnale di GT300.

si parla di un 10% di resa; fino a pochi giorni fà addirittura il 3%. Ti pare che a 3/4 mesi dal debutto sul mercato siano percentuali ragionevoli? Queste percentuali vorrebbero dire che, andasse di lusso, le prime vga in volumi si vedrebbero a marzo 2010.

Questo mi porta a dire che hanno sicuramente dei ritardi, altrimenti come dici tu sarebbero già sul mercato, ma nello stesso tempo mi portano a sorridere di fronte al terrorismo sulle rese scatenato in queste settimane (guarda caso quando debutta rv870)

michelgaetano
26-09-2009, 02:06
Non ho capito la domanda, provo a rispondere alla cieca.

Ogni GPU ha delle misure ed è prodotta su un processo produttivo con le librerie di una certa fonderia.

Tutto ciò determina (insieme ovviamente al progetto stesso della GPU) gli yelds.

Per capirsi due GPU diverse (per dimensione e per progetto) che siano prodotte su un certo processo di TMSC avranno yelds diversi.

Ma anche due GPU di dimensione identica ma progettualmente diverse o viceversa.

Tutto ciò per dire che un processo non può avere degli yelds, ma ce l'ha un chip prodotto ad un certo processo di una certa fonderia ;)

Fin qui c'ero.

Mi chiedevo qualcosa del genere: se i 40 nm non sono ancora affinati come i 55, le rese dovrebbero essere minori. In questo senso, non si spende di più andando a 40 nm che andando a 55, finchè gli yelds non sono uguali, o comunque nella misura che favoriscono il processo produttivo più alto? Sappiamo nulla su quanto le rese differiscano ad oggi (in linea di massima, poi so bene che varia da chip a chip, la grandezza etc)?

si parla di un 10% di resa; fino a pochi giorni fà addirittura il 3%. Ti pare che a 3/4 mesi dal debutto sul mercato siano percentuali ragionevoli? Queste percentuali vorrebbero dire che, andasse di lusso, le prime vga in volumi si vedrebbero a marzo 2010.

Questo mi porta a dire che hanno sicuramente dei ritardi, altrimenti come dici tu sarebbero già sul mercato, ma nello stesso tempo mi portano a sorridere di fronte al terrorismo sulle rese scatenato in queste settimane (guarda caso quando debutta rv870)

Io ci sto capendo davvero ben poche, okay il "terrorismo", magari volto a sminuire Nvidia etc, ma oggi dalle news quelli di Santa Clara affermavano che le rese sono addirittura buone... cioè quanto si intende per buone? Un boh, quantomeno 30-40 %, no? Perchè mi pare un po' lontano dal 10% fin qui rumorato.

appleroof
26-09-2009, 02:13
cut
Io ci sto capendo davvero ben poche, okay il "terrorismo", magari volto a sminuire Nvidia etc, ma oggi dalle news quelli di Santa Clara affermavano che le rese sono addirittura buone... cioè quanto si intende per buone? Un boh, quantomeno 30-40 %, no? Perchè mi pare un po' lontano dal 10% fin qui rumorato.

ci sono tante variabili, volendo per forza azzardare ad esempio un chip molto complesso e grande come si profila gt300 avrebbe rese "buone" se queste fossero almeno del 60% allo stato attuale

michelgaetano
26-09-2009, 02:23
ci sono tante variabili, volendo per forza azzardare ad esempio un chip molto complesso e grande come si profila gt300 avrebbe rese "buone" se queste fossero almeno del 60% allo stato attuale

Ma azzardiamo anche un 50 % apple. Come si è passati da un 10 % confermato da molti a rese così buone?

Insomma, mi lasciava perplesso la cosa, fino a ieri la catatrofe, oggi invece...

Se solo sapessimo chi è a sparare cavolate tra le due parti :stordita:

kliffoth
26-09-2009, 02:23
edit

appleroof
26-09-2009, 02:26
Ma azzardiamo anche un 50 % apple. Come si è passati da un 10 % confermato da molti a rese così buone?

Insomma, mi lasciava perplesso la cosa, fino a ieri la catatrofe, oggi invece...

Se solo sapessimo chi è a sparare cavolate tra le due parti :stordita:

è per quello che non credo a queste cavolate, e lo dico davvero ;)

personalmente mi son fatto l'idea che gt300 abbia dei ritardi dovuti anche alle rese produttive (visto che si tratterebbe di un chip grande e complesso) ma non credo ai catastrofismi FUAD, nè che la situazione è cmq normale; insomma per me qualche problema c'è, ma non la catastrofe profilata (perchè se fosse come profilata, sarebbe davvero grave come cosa e i siti "seri" non ne fanno menzione).

yossarian
26-09-2009, 03:19
col passaggio a 40 nm c'è l'aggravante che per tsmc si tratta di un full node, per cui i costi (e le incognite) sono maggiori, come pure le rese produttive sono inferiori a quelle che si avrebbero con l'adozione di un semplice die shrink; inoltre, restando in casa ATi, un altro fattore che contribuisce a far levitare i costi di RV870 rispetto a quanto visto con RV770 è dato dalle dimensioni del die: quello di RV870 è quasi il 27% più grande di quello di RV770 (e il chip è enormemente più cmplesso).
Ovvio che gli stessi inconvenienti li sta incontrando nVidia con GT300, con l'aggravante di un chip ben più voluminoso (stando ai rumor) e un pp meno collaudato.

MadJackal
26-09-2009, 10:36
Dimentichi la dimensione del chip. Cypress non sarebbe stato possibile a 130nm, per dirne una. In questo senso un processo nuovo permette anche di fare chip più potenti, non è solo una questione di risparmio :)

Valutando che i transistor di R800 sono il doppio (qualcosa di più, sì) di quelli di R700, R800 a 55 nm sarebbe stato un mostro alla G200 (500 mm2 +, a spanne intorno ai 530 mm2), solo a 55 nm e non a 65.

E G300 a 55nm (ammesso che raddoppino i transistor) sarebbe stato a spanne il doppio di G200b, quindi almeno 800 mm2, IIRC.
E temo che la resa di un chippone del genere (G200 a 576 mm2 è il detentore del record per la GPU più grande mai creata, mi pare) sarebbe stata oltremodo schifosa :asd:

Tutto questo senza tirare in ballo i 130 nm :Prrr:

EDIT: GPU, non chip.

Mercuri0
26-09-2009, 11:17
Una 4890 secondo ciò che dici è una VGA di fascia media, mentre la 285 è fascia alta!!!! :mbe: questo tu lo deduci dal prezzo o dalle prestazioni?

Mi riferivo al target di progettazione. Come ben si sa, dalla serie 4xxx AMD non progetta più chip dedicati al mercato "enthusiast", ma per quello fa le X2, mentre nvidia a quanto pare ancora ci prova.

Poi la scheda giusta per sé esula da tutte 'ste minchiate di fascia qui fascia là, ma si guarda il solito rapporto prezzo/prestazioni.

Mi piace poi che tutti stanno a preoccuparsi del GT300 quando il problema urgente per nVidia è tirar fuori in tempi brevi un concorrente per la 5850 e le 57xx.

Il GT300 tutto sommato è "facile", perché coi volumi di produzione e i prezzi che avrebbe all'inizio, anche a venderlo sottocosto per nVidia basta come pubblicità. Epperò dopo aver visto gli fpiés del GT300 gli utenti mainstream cosa andrebbero comprare? una 8800GT rimarchiata o una 5770?

(imo o ci sono sorprese, o nVidia per questa volta giocherà in difesa)

MenageZero
27-09-2009, 11:51
Ottime schede, mi dispiace solo che la mia hd 4890 non possa sfruttare in nessun modo le directx 11, almeno credo...

voi ne sapete qualcosa?

non credo che avrai mai nulla di dx11 calcolato in hw con la serie 4xxx, da sempre il passaggio alle versione nuova delle api ms è uno dei principali veicoli di marketing di una nuova gpu (ati o nv che sia), se potevano eseguire in hw le chiamate specifiche delle dx11 con rv770, non penso buttavano soldi a fare rv870, non per ora almeno, visto che come "forza bruta" il 99% se non il 100% dei titoli ad in circolazione è giocabile, almeno fino a 1920x1200 o 1920x1080, anche con impostazioni grafiche elevate anche con le gpu in commercio prima di rv870

MenageZero
27-09-2009, 12:01
premetto che è molto che non ho tempo di seguire il forum e che sto per fare un post da lettore più che da moderatore, ma siete pregati di non prenderne spunto per accendere (o ri-accendere, non ho ancora potuto leggere tutto il thread) una qualche polemica;

sarei curioso di sentire un riassuntino di cosa ne dite/si dice in giro, in ambito di motivazioni/opinioni tecniche ovviamente, del fatto che rv870 al momento non vada coem o leggermente meglio di rv770*2, considerato che avendo il doppio dei diversi tipi di unità rispetto al predcesore ed essendo una unica gpu, da profani ci si sarebbe aspettato un esito di quel tipo

semplicemente driver ancora molto da ottimizzare per il nuovo nato ? qualcos'altro ?

kliffoth
27-09-2009, 12:32
premetto che è molto che non ho tempo di seguire il forum e che sto per fare un post da lettore più che da moderatore, ma siete pregati di non prenderne spunto per accendere (o ri-accendere, non ho ancora potuto leggere tutto il thread) una qualche polemica;

sarei curioso di sentire un riassuntino di cosa ne dite/si dice in giro, in ambito di motivazioni/opinioni tecniche ovviamente, del fatto che rv870 al momento non vada coem o leggermente meglio di rv770*2, considerato che avendo il doppio dei diversi tipi di unità rispetto al predcesore ed essendo una unica gpu, da profani ci si sarebbe aspettato un esito di quel tipo

semplicemente driver ancora molto da ottimizzare per il nuovo nato ? qualcos'altro ?

La mia non è una constatazione tecnica, comunque mi pare tutto nella norma.
Di certo i driver usati danno l'impressione di essere tutt'altro che consolidati (ma non sono il tipo che spera nei driver...i possessori di radeon 2900 ancora aspettano).
Essendo un chip di fasci medio/alta il fatto che eguagli quello (che poi sono 2) di fascia alta mi pare assolutamente normale.
Addirittura si gridò allo scandalo quando GT200 mostrò incrementi minimi rispetto alla generazione precedente! pur essendo un buon prodotto alla prova dei fatti (ed anche come consumi)
Ad occhio poi, in questa scheda ad un raddoppio degli streams corrisponde un raddoppio dei frames...grossomodo.

Sempre in ambito speculativo, e in generale e senza attinenza ai prodotti, sposo quanto dichiarato da nVidia sul fatto che non ha senso correre ai frames. Spero che presto inizi un'era di valori aggiunti delle schede-video, che non sono schede-videogiochi

MenageZero
27-09-2009, 12:47
La mia non è una constatazione tecnica, comunque mi pare tutto nella norma.
Di certo i driver usati danno l'impressione di essere tutt'altro che consolidati (ma non sono il tipo che spera nei driver...i possessori di radeon 2900 ancora aspettano).
Essendo un chip di fasci medio/alta il fatto che eguagli quello (che poi sono 2) di fascia alta mi pare assolutamente normale.
Addirittura si gridò allo scandalo quando GT200 mostrò incrementi minimi rispetto alla generazione precedente! pur essendo un buon prodotto alla prova dei fatti (ed anche come consumi)
Ad occhio poi, in questa scheda ad un raddoppio degli streams corrisponde un raddoppio dei frames...grossomodo.

Sempre in ambito speculativo, e in generale e senza attinenza ai prodotti, sposo quanto dichiarato da nVidia sul fatto che non ha senso correre ai frames. Spero che presto inizi un'era di valori aggiunti delle schede-video, che non sono schede-videogiochi

ovviamente non mi 'scandalizzo' di nulla, mi ponevo la domanda semplicemente perché anche la recensione qui su hwupg evidenzia come al momento rv870 sia mediamente meno performante, anche se non di molto, nemmeno allineato, di un dual rv770; e siccome rv770*2 e rv870 hanno lo stesso numero di alu ed altri tipi di unità, non era strano pensare a performance quantomeno allineate, anche dato che normalmente siè sempre detto che a parità di "potenza di fuoco" una single gpu è un po' più efficente di una scheda dual gpu.

detto questo, le differenze non sono certo abissali, e appunto potrebbe essere semplicemente una cosneguenza della normale "curva di ottimizzazione" dei drv per rv870

okorop
27-09-2009, 14:22
La cosa che salta più all'occhio è il fatto che la banda verso la memoria non è raddoppiata, aspettiamo che qualcuno ne abbia una fra le mani per fargli fare qualche test occando le ram :)

test in oc delle memorie li han fatti e passando da 1200mhz a 1300mhz si ottiene il 2.1% di performance in piu', attendo di vedere dei bench a 1400mhz, ma secondo me la banda non è il problema anzi :)

leoneazzurro
27-09-2009, 16:59
Anche il setup rate non é cambiato (sempre purtroppo 1 triangolo per clock), mentre 2 GPU hanno 2 setup engine, oltre ad avere due bus verso la memoria.

MenageZero
27-09-2009, 17:06
Anche il setup rate non é cambiato (sempre purtroppo 1 triangolo per clock), mentre 2 GPU hanno 2 setup engine, oltre ad avere due bus verso la memoria.

ma con il dual gpu non funzionava che metà vram veniva 'sprecata' perché i dati dovevano essere replicati per ogni gpu, e quindi anche il raddoppio teorico del data-rate gpu<->ram risultava pressoché ininfluente ?

sul setup engine non saprei nemmeno se e e quali domande fare perché sono ancora più ignorantello in materia :D

Ale55andr0
27-09-2009, 18:42
Pur non essendo fanboy (che brutta parola!) Ati devo dire che ho un debole per questo marchio, soprattutto perchè ai miei (e sottolineo miei, non voglio scatenare un putiferio di polemiche ;) ) occhi si vedono meglio delle nvidia a livello cromatico. Si sa quando uscirà una versione da 2Gb della scheda? (sarei interessato a passare ad un bel monitor 2560*1600) e se sarà dotata di uscite HDMI per connetterci anche il Plasma di casa? :)

killer978
27-09-2009, 20:10
Pur non essendo fanboy (che brutta parola!) Ati devo dire che ho un debole per questo marchio, soprattutto perchè ai miei (e sottolineo miei, non voglio scatenare un putiferio di polemiche ;) ) occhi si vedono meglio delle nvidia a livello cromatico. Si sa quando uscirà una versione da 2Gb della scheda? (sarei interessato a passare ad un bel monitor 2560*1600) e se sarà dotata di uscite HDMI per connetterci anche il Plasma di casa? :)

Dovrebbe uscire a breve la versione Six Eyefinity con 2gb di RAM e sei displyport :D

Io mi accontento della 5850 con 210€ ti prendi una bella schedozza, tanta putenza, consumi bassi ed è + corta!!!
Ormai con una 4890 si può giocare davvero a tutto con la 5850 si dovrebbe giocare bene x un bel po, la cambio x i consumi e x la possibilità di usare 3 monitor assieme :D in ufficio ho 2 PC fissi con 2 monitor 22" ASUS, a casa ho il terzo :D è poi ho sempre avuto la fissa x le VGA nuove ;)

helmen84
27-09-2009, 21:13
Ce l'ho fatta!
Dopo 3 giorni ho letto tutti commenti...un'impresa!

Da quel che ho capito, siamo tutti ( o quasi...) soddisfatti della nuova VGA targata rossa.
Va tanto, consuma poco e scalda meno (sempre sia vero...).
Aspettiamo la risposta e dopo Natale ci sarà tanta gente pronta a investire i soldi natalizi in una nuova scheda...e speriamo di avere la scelta di tutte e due le case. Mentre staremo ancora ad aspettare che entri in campo Intel!

Ci divertiremo mi sà!

Ciao!

leoneazzurro
27-09-2009, 22:48
ma con il dual gpu non funzionava che metà vram veniva 'sprecata' perché i dati dovevano essere replicati per ogni gpu, e quindi anche il raddoppio teorico del data-rate gpu<->ram risultava pressoché ininfluente ?

sul setup engine non saprei nemmeno se e e quali domande fare perché sono ancora più ignorantello in materia :D

No, perché lo "spreco" é a livello di spazio occupato nel frame buffer da texture e altri dati grafici, non nella banda passante. Infatti nella tecnica AFR (Alternate Frame Rendering) una GPU "disegna" un frame e l´altra il frame successivo, quindi ogni GPU ha la stessa banda passante della scheda singola, e il lavoro viene "combinato" verso l´uscita video. Stesso discorso per il setup engine (che si occupa di "emettere" i triangoli di sono costituiti gli oggetti presenti nella scena da renderizzare.

leoneazzurro
28-09-2009, 09:53
Sbaglio o la tassellation potrebbe ridurre il problema?

A quanto pare no, perché a quanto mi hanno spiegato la tessellation avviene prima dell'emissione dei triangoli, e non dopo (anche io speravo che si potesse ovviare proprio a questo problema). Quello che può fare è diminuire il bisogno di banda passante necessario per inviare i vertici alla GPU, ossia si possono avere modelli con più poligoni a parità di risorse computazionali da parte della CPU.

demons
28-09-2009, 11:14
sempre flame...io preferisco l'approccio nvidia...alla fine fare uscire di corsa dx 11 quando non vi è ancora niente e ripeto NIENTE in dx 11 non mi sembra molto utile....si forse lo spiattelli la al marketing....ma è meglio una scheda dx10 veloce con pshysx e stereoscopia parzialmente sfruttata o una scheda dx11 in modalità dx10?

si cioè davvero probabilmente non la comprerei mai una nvidia ora...ma cosa ci volete fare...d'altro canto se seguite il mercato dei giochi è nvidia che fa la cosa giusta....

perchè pensate che i giochi dx11 saranno molto diversi da quelli dx10 o 9? finche le console saranno inchiodate alle dx9 con qualche spruzzo di 10 come x360.....non si avrà qualche cosa di diverso se non cmq qualche fumo o foglio di carta di contorno.....o oggetti e animazioni in più rispetto al gioco di base ...io non penso che il tassellation e qualcuno si faccia carico di implementarlo per poi trovarsi chiuso in ambito pc...oramai...il mercato dei giochi è sulle console.....

pensate che assassin creed 2 anche se esce un paio di mesi dopo avrà dx11 e tassellation ?

io penso che sarà dx 9 con qualche cosa in più e texture riviste ma non penso proprio una rimodellazione del motore di gioco completo...

a questo punto la domanda cosa te ne fai ora di una scheda dx11?

altra cosa è se insieme a dx11 vengono implementare le opencl e il resto allora si si in un panorama più ampio è sicuramente preferibile...ma cmq ancora troppo presto a partorire attrezzi di questo tipo...anzi 6 mesi in più e un chip che macina e mangia le dx11 a costo giusto

una 9800 gt in termini dx11 per capirci:P

seguite le console che comandano loro :P

leoneazzurro
28-09-2009, 11:27
Diciamo che nvidia tende a "manipolare" maggiormente il mercato cercando di avere un vantaggio competitivo per le proprie schede agendo con gli (ma sarebbe meglio dire sugli) sviluppatori, il che può essere positivo quando è avanti (vedi caso geforce 6800 e shader model 3.0) ma negativo quando invece è indietro (DX10.1 e adesso DX11), e finisce per togliere qualcosa ai videogiocatori piuttosto che offrirgli una migliore esperienza di gioco (vedi caso Assassin's Creed). Inoltre, per avere giochi DX11, bisogna che ci sia un parco schede DX11 sulle quali sviluppare ed avere un ritorno economico. Comunque tenete presente che le DX11 sono un'evoluzione e non una rivoluzione rispetto alle Dx10(.1) e che è relativamente semplice "portare" un gioco DX10 sotto DX11.

Pr|ckly
28-09-2009, 11:32
ma negativo quando invece è indietro (DX10.1 e adesso DX11), e finisce per togliere qualcosa ai videogiocatori piuttosto che offrirgli una migliore esperienza di gioco (vedi caso Assassin's Creed).

Ma dai, anche se nVidia supportasse a breve le Dx11 cosa pensi che cambierebbe?
Il mercato lo guidano le console, finch'è queste non danno il cambio di marcia (ergo nuove versioni) c'è ben poco da stare ad aspettare un grande supporto alle nuove librerie, ci saranno spruzzatine di effetti, più per marketing che per altro, sicuramente non nuovi engine. Per ora si continua con quelli nativi in Dx9.
Purtroppo.

leoneazzurro
28-09-2009, 11:42
Non sono d'accordo. E' vero che le console hanno la "massa" dietro e sono più appetibili economicamente, per cui si avranno grandi quantità di titoli cross-platform e quindi spesso limitati dale possibilità delle console. E' anche vero però che il PC è una piattaforma di sviluppo unica e che da sempre è stata quella che apre la via alle nuove tecnologie ed è quella che evolve a maggior velocità. Ci sono titoli che comunque "non è la stessa cosa" giocare su PC o su console, e che aprono la via a nuovi standard soprattutto dal punto di vista grafico (da Crysis in poi).

leoneazzurro
28-09-2009, 12:41
Quello che mi cheidevo io è se la parte di triangle setup può essere alleggerita, in DX11, per ottenere la stessa complessità poligonale (superiore?) successivamente grazie alla tassellation, visto che poi è lo shader core a fare l'assemblaggio dei triangoli da qui usciti.

Avevo capito, e ti avevo risposto che a quanto pare no, non è possibile.

Pr|ckly
28-09-2009, 15:02
Non sono d'accordo. E' vero che le console hanno la "massa" dietro e sono più appetibili economicamente, per cui si avranno grandi quantità di titoli cross-platform e quindi spesso limitati dale possibilità delle console. E' anche vero però che il PC è una piattaforma di sviluppo unica e che da sempre è stata quella che apre la via alle nuove tecnologie ed è quella che evolve a maggior velocità. Ci sono titoli che comunque "non è la stessa cosa" giocare su PC o su console, e che aprono la via a nuovi standard soprattutto dal punto di vista grafico (da Crysis in poi).

Discorso che non fa una piega e assolutamente condivisibile il tuo, peccato che all'atto pratico Crysis sia stato l'ultimo engine in grado di elevarsi a metro di paragone qualitativamente parlando.
Due anni fa.
Da allora cosa si è visto? E pure la Crytek ora si è spostata verso il multipiattaforma, cosi come hanno fatto altre storiche software house da sempre dedite principalmente allo sviluppo su PC, come Id e Valve.
L'ultimo passo saranno i MMORPG e non preoccuparti che pur di riuscire ad azzannare un mercato come quello saranno pronti a presentare controller rivoluzionati. Non sono di molto tempo fa i rumors di contatti tra Ms e Blizzard.

killer978
28-09-2009, 16:07
Ma dai, anche se nVidia supportasse a breve le Dx11 cosa pensi che cambierebbe?
Il mercato lo guidano le console, finch'è queste non danno il cambio di marcia (ergo nuove versioni) c'è ben poco da stare ad aspettare un grande supporto alle nuove librerie, ci saranno spruzzatine di effetti, più per marketing che per altro, sicuramente non nuovi engine. Per ora si continua con quelli nativi in Dx9.
Purtroppo.

Quando Nvidia usci con le 6800 e i nuovi shader, ATI rimase con le vecchie DX tutti a dire brava Nvidia (dopo un anno uscirono i primi giochi a supportare le nuove DX le 6800 erano obsolete) oggi dite il contrario :rolleyes: Questo giro ATI ha fatto la mossa giusta a fare da traino c'è Seven,poi le nuove DX11 sono moolto + facili da integrare nei giochi oltre ad essere una vera manna x i frames quando usate.

leoneazzurro
28-09-2009, 17:06
Discorso che non fa una piega e assolutamente condivisibile il tuo, peccato che all'atto pratico Crysis sia stato l'ultimo engine in grado di elevarsi a metro di paragone qualitativamente parlando.
Due anni fa.
Da allora cosa si è visto? E pure la Crytek ora si è spostata verso il multipiattaforma, cosi come hanno fatto altre storiche software house da sempre dedite principalmente allo sviluppo su PC, come Id e Valve.
L'ultimo passo saranno i MMORPG e non preoccuparti che pur di riuscire ad azzannare un mercato come quello saranno pronti a presentare controller rivoluzionati. Non sono di molto tempo fa i rumors di contatti tra Ms e Blizzard.

Secondo te il CryEngine2 sarà lo stesso per le console e per il PC? E l'Unreal Engine 4? E le prossime versioni del Source?

Pr|ckly
28-09-2009, 21:45
Quando Nvidia usci con le 6800 e i nuovi shader, ATI rimase con le vecchie DX tutti a dire brava Nvidia (dopo un anno uscirono i primi giochi a supportare le nuove DX le 6800 erano obsolete) oggi dite il contrario :rolleyes: Questo giro ATI ha fatto la mossa giusta a fare da traino c'è Seven,poi le nuove DX11 sono moolto + facili da integrare nei giochi oltre ad essere una vera manna x i frames quando usate.

Ma veramente sono contento che sia Ati a tagliare il traguardo per prima, anche se questo non centra nulla con la disamina di come versa il mondo per pc al giorno d'oggi.

Secondo te il CryEngine2 sarà lo stesso per le console e per il PC? E l'Unreal Engine 4? E le prossime versioni del Source?

il CE2 probabilmente non sarà identico ma dai video c'è il rischio che non ci troviamo nulla di cosi superiore a Crysis, ovvero quello che potremmo aspettarci due anni dopo.
Hanno venduto sotto le aspettative e di conseguenza sono corsi ad abbracciare il mondo console.
Dell'UE non si sa ancora nulla, cosi come del Source. Quest'ultimo poi sarà ancora tale con Episodio 3.
Davvero non vedo di cosa stiamo parlando in quest'ultimo caso, di qualcosa che non è presente nemmeno sotto forma di rumors? A questo punto mettiamoci pure iDTech6.

Quando la piattaforma di riferimento era il pc si sviluppava basandosi su una determinata potenza di calcolo. Ora una software house sviluppa l'engine per la potenza elaborativa di una console, poi converte per il PC, visto che il contrario sarebbe impossibile. Fino alle nuove generazioni di console ci teniamo potenza inespressa nel case, mi pare palese.
Si, qualche titolo con una spruzzatina di effetti ad esclusiva pc comparirà ma resta sempre il fatto che il progresso è allineato al ciclo di vita di una console, molto più rispetto a quanto non lo fosse un pò di anni fa.

goldorak
28-09-2009, 21:59
Beh sara' pur vero che i giochi vengono sviluppati per console, e poi portati su pc.
Ma non dimentichiamoci che su pc abbiamo la possibilita' di usare svariti filtri che i consolari si scordano e SOPRATUTTO non siamo limitati dalla risoluzione 1080p. Quest'ultimo fatto e' fondamentale, perche' quando la nuova generazione di console sara' tra di noi e i consolari continueranno a giocare a 1080p perche' oltre le tv non vanno, noi poveri disgraziati su pc sorbendoci i porting potremo goderceli a 1920x1200 (superiore gia' alla 1080p) se non a risoluzioni grandemente superiori. Avremo porting che faranno schifo :asd: ma almeno potremo goderceli a risoluzioni uber-HD. :D
Quindi la potenza bruta serve eccome sia a livello di shaders che di puro pixel-pushing.

leoneazzurro
28-09-2009, 23:02
il CE2 probabilmente non sarà identico ma dai video c'è il rischio che non ci troviamo nulla di cosi superiore a Crysis, ovvero quello che potremmo aspettarci due anni dopo.
Hanno venduto sotto le aspettative e di conseguenza sono corsi ad abbracciare il mondo console.
Dell'UE non si sa ancora nulla, cosi come del Source. Quest'ultimo poi sarà ancora tale con Episodio 3.
Davvero non vedo di cosa stiamo parlando in quest'ultimo caso, di qualcosa che non è presente nemmeno sotto forma di rumors? A questo punto mettiamoci pure iDTech6.

Quando la piattaforma di riferimento era il pc si sviluppava basandosi su una determinata potenza di calcolo. Ora una software house sviluppa l'engine per la potenza elaborativa di una console, poi converte per il PC, visto che il contrario sarebbe impossibile. Fino alle nuove generazioni di console ci teniamo potenza inespressa nel case, mi pare palese.
Si, qualche titolo con una spruzzatina di effetti ad esclusiva pc comparirà ma resta sempre il fatto che il progresso è allineato al ciclo di vita di una console, molto più rispetto a quanto non lo fosse un pò di anni fa.

Tutti i motori grafici che gireranno su PC d´ora in avanti avranno a che fare con le DirectX11, rumor o meno. Che i motori grafici che ho elencato supporteranno le DirectX11 si sa giá, non occorre fare ricorso a fantomatici "rumors". Pensare che si sfrutteranno in eterno solo le Dx9 solo perché esistono le console é fuorviante: esistono anche titoli PC-Only e saranno soprattutto quelli a veicolare le nuove Directx, ma pensare che anche i "port" da console non potranno essere altro che titoli Dx9 non penso sia corretto. Ovviamente ci sará chi siederá sugli allori e creerá dei port "diretti" (che poi tanto diretti non sono, basti pensare alle differenze di programmazione tra PS3 e Xbox360 per capire che il lavoro di converisione non é cosí semplice), ma anche chi prenderá l´occasione per migliorare l´esistente. E, oltre al fatto che i port da DirectX10 a DirectX11 sono relativamente semplici da eseguire, c´é da dire che le DirectX10 e 11, a detta di molti sviluppatori, garantiscono dei vantaggi in termini di programmabilitá ed efficienza.

Bl@st
29-09-2009, 12:32
Ottimo prezzo.. Spero sia così anche per il mercato italiano.
Avendo una HD3870 sono indeciso se passare alla HD4890 o a questa HD5870..

appleroof
29-09-2009, 14:09
Tutti i motori grafici che gireranno su PC d´ora in avanti avranno a che fare con le DirectX11, rumor o meno. Che i motori grafici che ho elencato supporteranno le DirectX11 si sa giá, non occorre fare ricorso a fantomatici "rumors". Pensare che si sfrutteranno in eterno solo le Dx9 solo perché esistono le console é fuorviante: esistono anche titoli PC-Only e saranno soprattutto quelli a veicolare le nuove Directx, ma pensare che anche i "port" da console non potranno essere altro che titoli Dx9 non penso sia corretto. Ovviamente ci sará chi siederá sugli allori e creerá dei port "diretti" (che poi tanto diretti non sono, basti pensare alle differenze di programmazione tra PS3 e Xbox360 per capire che il lavoro di converisione non é cosí semplice), ma anche chi prenderá l´occasione per migliorare l´esistente. E, oltre al fatto che i port da DirectX10 a DirectX11 sono relativamente semplici da eseguire, c´é da dire che le DirectX10 e 11, a detta di molti sviluppatori, garantiscono dei vantaggi in termini di programmabilitá ed efficienza.

è questo il punto: occorrerebbe programmare direttamente in dx11? Perchè se la risposta è si c'è poco da girarci intorno: lo strapotere consolle è palese e condiziona quasi al 100% il mercato dei videogiochi odierno.

Chi sviluppa (e svilupperà nei prossimi mesi) solo per pc è tagliato fuori perchè a malapena riesce a coprire costi che per i titoli tripla A sono diventati quasi quelli di un filmone hollywodiano (!). Appunto Crysis è di un'evidenza quasi imbarazzante in questo senso.

che poi avremo dei porting tradotti in dx11 (leggi=con qualche spruzzata di feature dx11, come finora è stato per le dx10) a breve lo sappiamo, ma anche io sono -purtroppo, visto che gioco sul pc- convinto che prima delle nuove consolle non vedremo cose eclatanti nemmeno per il pc, non ci sarà il vero salto di qualità.

Futura12
29-09-2009, 14:12
è praticamente ora di abbandonare il gioco su pc...non vedo attualmente il senso di continuare a spendere botte di 3-400€ solo di GPU per poi ritrovarsi la grafica consollara,a sto punto mi compro una consolle.

appleroof
29-09-2009, 14:17
è praticamente ora di abbandonare il gioco su pc...non vedo attualmente il senso di continuare a spendere botte di 3-400€ solo di GPU per poi ritrovarsi la grafica consollara,a sto punto mi compro una consolle.

qui si aprirebbe un mondo che chiamare Ot sarebbe riduttivo :asd:

a quanto da me detto però aggiungo solo che queste vga hanno senso nel momento in cui un gioco concettualmente vecchio come quelli attuali - e dei prossimi mesi- giri cmq in full-hd, con filtri attivi, cmq con qualche effettino ulteriore rispetto alla consolle, in maniera appunto migliore rispetto alle consolle

Crysis si è fatto la giusta nomea di essere un mattone, e lo è perché di DX10 non ha niente...

no, l'esempio era per dire che chi programma solo per pc (come crytech fino a Crysis) è fuori, non fà i numeri degli altri. Infatti anche crytek, che all'inizio difendeva strenuamente la sua scelta, si è piegata alle consolle.

Futura12
29-09-2009, 14:21
qui si aprirebbe un mondo che chiamare Ot sarebbe riduttivo :asd:

a quanto da me detto però aggiungo solo che queste vga hanno senso nel momento in cui un gioco concettualmente vecchio come quelli attuali - e dei prossimi mesi- giri cmq in full-hd, con filtri attivi, cmq con qualche effettino ulteriore rispetto alla consolle, in maniera appunto migliore rispetto alle consolle

Si ho capito,ma io mi sto sinceramente rompendo i coglioni eh....il G80 lo comprai 3 anni fa...rivoluzione DX10,io di DX10 dopo 3 anni ancora non ho visto un cavolo.
Intanto le consolle vanno avanti hanno la grafica molto simile,senza filtri...ok...ma costano 250€, e una volta sola. Qua ogni anno invece sono fissi 300€ per giocare...e la grafica è sempre la stessa pur avendo ogni anno gpu che vanno il triplo:confused: ...questa è una presa in giro. Almeno personalmente...ho ancora un po di fiducia nel gaming su pc...ma se continua cosi..la GTX260 sarà l'ultima scheda per quanto mi riguarda.

appleroof
29-09-2009, 14:27
Si ho capito,ma io mi sto sinceramente rompendo i coglioni eh....il G80 lo comprai 3 anni fa...rivoluzione DX10,io di DX10 dopo 3 anni ancora non ho visto un cavolo.
Intanto le consolle vanno avanti hanno la grafica molto simile,senza filtri...ok...ma costano 250€, e una volta sola. Qua ogni anno invece sono fissi 300€ per giocare...e la grafica è sempre la stessa pur avendo ogni anno gpu che vanno il triplo:confused: ...questa è una presa in giro. Almeno personalmente...ho ancora un po di fiducia nel gaming su pc...ma se continua cosi..la GTX260 sarà l'ultima scheda per quanto mi riguarda.

purtroppo le cose stanno esattamente così: io personalmente rimango su pc per una serie di ragioni che non mi dilungo a spiegare (anche perchè credo non freghi a nessuno :D )

ma se uno deve fare un discorso economico/razionale non c'è storia, la consolle vince di brutto, e da almeno tre anni appunto. C'è solo da notare però che le consolle all'inizio costavano sui 500€, quanto una 8800gtx che in effetti tuttora può vantare lo stesso grado di longevità della consolle...quindi paradossalmente il fatto che il mercato dei videogiochi sia legato perlopiù alle consolle torna a vantaggio anche nostro, a meno di farci prendere da scimmie sfrenate :D (infatti io dal 2006 ad oggi ho avuto la 8800gtx e poi, per puro sfizio, quella attuale).

Futura12
29-09-2009, 14:30
purtroppo le cose stanno esattamente così: io personalmente rimango su pc per una serie di ragioni che non mi dilungo a spiegare (anche perchè credo non freghi a nessuno :D )

ma se uno deve fare un discorso economico/razionale non c'è storia, la consolle vince di brutto, e da almeno tre anni appunto. C'è solo da notare però che le consolle all'inizio costavano sui 500€, quanto una 8800gtx che in effetti tuttora può vantare lo stesso grado di longevità della consolle...quindi paradossalmente il fatto che il mercato dei videogiochi sia legato perlopiù alle consolle torna a vantaggio anche nostro, a meno di farci prendere da scimmie sfrenate :D (infatti io dal 2006 ad oggi ho avuto la 8800gtx e poi, per puro sfizio, quella attuale).


Condivido almeno per ora,vedremo in futuro;) chiudo l'OT che sennò finisce male con l'argomento consolle;)

leoneazzurro
29-09-2009, 14:32
è questo il punto: occorrerebbe programmare direttamente in dx11? Perchè se la risposta è si c'è poco da girarci intorno: lo strapotere consolle è palese e condiziona quasi al 100% il mercato dei videogiochi odierno.

Chi sviluppa (e svilupperà nei prossimi mesi) solo per pc è tagliato fuori perchè a malapena riesce a coprire costi che per i titoli tripla A sono diventati quasi quelli di un filmone hollywodiano (!). Appunto Crysis è di un'evidenza quasi imbarazzante in questo senso.

che poi avremo dei porting tradotti in dx11 (leggi=con qualche spruzzata di feature dx11, come finora è stato per le dx10) a breve lo sappiamo, ma anche io sono -purtroppo, visto che gioco sul pc- convinto che prima delle nuove consolle non vedremo cose eclatanti nemmeno per il pc, non ci sarà il vero salto di qualità.

Non è che serve riscrivere i giochi da zero, eh? Soprattutto se si usano motori grafici "standardizzati". E comunque, per i giochi PC-only, è sicuramente più conveniente.

appleroof
29-09-2009, 14:36
Non è che serve riscrivere i giochi da zero, eh? Soprattutto se si usano motori grafici "standardizzati"cut

il problema è proprio questo, continuiamo a non capirci sul punto :D : usare l'HLSL non è esattamente come scrivere da zero un gioco "full dx11", pensato ed ottimizzato al 100% per spremere le feature (e quindi l'hw) dx11

Futura12
29-09-2009, 14:45
il problema è proprio questo, continuiamo a non capirci sul punto :D : usare l'HLSL non è esattamente come scrivere da zero un gioco "full dx11", pensato ed ottimizzato al 100% per spremere le feature (e quindi l'hw) dx11

concordo anche qui. Che me ne faccio di 2 effetti buttati la su un motore DX9 oramai vecchio...che per quelle 2 cavolate in più mi richiede un HW da NASA..
E mi spiace ma non ci credo neanche per idea alla storia che con le DX11 i giochi saranno meno pesanti,sta caxxata era gia uscita fuori ai tempi delle DX10 i risultati si possono vedere oggi a distanza di anni,titoli praticamente assenti,e quei 2 che le supportano ovviamente vanno più lenti delle controparti DX9 aggiungendo effetti risibili.

KenBlock
29-09-2009, 14:47
il problema è che su pc non ottimizzano nulla.
oppure trovi i bugs e ti rompi e che magari causano crolli di frames.


su console invece i giochi sono fatti quasi tutti bene e quelli fatti male sono pochi e si vedono subito perchè lì o vanno sempre bene o vanno sempre male quindi si vede subito.

appleroof
29-09-2009, 14:48
concordo anche qui. Che me ne faccio di 2 effetti buttati la su un motore DX9 oramai vecchio...che per quelle 2 cavolate in più mi richiede un HW da NASA..
E mi spiace ma non ci credo neanche per idea alla storia che con le DX11 i giochi saranno meno pesanti,sta caxxata era gia uscita fuori ai tempi delle DX10 i risultati si possono vedere oggi a distanza di anni,titoli praticamente assenti,e quei 2 che le supportano ovviamente vanno più lenti delle controparti DX9 aggiungendo effetti risibili.

esatto...purtroppo proprio perchè di dx10 non hanno nulla, ma sono "posticciati" con HLSL :(

cmq, ecco il proverbiale cacio sui maccheroni, nel discorso che stiamo facendo (notare l'accenno alle date e a UE4) :D :

http://www.hwupgrade.it/news/videogiochi/gears-of-war-3-solo-con-la-prossima-generazione-di-console_30253.html

il problema è che su pc non ottimizzano nulla.
oppure trovi i bugs e ti rompi e che magari causano crolli di frames.


su console invece i giochi sono fatti quasi tutti bene e quelli fatti male sono pochi e si vedono subito perchè lì o vanno sempre bene o vanno sempre male quindi si vede subito.

quello però c'è da sempre, a questo giro è la concomitanza di sproporzione assoluta tra mercato consolle e pc (e per quest'ultimo in più scarsa diffusione di VIsta e dx10)

speriamo che la rotta si inverta, ma insomma...:boh:

bonzuccio
29-09-2009, 16:09
Sony ha mezzo perso la guerra delle console per la storia della mancanza di mod e l'impossibilità di piratare i giochi vedremo con la slim.
Ati mi sembra più propensa al mondo pc e rilancia le dx, nvidia è più addentro alle console essendo che tranne la wii montano una schedozza verde.
Scusate la sbrodolata di pensieri.

goldorak
29-09-2009, 16:22
Sony ha mezzo perso la guerra delle console per la storia della mancanza di mod e l'impossibilità di piratare i giochi vedremo con la slim.
Ati mi sembra più propensa al mondo pc e rilancia le dx, nvidia è più addentro alle console essendo che tranne la wii montano una schedozza verde.
Scusate la sbrodolata di pensieri.


Come ? :mbe:
Sia il Wii che la Xbox 360 usano chip ATI/AMD, soltanto la PS 3 usa una geforce 7900GT :asd:

leoneazzurro
29-09-2009, 17:09
il problema è proprio questo, continuiamo a non capirci sul punto :D : usare l'HLSL non è esattamente come scrivere da zero un gioco "full dx11", pensato ed ottimizzato al 100% per spremere le feature (e quindi l'hw) dx11

Anche qui non ci capiamo. Il motore grafico può essere pensato con diverse "path" che sfruttano le diverse versioni di DirectX che supportano effetti differenti, ma il grosso del gioco non è detto che sia differente.
Poi che scrivere un gioco che sfrutti al massimo le possibilità offerte dalle DX11 sia un'altra cosa, d'accordo, ma che non si possa nemmeno fare nulla non è vero.

bonzuccio
29-09-2009, 17:09
Azz hai ragione ke lapsus :stordita:
Dopo questa cosa il discorso aveva un senso?
non mi pare :doh: :D

appleroof
29-09-2009, 18:57
Anche qui non ci capiamo. Il motore grafico può essere pensato con diverse "path" che sfruttano le diverse versioni di DirectX che supportano effetti differenti, ma il grosso del gioco non è detto che sia differente.
Poi che scrivere un gioco che sfrutti al massimo le possibilità offerte dalle DX11 sia un'altra cosa, d'accordo, ma che non si possa nemmeno fare nulla non è vero.

mai detto che non si "potesse fare nulla", rileggi bene i miei post :D

ok, adesso credo/spero ci siamo capiti ;)

Pr|ckly
29-09-2009, 21:29
Tutti i motori grafici che gireranno su PC d´ora in avanti avranno a che fare con le DirectX11, rumor o meno. Che i motori grafici che ho elencato supporteranno le DirectX11 si sa giá, non occorre fare ricorso a fantomatici "rumors". Pensare che si sfrutteranno in eterno solo le Dx9 solo perché esistono le console é fuorviante: esistono anche titoli PC-Only e saranno soprattutto quelli a veicolare le nuove Directx, ma pensare che anche i "port" da console non potranno essere altro che titoli Dx9 non penso sia corretto. Ovviamente ci sará chi siederá sugli allori e creerá dei port "diretti" (che poi tanto diretti non sono, basti pensare alle differenze di programmazione tra PS3 e Xbox360 per capire che il lavoro di converisione non é cosí semplice), ma anche chi prenderá l´occasione per migliorare l´esistente. E, oltre al fatto che i port da DirectX10 a DirectX11 sono relativamente semplici da eseguire, c´é da dire che le DirectX10 e 11, a detta di molti sviluppatori, garantiscono dei vantaggi in termini di programmabilitá ed efficienza.

Si ma non neghiamo l'evidenza.
Assisteremo alla crescita di implementazioni Dx11 grazie a Seven e a Vista ma da qui a fare da traino ce ne passa, te lo mostra il mercato, c'è poco da fare.
Puoi avere tutti i vantaggi del mondo a programmare in Dx11 ma oramai le software house sviluppano su console e poi convertono per pc. Chi decide le linee guida sono le console, è un dato di fatto.
Parli di esclusive che veicoleranno l'uso delle nuove librerie, me ne citi qualcuna che non siano mmorpg e affini?
Gli engine e i giochi vengono sviluppati intorno ad una console, al massimo qualcuno ci aggiunge in seguito il supporto alle Dx11 e qualche effetto, principalmente per motivi di marketing.
Ti rendi conto che con la potenza elaborativa a disposizione potremmo parlare tranquillamente di radiosity/photon mapping mentre invece è da due anni che il punto di riferimento grafico è Crysis?
Non vedi segni di rallentamento in questo caso? Non noti che la vita media di una vga è aumentata e oggi con una 4850 giochi praticamente a tutto, aborti di programmazione e Crysis a parte?

che poi avremo dei porting tradotti in dx11 (leggi=con qualche spruzzata di feature dx11, come finora è stato per le dx10) a breve lo sappiamo, ma anche io sono -purtroppo, visto che gioco sul pc- convinto che prima delle nuove consolle non vedremo cose eclatanti nemmeno per il pc, non ci sarà il vero salto di qualità.

Questo è il punto.
Qualcosa si vedrà ma il salto di qualità, ovvero quello che ci farà tornare a sfruttare la potenza elaborativa messa a disposizione da una configurazione di fascia alta odierna, sono le nuove console.

Pr|ckly
29-09-2009, 21:34
Poi che scrivere un gioco che sfrutti al massimo le possibilità offerte dalle DX11 sia un'altra cosa, d'accordo, ma che non si possa nemmeno fare nulla non è vero.

Appunto, e chi te lo fa fare di investire soldi, tempo e risorse quando il target principale è una console?
E' da li che arriva il guadagno, lo produco bene per quella piattaforma mentre con il pc gratto il fondo del barile.
Lo ha fatto Crytek una volta, i risultati si sono visti, le conseguenze a livello decisionale per gli sviluppi futuri pure.

leoneazzurro
29-09-2009, 21:47
Crytek non ha venduto molto -evidentemente il titolo non é piaciuto a parte la grafica-, ma nell´ambito PC ci sono decine di titoli che hanno venduto piú di Crysis. Esempio recente: Bioshock, ci saranno poi altri titoli PC-Only che venderanno milioni di copie e per i quali magari vale la pensa spendere. Ci sono diversi titoli che come genere sono praticamente solo PC, ad esempio gli RTS, i simulatori di volo e in una certa qual misura anche molti FPS. E magari vale la pena spendere anche per marketing ( es. "noi abbiamo l´engine piú avanzato disponibile" :D ) da rivendere anche nel campo console, e per fare esperienza per la prossima generazione di Xbox o Playstation.

Non a caso il primo titolo adattato per le DirectX11 é stato Battleforge (RTS), che ne ha guadagnato in termini di qualitá visiva E di prestazioni.

KenBlock
29-09-2009, 22:08
batman che non ha physix e non va l'AA
shift non si gioca
si comincia bene :D


tanto fra 2 mesi son cavoli amarissimi


le dx11 sono solamente delle DX10 con minor strati di rendering e quindi prestazioni migliori ( dovrebbe )

appleroof
29-09-2009, 22:21
Crytek non ha venduto molto -evidentemente il titolo non é piaciuto a parte la grafica-, ma nell´ambito PC ci sono decine di titoli che hanno venduto piú di Crysis. Esempio recente: Bioshock, ci saranno poi altri titoli PC-Only che venderanno milioni di copie e per i quali magari vale la pensa spendere. Ci sono diversi titoli che come genere sono praticamente solo PC, ad esempio gli RTS, i simulatori di volo e in una certa qual misura anche molti FPS. E magari vale la pena spendere anche per marketing ( es. "noi abbiamo l´engine piú avanzato disponibile" :D ) da rivendere anche nel campo console, e per fare esperienza per la prossima generazione di Xbox o Playstation.

Non a caso il primo titolo adattato per le DirectX11 é stato Battleforge (RTS), che ne ha guadagnato in termini di qualitá visiva E di prestazioni.

Aggiungo che Bioshock non ha un engine proprietario, ma uno dei middleware più utilizzati, che casualmente è l'unico con un path DX10 decente :D

ed io aggiungo che bioshock non è un titolo pc-only... :what:

leoneazzurro
29-09-2009, 22:27
ed io aggiungo che bioshock non è un titolo pc-only... :what:

E´stato "portato" sulle console dopo l´uscita su PC (dove é ststo sviluppato). Comunque non dicevo che Bioshock era un titolo PC.-Only, ma che in ambito PC comunque c´é mercato per titoli da milioni di copie.

appleroof
29-09-2009, 22:32
E´stato "portato" sulle console dopo l´uscita su PC (dove é ststo sviluppato). Comunque non dicevo che Bioshock era un titolo PC.-Only, ma che in ambito PC comunque c´é mercato per titoli da milioni di copie.

ah ok..ma poi è stato portato su consolle :D :D

il 2 uscirà direttamente multipiattaforma

cmq il "sogno" sarebbero appunto giochi sviluppati per pc (e ovviamente dx11) e poi portati su consolle, ma ora come ora è esattamente il contrario, speriamo che nei prossimi 2 anni assisteremo all'inversione di rotta (imho solo adesso stanno cominciando a sviluppare in dx11), magari grazie al fatto che Seven (insieme alle macchine con Vista) rifacciano di quello pc un mercato conveniente in termini numerici

appleroof
29-09-2009, 22:37
Tutto ciò ci dice quindi che se hai voglia di fare un motore che funzioni bene su console, pc, dx9 e dx10 puoi farlo. E vendi a tutti (i titoli sull'UE3 non si contano) :D

comincio a pensare di non scriver in italiano: è quello che sostengo da 100 post a questa parte! :D E che appunto reputo come fattore che ha bloccato lo sviluppo dei giochi per pc, fermi sostanzialmente alle dx9c

Non nego che puoi fare quello che dici, ed infatti lo fanno eccome: ma dico che questo ha comportato un deciso stop all'evoluzione dei giochi, che devono prima di tutto girare su consolle, poi su pc (che però è più potente in media e quindi in potenza potrebbe offrire una esperienza grafica molto superiore); prova ne è che una 4770 o una 8800gt rullano alla grande anche a risoluzioni alte con questi giochi odierni (a patto che appunto non siano porting fatti con i piedi)

E torno a dire che l'auspicio sarebbe un gioco scritto in dx11 e poi portato su consolle, non il contrario

oppure meglio ancora (ma utopia :asd: ) giochi tripla A scritti solo per pc, accanto ai titoli per consolle

leoneazzurro
29-09-2009, 22:42
Comunque per curiositá sono andato a vedere le classifiche... e Bioshock per PC avrebbe venduto molto di meno di Crysis :eek: Forse alla Crytek volevano superare i 3 milioni di copie...

Ci sono parecchi titoli per PC, tra cui strategici e FPS, oltre quote 3 milioni.

goldorak
29-09-2009, 22:43
oppure meglio ancora (ma utopia :asd: ) giochi tripla A scritti solo per pc, accanto ai titoli per consolle

Beh non so se il prossimo capitolo di Trackmania e' AAA, ma di sicuro e' soltanto per pc. :Prrr:
I consolari a questo giro su attaccano al tram. :asd:

MadJackal
29-09-2009, 23:13
batman che non ha physix e non va l'AA
shift non si gioca
si comincia bene :D


tanto fra 2 mesi son cavoli amarissimi


le dx11 sono solamente delle DX10 con minor strati di rendering e quindi prestazioni migliori ( dovrebbe )

1) physX è proprietaria NVIDIA. Tecnologia morta a meno che non la portino su OpenCL (e non lo vogliono fare).

2) L'AA non va perchè è stato BLOCCATO ARTIFICIALMENTE basandosi sull'ID della scheda video rilevata dal gioco. AMD si è incazzata come una bestia a riguardo, visto che con un driver moddato l'AA di Batman va.

3) Lo vedremo, quanto saranno cavoli amari... E se lo saranno tra due mesi.

4) Non proprio. Le DX11 introducono TANTE innovazioni. Direct compute e tesselation sono solo le più famose.

Futura12
29-09-2009, 23:22
Come ? :mbe:
Sia il Wii che la Xbox 360 usano chip ATI/AMD, soltanto la PS 3 usa una geforce 7900GT :asd:

La X1900XT rimarchiata nella 360 non è cosi meglio,anzi...fanno cagare entrambe (ho la 360)
La Wii usa un processore grafico paragonabile a una Radeon 8500 del 2001.

BaZ....!!!!
29-09-2009, 23:32
Ottimo prezzo.. Spero sia così anche per il mercato italiano.
Avendo una HD3870 sono indeciso se passare alla HD4890 o a questa HD5870..
se posso darti un piccolo consiglio, da possessore di una mitica HD3850, prendi la HD5870 ne vale la pena... ;)

leoneazzurro
29-09-2009, 23:51
La X1900XT rimarchiata nella 360 non è cosi meglio,anzi...fanno cagare entrambe (ho la 360)
La Wii usa un processore grafico paragonabile a una Radeon 8500 del 2001.

Xenos non c´entra nulla con la X1900Xt - il primo ha shader unificati e il secondo no, il primo ha EDRAM e il secondo no, ecc. ecc.

Pr|ckly
30-09-2009, 15:13
Crytek non ha venduto molto -evidentemente il titolo non é piaciuto a parte la grafica-, ma nell´ambito PC ci sono decine di titoli che hanno venduto piú di Crysis. Esempio recente: Bioshock, ci saranno poi altri titoli PC-Only che venderanno milioni di copie e per i quali magari vale la pensa spendere. Ci sono diversi titoli che come genere sono praticamente solo PC, ad esempio gli RTS, i simulatori di volo e in una certa qual misura anche molti FPS. E magari vale la pena spendere anche per marketing ( es. "noi abbiamo l´engine piú avanzato disponibile" :D ) da rivendere anche nel campo console, e per fare esperienza per la prossima generazione di Xbox o Playstation.

Non a caso il primo titolo adattato per le DirectX11 é stato Battleforge (RTS), che ne ha guadagnato in termini di qualitá visiva E di prestazioni.

Io torno a chiederti, MOORPG e simili a parte, quali titoli vedi all'orizzonte o in programmazione solo per PC.
E' rimasto il mercato sopracitato come esclusiva PC a causa del sistema di controllo poco adeguato delle console ma sia Sony che Ms stanno lavorando al problema per poterlo azzannare. E' un mercato da miliardi, è normale che prima o poi lo facciano, i rumors dei contatti Ms-Blizzar, torno a ripetere, non sono un caso.

Qui non ci capiamo.
L'uscita ormai prossima di Seven unita alle Dx11 disponibili anche per Vista darà una leggera spinta al mercato e assisteremo sicuramente ad un supporto maggiore rispetto a quanto visto per le Dx10 ma questo non significa che la potenza elaborativa messa a disposizione dei PC sia sfruttata. Tutt'altro.
Il gioco deve prima di tutto girare su console, poi forse vengono aggiunte feature per PC. Per sfruttare la potenza messa a disposizione dalle VGA di oggi servirebbe il contrario, programmare per PC e portare il titolo su console o al massimo avere due blocchi HW della stessa potenza. Cosa che sarà possibile, forse, dalla prossima generazione di console.
Ma anche se fosse, visto che le console non sono upgradabili e il ciclo di vita è di 5 anni circa, per quanto tempo il livello resterà lo stesso?

E´stato "portato" sulle console dopo l´uscita su PC (dove é ststo sviluppato). Comunque non dicevo che Bioshock era un titolo PC.-Only, ma che in ambito PC comunque c´é mercato per titoli da milioni di copie.

Bioshock è uscito lo stesso giorno per PC e Xbox360. Due mesi dopo è uscito per PS3.

Comunque per curiositá sono andato a vedere le classifiche... e Bioshock per PC avrebbe venduto molto di meno di Crysis :eek: Forse alla Crytek volevano superare i 3 milioni di copie...

Ci sono parecchi titoli per PC, tra cui strategici e FPS, oltre quote 3 milioni.

Certamente si aspettavano di più visto l'hype che girava intorno al titolo. L'utile, contando le sponsorizzazioni Ms, nVdia e Intel lo hanno sicuramente raggiunto ma Bioshock ha venduto complessivamente di più grazie alle console.
Da qui la decisione che Crysis 2 diventerà multipiattaforma.

leoneazzurro
01-10-2009, 01:10
Io torno a chiederti, MOORPG e simili a parte, quali titoli vedi all'orizzonte o in programmazione solo per PC.

RTS, CRPG, qualche FPS



Qui non ci capiamo.
L'uscita ormai prossima di Seven unita alle Dx11 disponibili anche per Vista darà una leggera spinta al mercato e assisteremo sicuramente ad un supporto maggiore rispetto a quanto visto per le Dx10 ma questo non significa che la potenza elaborativa messa a disposizione dei PC sia sfruttata. Tutt'altro.
Il gioco deve prima di tutto girare su console, poi forse vengono aggiunte feature per PC. Per sfruttare la potenza messa a disposizione dalle VGA di oggi servirebbe il contrario, programmare per PC e portare il titolo su console o al massimo avere due blocchi HW della stessa potenza. Cosa che sarà possibile, forse, dalla prossima generazione di console.
Ma anche se fosse, visto che le console non sono upgradabili e il ciclo di vita è di 5 anni circa, per quanto tempo il livello resterà lo stesso?

Abbiamo detto che ci saranno giochi PC Only che faranno da "traino". Che sta alla volontá dei programmatori realizzare qualcosa di diverso o no. E comunque le console sono all´incirca alla metá del loro ciclo vitale, ma prima che arrivino le prossime occorre che si cominci a sviluppare su qualcosa di diverso delle DirectX9, proprio per prepararsi alla prossima generazione.



Bioshock è uscito lo stesso giorno per PC e Xbox360. Due mesi dopo è uscito per PS3.

Ma a quanto ricordo é stato sviluppato su PC. E comunque a quanto pare ci sono titoli PC che hanno venduto 3-4 o anche 10 volte tanto.



Certamente si aspettavano di più visto l'hype che girava intorno al titolo. L'utile, contando le sponsorizzazioni Ms, nVdia e Intel lo hanno sicuramente raggiunto ma Bioshock ha venduto complessivamente di più grazie alle console.
Da qui la decisione che Crysis 2 diventerà multipiattaforma.

Dubito fortemente, peró, che le versioni saranno identiche, anche se in teoria il Cryengine avrá la stessa versione.

MiKeLezZ
02-10-2009, 11:07
è praticamente ora di abbandonare il gioco su pc...non vedo attualmente il senso di continuare a spendere botte di 3-400€ solo di GPU per poi ritrovarsi la grafica consollara,a sto punto mi compro una consolle.Io gioco a 1280x720 sul 40" con una VGA da 110€ e i giochi prendono vita, la maggior parte non si schioda dai 60 frame

Ho provato a passare a 1920x1080 e/o ad aumentare AA da 2x a 8x ma la differenza è a dir poco trascurabile... pure a gioco fermo te ne accorgi difficilmente

Quindi hai ragione che non ha senso comprare VGA da 400€ per giocare su PC conversioni da console... che tanto vale comprarsi la console a 250€ (e già con una X360, con 4xAA e 1280x720... vai già bene)

Però (probabilmente) non ha altrettanto senso comprare console da 250€ per giocare a cose che potresti far girare su PC con VGA da 250€ al doppio del frame rate

Infatti in questo caso MS è molto furba e non permette tutti i giochi di X360 vengano portati su PC, e gli stessi sviluppatori tengono a debita distanza di date i porting, concludendo sostanzialmente la diatriba in una mera questione di preferenze/comodità/pazienza

Una cosa però posso affermarla con certezza, ovvero che non sento necessità alcuna di sborsare 300€/350€ solo per la possibilità di giocare a 1920x1080 con 8x AA
Poteva essere il mio sogno nel cassetto anni fa quando i giochi erano due poligoni in croce e ci si picchiava per superare la 800x600, ma oggigiorno serve davvero altro
Ad esempio c'è stato un buon balzo in avanti con l'implementazione del HDR; penso ce ne sarà un altro con un Tasselator opportunamente sfruttato. Ma quello che serve davvero è un grosso impegno in termini di oggetti in movimento contemporaneamente, intelligenza artificiale, e gestione della fisica di gioco, perchè è una cosa riesce effettivamente a farti sentire la differenza.

DarkVampire
02-10-2009, 12:43
ho l'impressione ke nvidia Fermi surclassera' alla grande qualsiasi vga fatta finora (altro che la nuova 5xxx)..e nn solo come potenza grafica..eheh

DarkVampire
02-10-2009, 13:04
nn esagerare coi tempi...se tutto va bene per fine anno...se va male per i primi 2 mesi 2010...nn arrivi nememno a 6 mesi :P

ati avra' un suo modello x2?...nvidia avra' una singola gpu ke dai presupposti potrebeb andare anke meglio

MadJackal
02-10-2009, 13:07
nn esagerare coi tempi...se tutto va bene per fine anno...se va male per i primi 2 mesi 2010...nn arrivi nememno a 6 mesi :P

ati avra' un suo modello x2?...nvidia avra' una singola gpu ke dai presupposti potrebeb andare anke meglio

Beh, non hanno ancora la board pronta, a giudicare dal casino successo alla presentazione di Fermi. E l'A1 è uscito ad Agosto, solitamente le GPU vengono commercializzate alla revisione A11, ovviamente IIRC.
Poi magari fanno il miracolo, ma prima di fine febbraio/inizio marzo non credo che vedremo niente basato su Fermi.

Beh, comunque anche la GTX280 andava più veloce della 4870.
Ma non è servito a molto, no? ;)

Drakogian
02-10-2009, 13:07
ho l'impressione ke nvidia Fermi surclassera' alla grande qualsiasi vga fatta finora (altro che la nuova 5xxx)..e nn solo come potenza grafica..eheh

Su quali basi fondi queste impressioni ?
Comunque ben venga il "surclassamento" cosi i prezzi calano. ;)

blackshard
02-10-2009, 13:37
Su quali basi fondi queste impressioni ?
Comunque ben venga il "surclassamento" cosi i prezzi calano. ;)

Bisogna vedere anche a quali costi, sia in termini economici che in termini di efficienza.
Il chippone secondo me non è la strada giusta, e già rv870 è fin troppo grosso e complesso. gt300 avrà 3mld di transistor e sarà ancora più grosso e complesso, con consumi superiori e rese inferiori. Io penso che è davvero l'ora di spingere sul "multiprocessore" in ambito video in modo serio: architetture con chip piccoli, veloci, economici e facilmente scalabili da associare assieme su ogni singola scheda in modo da coprire le varie fasce di mercato.
Sotto questo punto di vista le schede con doppio processore rappresentano un interessante proving ground, ma vanno risolti problemi come l'impossibilità di condividere la ram e realizzare un sistema NUMA e utilizzare una sola generica e universale modalità di rendering.

Vash_85
02-10-2009, 13:45
ho l'impressione ke nvidia Fermi surclassera' alla grande qualsiasi vga fatta finora (altro che la nuova 5xxx)..e nn solo come potenza grafica..eheh

E ci credo deve uscire tra 6 mesi... sai che razza di baracca se esce tra 6 mesi costa 200€ in più di una 5870 e poi va tipo il 20-25% più veloce:asd: :asd: :asd:

okorop
02-10-2009, 13:56
Non sono io a esagerare coi tempi, sono i falsi ottimisti che spargono la notizia che entro fine anno ci saranno le schede. Se va di lusso prima di febbraio non vedi nulla. Dovesse andar male si potrebbero superare tranquillamente i 6 mesi...

Sul discorso prestazionale sei ugualmente vittima del FUD. Non si sa nulla che possa ricondurre alle prestazioni di G300, a parte il FUD, appunto, sapientemente orchestrato sui siti verdi ma senza alcuna voce ufficiale in merito.

Molto preoccupante.

io sinceramente non mi preoccupo affatto invece......sono i dipendenti nvida che dovrebbere preoccuparsi....

okorop
02-10-2009, 14:01
Non ho scritto "mi preoccupo" ;)

Con il prezzo cui sono sul mercato le HD5870 le mie preoccupazioni sull'attuale assenza totale di nVidia sono del tutto rientrate.

quoto se ci son sti prezzi fosse per me ci potrebbe essere una sola azienda monopolistica del settore, anche se va considerato che si incorrerebbe nel problema prestazionale e di rinomina delle vga.....g80 docet :)

Vash_85
02-10-2009, 14:05
Volete farvi 2 risate con la scheda che è stata presentata ieri da nvidia?

1 (http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/)

2 (http://www.techpowerup.com/105052/NVIDIA_Fermi__Tesla_Board_Pictured_in_Greater_Detail_Non-Functional_Dummy_Unveiled.html)

In pratica hanno preso un pcb di una scheda vecchia lo hanno segato e ci hanno messo delle viti da legno

http://www.fudzilla.com/images/stories/2009/September/General%20News/fermi_wtr.jpg

E se la spassano pure....alla faccia dei pacchi che tirano a Napoli :asd: :asd: :asd:

DarkVampire
02-10-2009, 14:05
monopolio in quesot campo?...lol...si così una vga invece di pagarla 200€ la paghi 600€ se ti va bene

okorop
02-10-2009, 14:06
Assolutamente non dovrà essere una situazione persistente o saranno volatili per diabetici. Ma per il momento viviamo bene anche senza nVidia. Basta che non ci metta due anni a fare una lineup DX11 concorrenziale...

questo ha dei privilegi non trascurabili: valore vga ati dx11 si mantiene nel tempo, consumatori che hanno "investimento" piu' duraturo permettendosi di comprare configurazioni crossfire e quad crossfire senza rimetterci troppo quando le si venderà in futuro.....io sarei solo contento per questo fatto se veramente ci impiegasse un sacco nvida a lanciare le proprie vga......

monopolio in quesot campo?...lol...si così una vga invece di pagarla 200€ la paghi 600€ se ti va bene

il monopolio in questo campo come in tutti i mercati è una situazione da evitare perchè provoca inefficienze servizi peggiori e aumento del prezzo, la situazione ideale sarebbe la concorrenza perfetta e raggiungerla è pura utopiua, mi accontento di questo oligopolio anche se nvida opera piu' come monopolista che da oligopolista da parecchi anni.....

MenageZero
17-10-2009, 20:38
Io gioco a 1280x720 sul 40" con una VGA da 110€ e i giochi prendono vita, la maggior parte non si schioda dai 60 frame

Ho provato a passare a 1920x1080 e/o ad aumentare AA da 2x a 8x ma la differenza è a dir poco trascurabile... pure a gioco fermo te ne accorgi difficilmente

Quindi hai ragione che non ha senso comprare VGA da 400€ per giocare su PC conversioni da console... che tanto vale comprarsi la console a 250€ (e già con una X360, con 4xAA e 1280x720... vai già bene)

Però (probabilmente) non ha altrettanto senso comprare console da 250€ per giocare a cose che potresti far girare su PC con VGA da 250€ al doppio del frame rate

Infatti in questo caso MS è molto furba e non permette tutti i giochi di X360 vengano portati su PC, e gli stessi sviluppatori tengono a debita distanza di date i porting, concludendo sostanzialmente la diatriba in una mera questione di preferenze/comodità/pazienza

Una cosa però posso affermarla con certezza, ovvero che non sento necessità alcuna di sborsare 300€/350€ solo per la possibilità di giocare a 1920x1080 con 8x AA
Poteva essere il mio sogno nel cassetto anni fa quando i giochi erano due poligoni in croce e ci si picchiava per superare la 800x600, ma oggigiorno serve davvero altro
Ad esempio c'è stato un buon balzo in avanti con l'implementazione del HDR; penso ce ne sarà un altro con un Tasselator opportunamente sfruttato. Ma quello che serve davvero è un grosso impegno in termini di oggetti in movimento contemporaneamente, intelligenza artificiale, e gestione della fisica di gioco, perchè è una cosa riesce effettivamente a farti sentire la differenza.

c'è anche da dire però che se rimaniamo nell'ambito di chi apprezza la cg, sarebbe simpatico avere almeno come obbiettivo a lungo (ma non geologico) termine di avere scene 3d renderizzate in tempo reale sostanzialmente difficili (o almeno "difficili") da distinguere da un buon girato cinematografico in e con (o anche in e con) posti reali e persone reali :D

e non so tale risultato in che relazione esatta possa essere con il num. di pixel disponibili, ma a prescindere dalla risoluzione, visti i risultati che abbiamo ora e quelli attesi a breve e medio termine (ovviamente tutto è sempre più bello ed in continua - più o meno - evoluzione, per carità), da profano (putroppo :D) e della programmazione di engine grafici e della progettazione di gpu, azzarderi cmq che non ci siamo ancora molto vicini alla capacità di calcolo necessaria per un certo realismo con la "R" maisucola (se poi ci mettiamo dentro anche una eventuale simulazione apparentemente "seria" della fisica ... ), quantomeno non sullo schermo del pc o sul tv del salotto ;)

ago83
24-10-2009, 16:19
meglio questa, o la GTX295?

!fazz
24-10-2009, 17:49
meglio questa, o la GTX295?

meglio la ati, single gpu metà dei consumi e dx11

Antonio992
17-01-2010, 10:46
secondo me le schede ati sn le migliori anche xkè ho sempre scelto e avuto ati e adesso con l'uscita di questa scheda e della hd5970 sn sempre + convinto ke sn le migliori.
ps. la compro!!:)

leoneazzurro
17-01-2010, 12:55
Evitiamo i commenti da fanboy, per piacere.

Falcon84
14-02-2010, 22:52
Nel consumo dell'intero sistema e compreso anche il monitor?

Drakogian
15-02-2010, 09:52
Nel consumo dell'intero sistema e compreso anche il monitor?

No.