PDA

View Full Version : Gigabyte GeForce GTX 285, 2GB meglio di 1GB?


Redazione di Hardware Upg
02-10-2009, 16:16
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/2282/gigabyte-geforce-gtx-285-2gb-meglio-di-1gb_index.html

Gigabyte GTX 285 2GB, sigla identificativa GV-N285OC-2GI: un prodotto sviluppato su una GPU rodata, oramai presentata da diversi mesi, cui è stato affiancato un quantitativo di memoria doppio rispetto a quello impiegato solitamente. Ma quali sono le reali differenze con la versione da 1GB?

Click sul link per visualizzare l'articolo.

faber80
02-10-2009, 16:29
che tempismo... ma qualcuno avverte la Gigabyte che c'è la 5850 a 200 euro circa ?
sinceramente qualcuno mi spiega chi dovrebbe ormai prendersi questa scheda "nuova" ed "economica" ?

spero solo che almeno questa sia v.e.r.a

cmq questi bench nn sono molto utili senza la nuova serie Ati......... redazione ?

Notturnia
02-10-2009, 16:30
io ci stavo pensando qualche settimana fa sul fare un 3x285 da 2gb ma poi ho visto i connettori dietro e ho cambiato idea.. inoltre adesso che ho visto i risultati credo che aspettero Fermi..

X1l10on88
02-10-2009, 16:30
Come emerso dai test, la necessità di avere una scheda dotata di 2GB di memoria non esiste.

Come immaginavo.

demon77
02-10-2009, 16:37
Oh finalmente un test che mostra a chiare lettere la totale inutilità dei 2gb su una VGA di oggi!

2Gb, come sempre detto, hanno una sola ragione: marketing per bimbomikia!

Xeon3540
02-10-2009, 16:41
secondo me è una cavolata oramai la physix è finita!potevano evitare di fare una 285 da 2gb mah!

kliffoth
02-10-2009, 16:47
- Dove sono le 5800?
- Dove sono le DX10.1 in H.A.W.X.?
- Dove sono finite le AMD in H.A.W.X. con AA8x?

Non c'entrano niente, NON è un test sulle prestazioni del chip nVidia, ma solo sul quantitativo di ram.
Le altre schede sono guisto per riferimento, ed effettivamente bastavano solo la 285 standard e la 2 GB (magari metterne invece un'altra con le frequenze non standard)

Per le schede AMD il discorso 1 e 2 GB funziona uguale?

SergiusITA
02-10-2009, 16:50
Molto Meglio una EN8600Gts 256

WokKy
02-10-2009, 17:00
Va bene, è una prova per vedere coma cambiano i valori in base alla ram istallata.....
Ma fare una comparativa (perchè alla fine nei grafici sono state messe anche schede che non hanno nulla a che vedere con lo scopo del test) senza inserire i valori delle ultime arrivate mi sembra un pò scorretto...
Secondo me come riferimento andavano messe o in alternativa non dovevate mettere le altre ed attenervi all'obbiettivo del test.

Sammy Jankis
02-10-2009, 17:08
Capisco l'intenzione dell'articolo di non voler essere una comparativa su più schede, mi chiedo però il motivo di voler escludere le ultime uscite di casa ATI. Non sarebbe bastata la comparativa tra la "reference" e questo specifico modello ?

Vi prego di non leggere nelle mie parole intenti polemici, mi farebbe solo piacere capire la motivazione, grazie.

g.luca86x
02-10-2009, 17:09
le altre news su nvidia (videogioco rubone e Fermi ferma in ritardo) ci hanno reso elettrici... Non esageriamo, dai. Questa è solo una recensione per dimostrare l'inutilità dei due giga in ambito gaming (diverso per i professionisti che sulla scheda ci programmano ma non è inerente alla news). Il bello è che se sono inutili per una gtx285 pensate quanto possano essere inutili sulle 4870 vapor-x con frequenze reference! Buona cosa avere un test che dimostri a tutti come tali quantitativi siano inutili al momento attuale. Ma sbaglio o già si parla che le nuove ati serie 5000 saranno anche equipaggiate con 2GB? In futuro dite che i giochi saranno così mal fatti? Le dx11 non dovrebbero apportare migliorie sull'efficienza dell'uso della memoria, oltre che sulla bandwidth?

2012comin
02-10-2009, 17:13
sarebbe stato interessante anche un confronto con SLI per vedere se la maggiore memoria dia o meno vantaggi con 2 o 3 vga. (ma forse ne avevate solo una :P )

Ricordo di aver letto proprio su questo sito la frase "al raddoppio delle vga dovrebbe corrispondere il quadruplo della memoria" (fonte un articolo del Corsini dove parlava di una situazione teorica ideale, ma non ricordo quale articolo...quindi niente link -.- sorry)

Edit: inserire le nuove ati sarebbe stato controproducente :P nessuno avrebbe guardato alla differenza tra 1 e 2 gb ma tutti avrebbero guardato ati vs Nvidia :)

Sammy Jankis
02-10-2009, 17:21
Edit: inserire le nuove ati sarebbe stato controproducente :P nessuno avrebbe guardato alla differenza tra 1 e 2 gb ma tutti avrebbero guardato ati vs Nvidia :)

Quindi l'utilità delle 4870 e 4890 ?

2012comin
02-10-2009, 17:27
Quindi l'utilità delle 4870 e 4890 ?

imho nessuna :P come detto da altri bastavano le due vga da 1 e 2gb. Se proprio si voleva mettere delle ati... si poteva mettere anche per loro modello da 1 e da 2 gb.

Ma non mi sembra una cosa da fare polemica :P Take it easy :)

Sammy Jankis
02-10-2009, 17:29
Ma non mi sembra una cosa da fare polemica :P Take it easy :)

Figurati, ho anche lasciato un post per la redazione....."pour parler" :)

Evangelion01
02-10-2009, 17:30
La scheda più inutile dell' universo.. :asd:
Nvidia in questo periodo annaspi davvero... e cmq perchè anzichè fare ste versioni "xxx io ce l' ho più lungo"
non abbassi considerevolemente i prezzi? finchè non cambierai politica SCAFFALE !
I tempi gloriosi della 8800gtx sono passati ormai... nel bene e nel male.

P.s: mi chiedo quanti abboccheranno , se penso che con 100€ in meno c'è una furiosa 5850.

3DMark79
02-10-2009, 17:36
L'ultima frase evidenzia quindi la palese inutilità di una scheda video equipaggiata con 2GB di memoria...

Come sospettavo...non serve a una emerita mazza!:D
Inutile pur di prendere soldi non sanno dove sbattere la testa anche se sicuramente qualche pollo poco informato lo troveranno!:muro:

anigr9001
02-10-2009, 17:37
La scheda più inutile dell' universo.. :asd:
Nvidia in questo periodo annaspi davvero... e cmq perchè anzichè fare ste versioni "xxx io ce l' ho più lungo"
non abbassi considerevolemente i prezzi? finchè non cambierai politica SCAFFALE !
I tempi gloriosi della 8800gtx sono passati ormai... nel bene e nel male.

P.s: mi chiedo quanti abboccheranno , se penso che con 100€ in meno c'è una furiosa 5850.

Non voglio difendere Nvidia , ma comunque non penso che il fatto che sia uscita la versione 2GB abbia nulla a che fare con loro. Semplicemente la Gigabyte ha assemblato una scheda non reference. Ripeto , Nvidia non c'entra un bego. Poi non vedo come la sfuriata sulla frustrazione da scaffale c'entri col topic.

Evangelion01
02-10-2009, 17:43
Non voglio difendere Nvidia , ma comunque non penso che il fatto che sia uscita la versione 2GB abbia nulla a che fare con loro. Semplicemente la Gigabyte ha assemblato una scheda non reference. Ripeto , Nvidia non c'entra un bego. Poi non vedo come la sfuriata sulla frustrazione da scaffale c'entri col topic.

Quale sfuriata scusa? Secondo te mi arrabbio per... cosa? :stordita:
A parte questo nvidia avrà dato il permesso al partner di fare una non-reference... ok.
Quello che vorrei capire è il motivo di fare una vga come questa... ;)

LkMsWb
02-10-2009, 17:48
Quale sfuriata scusa? Secondo te mi arrabbio per... cosa? :stordita:
A parte questo nvidia avrà dato il permesso al partner di fare una non-reference... ok.
Quello che vorrei capire è il motivo di fare una vga come questa... ;)

Perché il 2GB attrae il consumatore non appassionato, uno che vuole giocare e vede GTX 285 2GB!!! allora comprerà quella, pecunia permettendo, rispetto alla stessa da 1GB o ad una GTX 275 da 896MB o una 5850 da 1GB... consideriamo che, appassionati a parte, spesso se si chiede a qualcuno che scheda grafica ha la risposta è: una da 256/512 mega / 1 giga :)

E per questa scheda nVidia non ha nessun merito/colpa, ha fatto tutto Gigabyte, come è suo diritto (il mondo è pieno di schede non-reference).

Kharonte85
02-10-2009, 17:54
Gigabyte GTX 285 2GB, sigla identificativa GV-N285OC-2GI: un prodotto sviluppato su una GPU rodata, oramai presentata da diversi mesi, cui è stato affiancato un quantitativo di memoria doppio rispetto a quello impiegato solitamente. Ma quali sono le reali differenze con la versione da 1GB?


Articolo buono per mettere al sicuro chi non è informato...per carità doveroso e apprezzabile ma: a quando la recensione della HD5850?

appleroof
02-10-2009, 17:56
Quale sfuriata scusa? Secondo te mi arrabbio per... cosa? :stordita:
A parte questo nvidia avrà dato il permesso al partner di fare una non-reference... ok.
Quello che vorrei capire è il motivo di fare una vga come questa... ;)

esistono da praticamente sempre queste schede-specchietto-per-le-allodole, sia Ati che Nvidia, imho sono proprio rece come questa che servono a "smascherarle", e poi a chi interessa queste cose sono cmq sfiziose, imho...

Articolo buono per mettere al sicuro chi non è informato...per carità doveroso e apprezzabile ma: a quando la recensione della HD5850?

quoto ;)

ReDeX
02-10-2009, 17:57
L'ultima frase evidenzia quindi la palese inutilità di una scheda video equipaggiata con 2GB di memoria.

Qualcuno aveva dubbi in merito?
2 o più gb avranno senso col supporto a schermi multipli, come l'eyefinity di ati.

bobby10
02-10-2009, 17:59
scheda inutile..costa più di 300€ e c'è la 5850 che va di più e costa 120€ di meno.. Punta tutto sui 2gb di memoria e qualche pollo abboccherà

Kharonte85
02-10-2009, 17:59
Qualcuno aveva dubbi in merito?
2 o più gb avranno senso col supporto a schermi multipli, come l'eyefinity di ati.
No perchè anche quello non ha molto senso...:asd:

appleroof
02-10-2009, 18:02
No perchè anche quello non ha molto senso...:asd:

ma come, è una svolta, così come il 3dvision o come cavolo si chiama di Nvidia.....:asd: :asd:

MadJackal
02-10-2009, 18:02
No perchè anche quello non ha molto senso...:asd:

Mai usato due schermi? E' una manna dal cielo, almeno per me ;)
Se avessi una scrivania larga abbastanza passerei ai tre moooolto volentieri.


Se non sbaglio le DX11 non hanno limitazioni di dimensione per le texture, quindi presto o tardi 2 Gb serviranno, IMHO. Di certo però c'è che non servono a granchè ora, i fattori limitanti sono altri, non la RAM a disposizione della GPU.

bobby10
02-10-2009, 18:02
No perchè anche quello non ha molto senso...:asd:

Sante parole..è una cosa assurda.

Io comunque fossi stato Nvidia avrei dotato la gtx285 di ben 3gb di memoria tanto l'inutilità è uguale ma sai che scena che faceva tra i polli?? :eek:

MadJackal
02-10-2009, 18:04
Sante parole..è una cosa assurda.

Io comunque fossi stato Nvidia avrei dotato la gtx285 di ben 3gb di memoria tanto l'inutilità è uguale ma sai che scena che faceva tra i polli?? :eek:

Sai che scheda lunga otto metri, più che altro? :asd:

bobby10
02-10-2009, 18:05
ma come, è una svolta, così come il 3dvision o come cavolo si chiama di Nvidia.....:asd: :asd:

se per assurdo combinassi una cosa del genere a casa mia i miei mi prenderebbero a calci in quel posto.. :asd:

Maury
02-10-2009, 18:05
Ma sapete quanta gente determina la potenza di una VGA in base al quantitativo di ram ? non lo potete neanche immaginare :eek:

Kharonte85
02-10-2009, 18:05
ma come, è una svolta, così come il 3dvision o come cavolo si chiama di Nvidia.....:asd: :asd:
:sofico:

Mai usato due schermi? E' una manna dal cielo, almeno per me ;)
Infatti 2 è abbastanza comune, nonche' fattibile da un bel po'.


Se avessi una scrivania larga abbastanza passerei ai tre moooolto volentieri.
Ognuno ha le sue esigenze, ma prima che mi convincano che per giocare devo comprarmi 3 schermi ne passerà di acqua sotto i ponti...:rolleyes: anche perchè poi diviene anche un problema di spazio ;)

bobby10
02-10-2009, 18:07
Ma sapete quanta gente determina la potenza di una VGA in base al quantitativo di ram ? non lo potete neanche immaginare :eek:

davvero?? :eek:

appleroof
02-10-2009, 18:07
se per assurdo combinassi una cosa del genere a casa mia i miei mi prenderebbero a calci in quel posto.. :asd:


vedrai quando avremo 5 monitor con visione 3d...:D :D :D


:sofico:


Infatti 2 è abbastanza comune, nonche' fattibile da un bel po'.


Ognuno ha le sue esigenze, ma prima che mi convincano che per giocare devo comprarmi 3 schermi ne passerà di acqua sotto i ponti...:rolleyes: anche perchè poi diviene anche un problema di spazio ;)

quoto tutto ;)

Maury
02-10-2009, 18:09
davvero?? :eek:

Assolutamente si, purtroppo :cry:

MadJackal
02-10-2009, 18:15
Ognuno ha le sue esigenze, ma prima che mi convincano che per giocare devo comprarmi 3 schermi ne passerà di acqua sotto i ponti...:rolleyes: anche perchè poi diviene anche un problema di spazio ;)

Si vabbè, in effetti io non ci sono interessato per giocare... Anche perchè fino a quando non fanno schermi borderless l'effetto non sarà granchè piacevole :asd:

NLDoMy
02-10-2009, 18:17
No perchè anche quello non ha molto senso...:asd:

questi commenti non hanno senso

avendo un trackir e investendo €200 in altri 2 schermi da 20-22 pollici di media qualità da accoppiare al 223bw credo che giochi come armaII o insurgency cambierebbero non di poco e comunque anche i giochi in generale tipo qualche morpg - o come diav si chiamano - avrebbero una maggiore immersione

poi se non erro per la 5870 c'è la versione base e l'eye infinity, e spendere €200 magari per una 5850 eyeinfinity sono cosa ben diversa che buttarli su una gpu di pari prezzo e di inferiori prestazioni - o anche pari - che magari non lo supporta

le tecnologie sono a disposizione, che poi non le sfruttiate questi non sono problemi di ati o nvidia che sia, ovviamente potendoselo permettere.


Si vabbè, in effetti io non ci sono interessato per giocare... Anche perchè fino a quando non fanno schermi borderless l'effetto non sarà granchè piacevole :asd:

parere molto soggettivo, perchè io ho giocato in alcune sale-giochi a games su multischermi con bordi ed essendo concentrato nel gioco te ne accorgi giusto nel momento in cui la concentrazione non è al 100%

multi schermi borderless ci sono come ci sono quelli curvi

appleroof
02-10-2009, 18:24
questi commenti non hanno senso

avendo un trackir e investendo €200 in altri 2 schermi da 20-22 pollici di media qualità da accoppiare al 223bw credo che giochi come armaII o insurgency cambierebbero non di poco e comunque anche i giochi in generale tipo qualche morpg - o come diav si chiamano - avrebbero una maggiore immersione

poi se non erro per la 5870 c'è la versione base e l'eye infinity, e spendere €200 magari per una 5850 eyeinfinity sono cosa ben diversa che buttarli su una gpu di pari prezzo e di inferiori prestazioni - o anche pari - che magari non lo supporta

le tecnologie sono a disposizione, che poi non le sfruttiate questi non sono problemi di ati o nvidia che sia, ovviamente potendoselo permettere.




parere molto soggettivo, perchè io ho giocato in alcune sale-giochi a games su multischermi con bordi ed essendo concentrato nel gioco te ne accorgi giusto nel momento in cui la concentrazione non è al 100%

multi schermi borderless ci sono come ci sono quelli curvi

non lo so, io ho il dellone da 27" e ti posso assicurare che quanto ad immersività è eccezionale...per ora continuerei a preferire un monitor unico ma quanto più grande possibile (compatibilmente con soldi/spazio a disposizione) che tre da 20/22" (magari con economici tn) affiancati....domani chissà :boh:

ndrmcchtt491
02-10-2009, 18:42
vedo male o nei grafici manca qualcosa...(amd5870???):incazzed:

A parer mio se volevano fare una prova di "memoria" secondo me bastava affiancare nei bench solo 1 gtx 285 stock...
in due parole:prodotto inutile

p.s. e il prezzo dov'è???

g.luca86x
02-10-2009, 19:32
E magari anche non troppo grande, ma con una risoluzione molto alta. E' possibile che io abbia un portatile 15.4" a 1680x1050 e poi il 22" del fisso ha la stessa risoluzione? -.-

immagino il tuo oculista che si sfrega le mani dopo una lunga seduta al portatile... Il mio portatile ha lo schermo 15,4" @1280x800 e già molte cose sembrano piccole usando i dpi standard, figuriamoci il tuo...

appleroof
02-10-2009, 19:47
E magari anche non troppo grande, ma con una risoluzione molto alta. E' possibile che io abbia un portatile 15.4" a 1680x1050 e poi il 22" del fisso ha la stessa risoluzione? -.-

imho oggi come oggi un 24" fullhd E' il monitor del gamer :)

NLDoMy
02-10-2009, 19:52
non lo so, io ho il dellone da 27" e ti posso assicurare che quanto ad immersività è eccezionale...per ora continuerei a preferire un monitor unico ma quanto più grande possibile (compatibilmente con soldi/spazio a disposizione) che tre da 20/22" (magari con economici tn) affiancati....domani chissà :boh:

io ho un trackir la versione 3.0 mi pare e su uno schermo 22 si sfrutta male - come non si sfrutterebbe degnamente nemmeno su un 30-40 - e l'idea di provarlo su 3 non sarebbe male proprio per creare un angolo in modo "naturale" (tra virgolette si intende) - anche se con bordi - per sfruttare appunto l'angolo del trackir

comunque tanto si rimanda tutto alle scelte dell'utente finale

è secondo me inutile denigrare determinate tecnologie a priori, poi insomma ognuno fa le proprie scelte, io personlamente quando avrò soldi probabilmente metterò 2 schermi in + e una eyeinfinity 5850 che mi pare più che sufficiente

appleroof
02-10-2009, 20:12
io ho un trackir la versione 3.0 mi pare e su uno schermo 22 si sfrutta male - come non si sfrutterebbe degnamente nemmeno su un 30-40 - e l'idea di provarlo su 3 non sarebbe male proprio per creare un angolo in modo "naturale" (tra virgolette si intende) - anche se con bordi - per sfruttare appunto l'angolo del trackir

comunque tanto si rimanda tutto alle scelte dell'utente finale

è secondo me inutile denigrare determinate tecnologie a priori, poi insomma ognuno fa le proprie scelte, io personlamente quando avrò soldi probabilmente metterò 2 schermi in + e una eyeinfinity 5850 che mi pare più che sufficiente

ah si non ci piove ;)

Io mi sono innamorato del DELL SP2309W, 23" per una risoluzione di 2048x1152. Non gli mancasse il displayport lo avrei già preso :D

bè un gran bel monitor non c'è che dire, forse la versione dell'anno prox avrà il displayport (ma un hdmi no eh? :D )

Trapped
02-10-2009, 20:35
inutilità di scheda in quanto non cambia nulla rispetto alla versione da "solo" 1GB di ram, quoto tutti quanti e la redazione su questo

ma poi, mi mettono un connettore vga analogico su una scheda così? :doh: Non era meglio metterci due dvi, una hdmi (che c'è) e una displayport invece? :rolleyes:

saluti

Zerk
02-10-2009, 22:49
Un consiglio per Gigabyte:
GeForce GTXXX 285 32.000MB
E sullo stickers:
http://i254.photobucket.com/albums/hh91/madridge2/John_Curtis_Holmes.jpg

Notturnia
02-10-2009, 22:56
scusate l'OT.. ma vorrei rispondere a tutti quelli che, NON avendo che un solo monitor, dicono che gli schermi multipli sono inutili..

Lasciate stare per favore.. se non avete mai avuto due o più monitor.. lasciate stare.. non entrate in un mondo che è troppo per voi..

io ho due 20" da molto tempo.. qualche volta bazzico su 3 monitor da 24" ed è un mondo che non vedo l'ora di portare a casa ma non è facile gestire 3 schermi da 1920x1280 ..

anche se devo ammettere che è troppo bello poter lavorare su due schermi e giocare sul terzo senza che questo comprometta ne il lavoro ne il gioco..

purtroppo il mio attuale pc non me lo permette... ma non sparate sugli schermi multipli solo per usare i tastini..

GIAN.B
02-10-2009, 23:34
Io mi sono innamorato del DELL SP2309W, 23" per una risoluzione di 2048x1152. Non gli mancasse il displayport lo avrei già preso :D

Prendi questo con l'HDMI ...anche se si passa a 27"...;) ..gran bel monitor :)

Acer B3 Business B273HUymidhz, 27", 2048x1152, VGA, DVI, HDMI

Helligkeit: 400cd/m² • Kontrast: 40000:1 • Reaktionszeit: 5ms • Blickwinkel: 160°/160° • Panel: TN+Film • höhenverstellbar: 80mm • Besonderheiten: USB 2.0 • drei Jahre Herstellergarantie

pierpox
03-10-2009, 08:08
...concordo in pieno con l'articolo,se fosse uscita esattamente un anno fà l'avrei presa al posto della mia attuale gtx 280.2 GB nei giochi saranno sicuramente inutili,ma se si usano applicativi di calcolo che sfruttano cuda la cosa cambia radicalmente.Solo per fare un esempio,chi utilizza matlab e deve fare colcoli intensi su matrici di grandi dimensioni,molto spesso si ritrova con memeoria esaurita sulla scheda :)

ndrmcchtt491
03-10-2009, 09:00
...concordo in pieno con l'articolo,se fosse uscita esattamente un anno fà l'avrei presa al posto della mia attuale gtx 280.2 GB nei giochi saranno sicuramente inutili,ma se si usano applicativi di calcolo che sfruttano cuda la cosa cambia radicalmente.Solo per fare un esempio,chi utilizza matlab e deve fare colcoli intensi su matrici di grandi dimensioni,molto spesso si ritrova con memeoria esaurita sulla scheda :)


beee. sinceramente non so...
chi vuol utilizzare cuda non è meglio che si orienti direttamente sulle schede professionali?.

Capozz
03-10-2009, 09:11
CVD 2 giga di vram non servono assolutamente a nulla.

pierpox
03-10-2009, 10:00
beee. sinceramente non so...
chi vuol utilizzare cuda non è meglio che si orienti direttamente sulle schede professionali?.

...dal punto di vista della pura potenza di calcolo (gpu hardware) una Tesla C1060 e una gtx 280 sono identiche,la differenza sostenzialmente stà nel quantitativo di memoria (4GB se non sbaglio per la tesla) ,nello sviluppo dei driver e vari software di corredo alla scheda (cosa non da poco ci mancherebbe),qualità costruttiva in generale (forse)...il problema come sempre è il prezzo si parla di circa 2000 euro di scheda...che tra le altre cose non fà nemmeno da vga ahimè.:)

Andrea deluxe
03-10-2009, 10:17
che tempismo alla gigabutt.......

StIwY
03-10-2009, 10:24
Cioè lol GTA4 è una cosa abominevole :D

Oltre 1gb di ram richiede......


@ Redazione:

Come mai non avete sparato TUTTI i dettagli al massimo per utilizzare oltre 1gb di ram come da richiesta del gioco ?

sertopica
03-10-2009, 12:52
Non l'hanno fatto perchè le altre schede non erano dotate di un quantitativo di VRAM equivalente. Comunque tutta sta memoria serve solo a sparare TUTTI i dettagli al massimo con GTA. Per il resto poca utilità, visto anche il fatto che ormai giochiamo solo con porting da console... Poi se manco Crysis li satura, che è il mattone per eccellenza... :asd:

StIwY
03-10-2009, 13:48
Ma magari con Crysis dici.....è un mattone........ma ti rifai gli occhi.

Ma con GTA4.........:eek:


Gioco meno ottimizzato del SECOLO

Comunque io avrei fatto quel test con GTA4 sparato al massimo possibile per vedere come andava lo stesso......unico gioco che pu sfruttare i 2gb e non lo si prova? :D

riuzasan
03-10-2009, 19:37
Sarà una comparativa tra quantità di memoria, ma onestamente pubblicizzare una scheda che costa quanto una 5870 è abbastanza ridicolo.

Bastava mettere in raffronto questa scheda con una 285 1Gb e una 5870, elencarne anche i prezzi e poi mostrare i bench.

Messa così l'inutilità dei 2GB passa quasi inosservata se confrontata alla attuale inutilità delle GTX 285 in generale al perzzo a cui ancora sono vendute se confrontate alle Radeon 58xx.

McGraw
04-10-2009, 09:18
Finalmente, uno dei pochi articoli che dimostrano nero su bianco l'inutilità degli ormai molti prodotti di marketing che infestano il mercato delle schede video! la rincorsa ad avere una scheda video con piu quantitativo di ram rispetto alla reference é semplicemente ridicolo, anche perché Nvidia ed Amd non lancerebbero vga reference con un quantitativo di memoria tale da penalizzare le prestazioni stesse o tantomeno non dotarle di un quantitativo tale di memoria da non ottenere il massimo in fatto di prestazioni! Rimango basito se penso a schede video di fascia bassa con tecnologia hypermemory o turbocache che impegnano anche sino a 1,8 GB di memoria dalle ram di sistema quando ne basterebbero 256MB! O vga di fascia media con 1,5 GB di memoria dedicata quando ne basterebbe 512MB e cosi via..... Rimango altresi sorpreso con il quantitivo di ram di sistema che l'utente medio considera necessario per far girare XP o Vista con semplici programmi, siamo arrivato a quantitativo di 2/4GB per XP e di 6/8/12 GB per Vista!!!!!!!!! va bene che i produttori di ram vogliono venderne il piu possibile ma non ci facciamo prendere per il CXXO!

gul4schx
04-10-2009, 16:08
Si molto inutile, un'altro giocatolo per quelli che hanno molti soldi e per fare a gara su chi lo ha piu grande.... a volte nn capisco proprio come un'azienda possa creare articoli di questo genere pur sapendo che nn servono a nulla:muro:

Axelt
05-10-2009, 08:26
un'altra scheda inutile :rolleyes: ........... chi se la compra!!!! :( solo qualche fanatico

ReDeX
05-10-2009, 10:27
No perchè anche quello non ha molto senso...:asd:

Beh in tempi di porting da console tutta questa potenza in eccesso dev'essere giustificata in qualche modo. :D

psytrance
05-10-2009, 11:40
Ciao sarei interessato a sapere se anche questa versione gtx 285 a come bw 158 o superiore?
Cmq ragazzi tra non molto passiamo a dx 11 basta guardare S.T.A.L.K.E.R quello nuovo le supporta a pieno ed esce nei primi del 2010 :|

th3o|dm4n
05-10-2009, 14:25
Ma magari con Crysis dici.....è un mattone........ma ti rifai gli occhi.

Ma con GTA4.........:eek:


Gioco meno ottimizzato del SECOLO

Comunque io avrei fatto quel test con GTA4 sparato al massimo possibile per vedere come andava lo stesso......unico gioco che pu sfruttare i 2gb e non lo si prova? :Da ridaje co sti paragoni :rolleyes:
faccio sempre la stessa domanda: avete idea della roba che deve caricare gta4 in un secondo rispetto a crysis?
mi sa di no, altrimenti di certi commenti non se ne vedrebbe neanche l'ombra.
gta 4 è una città in continuo movimento. mentre tu cammini, due isolati più indietro c'è un incidente e un poliziotto corre dietro ad un ladro. un isolato più avanti un tipo ruba un'auto e a sinistra sta passando un'ambulanza per soccorrere il tipo dell'incidente.
è una città VIVA.
evitiamo paragoni con giochi dove devi solo limitarti a sparare ad ogni pixel semovente. a parte la grafica, cos'ha crysis di complesso? :confused:

scusate l'OT.

Scezzy
05-10-2009, 15:12
Eppure... come succede per altre cose chissa' quanti vorranno questa scheda SOLO perche' ha 2gb di Vram!

[RenderMAN]
06-10-2009, 02:45
Imho è un fake sto test!

Vi giuro che @1920x1200 GTA4 ho impostato tutto al Max, ed ho ottenuto un consumo di oltre 1200Mb sulla scheda video.

Ok GTA4 è una merdata unica graficamente...concordo, MA sulle risorse non diciamo cazzate, a 2560 non esiste che richiede meno di 1Gb di RAM, mi spiace solo di aver formattato ieri e deletato le snap di fraps...

[RenderMAN]
06-10-2009, 02:51
Comèèèèè

Su GTA4 NON hanno postato dei grafici, ma gli snap del gioco, e stranamente vedo solo 992Mb come momoria grafica.... ma sta 2giga la avranno mai realmente avuta tra le mani?
Se si perchè mai non postare il confronto?

meditate gente...... meditate......

Axelt
06-10-2009, 10:52
330/340€ x una vga che morirà così com'è nata........nn ha mercato

nyko683
06-10-2009, 16:24
Cioè una 285 2GB va come una 285 1 GB OC
E consuma praticamente come la 1GB non OC
E dite che è inutile ???
Ma mettere i consumi della scheda usata per il test 285 OC mi sembrava più corretto
Poi perchè testare una scheda oc con una reference non so che senso abbia mha

DukeIT
06-10-2009, 16:50
Cioè una 285 2GB va come una 285 1 GB OC
E consuma praticamente come la 1GB non OC
E dite che è inutile ???
Ma mettere i consumi della scheda usata per il test 285 OC mi sembrava più corretto
Poi perchè testare una scheda oc con una reference non so che senso abbia mha
Io la cosa l'ho capita diversamente da te: il modello da 2GB non funziona a frequenze standard e "La scheda GeForce GTX 285 con 1 Gbyte di memoria video utilizzata per la sessione di testing è stata invece portata alle stesse frequenze di funzionamento del modello fornito da Gigabyte, proprio al fine di evidenziare maggiormente le differenze tra soluzioni uguali differenziate solo dal quantitativo di memoria." (il modello Gigabyte è quello oggetto del test, da 2Gb).
Relativamente ai consumi, il modello da 2GB è stato comparato con quello da 1GB in versione standard e consuma effettivamente un po' di più. Leggendo il commento troverai "Frequenze di lavoro superiori rispetto a quelle standard (per questo motivo nel grafico sopra riportato abbiamo usato come paragone la soluzione reference e non overcloccata) comportano a consumi più elevati. Il delta di variazione non è certo esorbitante, proporzionale del resto rispetto all'aumento di frequenza applicato dal produttore.". Quindi dovrebbe consumare l'equvalente del modello da 1Gb quando occato alle medesime frequenze di lavoro.

robxp88
07-10-2009, 10:05
Ciao ragazzi, scusate ma i 364 watt sono consumati dalla sola scheda grafica, oppure dal'intero sistema?