PDA

View Full Version : NVIDIA GeForce GTX 285 e 295: le specifiche


Redazione di Hardware Upg
16-12-2008, 09:29
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-geforce-gtx-285-e-295-le-specifiche_27487.html

Appaiono online le specifiche aggiornate delle due nuove schede video NVIDIA top di gamma basate su tecnologia produttiva a 55 nanometri

Click sul link per visualizzare la notizia.

redeagle
16-12-2008, 09:33
DUECENTOOTTANTANOVE WATT?!?!?
Evviva l'ambiente. :(

baila
16-12-2008, 09:35
50 watt in meno rispetto alla 280 non sono pochi,speriamo a presto una architettura rivoluzionaria dal lato consumi! :mc:

redeagle
16-12-2008, 09:36
Sì infatti il guadagno del passaggio ai 55nm è notevole.

Whizkid
16-12-2008, 09:36
DUECENTOOTTANTANOVE WATT?!?!?
Evviva l'ambiente. :(

con quello che si spende in corrente praticamente l'esborso totale orario è quasi come quello di giocare in una vera salagiochi basata su coin-op...

Feidar
16-12-2008, 09:37
Capisco avere la palma delle prestazioni...
ma quale centralina Enel devo avere per far girare un sistema high end non overclockato con questa scheda? °_°
Per la serie: sono a rischio anche col mio OCZ da 700W.

shamata
16-12-2008, 09:38
Già consumi davvero elevati.
Certo che la 295 darà la polvere alla 4870X2.
Speriamo bene per i prezzi.

Ares7170
16-12-2008, 09:45
Se ho ben capito, la gtx285 dovrebbe sostituire l'attuale gtx280, mentre la gtx295 dovrebbe porsi come nuovo top di gamma: non è previsto un modello a 55nm che sostituisca l'attuale 260-216?

e.cera
16-12-2008, 09:46
la 295 non mi attira per niente, la gtx285 invece sembra un bella schedozza, l'abbassamento dei consumi é notevole, peccato che costerà sempre troppo per la mia coscienza dall'inizio alla fine della sua vita sul mercato.

Pat77
16-12-2008, 09:50
Saranno Top di gamma ma soluzioni che consumano così tanto sono proprio, imho, fuori da ogni logica.

shamata
16-12-2008, 09:54
la 295 non mi attira per niente, la gtx285 invece sembra un bella schedozza, l'abbassamento dei consumi é notevole, peccato che costerà sempre troppo per la mia coscienza dall'inizio alla fine della sua vita sul mercato.

Già. La 285 è un ottimo compromesso tra consumi e prestazioni. ;)

keglevich
16-12-2008, 09:55
sara' interessante vedere il prezzo di queste nuove schede e il riposizionamento di quelle vecchie. Una 280 come fascia media 200/250 euro non mi dispiacerebbe ^^

Lino P
16-12-2008, 09:55
Saranno Top di gamma ma soluzioni che consumano così tanto sono proprio, imho, fuori da ogni logica.

ci fossero almeno giochi che le rendessero giustizia... Qui esce un titolo decente ogni 4 mesi, e quelle poche cacchine che escono fanno pena graficamente e girano a palla con vga di terza fascia...

shamata
16-12-2008, 09:57
Saranno Top di gamma ma soluzioni che consumano così tanto sono proprio, imho, fuori da ogni logica.

Scusami ma 189W in full saranno tanti ma non un'assurdità per una scheda di fascia alta. Tieni conto che il 60% di energia l'assorbe una VGA un sistema cazzuto in full andrà sui 350W/400W.
Anche una console sciupa energia...

shamata
16-12-2008, 10:01
ci fossero almeno giochi che le rendessero giustizia... Qui esce un titolo decente ogni 4 mesi, e quelle poche cacchine che escono fanno pena graficamente e girano a palla con vga di terza fascia...

Non ti bastano gli ultimi titoli che sono usciti? Me li chiami giochi che fanno pena graficamente? Mah... se lo dici te. Leggi le recensioni di GMC, TGM e vedi che sono tutti giochi da 8/9. Altro che la grafica delle console.

shamata
16-12-2008, 10:02
questa vga oltre ad andare più di una 4870X2, consumerà anche meno di questa... godendo del doppio primato prestazioni\consumi.

Per il prezzo, staremo a vedere...


;)

MadMax of Nine
16-12-2008, 10:02
si sono messi a fare tik tok come intel ? :P

Lino P
16-12-2008, 10:12
Potrei citarti GTA IV, gioco che ha preso (se non sbaglio) 94 su TGM (almeno così si diceva sul thread)... in una recensione in cui peraltro NON si accennava minimamente a tutti i problemi che questo ha girando su PC nella stragrande maggioranza delle config. degli utenti.

Gioco, che tra l'altro, risulta osceno graficamente... :stordita:

quoto...;)

Severnaya
16-12-2008, 10:13
ma sapendo che nel 2009 usciranno le directX11 ha senso prendere queste schede come upgrade?


ovv se si deve cambiare il pc si prende ciò che passa il convento :asd:

Pat77
16-12-2008, 10:13
Scusami ma 189W in full saranno tanti ma non un'assurdità per una scheda di fascia alta. Tieni conto che il 60% di energia l'assorbe una VGA un sistema cazzuto in full andrà sui 350W/400W.
Anche una console sciupa energia...

E 400W ti sembrano pochi?

shamata
16-12-2008, 10:14
Potrei citarti GTA IV, gioco che ha preso (se non sbaglio) 94 su TGM (almeno così si diceva sul thread)... in una recensione in cui peraltro NON si accennava minimamente a tutti i problemi che questo ha girando su PC nella stragrande maggioranza delle config. degli utenti.

Gioco, che tra l'altro, risulta osceno graficamente... :stordita:

Mi dispiace non sono d'accordo su GTAIV. Definire oscena la grafica di GTAIV è un'esagerazione. Non sarà il massimo ma tenendo conto la mole di oggetti sparsi per la città è davvero notevole. Le ombre anche se sono puntinate garantiscono un effetto film :D . Hai provato a mettere le texture su ALTO e vedere la risoluzione dell'asfalto e dei muri?
Se poi mi dici che poteva essere ottimizzato meglio ti dò pienamente ragione.

Cmq siamo off topic.

Poty...
16-12-2008, 10:18
già! la 285 sarà una scheda pressochè perfetta speriamo che il prezzo scenda...anche delle vecchie...una gtx 260 216 mi fa gola....oppure un suo refresh a 55nm tanto io piu di 1280 non gbioco e il 99% dei games sono tutti porting da console o comq programmati anche per le console quindi nessun gioco tentennerà a 1280 per chissà quanto tempo...già non tentennano con la mia super 8800GTS^^

shamata
16-12-2008, 10:20
E 400W ti sembrano pochi?

No. Anzi, non mi dispiacerebbe un sistema TOP con soli 200W di consumo. Ma col tempo si ci potrà arrivare magari.
Però qui stiamo parlando di macchine nate per giocare e non per stare accese parecchie ore al giorno per navigare e scaricare la posta elettronica. :p
Tieni conto che in IDLE consumano poco.

mircocatta
16-12-2008, 10:21
qualcosa non mi torna, la gtx295 ha il core della gtx285 ma con il reparto memoria (quantità e bus) della gtx 260 ?

perchè anzichè avere 432 sp lì è scritto 480 (cioè 240x2 cioè due gtx285) con le frequenze della gtx260... errore di battitura?

shamata
16-12-2008, 10:22
Mi sa tanto che mi prendi per il culo eh... :rolleyes:

Ma scusa ti attendevi la grafica di Crysis in un gioco del genere??
Mah... :rolleyes:

Pat77
16-12-2008, 10:24
Beh, considerando che in casa... ho anche lampadine da 300W... 400W per un pc PER ME sono pochi e tranquillamente sostenibili.

Poi se tu cerchi di applicare il tuo metro di giudizio, che a quanto pare è improntato sulla parsimonia, ai PC di altri utenti... questo è sbagliatissimo.

Non è parsimonia, è raziocinio, si dovrebbe investire, ogni tanto, di più in quest'ambito, sui portatili lo si sta facendo.
A me non frega sinceramente nulla dei pc degli altri utenti, commentavo la news, per me quei consumi sono da denuncia e in generale chi crea Pc che richiedono ali da 700W dovrebbe un po' porsi meglio nella realtà globale attuale.

dotlinux
16-12-2008, 10:24
Certo che gli ambientalisti vi hanno fatto un bel lavaggio del cervello eh?

shamata
16-12-2008, 10:26
Non è parsimonia, è raziocinio, si dovrebbe investire, ogni tanto, di più in quest'ambito, sui portatili lo si sta facendo.
A me non frega sinceramente nulla dei pc degli altri utenti, commentavo la news, per me quei consumi sono da denuncia e in generale chi crea Pc che richiedono ali da 700W dovrebbe un po' porsi meglio nella realtà globale attuale.

Su questo avrei molto da dire. Ma siamo fuori tema. :p

Certo che gli ambientalisti vi hanno fatto un bel lavaggio del cervello eh?

LOL

mircocatta
16-12-2008, 10:28
No. Anzi, non mi dispiacerebbe un sistema TOP con soli 200W di consumo. Ma col tempo si ci potrà arrivare magari.
Però qui stiamo parlando di macchine nate per giocare e non per stare accese parecchie ore al giorno per navigare e scaricare la posta elettronica. :p
Tieni conto che in IDLE consumano poco.

si oh ma una console ne consuma 160 di watt......


secondo me ora come ora sia ati che nvidia dovrebbero concentrarsi sui consumi, ora che le console sono ferme e i giochi chiedono un tot di elaborazione che è inferiore alle potenzialità delle attuali vga.

quindi, ok siamo arrivati ad una potenza accettabile, ora abbassiamo i processi produttivi per abbassare i consumi in maniera drastica. invece prima aumentano le prestazioni, poi diminuiscono i consumi, ma mai il contrario

zorco
16-12-2008, 10:28
Saranno Top di gamma ma soluzioni che consumano così tanto sono proprio, imho, fuori da ogni logica.
per quando riguarda la 295 ti posso dare ragione,in effetti il consumo sembra essere veramente eccessivo,daltronde stiamo parlando sempre di due schede accoppiate....boh:stordita:

:fagiano:

mircocatta
16-12-2008, 10:32
per quando riguarda la 295 ti posso dare ragione,in effetti il consumo sembra essere veramente eccessivo,daltronde stiamo parlando sempre di due schede accoppiate....boh:stordita:

:fagiano:

ps: la 4870x2 consuma di più e sicuramente con prestazioni peggiori ;)

cmq ottima cosa è che consma molto di meno di due gtx285 in sli, anzichè 370watt ne consuma "solo" 290w

Pat77
16-12-2008, 10:32
si oh ma una console ne consuma 160 di watt......


secondo me ora come ora sia ati che nvidia dovrebbero concentrarsi sui consumi, ora che le console sono ferme e i giochi chiedono un tot di elaborazione che è inferiore alle potenzialità delle attuali vga.

quindi, ok siamo arrivati ad una potenza accettabile, ora abbassiamo i processi produttivi per abbassare i consumi in maniera drastica. invece prima aumentano le prestazioni, poi diminuiscono i consumi, ma mai il contrario

E questo è un discorso che condivido in pieno.

fukka75
16-12-2008, 10:33
non è previsto un modello a 55nm che sostituisca l'attuale 260-216?
http://www.hwupgrade.it/news/skvideo/geforce-gtx-260-a-55-nanometri-la-scheda_27431.html ;)

shamata
16-12-2008, 10:33
:confused: :mbe:

Mi sembra che mi prendi per il culo quando mi chiedi se ho messo le texture su ALTO.

Probabilmente non hai visto tutti gli screens che ho postato nel thread ufficiale... con tutti i dettagli al max, e... la grafica faceva sempre cagare.

Poi, non vorrei dire... ma sei stato tu a dire di leggersi i TGM e GMC recenti, xkè c'erano gioconi con grafica fantastica che avrebbero sfruttato questa GTX295.

Io ti ho citato un gioco presente su TGM di questo mese, e ora te ne esci con "Ma scusa ti attendevi la grafica di Crysis in un gioco del genere??"

Ma un minimo di coerenza no? :fagiano:


Se la grafica di GTA4 non ti va giù è un discorso tuo personale. A tanti piace a tanti non piace. Come vedi è un discorso soggettivo. ;)
Ho visto i tuoi screen e non sono affatto male. Certo non è una grafica da 10 ma da 7 senz'altro. E 7 per te è una grafica oscena?

Pat77
16-12-2008, 10:34
Ma ti rendi conto di quello che scrivi? :stordita:
Quando magari guidi una macchina che in 30 minuti di viaggio ha consumato e inquinato più di un PC in 6 mesi. :read:

Poi mi fai il paragone tra una gtx295 e un portatile?!?!?! :mbe:

Te chiamano volpe... :p

La volpe sei tu che usi lampadine da 300W lasciatelo dire...

shamata
16-12-2008, 10:38
La volpe sei tu che usi lampadine da 300W lasciatelo dire...

LOL. :D
Però dai raga' non stiamo qui a litigare inutilmente. Avete mai visto una ferrari consumare quanto una 500? :p

dtpancio
16-12-2008, 10:38
Si sta andando un po' fuori tema, però vorrei solo far notare che si parla di consumi mentre si gioca, che è cmq una percentuale piccola nell'arco di una giornata. Almeno per me..
Secondo me c'è da impegnarsi a produrre schede video che in idle consumino praticamente zero, poi il full passa in secondo piano. O cmq, più di tanto non è ottimizzabile, visto che i calcoli che una gpu si trova a dover fare sono sempre maggiori..

E poi ci sono mille cose in una casa che consumano di più di un pc..delle quali però non ci si fa caso..

Lino P
16-12-2008, 10:38
Se la grafica di GTA4 non ti va giù è un discorso tuo personale. A tanti piace a tanti non piace. Come vedi è un discorso soggettivo. ;)
Ho visto i tuoi screen e non sono affatto male. Certo non è una grafica da 10 ma da 7 senz'altro. E 7 per te è una grafica oscena?

il punto non è GTA4 in sè, ma il novero complessivo dei titoli che no facciano rimpiangere l'acquisto di una VGA di quel livello. Su raga, guardiamoci dietro, escluso warhead titoli spettaclari che sfruttino una VGA del genere non ce ne sono. Certo se poi si vuole spendere un milione delle vecchie lire, per left4 dead, dead space, PES9, COD5, nfs undercover, e chi + ne ha + ne metta, allora è diverso.
Ho citato gli ultimi titoli, e per la cronaca li gioco tutti a palla con la conf in signa, salvo quelli bacati che fanno stuttering anche con un triplo SLI...

Mparlav
16-12-2008, 10:40
Sarà un caso che io compro i giochi almeno 3-4 mesi dopo l'uscita, con paio di patch sulle spalle: risparmio, e tanto, e non faccio il beta tester. Ieri è uscita la prima patch di GTAIV.
Aspetterò la seconda per stare più tranquillo :-)

Tornando IT: non mi stupisce il TDP della GTX 295. E' in linea con quello della HD4870 X2 (286 W)

Come già ho detto in passato, la GTX 295 sta' alla HD4870 X2 come la 9800GX2 stava alla HD3870 X2.
Nessuna novità sui prezzi, così come sulle prestazioni.

Occorrerà tenere d'occhio la prossima generazione a 40nm in uscita l'estate prossima: se le sparano da subito a 200W, allora sì che li voglio vedere a raffreddare le prossime dual gpu :D

shamata
16-12-2008, 10:44
il punto non è GTA4 in sè, ma il novero complessivo dei titoli che no facciano rimpiangere l'acquisto di una VGA di quel livello. Su raga, guardiamoci dietro, escluso warhead titoli spettaclari che sfruttino una VGA del genere non ce ne sono. Certo se poi si vuole spendere un milione delle vecchie lire, per left4 dead, dead space, PES9, COD5, nfs undercover, e chi + ne ha + ne metta, allora è diverso.
Ho citato gli ultimi titoli, e per la cronaca li gioco tutti a palla con la conf in signa, salvo quelli bacati che fanno stuttering anche con un triplo SLI...

Non necessariamente occorre una VGA di livello GTX280 o 4870x2 per godersi tutti i titoli attuali. Basta una 8800GT se si è disposti a giocare a risoluzioni più umane rinunciando a qualche filtro. La resa grafica e la giocabilità è cmq garantita.

e.cera
16-12-2008, 10:45
Certo che gli ambientalisti vi hanno fatto un bel lavaggio del cervello eh?

certo, bella frase ad effetto, sei un commerciale?

Lino P
16-12-2008, 10:49
Non necessariamente occorre una VGA di livello GTX280 o 4870x2 per godersi tutti i titoli attuali. Basta una 8800GT se si è disposti a giocare a risoluzioni più umane rinunciando a qualche filtro. La resa grafica e la giocabilità è cmq garantita.

infatti stiamo dicendo la stessa cosa. Del resto io con la GT giro a 1680 con tutto, e realmente è solo in warhead che ho dovuto rinunciare all'AA, GTA4 escluso, che non considero neppure.

dotlinux
16-12-2008, 10:49
No, sono meno ignorante di te in materia.
Non è un offesa, io sono sicuramente più ignorante di te in altri campi! ;)

II ARROWS
16-12-2008, 10:50
MA NVIDIA NON DOVEVA METTERE NOMI DECENTI?
AAAAARGH!

shamata
16-12-2008, 10:52
infatti stiamo dicendo la stessa cosa. Del resto io con la GT giro a 1680 con tutto, e realmente è solo in warhead che ho dovuto rinunciare all'AA, GTA4 escluso, che non considero neppure.

;)

Io GTA4 sono riuscito a farlo girare su un [email protected] con una 8800GT ad una fluidità più che accettabile. Certo a 1280 con texture su medie.

JüN1oR
16-12-2008, 10:53
Cioè, ma ragazzi siete scandalosi, cioè vi rendete conto che questa gtx285 non consuma NIENTE?
183watt non sono niente, o visto negli articoli vecchi nella 8800gt questa consuma 206watt :eek:, cioè ci rendiamo conto che abbiamo una scheda video, che va MINIMO 3 volte di più di una 8800gt consumando 23 watt in meno?
Ma smettiamola di sparare cavolate :mad: :muro:

shamata
16-12-2008, 10:57
Cioè, ma ragazzi siete scandalosi, cioè vi rendete conto che questa gtx285 non consuma NIENTE?
183watt non sono niente, o visto negli articoli vecchi nella 8800gt questa consuma 206watt :eek:, cioè ci rendiamo conto che abbiamo una scheda video, che va MINIMO 3 volte di più di una 8800gt consumando 23 watt in meno?
Ma smettiamola di sparare cavolate :mad: :muro:

Eh?! Forse era il consumo dell'intero sistema in IDLE. :p

riporto
16-12-2008, 11:01
Scusate ma la GTX 270 allora non esiste o mi son perso qualche pezzo io???
Queste due andranno a sostituire/affiancare le 260/280?
Si sa più o meno quando usciranno?
Attendo con ansia un (spero) notevole abbassamento di prezzi delle 260-216 e 280!!!

zorco
16-12-2008, 11:01
Eh?! Forse era il consumo dell'intero sistema in IDLE. :p
http://www.hwupgrade.it/articoli/skvideo/1833/nvidia-geforce-8800-gt-potenza-a-buon-prezzo_11.html si infatti...;)

Severnaya
16-12-2008, 11:02
tipo GeForce10000?

Lino P
16-12-2008, 11:05
Cioè, ma ragazzi siete scandalosi, cioè vi rendete conto che questa gtx285 non consuma NIENTE?
183watt non sono niente, o visto negli articoli vecchi nella 8800gt questa consuma 206watt :eek:, cioè ci rendiamo conto che abbiamo una scheda video, che va MINIMO 3 volte di più di una 8800gt consumando 23 watt in meno?
Ma smettiamola di sparare cavolate :mad: :muro:

la cosa comica sa qual'è? Che meno ne sai e più ti accanisci...
Informati, e ripassa + tardi, magari con un pizzico di impeto in meno...

e.cera
16-12-2008, 11:06
No, sono meno ignorante di te in materia.
Non è un offesa, io sono sicuramente più ignorante di te in altri campi! ;)

e allora proponi qualche argomento più concreto, anziché indurre alla sregolatezza, dimostraci che possiamo tranquillamente consumare quanto ci pare senza nuocere a niente e nessuno.
Anche se fosse un finto problema (che é da dimostrare), sono comunque contento che le persone sviluppino una responsabilità collettiva.

ghiltanas
16-12-2008, 11:07
ma di una gtx265 nn si sa nulla? :mbe: io pensavo lanciassero anche una revision della 260.....

Lino P
16-12-2008, 11:10
ma di una gtx265 nn si sa nulla? :mbe: io pensavo lanciassero anche una revision della 260.....

la 55nm debutterà a gennaio...;)

costa@73
16-12-2008, 11:14
Bah, ma scusate chi è il furbo che investe su una scheda come questa??
Nata vecchia, tra pochi mesi sarà sostituita dalle nuove architetture di entrambi i costruttori ,
consuma e scalda come un fornello, è ancora ancorata alle dx10.0, ed alla fine basta una scheda di fascia media per giocare a quasi tutto ( soliti noti esclusi)
La solita minestra riscaldata con aggiunta di qualche aroma...
Ormai i giochi che escono sono quelli che sono e, per ancora qualche anno saranno per la gran parte conversioni da console che già una 4850 fa girare ad alte risoluzioni, ed io dovrei mettere una bara del genere nel mio case!!
ma va' la'
belin

ghiltanas
16-12-2008, 11:15
la 55nm debutterà a gennaio...;)

grazie ;)

DarkBandit
16-12-2008, 11:16
Ma...la 295 dovrebbero essere 2 285 accoppiate dato anche il fatto che hanno 240x2 sp,ma allora perchè il bus ridotta a 448bit invece che 512 e la memoria pari a 896x2 invece che 1024x2?

Comunque la 285 sarà davvero un'ottima scheda IMHO...

ghiltanas
16-12-2008, 11:18
Bah, ma scusate chi è il furbo che investe su una scheda come questa??
Nata vecchia, tra pochi mesi sarà sostituita dalle nuove architetture di entrambi i costruttori ,
consuma e scalda come un fornello, è ancora ancorata alle dx10.0, ed alla fine basta una scheda di fascia media per giocare a quasi tutto ( soliti noti esclusi)
La solita minestra riscaldata con aggiunta di qualche aroma...
Ormai i giochi che escono sono quelli che sono e, per ancora qualche anno saranno per la gran parte conversioni da console che già una 4850 fa girare ad alte risoluzioni, ed io dovrei mettere una bara del genere nel mio case!!
ma va' la'
belin

ce lo vogliamo mettere in testa che queste soluzioni sono solo una gara a chi ce l'ha + lungo tra ati e nvidia?..è solo questione di immagine e devono far vedere che le prestazioni + forti ce l'hanno loro :p , nn è certo per guadagnarci che le fanno, visto che rispetto alle altre fasce ne vendono molte ma molte meno ;)

Pat77
16-12-2008, 11:22
Bah, ma scusate chi è il furbo che investe su una scheda come questa??
Nata vecchia, tra pochi mesi sarà sostituita dalle nuove architetture di entrambi i costruttori ,
consuma e scalda come un fornello, è ancora ancorata alle dx10.0, ed alla fine basta una scheda di fascia media per giocare a quasi tutto ( soliti noti esclusi)
La solita minestra riscaldata con aggiunta di qualche aroma...
Ormai i giochi che escono sono quelli che sono e, per ancora qualche anno saranno per la gran parte conversioni da console che già una 4850 fa girare ad alte risoluzioni, ed io dovrei mettere una bara del genere nel mio case!!
ma va' la'
belin

Quotissimo, anche perchè sviluppano come periferiche di riferimento per 360 e ps3, ormai da 1 annetto.

Turin
16-12-2008, 11:22
ma bisogna lamentarsi sempre e comunque anche quando non si ha nulla di cui lamentarsi?

Manco nVidia avesse chiamato la nuova gtx285, gtx280+.

Eh, peccato che dal nome "295" non si evince assolutamente che è una scheda x2. Continuano a dare nomi a caso.

riporto
16-12-2008, 11:23
Quotissimo, anche perchè sviluppano come periferiche di riferimento per 360 e ps3, ormai da 1 annetto.

Che tristezza...

halduemilauno
16-12-2008, 11:29
ma sapendo che nel 2009 usciranno le directX11 ha senso prendere queste schede come upgrade?


ovv se si deve cambiare il pc si prende ciò che passa il convento :asd:

a fine 2009. e i primi giochi full dx11 ad inizio 2011. campa cavallo.
;)

costa@73
16-12-2008, 11:35
ce lo vogliamo mettere in testa che queste soluzioni sono solo una gara a chi ce l'ha + lungo tra ati e nvidia?..è solo questione di immagine e devono far vedere che le prestazioni + forti ce l'hanno loro , nn è certo per guadagnarci che le fanno, visto che rispetto alle altre fasce ne vendono molte ma molte meno

Ok, Ok, ma qua si tratta del canto del cigno di un'architettura oramai vecchia

Come si fa ad investire su cose del genere non lo capisco ( per fortuna)
comunque , contenti loro..buona camicia a tutti.
saluti.

mircocatta
16-12-2008, 11:37
e allora proponi qualche argomento più concreto, anziché indurre alla sregolatezza, dimostraci che possiamo tranquillamente consumare quanto ci pare senza nuocere a niente e nessuno.
Anche se fosse un finto problema (che é da dimostrare), sono comunque contento che le persone sviluppino una responsabilità collettiva.

oddio io non ce l'ho tanto con i consumi per l'inquinamento, ma più che altro per la bolletta.

negli ultimi mesi dai soliti 100€e passa che spendavamo a bolletta, inspiegabilmente è passata a oltre 250€ (quella estiva), e non ne sappiamo il motivo :confused: non abbiamo condizionatori, non ho mai usato il pc con la 4870 (era un periodo di letargo :D ), non immagino se ora lo uso per le solite 2 ore giornaliere ..

Catan
16-12-2008, 11:37
io invece increntreri l'attenzione sulla 285...
clock + alti di 50mhz per il core e 200mhz per le ram.
e un consumo pari all'attuale 260 con 216sp.
se ci pensate è un ottimo guadagno. il padellone di g200 ha veramente guadagnato molto da questo passaggio a 55nm. un pò come g80.

ghiltanas
16-12-2008, 11:41
ce lo vogliamo mettere in testa che queste soluzioni sono solo una gara a chi ce l'ha + lungo tra ati e nvidia?..è solo questione di immagine e devono far vedere che le prestazioni + forti ce l'hanno loro , nn è certo per guadagnarci che le fanno, visto che rispetto alle altre fasce ne vendono molte ma molte meno

Ok, Ok, ma qua si tratta del canto del cigno di un'architettura oramai vecchia

Come si fa ad investire su cose del genere non lo capisco ( per fortuna)
comunque , contenti loro..buona camicia a tutti.
saluti.

:asd:

boh, il fatto è che sono stati "costretti a farlo", nn potevano continuare ad andare avanti con un chip monolitico ed hanno dovuto praticare un die shrink per passare ai 55nm. Lanciare la nuova architettura in tempi brevi sarebbe stato impossibile e hanno cercato di guadagnare tempo. Per l'aggiornamento delle lib grafiche è abbastanza chiaro che nvidia sembra voler saltare a pie pare le 10.1, passando direttamente alle 11, scelta piuttosto condivisibile, visto il successo (:rolleyes: ) delle 10, cosi da accelerare l'interesse e lo sviluppo verso le future dx

ghiltanas
16-12-2008, 11:43
io invece increntreri l'attenzione sulla 285...
clock + alti di 50mhz per il core e 200mhz per le ram.
e un consumo pari all'attuale 260 con 216sp.
se ci pensate è un ottimo guadagno. il padellone di g200 ha veramente guadagnato molto da questo passaggio a 55nm. un pò come g80.

io infatti sono curioso di vedere anche la gtx265 per il disc consumi. sotto quest'aspetto avevano già lavorato bene con i 65 nm, attendo di vedere quanto consumano a 55nm ;)

Lino P
16-12-2008, 11:45
Bah, ma scusate chi è il furbo che investe su una scheda come questa??
Nata vecchia, tra pochi mesi sarà sostituita dalle nuove architetture di entrambi i costruttori ,
consuma e scalda come un fornello, è ancora ancorata alle dx10.0, ed alla fine basta una scheda di fascia media per giocare a quasi tutto ( soliti noti esclusi)
La solita minestra riscaldata con aggiunta di qualche aroma...
Ormai i giochi che escono sono quelli che sono e, per ancora qualche anno saranno per la gran parte conversioni da console che già una 4850 fa girare ad alte risoluzioni, ed io dovrei mettere una bara del genere nel mio case!!
ma va' la'
belin

quoto, analisi ineccepibile.
La gente non ha ancora capito che le software house non producono per farci divertire, ma per guadagnare. Visto che da un paio di anni a questa parte è la console che tira, gli engine dei giochi pc non sono altro che un adattamento di derivazione console. LA questione è molto semplice, hanno smesso di puntare sulla piattaforma PC.
Sono finiti i tempi delle grandi esclusive PC, come quake 4, Doom3, Far Cry, ecc.. Quei giochi avevano una grafica rivoluzionaria, che l'hardware delle console si sognava di far andare, lì si che aveva senso lo schedone top di gamma, perchè se non lo avevi, i vari Far Cry e Doom3 non li spingeva al max.
Oggi tiri tutto a palla con una vga di fascia media, non c'è + sfizio.
Qualcuno ricorda i tempi di 6800 ultra ed X 800 XT PE? Era l'era di Doom3 e Far Cry, con quelle li si spingeva @1280 AA4x ed AAF 8X, ma non c'era l'ombra di un baco, e soprattutto senza quella potenza te lo scordavi di spingere quei titoli al massimo... Oggi i giochi fanno pena, le esclusive PC (di quelle con le palle tipo warhead) si contano sulle dita, e l'hardware di fascia high end, è diventato davvero emblema di status + che mezzo (come un tempo) per godersi lo spettacolare titolo di turno...

dtpancio
16-12-2008, 11:51
Cmq qui si tende sempre a criticare prodotti se questi non rientrano nelle proprie esigenze, o meglio nel proprio budget..
Questa GTX 295 esce fondamentalmente per due motivi:
1. l'avete già detto, è per una questione di immagine, su chi ce l'ha più lungo.
2. perché per quanto possa essere ristretta, c'è una fascia di utenti che potrebbe davvero trarne vantaggio.
È vero che una 8800GT(X, la X aggiungiamocela, la GT comincia già ad arrancare con certi titoli..) è sufficiente praticamente per tutto, anche per chi ha 22" wide, ma ci può benissimo essere chi gioca con 24" o addirittura 30-32". Se HWUpgrade fa i test a 2560x1600 un motivo c'è..
Saranno pochi, ma ci sono..

Admiral T. Marco
16-12-2008, 11:58
Ste due schede sono più potenti della 4870X2 ?

halduemilauno
16-12-2008, 11:58
Cmq qui si tende sempre a criticare prodotti se questi non rientrano nelle proprie esigenze, o meglio nel proprio budget..
Questa GTX 295 esce fondamentalmente per due motivi:
1. l'avete già detto, è per una questione di immagine, su chi ce l'ha più lungo.
2. perché per quanto possa essere ristretta, c'è una fascia di utenti che potrebbe davvero trarne vantaggio.
È vero che una 8800GT(X, la X aggiungiamocela, la GT comincia già ad arrancare con certi titoli..) è sufficiente praticamente per tutto, anche per chi ha 22" wide, ma ci può benissimo essere chi gioca con 24" o addirittura 30-32". Se HWUpgrade fa i test a 2560x1600 un motivo c'è..
Saranno pochi, ma ci sono..

quoto e aggiungo ma tutti questi quando è uscita la 4870x2 dove erano?
;)

halduemilauno
16-12-2008, 11:59
Ste due schede sono più potenti della 4870X2 ?

la 295 certo che si. l'altra ci si avvicinerà molto.

iva
16-12-2008, 11:59
Sono finiti i tempi delle grandi esclusive PC, come quake 4, Doom3, Far Cry, ecc.. Quei giochi avevano una grafica rivoluzionaria, che l'hardware delle console si sognava di far andare, lì si che aveva senso lo schedone top di gamma, perchè se non lo avevi, i vari Far Cry e Doom3 non li spingeva al max.
Oggi tiri tutto a palla con una vga di fascia media, non c'è + sfizio.


Leggo sulla tua firma che hai un monitor da 22", quindi dovrebbe andare a 1680x1050, no?
Io ho un 30" (2560x1600) e, nonostante giochi solo a Neverwinter Nights 2 e IL2, che non sono proprio giochi di ultima generazione (2006 e 2001!), non posso andare "a palla" con una 9800 GTX+ (pur se overclockata decentemente) :(

Una GTX 285 non mi farebbe proprio schifo... con giochi piu' recenti ed un monitor da 24" in su (1920x1200) secondo me lo "sfizio" rimane ancora.

Admiral T. Marco
16-12-2008, 12:03
la 295 certo che si. l'altra ci si avvicinerà molto.

Quanto pressapoco la 295 è più potente?

Praticamente sono due schede in SLI?

shamata
16-12-2008, 12:05
Leggo sulla tua firma che hai un monitor da 22", quindi dovrebbe andare a 1680x1050, no?
Io ho un 30" (2560x1600) e, nonostante giochi solo a Neverwinter Nights 2 e IL2, che non sono proprio giochi di ultima generazione (2006 e 2001!), non posso andare "a palla" con una 9800 GTX+ (pur se overclockata decentemente) :(

Una GTX 285 non mi farebbe proprio schifo... con giochi piu' recenti ed un monitor da 24" in su (1920x1200) secondo me lo "sfizio" rimane ancora.

scusami tanto: chi te l'ha fatto fare prendere un monitor con quella risoluzione per giocare quando con un 20/22" @1680 giochi alla grande e risparmi in vga.

shamata
16-12-2008, 12:09
Quanto pressapoco la 295 è più potente?

Praticamente sono due schede in SLI?

Secondo me rispetto ad una 4870x2 andrà un 50% in più.

halduemilauno
16-12-2008, 12:10
Leggo sulla tua firma che hai un monitor da 22", quindi dovrebbe andare a 1680x1050, no?
Io ho un 30" (2560x1600) e, nonostante giochi solo a Neverwinter Nights 2 e IL2, che non sono proprio giochi di ultima generazione (2006 e 2001!), non posso andare "a palla" con una 9800 GTX+ (pur se overclockata decentemente) :(

Una GTX 285 non mi farebbe proprio schifo... con giochi piu' recenti ed un monitor da 24" in su (1920x1200) secondo me lo "sfizio" rimane ancora.

ma la 9800gtx+ seppur ottima a quella ris. è completamente inadeguata. a te servirebbe proprio la gtx295. cmq come minimo la gtx285.
;)

Lino P
16-12-2008, 12:11
scusami tanto: chi te l'ha fatto fare prendere un monitor con quella risoluzione per giocare quando con un 20/22" @1680 giochi alla grande e risparmi in vga.

quoto, io del resto parlavo di una situazione "ordinaria"...

shamata
16-12-2008, 12:13
ma la 9800gtx+ seppur ottima a quella ris. è completamente inadeguata. a te servirebbe proprio la gtx295. cmq come minimo la gtx285.
;)

Esatto. A 2560 di risoluzione con alcuni titoli servirebbe una 4870X2, GTX295 o andare di SLI/Cross. Altrimenti se "ti accontenti" GTX260/280 Radeon 4870 da 1 giga.

Lino P
16-12-2008, 12:14
ma la 9800gtx+ seppur ottima a quella ris. è completamente inadeguata. a te servirebbe proprio la gtx295. cmq come minimo la gtx285.
;)

sotto il profilo tecnico hai ragione hal, ma il punto a mio avviso è un altro. Un 30 pollici + una VGA di quel calibro, ok, ma per godersi cosa? L'ennesima conversione da console? :rolleyes:
Se uscisse, in termini di rivoluzione, il FEAR della situazione, come lo fu al tempo, non esiterei, COME HO SEMPRE FATTO, ad optare per una VGA coi controc@zzi, ma visto il quadro attuale, e le schifezze che sfornano, sinceramente non me la sento...
ai tempi di Doom3, misi su una postazione da panico, con gli allora neonati X 800 XT PE, e Sony LCD HX 73, parlo di 1200 euro tolali per entrambi, ma almeno c'era 1 spettacolo da godersi, roba che su console te lo sognavi, oggi invece gli stimoli son pari a zero, e di conseguenza almeno io non investo + in hardware come un tempo...

shamata
16-12-2008, 12:16
sotto il profilo tecnico hai ragione hal, ma il punto a mio avviso è un altro. Un 30 pollici + una VGA di quel calibro, ok, ma per godersi cosa? L'ennesima conversione da console? :rolleyes:
Se uscisse, in termini di rivoluzione, il FEAR della situazione, come lo fu al tempo, non esiterei, COME HO SEMPRE FATTO, ad optare per una VGA coi controc@zzi, ma visto il quadro attuale, e le schifezze che sfornano, sinceramente non me la sento...

A questo punto se si ha la mania del grande è meglio un proiettore che ha risoluzioni più "umane". :p

halduemilauno
16-12-2008, 12:18
sotto il profilo tecnico hai ragione hal, ma il punto a mio avviso è un altro. Un 30 pollici + una VGA di quel calibro, ok, ma per godersi cosa? L'ennesima conversione da console? :rolleyes:

ma se l'amico ha un monitor da 30 pollici può solo fare quello che ho detto. cambiare vga prima di adesso. e queste cadono a cacio. se poi contesti la validità della sua operazione ok d'accordo non a caso facendo la stessa cosa ho preso un 22 e la be. poi ovviamente ognuno con i propri soldi fa quel che vuole.
;)

Lino P
16-12-2008, 12:22
ma se l'amico ha un monitor da 30 pollici può solo fare quello che ho detto. cambiare vga prima di adesso. e queste cadono a cacio. se poi contesti la validità della sua operazione ok d'accordo non a caso facendo la stessa cosa ho preso un 22 e la be. poi ovviamente ognuno con i propri soldi fa quel che vuole.
;)

no hal, non fraintedermi, ovvio che ognuno faccia ciò che vuole del proprio denaro, la mia è una indigniazione verso la progressiva estinzione del gaming su pc, ma di quello "serio". In questo senso, intendevo solo che la spesa per un buon hardware non paga + come prima, tutto qua...

Maurè
16-12-2008, 12:42
quanto costerà la 285?

davidTrt83
16-12-2008, 12:44
Azz, questa 285 è un notevole balzo avanti rispetto alla 280! non mi aspettavo una così drastica riduzione dei consumi, inolltre le frequenze sono aumentate non di poco se si considera che hanno alzato pure la ram... potrebbe essere il riscatto di Nvidia!
Per la 295 invece mi aspettavo consumi maggiori, comunque 300w è un valore in assoluto smisurato!

zerothehero
16-12-2008, 12:46
I 289 watt sono riferiti alla doppia scheda in sli (che non è affatto necessario avere per giocare, basta molto ma molto meno ) con due processori enormi, un paio di giga di ram e pcb da alimentare...più o meno consumano quanto due quad core in full.

Kharonte85
16-12-2008, 12:48
La 285 posta a prezzi ragionevoli, se restano quelle caratteristiche. sembra davvero ottima!

Incredibile il guadagno sul lato consumi nel passaggio @55nm.

zerothehero
16-12-2008, 12:50
Potrei citarti GTA IV, gioco che ha preso (se non sbaglio) 94 su TGM (almeno così si diceva sul thread)... in una recensione in cui peraltro NON si accennava minimamente a tutti i problemi che questo ha girando su PC nella stragrande maggioranza delle config. degli utenti.

Gioco, che tra l'altro, risulta osceno graficamente... :stordita:

Non è affatto una novità: quasi tutte le recensioni (in qualsiasi campo) difficilmente evidenziano bachi e difetti (con alcune eccezioni vedi un articolo anantech sugli ssd e sempre un altro di hwupgrade sull'ssd intel) ..oramai per capire realmente come vanno le cose, ci si deve leggere i thread degli utenti. :fagiano:

Tornando alla scheda:
2,8mld di transistor e 2giga di ram con 289 watt di tdp è un ottimo risultato.
A questo si aggiunge (per chi ha un 8300-8200) la possibilità di fare hybrid sli e di annullare in idle praticamente i consumi della scheda.

zerothehero
16-12-2008, 12:59
Beh, considerando che in casa... ho anche lampadine da 300W... 400W per un pc PER ME sono pochi e tranquillamente sostenibili.

Poi se tu cerchi di applicare il tuo metro di giudizio, che a quanto pare è improntato sulla parsimonia, ai PC di altri utenti... questo è sbagliatissimo.

Mazza ci sono le lampade a risparmio energetico da 25watt..prima le avevo anch'io i megalampadoni da 300watt e le alogene (qualità della luce insuperabile, insieme alle sap e a quelle a vapori di mercurio), ma consumano troppo.
Cmq in un'ottica di consumi globali dei pc, quanto consuma uno sli è ininfluente..conta molto di più il consumo in idle dei milioni di pc accesi a far niente (e che consumano per non fare niente 80-90watt, al posto dei 20-30 dei portatili).

padsi
16-12-2008, 13:25
mi pare che la 295 viene fatta solo ed esclusivamente per prendere diciamo il primato di VGA + veloce perche' di certo potevano farla meglio, la 285 se avra' un buon prezzo diventa una ottima vga.

Pero' c'e' da tenere in considerazione un paio di cose che sono, gli utenti che hanno gia' una 4870,4870x2, GTX280, GTX260BE, non credo propio si prenderanno queste VGA appena uscite e in + se aspettano il calo dei prezzi si arriverebbe ormai al lancio imminente delle nuuove VGA DX11, in definitiva io consilgio un po' a tutti di aspettare le nuove VGA DX11 perche' tanto con le VGA prese mesi fa si va gia' da dio non c'e' bisogno assolutamente di maggior potenza invece una (speriamo) vera novità saranno queste DX11, questo e' solo un consiglio :)

CoolBits
16-12-2008, 13:45
Secondo me rispetto ad una 4870x2 andrà un 50% in più.

Assolutamente no, sarà in media un 15% più veloce...prendi due gtx260 in sli e aggiungi un 5% e avrai grossomodo le prestazioni di questa scheda.

Otiima se proposta ad un prezzo aggressivo la GTX285 :D

sniperspa
16-12-2008, 13:47
Passando alla soluzione GeForce GTX 295, troveremo due GPU con 240 stream processors ciascuna, abbinate a bus memoria da 448bit di ampiezza. Questa scheda sarà di fatto equivalente ad una coppia di schede GeForce GTX 260 in termini di frequenze di clock e di bus memoria, con l'unica differenza data dall'utilizzo di GPU con 240 stream processors, identiche quindi a quelle delle soluzioni GeForce GTX 285

Ma scusa non dovrebbe andare un pò meno di 2 GTX260?:stordita:

Ben o male hanno anche frequenze inferiori le 2 gpu e le memorie della GTX295...e pure il bus delle memorie è inferiore(qualcuno sa perchè hanno messo il bus di quell'ampiezza strana che io non me ne intendo molto?:confused: )

O con quel "di fatto" intendono che la differenza è minima?!

ps.sarebbe ank ora di smetterla di postare i soliti commenti contro i nomi delle nvidia :asd: :doh:

Obi 2 Kenobi
16-12-2008, 13:54
giusto per informazione.
Quanto consuma la gtx 285 rispetto alla mia attuale 9600gt?

LCol84
16-12-2008, 14:13
Enormemente di piu :asd:

maumau138
16-12-2008, 14:15
Scusate, ma io nella tabella ho letto 183 e 289 Watt di TDP, che dovrebbe essere riferito al chip grafico, tutta la scheda dovrebbe avere consumi differenti, maggiori o minori a seconda dei casi, in quanto in quel valore non dovrebbe essere incluso il consumo delle memorie, del sistema di raffreddamento e di altre componenti; inoltre TDP dovrebbe stare per Thermal Design Power, ovverosia il calore massimo da dissipare e non il consumo previsto per il chip.
Quindi non capisco tutto questo chiasso sui consumi, visto che sample in giro non ce ne sono ancora, e non si conoscono i consumi certi della scheda. L'unica misurazione che si può fare è di tipo spannometrico conoscendo le frequenze di funzionamento.
Corregetemi se sbaglio.

La 285 non mi dispiace, anche se per rapporto prezzo/prestazioni preferisco ancora la 260, e di conseguenza l'eventuale 265.
La 295 invece la reputo un esercizio di stile, carino sotto certi aspetti, ed un perfetto esempio di celodurismo :D (così come la 4870X2)

Mi piacerebbe comunque vedere queste schede portate alle frequenze delle 65nm, per vedere i reali miglioramenti del die-shrink, anche se è più una curiosità che altro.

Obi 2 Kenobi
16-12-2008, 14:18
Enormemente di piu :asd:

ok grazie :D Punterò su altro :D

maumau138
16-12-2008, 14:19
Ma scusa non dovrebbe andare un pò meno di 2 GTX260?:stordita:

Ben o male hanno anche frequenze inferiori le 2 gpu e le memorie della GTX295...e pure il bus delle memorie è inferiore(qualcuno sa perchè hanno messo il bus di quell'ampiezza strana che io non me ne intendo molto?:confused: )

O con quel "di fatto" intendono che la differenza è minima?!


La presenza di 240 stream processor dovrebbe permettere di essere leggermente superiore allo sli di 260, inoltre anche le frequenze della memoria sono leggermente più alte. Con la 4870X2, si è visto che mantenendo le stesse frequenze le prestazioni rimanevano allineate al CrossFire di 4870.

ps.sarebbe ank ora di smetterla di postare i soliti commenti contro i nomi delle nvidia :asd: :doh:
Quoto, ormai ne abbiamo le pelotas piene, e comunque sarebbe stato meglio chiamarla 295GX2:D :D :D

CoolBits
16-12-2008, 14:24
Ma scusa non dovrebbe andare un pò meno di 2 GTX260?:stordita:

Ben o male hanno anche frequenze inferiori le 2 gpu e le memorie della GTX295...e pure il bus delle memorie è inferiore(qualcuno sa perchè hanno messo il bus di quell'ampiezza strana che io non me ne intendo molto?:confused: )

O con quel "di fatto" intendono che la differenza è minima?!

ps.sarebbe ank ora di smetterla di postare i soliti commenti contro i nomi delle nvidia :asd: :doh:

esatto tutto uguale alla GTX260 ma con 240Sp invece che 192 quindi dovrebbe andare un pò di più di uno sli

Stech1987
16-12-2008, 14:39
A gennaio-febbraio mi sa tanto che vado di gtx285, dato che consuma come la 260, va più della 280 e probabilmente costerà anche qualcosa meno... Ottimo! Non che la mia in firma non viaggi più che bene con tutto (checché se ne dica, anche con GTA IV non dà più problemi delle altre, nVidia o ATi che siano...), però questo mostro mi tenta troppo...! :sofico:

SwatMaster
16-12-2008, 14:48
Non si sa ancora nulla, sui prezzi? :confused:

iva
16-12-2008, 14:57
scusami tanto: chi te l'ha fatto fare prendere un monitor con quella risoluzione per giocare quando con un 20/22" @1680 giochi alla grande e risparmi in vga.

A questo punto se si ha la mania del grande è meglio un proiettore che ha risoluzioni più "umane". :p

ma se l'amico ha un monitor da 30 pollici può solo fare quello che ho detto. cambiare vga prima di adesso. e queste cadono a cacio. se poi contesti la validità della sua operazione ok d'accordo non a caso facendo la stessa cosa ho preso un 22 e la be. poi ovviamente ognuno con i propri soldi fa quel che vuole.
;)

Non voglio offendere nessuno ma non ho mai scritto di aver preso il monitor da 30" per giocare, diciamo che lo utilizzo principalmente per farci cose un po' piu' "serie"... ma una partitina ogni tanto non ci sta male :)
E non e' la smania dello schermo grande, quello che mi serve e' avere un numero sufficiente di pixel sullo schermo (per rispondere al commento sul proiettore), la dimensione e' solo una consequenza.
Quindi per ritornare in topic, dato che il monitor e' quello (e non lo cambio a breve di sicuro) una GTX 285 servirebbe anche per i giochi piu' vecchi.
E visto che nemmeno quando gioco a 1920x1200 posso andare "al massimo" penso che quella scheda abbia senso pure per un 24", indipendentemente dalle valide osservazioni sulla qualita' dei nuovi giochi non piu' rivoluzionari.

Siamo tutti d'accordo ora? :)

ps per il momento comunque mi tengo la 9800 con i dettagli e AA non al massimo, l'upgrade ci sara' solo quando usciranno i prossimi giochi che mi interessano, Dragon Age (della Bioware) e Storm of War - Battle of Britain (dagli autori di IL2)

halduemilauno
16-12-2008, 15:15
Non voglio offendere nessuno ma non ho mai scritto di aver preso il monitor da 30" per giocare, diciamo che lo utilizzo principalmente per farci cose un po' piu' "serie"... ma una partitina ogni tanto non ci sta male :)
E non e' la smania dello schermo grande, quello che mi serve e' avere un numero sufficiente di pixel sullo schermo (per rispondere al commento sul proiettore), la dimensione e' solo una consequenza.
Quindi per ritornare in topic, dato che il monitor e' quello (e non lo cambio a breve di sicuro) una GTX 285 servirebbe anche per i giochi piu' vecchi.
E visto che nemmeno quando gioco a 1920x1200 posso andare "al massimo" penso che quella scheda abbia senso pure per un 24", indipendentemente dalle valide osservazioni sulla qualita' dei nuovi giochi non piu' rivoluzionari.

Siamo tutti d'accordo ora? :)

ps per il momento comunque mi tengo la 9800 con i dettagli e AA non al massimo, l'upgrade ci sara' solo quando usciranno i prossimi giochi che mi interessano, Dragon Age (della Bioware) e Storm of War - Battle of Britain (dagli autori di IL2)

ma io ho anche e detto "poi ovviamente ognuno con i propri soldi fa quel che vuole" e cmq davo il mio consiglio.
per carità d'accordissimo.

gianni1879
16-12-2008, 15:22
io invece increntreri l'attenzione sulla 285...
clock + alti di 50mhz per il core e 200mhz per le ram.
e un consumo pari all'attuale 260 con 216sp.
se ci pensate è un ottimo guadagno. il padellone di g200 ha veramente guadagnato molto da questo passaggio a 55nm. un pò come g80.

concordo, sono davvero ottimi i consumi di questa gtx285, nvidia ha fatto un ottimo lavoro

Mister Tarpone
16-12-2008, 15:23
concordo, sono davvero ottimi i consumi di questa gtx285, nvidia ha fatto un ottimo lavoro

con/quoto con gianni :mano:

riva.dani
16-12-2008, 15:26
Ma della GTX260@55nm nessuno parla più? Uscirà in contemporanea alla GTX285 o no? Devo saperlo, altrimenti mi prendo una HD4870 che risparmio anche qualche euro e la faccio finita...

ptstony
16-12-2008, 15:32
Se uno è attento ai consumi quello che conta sono i consumi in idle. La scheda video non mi deve consumare un botto mentre navigo, se no dovrei avere un pc per navigare e uno per giocare, ma a quel punto meglio una console.
Tra l'altro per me pretendere sul pc una grafica migliore che sulle console contemporanee spendendo chissà quanto di più è già da "enthusiast", come dite voi.

halduemilauno
16-12-2008, 15:39
Ma della GTX260@55nm nessuno parla più? Uscirà in contemporanea alla GTX285 o no? Devo saperlo, altrimenti mi prendo una HD4870 che risparmio anche qualche euro e la faccio finita...

son cose che non si possono dire ma credo che son gia fra noi.
shhhhhhhhhhh.
:fiufiu:

qboy
16-12-2008, 15:44
tra i vari commenti ho letto che la GX2 sta alla 3870X2 come la 295 sta alla 4870x2.ma allora nvidia è sempre stata davanti ad ati o sbaglio? perchè la 280 va mooolto di più dell'avversaria 4870 e la 4850 non è nemmeno comparabile con la 260. correggettemi se sbaglio. e poi non si può confrontare la 280 che è singola con una 4870x2 semplicemente perchè la seconda sono due schede insieme e non sono alla pari.poi se guardate sui vari siti un tri sli di 280 da del filo da torcere a un crossfire di 4870x2, riepilogando: 3 schede nvidia contro 4 ati... non c'è storia il: tri sli ha la meglio

Lino P
16-12-2008, 15:49
son cose che non si possono dire ma credo che son gia fra noi.
shhhhhhhhhhh.
:fiufiu:

:asd:

sniperspa
16-12-2008, 15:50
La presenza di 240 stream processor dovrebbe permettere di essere leggermente superiore allo sli di 260, inoltre anche le frequenze della memoria sono leggermente più alte. Con la 4870X2, si è visto che mantenendo le stesse frequenze le prestazioni rimanevano allineate al CrossFire di 4870.


Quoto, ormai ne abbiamo le pelotas piene, e comunque sarebbe stato meglio chiamarla 295GX2:D :D :D

esatto tutto uguale alla GTX260 ma con 240Sp invece che 192 quindi dovrebbe andare un pò di più di uno sli

ah ok grazie...con tutte le elaborazioni che ci hanno fatto su ste nvidia ultimamente, non ci capisco più niente!:D

Lino P
16-12-2008, 15:52
Ma della GTX260@55nm nessuno parla più? Uscirà in contemporanea alla GTX285 o no? Devo saperlo, altrimenti mi prendo una HD4870 che risparmio anche qualche euro e la faccio finita...

se ne parla per i primi di gennaio per l'uscita, e poco + per vederla sugli scaffali. TI consiglio di aspettarla e preferirla alla 4870, per 2 ragioni:
1) come supporto driver ATI sta parecchio indietro
2) se vuoi una VGA di recente cencezione, per marzo si attendono anche le nuove proposte di ati, come seguito naturale della 4870.

nonikname
16-12-2008, 16:12
Un assaggio...
http://en.expreview.com/2008/12/16/geforce-gtx295-and-hd4870-x2-who-is-better.html

halduemilauno
16-12-2008, 16:17
Un assaggio...
http://en.expreview.com/2008/12/16/geforce-gtx295-and-hd4870-x2-who-is-better.html

era gia linkato nella news.
;)

2012comin
16-12-2008, 16:28
son cose che non si possono dire ma credo che son gia fra noi.
shhhhhhhhhhh.
:fiufiu:

:confused:

intendi "pronte per la vendita" ...

... o "già in vendita" ?

wispo
16-12-2008, 16:29
Che bestie di schede.......
Non oso immaginare cosa potrà combinare un'eventuale Black Edition della 295........ ;)

Kharonte85
16-12-2008, 16:34
Un assaggio...
http://en.expreview.com/2008/12/16/geforce-gtx295-and-hd4870-x2-who-is-better.html

http://en.expreview.com/img/2008/12/16/GTX29503.jpg

ottenere prestazioni superiori in rapporto a consumi inferiori è sempre positivo.

nonikname
16-12-2008, 16:34
era gia linkato nella news.

Ho corretto ;)

maumau138
16-12-2008, 17:09
ma allora nvidia è sempre stata davanti ad ati o sbaglio?

In linea di massima è così, anche se Ati se la gioca sul rapporto prezzo-prestazioni

P.S. credo poco a nuove schede Ati a marzo, anche se abilitando qualche SP tenuto 'di riserva' potrebbero fare qualcosa; IMHO Ati abbasserà i prezzi e tirerà a campare fino a RV8xx.

appleroof
16-12-2008, 17:49
Saranno Top di gamma ma soluzioni che consumano così tanto sono proprio, imho, fuori da ogni logica.

dalla tua logica, non da quella di chi vuole giocare senza compromessi al massimo

detto questo in linea generale (e ripetuto da anni all'uscita di una nuova top :stordita: ) non può che far piacere una top che aumenta le prestazioni rispetto al riferimento odierno (4870x2) consumando qualcosa in meno: se tutto fosse confermato, al di là del fatto personale che la scheda non mi interessa, sarebbe un risultato eccellente...fino alle prossime vga :D


p.s.: la gtx285 sembra davvero eccellente performance/watt :)

Mister Tarpone
16-12-2008, 17:51
detto questo in linea generale (e ripetuto da anni all'uscita di una nuova top :stordita: ) non può che far piacere una top che aumenta le prestazioni rispetto al riferimento odierno (4870x2) consumando qualcosa in meno: se tutto fosse confermato, al di là del fatto personale che la scheda non mi interessa, sarebbe un risultato eccellente...fino alle prossime vga :D

:mano:

halduemilauno
16-12-2008, 17:53
dalla tua logica, non da quella di chi vuole giocare senza compromessi al massimo

detto questo in linea generale (e ripetuto da anni all'uscita di una nuova top :stordita: ) non può che far piacere una top che aumenta le prestazioni rispetto al riferimento odierno (4870x2) consumando qualcosa in meno: se tutto fosse confermato, al di là del fatto personale che la scheda non mi interessa, sarebbe un risultato eccellente...fino alle prossime vga :D


p.s.: la gtx285 sembra davvero eccellente performance/watt :)

quoto.
;)

appleroof
16-12-2008, 17:58
:mano:

quoto.
;)

cmq raga la gtx285 è veramente da paura, onestamente non mi aspettavo quei numeri sono davvero :eek:



adesso aspettiamo di vederla in azione :)

Eizo114
16-12-2008, 23:31
Ricordo che parlando di prestazioni pure sarà di sicuro più veloce di una 4870x2, ma se costerà 650€ (e considerando i prezzi praticati da Nvidia con i prodotti d recente uscita, tipo quando usci' la 280) a parità di costo "ripeto" parità di costo un CF di 4870x2 sarà cmq il top... Tralascio i consumi ed il calore generato, perchè se mi faccio un sistema simile me ne inpippo!
Saluti

Kharonte85
16-12-2008, 23:38
cmq raga la gtx285 è veramente da paura, onestamente non mi aspettavo quei numeri sono davvero :eek:



adesso aspettiamo di vederla in azione :)

Ma qualcuno si ricorda quanto era di preciso il limite teorico di velocità per le memorie Gdd3? No perchè secondo me ci siamo (2.480 MHz :eek:) :D

M@tteo79
16-12-2008, 23:59
Solo un piccolo appunto per tutti coloro che insistono a dire di saltare questa generazione di schede data "l'imminente" uscita di quelle con supporto DX11:

Nvidia prevede di lanciare GT300 a Giugno 2009 (tra 6 MESI)

ATI, spaventata dalle proposte a 55nm di Nvidia , ha deciso di presentare a fine Gennaio RV775 (sebbene dalla lettura delle specifiche tecniche risultino a mio avviso di dubbia efficacia) posticipando la nuova architettura DX11 a Settembre 2009 (tra 9 MESI)


Dunque cancellate la parola "IMMINENTE" dal vostro vocabolario al fine di evitare ulteriori commenti disinformativi.


P.s. Impressionante sotto tutti i punti di vista questa nuova GTX285. Non vedo l'ora di vedere i consumi della GTX265 la cui unica pecca sarà quella di non avere un 1Gb pieno di memoria (provate a mettere GTA IV a dettaglio molto alto... aumentando anche le 4 barrette sottostanti e vedrete un bel 960Mb richiesti).

jhoexp
17-12-2008, 01:12
Ogni volta che esce un nuovo modello di scheda video/cpu/quant'altro, sempre le solite stupidate sui consumi!!
Vedo che qui avete tutti le caldaie a condensazione e usate rigorosamente l'acqua calda prodotta dai pannelli solari.
Non avete i boiler elettrici, vero? Non usate mai stufette elettriche. Il forno? la piastra ad induzione?

Perchè prima di dare corda a queste cazzate energetiche sui pc non fate un minimo di riflessione?

Se proprio volete fare del bene al pianeta, iniziate con lo stare zitti o a risparmiare energie alla tastiera, così esce meno CO2 dalle vostre bocche!!!

VERGOGNA! Accendete il cervello invece di preoccuparvi dei consumi del pc!!

eldolcefarnienteditommy
17-12-2008, 01:22
ma faranno anche le gtx260 a 55 nm?

padsi
17-12-2008, 05:08
Io rimango dell'idea che sono uscite troppo tardi queste vga e non ne sentivamo il bisogno, chi voleva Nvidia e avere il top si e' fatto uno sli chi voleva il top di ati si e' preso una 4870x2 e chi non ha preso nulla fa meglio ad aspettare le DX11, questa e' la mia idea :)
poi che siano buoni prodotti o meno cmq lo dira' il prezzo e conoscendo Nvidia sara' alle stelle xD.

halduemilauno
17-12-2008, 08:00
ma faranno anche le gtx260 a 55 nm?

e stanno giaffa.
;)

halduemilauno
17-12-2008, 08:02
Io rimango dell'idea che sono uscite troppo tardi queste vga e non ne sentivamo il bisogno, chi voleva Nvidia e avere il top si e' fatto uno sli chi voleva il top di ati si e' preso una 4870x2 e chi non ha preso nulla fa meglio ad aspettare le DX11, questa e' la mia idea :)
poi che siano buoni prodotti o meno cmq lo dira' il prezzo e conoscendo Nvidia sara' alle stelle xD.

sbagliata. perchè parti da presupposti quali lo sli e le dx11(giochi)dietro l'angolo.

halduemilauno
17-12-2008, 08:04
Ma qualcuno si ricorda quanto era di preciso il limite teorico di velocità per le memorie Gdd3? No perchè secondo me ci siamo (2.480 MHz :eek:) :D

2600(cosi lassie)e ora stiamo a 2484.
;)

Evil_Sephiroth
17-12-2008, 08:15
ma io leggo titoli e l'ambiente O_O, ma questo falso buonismo mi fa schifo

289 watt sono pure pochi visto che hanno palrato di CONSUMO MASSIMO

la 9800 gx2 se non erro andava molto + in alto ^^

Pat77
17-12-2008, 08:50
dalla tua logica, non da quella di chi vuole giocare senza compromessi al massimo

detto questo in linea generale (e ripetuto da anni all'uscita di una nuova top :stordita: ) non può che far piacere una top che aumenta le prestazioni rispetto al riferimento odierno (4870x2) consumando qualcosa in meno: se tutto fosse confermato, al di là del fatto personale che la scheda non mi interessa, sarebbe un risultato eccellente...fino alle prossime vga :D


p.s.: la gtx285 sembra davvero eccellente performance/watt :)

Infatti, io ragiono con la mia logica. E sempre per la mia logica mi chiedo per giocare a cosa si debba consumare cotanta energia. E bada anche 4870X2 la vedo come una soluzione stupida.

sniperspa
17-12-2008, 09:28
Infatti, io ragiono con la mia logica. E sempre per la mia logica mi chiedo per giocare a cosa si debba consumare cotanta energia. E bada anche 4870X2 la vedo come una soluzione stupida.

Ma tanto le usano 1 su millemila prsone che hanno monitor da millemila pollici!:D :sofico:

halduemilauno
17-12-2008, 11:22
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10983&Itemid=1
;)

Lino P
17-12-2008, 11:30
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10983&Itemid=1
;)

Mmmm...

s12a
17-12-2008, 12:24
ma io leggo titoli e l'ambiente O_O, ma questo falso buonismo mi fa schifo

289 watt sono pure pochi visto che hanno palrato di CONSUMO MASSIMO

la 9800 gx2 se non erro andava molto + in alto ^^

Personalmente quando si parla di consumi a me dell'ambiente interessa ben poco. Consumi alti implicano direttamente tre svantaggi per l'utente finale:

- Alti costi di gestione (sulla bolletta elettrica, specie se il computer non lo si usa solo due ore la sera prima di andare a dormire)
- Elevato calore da smaltire
- Elevata rumorosita` derivante dalla necessita` di smaltire il calore di cui sopra

ghiltanas
17-12-2008, 12:40
e voilà ecco i primi test:

http://vr-zone.com/articles/geforce-gtx-295-vs-hd-4870-x2-benchmarks/6297.html?doc=6297

halduemilauno
17-12-2008, 12:41
e voilà ecco i primi test:

http://vr-zone.com/articles/geforce-gtx-295-vs-hd-4870-x2-benchmarks/6297.html?doc=6297

old.
;)

ghiltanas
17-12-2008, 12:47
old.
;)

me lo immaginavo :asd:, ho visto la data e in questo sito una news rimane tale al massimo 5 minuti :asd:

cmq incredibile dead space, ci sono ottimi pressuposti anche per la gtx285 e 265 ;)

Obi 2 Kenobi
17-12-2008, 13:01
ma io leggo titoli e l'ambiente O_O, ma questo falso buonismo mi fa schifo

289 watt sono pure pochi visto che hanno palrato di CONSUMO MASSIMO

la 9800 gx2 se non erro andava molto + in alto ^^

eh certo cosa vuoi che siano 289 watt :asd:

Lino P
17-12-2008, 13:19
old.
;)

:asd:

zorco
17-12-2008, 16:15
eh certo cosa vuoi che siano 289 watt :asd:
:asd: na bazzecola per un singolo componente...

Lino P
17-12-2008, 16:33
:asd: na bazzecola per un singolo componente...

già....:ciapet:

und3r91
17-12-2008, 18:30
Davvero buona la 285

Lino P
17-12-2008, 19:16
Davvero buona la 285

e vedi tu....:ciapet:

halduemilauno
17-12-2008, 19:38
http://www.guru3d.com/news/tomorrow-18-december-/
la riconoscete vero?
;)

marinese
17-12-2008, 22:28
Insomma la 295 è dual GPU.. si possono usare in modalità quad SLI vero?
E un confronto con un sistema Tri SLI con 3 schede 285 come lo vedete??

Obi 2 Kenobi
18-12-2008, 13:40
la vedo male :asd:

Clementino
18-12-2008, 14:51
Ragazzi volevo domandarmi una cosa...anche se è un mostro di potenza come mai le nuove nvidia gtx 295 nn adotteranno le memorie GDDR5????xkè nn hanno implementato queste modifiche e seconda domanda anke se sarà scema....sn ignorante in materia ma cerco di imparare ... se le nvidia gtx 295 nn è altro che un "panino a base di due 260 occate entrambe" allora una config in sli di due gtx 280 gira mejo di questa nuova scheda sfornata da Nvidia??e terza cosa x un sistema nuovo cn un budget di circa 1500€ sarebbe un acquisto duraturo al 295???

ghiltanas
18-12-2008, 15:27
http://www.guru3d.com/news/tomorrow-18-december-/
la riconoscete vero?
;)

ho visto ora la rece. nella maggiorparte dei test va meglio della sua diretta rivale, male in in warhead alla max risoluzione dove probabilmente i 2gb di memoria della 4870x2 si fanno sentire, alla pari in fallout 3

maumau138
18-12-2008, 15:54
Ragazzi volevo domandarmi una cosa...anche se è un mostro di potenza come mai le nuove nvidia gtx 295 nn adotteranno le memorie GDDR5????
Perché costano un botto, infatti hanno dovuto usare un bus da 512bit (per le 280), in modo da raggiungere la bandwidth necessaria. Le ATI, che invece hanno GPU pù piccole e più economiche da produrre sono rimaste con un bus a 256 bit e usano GDDR5.
xkè nn hanno implementato queste modifiche e seconda domanda anke se sarà scema....sn ignorante in materia ma cerco di imparare ... se le nvidia gtx 295 nn è altro che un "panino a base di due 260 occate entrambe" allora una config in sli di due gtx 280 gira mejo di questa nuova scheda sfornata da Nvidia??
Leggermente di più ma solo per il bus e la quantità di memoria, che la penalizza in giochi abbastanza pesanti ad alte risoluzioni, alla fine hanno pur sempre 240SP come le 280.

CoolBits
18-12-2008, 21:12
Ragazzi volevo domandarmi una cosa...anche se è un mostro di potenza come mai le nuove nvidia gtx 295 nn adotteranno le memorie GDDR5????xkè nn hanno implementato queste modifiche e seconda domanda anke se sarà scema....sn ignorante in materia ma cerco di imparare ...

Non utilizzano le GDDR5 perchè non servono ad Nvidia in quanto utilizza un bus ampio (512bit ) che gli permette di avere un ottima bandwidth anche con le GDDR3 e poi perchè le GDDR5 costano di più.

Clementino
18-12-2008, 21:25
Non utilizzano le GDDR5 perchè non servono ad Nvidia in quanto utilizza un bus ampio (512bit ) che gli permette di avere un ottima bandwidth anche con le GDDR3 e poi perchè le GDDR5 costano di più.
E volevo domandare una soluzione sli di 285 quanto durerebbe???sarebbe un acquisto proficuo?stessa domanda x uno sli 295 grazie in anticipo:help:

maumau138
18-12-2008, 23:36
E volevo domandare una soluzione sli di 285 quanto durerebbe???sarebbe un acquisto proficuo?stessa domanda x uno sli 295 grazie in anticipo:help:

Ti durerebbero parecchio, però non credo sia un acquisto proficuo, almeno dal punto di vista economico; in quanto con una 285 ci fai girare tutto con dettagli massimi, tranne che su schermi troppi pollici, e con gli stessi soldi ti puoi prendere poi la futura 380 (o come si chiamerà), vendendoti la 285.

Lo Sli di 295 non riesco nemmeno a pensarlo :D :D

s12a
18-12-2008, 23:58
Insomma la 295 è dual GPU.. si possono usare in modalità quad SLI vero?
Non so se poi basterebbe un alimentatore da 1500W!

Obi 2 Kenobi
19-12-2008, 01:00
Non so se poi basterebbe un alimentatore da 1500W!

E a quel punto il tuo pc consumerebbe SUL SERIO quanto una centrale nucleare!!!

s12a
19-12-2008, 01:06
Il mio pc? Il mio in idle e` 110W monitor incluso :D

padsi
19-12-2008, 01:47
sbagliata. perchè parti da presupposti quali lo sli e le dx11(giochi)dietro l'angolo.

Hal i giochi che dovevo giocare gli ho gia' giocati tutti a 1920x1200 tutto al max e' so passati gia' dei mesi, idem quelli che sono in uscita a breve li giochero' uguale, quindi non credo propio che la mia idea sia cosi sbagliata^^

Invece quando usciranno le DX11 e magari daranno delle mazzate assurde alle nostre attuali VGA allora si che "ci costringeranno" a richambiare VGA ma fino ad allora non c'e' ne e' bisogno ;)

halduemilauno
19-12-2008, 08:34
Io rimango dell'idea che sono uscite troppo tardi queste vga e non ne sentivamo il bisogno, chi voleva Nvidia e avere il top si e' fatto uno sli chi voleva il top di ati si e' preso una 4870x2 e chi non ha preso nulla fa meglio ad aspettare le DX11, questa e' la mia idea :)
poi che siano buoni prodotti o meno cmq lo dira' il prezzo e conoscendo Nvidia sara' alle stelle xD.

Hal i giochi che dovevo giocare gli ho gia' giocati tutti a 1920x1200 tutto al max e' so passati gia' dei mesi, idem quelli che sono in uscita a breve li giochero' uguale, quindi non credo propio che la mia idea sia cosi sbagliata^^

Invece quando usciranno le DX11 e magari daranno delle mazzate assurde alle nostre attuali VGA allora si che "ci costringeranno" a richambiare VGA ma fino ad allora non c'e' ne e' bisogno ;)

sbagliata perchè dici che tutti si son fatti lo sli, ma devi avere una mamma che supporti lo sli.
aspettano le dx11. come se le dx11 stanno per uscire e quindi tutti stanno ad aspettare sbagliato visto che le dx11 si saranno rilasciate fra un 10 mesi ma i giochi dx11 fra un paio d'anni minimo e allora che si fa si aspettano due anni.

Foglia Morta
19-12-2008, 09:00
sbagliata perchè dici che tutti si son fatti lo sli, ma devi avere una mamma che supporti lo sli.
aspettano le dx11. come se le dx11 stanno per uscire e quindi tutti stanno ad aspettare sbagliato visto che le dx11 si saranno rilasciate fra un 10 mesi ma i giochi dx11 fra un paio d'anni minimo e allora che si fa si aspettano due anni.

quindi un motivo in più per prendere una scheda DX10.1

halduemilauno
19-12-2008, 09:01
quindi un motivo in più per prendere una scheda DX10.1

:rotfl:

Foglia Morta
19-12-2008, 09:02
:rotfl:

:asd:

padsi
19-12-2008, 12:03
sbagliata perchè dici che tutti si son fatti lo sli, ma devi avere una mamma che supporti lo sli.
aspettano le dx11. come se le dx11 stanno per uscire e quindi tutti stanno ad aspettare sbagliato visto che le dx11 si saranno rilasciate fra un 10 mesi ma i giochi dx11 fra un paio d'anni minimo e allora che si fa si aspettano due anni.

Non ho detto che tutti hanno un sli ma 2 cose diverse, se non hai mobo sli(e cmq chi spende la mobo sli la ha io ne avevo ben 3) uno si prendeva la 4870x2 chi non la ha prese e ha un monitor da 24" in su allora bo non so cosa si sia preso a fare un monitor cosi, chi invece voleva rimanere su Nvidia, ma sempre per il fatto di dover giocare a risoluzione del tipo appunto 1920x1200, ho si e' accontentato di una singola nvidia e' ha giocato con conpromessi ho si e' fatto lo sli, infine tutti quelli che hanno monitor con risoluzione inferiore a 1920 indem non se ne fanno nulla di ste VGA perche' bastano e avanzano quelle gia' in giro, bada io sto solo consilgiando alla gente di risparmiare soldi se poi e' un consilgio sbagliato(ma non lo e' senno sarei il primo io a dire cambio VGA visto che ho semrpe avuto sli o vga x2) allora sono contento di dare consilgi sbagliati.

Per tutti quelli invece che magari sono rimasti alle serie prima di VGA tipo 8800 e 3800 delle 2 case allora magari un pensierino se lo potrebbero fare, poi ovvio dipende sempre tutto dal fattore risoluzione a cui uno deve giocare, se uno per esempio ci gioca su un 32" HD-READY gli ba benissimo ancora la buon vecchia 8800GTX per giocare senza compromessi^^

Obi 2 Kenobi
19-12-2008, 13:15
Il mio pc? Il mio in idle e` 110W monitor incluso :D

Ma non il tuo!! Dicevo a marinese :D XD XD :asd:

efis007
21-01-2009, 15:28
Ogni volta che esce un nuovo modello di scheda video/cpu/quant'altro, sempre le solite stupidate sui consumi!!
Non sono stupidate.
Sono soldi.
Meno consumi = meno soldi sulla bolletta.
Più consumi = più soldi sulla bolletta.

Vedo che qui avete tutti le caldaie a condensazione e usate rigorosamente l'acqua calda prodotta dai pannelli solari.
Non avete i boiler elettrici, vero? Non usate mai stufette elettriche. Il forno? la piastra ad induzione?
Appunto, siccome nella vita ci sono anche questi apparecchi che influiscono sulla bolletta, è bene tenere conto quanto un banalissimo Pc per "giocare" faccia levitare in più tale bolletta.

Perchè prima di dare corda a queste cazzate energetiche sui pc non fate un minimo di riflessione?
La riflessione è proprio quella.
Sono più che certo che del "pianeta" non gliene frega niente a nessuno.
Gliene frega solo dei consumi, ossia a SOLDI che l'utente si ritrova a pagare in bolletta.
Se l'energia elettrica fosse gratis, vedresti che nessuno farebbe più discorsi sui consumi.
Ovvio, tanto non si pagano!
Per cui la riflessione da fare è questa: "ce ne frega davvero del pianeta, oppure ce ne frega solo del nostro portafoglio e della nostra lussuria?"

Se proprio volete fare del bene al pianeta, iniziate con lo stare zitti o a risparmiare energie alla tastiera, così esce meno CO2 dalle vostre bocche!!!
Fortunatamente quando si scrive sulla tastiera non si produce (con la respirazione) più Co2 di quando si sta seduti in un prato a far niente.
E' fisica elementare.

VERGOGNA! Accendete il cervello invece di preoccuparvi dei consumi del pc!!
Questa frase forse è l'unica che può essere interpretata in modo intelligente.
Perchè?
Perchè viene seriamente da chiedersi a che pro buttarsi come peracottari su queste dannate schede mangiabolletta a tradimento.
Se il fine ultimo è quello di "giocare" sarebbe il caso di cominciare ad "educarsi" sul modo di giocare.
Per giocare BENE non è affatto necessario munirsi di monitor grossi come un cinema, tirare la risoluzione alla rotta di collo, e pretendere anche di mettere tutti i filtri a manetta.
Questa è la vera stupidità clamorosa!
Un minimo di sacrifici si possono fare, e si gioca BENISSIMO lo stesso, ma col vantaggio di avere consumi ridotti e spendere meno soldi.
Non capisco davvero cos'è tutta questa mania di non scendere ad alcun compromesso, di volere tutto ma che non consumi niente.
Se il fine è quello di risparmiare soldi del portafoglio, sia per l'acquisto delle schede, sia per le bollette (il pianeta lasciamolo perdere, tanto lo sò che non gliene frega una mazza a nessuno!), allora bisogna smetterla di fare i bambini viziati.
Bisogna educarsi al gioco, bisogna saper fare delle rinuncie.
Per cui:
1- Un monitor parco nei consumi e non più grosso di un 22 (oltre non serve a bel tubo di niente!)
2- Un utilizzo intelligente dei dettagli del gioco e dei filtri. E non è scritto da nessuna parte che bisogna per FORZA mettere tutto a palla, dettagli e filtri compresi, fino a spremere watt e watt dalle schede per niente. Chi lo fa è vittima solo di uno stupido vizio perchè è assodato che anche rinunciando a qualcosina si gioca EGREGIAMENTE lo stesso, e sfido chiunque a dimostrarmi il contrario!
3- Abbracciando i due punti di cui sopra, viene da sè che si può a quel punto optare per una scheda di classe leggermente inferiore, capace di ottemperare pienamente a quelle richieste, ma con un MINOR consumo globale tra scheda e alimentatore.
Un grosso risparmio di soldi per l'acquisto del sistema, e un grosso risparmio di soldi sulla bolletta finale.
E il fine ultimo, ossia il "giocare", NON viene compromesso perchè si gioca benissimo lo stesso!
Detto questo, la tua affermazione "vergogna" ha dunque un senso logico se si impara davvero ad usare il cervello e la si smette di comportarsi come bambini viziati e capricciosi che "io voglio tutto, io voglio tutto".
Ho visto amici cambiare scheda video SOLO perchè volevano avere la soddisfazione di mettere i filtri da 4x a 16x, a 1900 di risoluzione.
Questa a casa mia di chiama "cagata bella e buona"!!!!
Ancora non si è capito che PIU' la risoluzione aumenta, MENO bisogna usare i filtri?
I filtri sono fatti per le BASSE risoluzioni, per rendere una ipotetica 800 x 600 "guardabile".
In quel caso sì che è obbligo metterci un 4x o un 8x di filtri.
Ma a 1900 di risoluzione a che divaolo serve mettere un (addirittura) 16 x???
Soltanto un SCEMO (e lo dico seriamente) può ambire (e spendere!) per arrivare a fare una simile castroneria.
Ma tu vaglielo a spiegare che ad alta risoluzione basta e avanza (basta e avanza!!) un 4X!
Poi ci si lamenta della bolletta.
Poi ci si lamenta dei consumi.
Poi ci si lamenta del "eh ma la mia vecchia scheda, a 16x, andava a scatti".
Bravo scimunito gli direi, è ovvio che va a scatti se gli tiri il collo per niente!
Va a scatti perchè NON hai capito un tubo di come si fa a giocare.
Impara prima a giocare.
E impara anche a rinunciare a quel riflessino sull'acqua che, tanto, alla fine non cambia niente e non ti cambia la vita.
Insomma impara a giocare, impara ad essere meno viziato, e impara che se vuoi risparmiare i soldi, il sistema c'è!
Sta a te (in senso lato, il mio è discorso generico, non riferito a te) usare il cervello e viziarti di meno.
Il pianeta, il portafoglio, e la bolletta, te ne saranno immensamente grati.
Altrimenti fai quel che ti pare, spendi e sperpera, dissanguati di corrente.
Che mi frega a me.
I VIZI si pagano (e questo è un vizio), quindi giustamente mò pagali e cito e mosca.
Altro che 16x a 1900 di risoluzione!
Ma per piacere.

P.S. per la cornaca, io gioco ancora su un vetusto Pentium4 3.00 ghz con scheda ATI 850 AGP.
E gioco a Call of duty4 a 1024 x 768 con un semplice 2x filter, e dettagli al minimo.
Ma chissà perchè ci gioco alla GRANDE e mi diverto un sacco.
Chissà perchè!
Qualcuno mi dirà "embè, ma vuoi mettere a portarlo alla massima risoluzione e dettagli al massimo"?
E io gli risponderei subito: "ovvio che in quel modo sarebbe più bello alla vista, ovvio; ma la GIOCABILITA' ti cambia forse in qualcosa? Pensi forse di sparare meglio avendo i dettagli al massimo? Pensi forse di vincere sempre avendo i dettagli al massimo? Insomma pensi di giocare MEGLIO avendo i dettagli al massimo? O sei concorde com me che non serve a un bel niente se non solo a farti dire ...oh che bella la grafica?
La grafica è una cosa.
La giocabilità e il sano divertimento, un'altra!

akash2008
21-01-2009, 15:29
Texas holdem poker is my favorite game, are you interested in learning? Because I'm interested in teaching :) If you are new to the game of texas hold'em it can seem a bit daunting to learn a new game, especially a game like no-limit texas hold'em.
You will find articles from the simple things like poker etiquette to the advanced concepts like table image and manipulating your opponents.
I have over three years of online poker experience playing Texas Holdem Poker, both limit and no-limit. I am on my 4th year and I have been making a living out of it since I was 18 years old.

Obi 2 Kenobi
21-01-2009, 16:11
Non sono stupidate.
Sono soldi.
Meno consumi = meno soldi sulla bolletta.
Più consumi = più soldi sulla bolletta.


Appunto, siccome nella vita ci sono anche questi apparecchi che influiscono sulla bolletta, è bene tenere conto quanto un banalissimo Pc per "giocare" faccia levitare in più tale bolletta.


La riflessione è proprio quella.
Sono più che certo che del "pianeta" non gliene frega niente a nessuno.
Gliene frega solo dei consumi, ossia a SOLDI che l'utente si ritrova a pagare in bolletta.
Se l'energia elettrica fosse gratis, vedresti che nessuno farebbe più discorsi sui consumi.
Ovvio, tanto non si pagano!
Per cui la riflessione da fare è questa: "ce ne frega davvero del pianeta, oppure ce ne frega solo del nostro portafoglio e della nostra lussuria?"


Fortunatamente quando si scrive sulla tastiera non si produce (con la respirazione) più Co2 di quando si sta seduti in un prato a far niente.
E' fisica elementare.


Questa frase forse è l'unica che può essere interpretata in modo intelligente.
Perchè?
Perchè viene seriamente da chiedersi a che pro buttarsi come peracottari su queste dannate schede mangiabolletta a tradimento.
Se il fine ultimo è quello di "giocare" sarebbe il caso di cominciare ad "educarsi" sul modo di giocare.
Per giocare BENE non è affatto necessario munirsi di monitor grossi come un cinema, tirare la risoluzione alla rotta di collo, e pretendere anche di mettere tutti i filtri a manetta.
Questa è la vera stupidità clamorosa!
Un minimo di sacrifici si possono fare, e si gioca BENISSIMO lo stesso, ma col vantaggio di avere consumi ridotti e spendere meno soldi.
Non capisco davvero cos'è tutta questa mania di non scendere ad alcun compromesso, di volere tutto ma che non consumi niente.
Se il fine è quello di risparmiare soldi del portafoglio, sia per l'acquisto delle schede, sia per le bollette (il pianeta lasciamolo perdere, tanto lo sò che non gliene frega una mazza a nessuno!), allora bisogna smetterla di fare i bambini viziati.
Bisogna educarsi al gioco, bisogna saper fare delle rinuncie.
Per cui:
1- Un monitor parco nei consumi e non più grosso di un 22 (oltre non serve a bel tubo di niente!)
2- Un utilizzo intelligente dei dettagli del gioco e dei filtri. E non è scritto da nessuna parte che bisogna per FORZA mettere tutto a palla, dettagli e filtri compresi, fino a spremere watt e watt dalle schede per niente. Chi lo fa è vittima solo di uno stupido vizio perchè è assodato che anche rinunciando a qualcosina si gioca EGREGIAMENTE lo stesso, e sfido chiunque a dimostrarmi il contrario!
3- Abbracciando i due punti di cui sopra, viene da sè che si può a quel punto optare per una scheda di classe leggermente inferiore, capace di ottemperare pienamente a quelle richieste, ma con un MINOR consumo globale tra scheda e alimentatore.
Un grosso risparmio di soldi per l'acquisto del sistema, e un grosso risparmio di soldi sulla bolletta finale.
E il fine ultimo, ossia il "giocare", NON viene compromesso perchè si gioca benissimo lo stesso!
Detto questo, la tua affermazione "vergogna" ha dunque un senso logico se si impara davvero ad usare il cervello e la si smette di comportarsi come bambini viziati e capricciosi che "io voglio tutto, io voglio tutto".
Ho visto amici cambiare scheda video SOLO perchè volevano avere la soddisfazione di mettere i filtri da 4x a 16x, a 1900 di risoluzione.
Questa a casa mia di chiama "cagata bella e buona"!!!!
Ancora non si è capito che PIU' la risoluzione aumenta, MENO bisogna usare i filtri?
I filtri sono fatti per le BASSE risoluzioni, per rendere una ipotetica 800 x 600 "guardabile".
In quel caso sì che è obbligo metterci un 4x o un 8x di filtri.
Ma a 1900 di risoluzione a che divaolo serve mettere un (addirittura) 16 x???
Soltanto un SCEMO (e lo dico seriamente) può ambire (e spendere!) per arrivare a fare una simile castroneria.
Ma tu vaglielo a spiegare che ad alta risoluzione basta e avanza (basta e avanza!!) un 4X!
Poi ci si lamenta della bolletta.
Poi ci si lamenta dei consumi.
Poi ci si lamenta del "eh ma la mia vecchia scheda, a 16x, andava a scatti".
Bravo scimunito gli direi, è ovvio che va a scatti se gli tiri il collo per niente!
Va a scatti perchè NON hai capito un tubo di come si fa a giocare.
Impara prima a giocare.
E impara anche a rinunciare a quel riflessino sull'acqua che, tanto, alla fine non cambia niente e non ti cambia la vita.
Insomma impara a giocare, impara ad essere meno viziato, e impara che se vuoi risparmiare i soldi, il sistema c'è!
Sta a te (in senso lato, il mio è discorso generico, non riferito a te) usare il cervello e viziarti di meno.
Il pianeta, il portafoglio, e la bolletta, te ne saranno immensamente grati.
Altrimenti fai quel che ti pare, spendi e sperpera, dissanguati di corrente.
Che mi frega a me.
I VIZI si pagano (e questo è un vizio), quindi giustamente mò pagali e cito e mosca.
Altro che 16x a 1900 di risoluzione!
Ma per piacere.

P.S. per la cornaca, io gioco ancora su un vetusto Pentium4 3.00 ghz con scheda ATI 850 AGP.
E gioco a Call of duty4 a 1024 x 768 con un semplice 2x filter, e dettagli al minimo.
Ma chissà perchè ci gioco alla GRANDE e mi diverto un sacco.
Chissà perchè!
Qualcuno mi dirà "embè, ma vuoi mettere a portarlo alla massima risoluzione e dettagli al massimo"?
E io gli risponderei subito: "ovvio che in quel modo sarebbe più bello alla vista, ovvio; ma la GIOCABILITA' ti cambia forse in qualcosa? Pensi forse di sparare meglio avendo i dettagli al massimo? Pensi forse di vincere sempre avendo i dettagli al massimo? Insomma pensi di giocare MEGLIO avendo i dettagli al massimo? O sei concorde com me che non serve a un bel niente se non solo a farti dire ...oh che bella la grafica?
La grafica è una cosa.
La giocabilità e il sano divertimento, un'altra!

QUOTO!!!!