PDA

View Full Version : GeForce GTX 295: il debutto è a Gennaio


Redazione di Hardware Upg
10-12-2008, 14:23
Link alla notizia: http://www.hwupgrade.it/news/skvideo/geforce-gtx-295-il-debutto-a-gennaio_27440.html

Appara online quella che è la prima immagine della nuova scheda video NVIDIA top di gamma, con due GPU GT200 a 55 nanometri in parallelo

Click sul link per visualizzare la notizia.

Hιtman04
10-12-2008, 14:28
Nvidia sempre meglio con i nomi dei suoi prodotti :asd:

imperatore_bismark
10-12-2008, 14:30
beh, se le specifiche sono queste, e verà venduta allo stesso prezzo, allora la 4870 x2 avrà problemi! già adesso su alcune prove una gtx280 batte la x2 pensiamo ora! spero cmq che ati abbia un asso nella manica e non se li sia giocati già tutti!

demon77
10-12-2008, 14:33
Una potenza di elaborazione video così elevata è davvero uno spreco secondo me.. (allo stato attuale chiaramente) se almeno si sbrigassero a fare un supporto serio e standard al calcolo GPGPU sicuramente avrebbe tutto più senso!
Sto bolide si mangerà come minimo 300 watt da solo!

ninja750
10-12-2008, 14:36
2 pcb a sandwich? :asd: ma nvidia lo sa che siamo nel 2008? :asd:

bs82
10-12-2008, 14:37
ahahhahaahahahahhahahahhahahhahah

non ci posso credere!

Nvidia did it again!

600 Euro per un sandwich da 300W!

Ma dai..... ma come si fa.... -_-

Perseverano dopo la GX2....

Abbiamo la top! Eh si!
L'unica TOP... DUAL GPU - DUAL PCB!!!!

ucuc
10-12-2008, 14:40
Sempre più grandi, pesanti e potenti (in termini di kW)!
Tra un po' non si capirà più quale sia, dentro al case, la vera scheda madre!

appleroof
10-12-2008, 14:42
ahahhahaahahahahhahahahhahahhahah

non ci posso credere!

Nvidia did it again!

600 Euro per un sandwich da 300W!

Ma dai..... ma come si fa.... -_-

Perseverano dopo la GX2....

Abbiamo la top! Eh si!
L'unica TOP... DUAL GPU - DUAL PCB!!!!

:rolleyes:

al135
10-12-2008, 14:43
o mio dio ancora co sti sandwich?
ma perche non riescono a mettere tutto su un unico pcb come ati?
mah...

okorop
10-12-2008, 14:43
2 pcb a sandwich? :asd: ma nvidia lo sa che siamo nel 2008? :asd:

lol per poi magari dopo un mese sostituirla con qualcosa d'altro.....600 euro ben spesi :Asd:
p.s. voglio un altro video di tommy che fa le salsiccie sulla gx2 :asd:

ilpalmare
10-12-2008, 14:45
Ma Nvidia sa che Ati ne ha messe 2 su un unico PCB ahahahaha ma perchè continuano a perseverare e chissà che prezzi poi... vabbè magari la useremo come riscaldamento aggiuntivo per questo inverno ;-D

s-y
10-12-2008, 14:47
ass ass, assolutamente assurdo...

yossarian
10-12-2008, 14:47
2 pcb a sandwich? :asd: ma nvidia lo sa che siamo nel 2008? :asd:

ahahhahaahahahahhahahahhahahhahah

non ci posso credere!

Nvidia did it again!

600 Euro per un sandwich da 300W!

Ma dai..... ma come si fa.... -_-

Perseverano dopo la GX2....

Abbiamo la top! Eh si!
L'unica TOP... DUAL GPU - DUAL PCB!!!!

l'unica soluzione percorribile per avere 2 gpu di quelle dimensioni su singolo slot

appleroof
10-12-2008, 14:48
o mio dio ancora co sti sandwich?
ma perche non riescono a mettere tutto su un unico pcb come ati?
mah...

dimensione dei chip. Ancora non vedo un commento costruttivo a riguardo del fatto che questa vga non è buona e la 4870x2 si (lasciamo perdere 3870x2/9800gx2...)

Flying Tiger
10-12-2008, 14:49
Mah..non vedo sinceramente dove siano le novita'....in pratica hanno preso due 260GTX a 55nm e le hanno messe in SLI con un' unico slot ...insomma si ripete la storia della GX2 ...

Naturalmente con annessi e connessi per la scalabilita' e supporto dei games a questa tecnologia....

Mr Resetti
10-12-2008, 14:50
300W saranno pochi... secondo me se sono a pieno carico ne mangiano anche 400-450!!!

riuzasan
10-12-2008, 14:50
Tecnologicamente è una risposta un pò scadente di Nvidia :(

Due schede in sandwich e l'impossibilità di creare una vera scheda con due chip sullo stesso PCB indica che nonostante il processo a 55nm, il chip GTX200 resta molto grande e complesso con la necessità di spazio fisico e di dissipazione termica superiore alle 4870X2.
Dal punto di vista del rapporto Transistor/Ottimizazione/Costi, AMD/ATi resta incredibilmente davanti nonostante i mesi dal rilascio del chip RV770 e il fatto che Nvidia sia una GFX only company che solo nel campo delle schede video deve investire il suo capitale umano e tecnologico.
Spero vivamente, da utilizzatore di entrambi i brand, di vedere presto un VERA risposta tecnologica di Nvidia ad AMD/ATi.

okorop
10-12-2008, 14:50
Mah..non vedo sinceramente dove siano le novita'....in pratica hanno preso due 260GTX a 55nm e le hanno messe in SLI con un' unico connettore ...insomma si ripete la storia della GX2 ...

Naturalmente con annessi e connessi per la scalabilita' e supporto dei games a questa tecnologia....

quoto.....ma pensare a un collegamento diverso dallo sli? nvidia fa sempre le minestrine riscaldate e spera che con sta vga venderà molto .....io dubito comunque
ati passa ai 40 nm e nvidia ai 55nm...nvidia sempre indietro.....

Sir.Jerry
10-12-2008, 14:51
2 gpu 2 pcb? 600 €?

Poi metti le spese di aumento della potenza erogata con l'enel... il cambio dell'alimentatore... :asd:

appleroof
10-12-2008, 14:52
Mah..non vedo sinceramente dove siano le novita'....in pratica hanno preso due 260GTX a 55nm e le hanno messe in SLI con un' unico slot ...insomma si ripete la storia della GX2 ...

Naturalmente con annessi e connessi per la scalabilita' e supporto dei games a questa tecnologia....

quoto.....ma pensare a un collegamento diverso dallo sli? nvidia fa sempre le minestrine riscaldate e spera che con sta vga venderà molto .....io dubito comunque
ati passa ai 40 nm e nvidia ai 55nm...nvidia sempre indietro.....

insisto: ma sapete come funziona una 4870x2 o no? :asd:

okorop
10-12-2008, 14:53
insisto: ma sapete come funziona una 4870x2 o no? :asd:

si per ora in crossfire x ma ha già implementato un nuovo supporto che è il plx che non è ancora stato attivato via driver....;)
inoltre è su un unico pcb scalda e costa meno...quindi la migliore soluzione dual gpu in commercio :Prrr:

yossarian
10-12-2008, 14:54
dimensione dei chip. Ancora non vedo un commento costruttivo a riguardo del fatto che questa vga non è buona e la 4870x2 si (lasciamo perdere 3870x2/9800gx2...)


le dimensioni del chip sono il motivo principale; secondariamente, una soluzione del genere evita gli sbattimenti per progettare uno sli su unico pcb; questo accelera i tempi di rilascio delle soluzioni dual

Mr Resetti
10-12-2008, 14:55
...e comunque un scheda fatta così ha veramente senso? due PCB = doppio dello spazio occupato... inoltre usa la stessa tecnologia SLI e quindi è come se fossere due schede separate!! ma allora non conviene un sitema in SLI e amen?

Almeno ATI ha tirato fuori qualcosa di diverso (e forse più performante) nel costruire il bus di collegamento delle schede X2....

appleroof
10-12-2008, 14:56
si per ora in crossfire x ma ha già implementato un nuovo supporto che è il plx che non è ancora stato attivato via driver....;)
inoltre è su un unico pcb scalda e costa meno...quindi la migliore soluzione dual gpu in commercio :Prrr:

si ma domani esce una 10800gx2 con tre gpu su mezzo pcb che condividono con accesso diretto 4gb di memoria, oltre ad essere prodotte a 20nm e a consumare in tutto 50W :asd:

parlami di oggi :)

le dimensioni del chip sono il motivo principale; secondariamente, una soluzione del genere evita gli sbattimenti per progettare uno sli su unico pcb; questo accelera i tempi di rilascio delle soluzioni dual

e comunque non credo avessero molti margini di manovra con chip di quelle dimensioni, a meno di fare una scheda lunga più di 30cm...non trovi?

appleroof
10-12-2008, 14:57
E che vuoi farci apple... qui è zeppo di gente che di vga ne capisce poco e crede che una 4879X2 non sia una scheda che risente anch'essa dei limiti del CF.

qualcuno ha detto ignoranza (informatica) pregiudizio, o tifo? :asd: ;)

okorop
10-12-2008, 14:59
si ma domani esce una 10800gx2 con tre gpu su mezzo pcb che condividono con accesso diretto 4gb di memoria, oltre ad essere prodotte a 20nm e a consumare in tutto 50W :asd:

parlami di oggi :)



e comunque non credo avessero molti margini di manovra con chip di quelle dimensioni, a meno di fare una scheda lunga più di 30cm...non trovi?

guarda che il plx è dentro la scheda video 4870x2...parlo di adesso se yoss ci spiega qualcosa in merito.....comunque oggi chiedero' delucidazioni anche alla conferenza aperta di amd....

yossarian
10-12-2008, 15:01
si ma domani esce una 10800gx2 con tre gpu su mezzo pcb che condividono con accesso diretto 4gb di memoria, oltre ad essere prodotte a 20nm e a consumare in tutto 50W :asd:

parlami di oggi :)



e comunque non credo avessero molti margini di manovra con chip di quelle dimensioni, a meno di fare una scheda lunga più di 30cm...non trovi?

se ricordi, l'ho detto dall'uscita di gt200: niente dual su singolo pcb, né a 65 né a 55 nm (non credo che siano riusciti a scendere sotto i 450 mm^2)

appleroof
10-12-2008, 15:05
guarda che il plx è dentro la scheda video 4870x2...parlo di adesso se yoss ci spiega qualcosa in merito.....comunque oggi chiedero' delucidazioni anche alla conferenza aperta di amd....

io dico che se fosse stato possibile implementarlo, perchè avrebbe portato vantaggi rispetto al CF, lo avrebbero fatto, altro motivo non ne vedo

devo pensare al solito vizio Ati di mettere 100 meraviglie tecncologiche nelle sue schede...totalmente inutili? :asd:

oggi, la 4870x2 funziona come 2 vga distinte in crossfire, con tutti i pregi e difetti di tale soluzione (e che condivide con lo sli, grossomodo).

per il resto, consuma molto, costa molto, non scla al 100% e appunto come tutte le soluzioni dual gpu odierne ha numerose magagne sw: dei difetti della gtx295 che avete citato (peraltro non ho letto da nessuna parte 600 euro e 600w di consumo :what: ) la 4870x2 li ha tutti :eek:

appleroof
10-12-2008, 15:09
se ricordi, l'ho detto dall'uscita di gt200: niente dual su singolo pcb, né a 65 né a 55 nm (non credo che siano riusciti a scendere sotto i 450 mm^2)

si, ricordo (se non sbaglio gt200@55nm ha circa le dimensioni di g80@90nm). Ma per una scheda top, dalla quale voglio il massimo in prestazioni, davvero può rappresentare un'ostacolo il dual pcb? Affermarlo mi sembra ipocrita (ovviamente non mi riferisco a te, è solo una riflessione) laddove queste schede non sono destinate ad htpc ( :asd: )

per il resto, a questo livello, assumono un rilievo altrettanto irrilevante i consumi, il calore ecc (difetti comuni a tutte le dual gpu che ho visto finora, e ci mancherebbe altro, aggiungo)

binoone
10-12-2008, 15:10
Già che ci sono potrebbero anche mettergli la presa per collegarla direttamente alla 220.

appleroof
10-12-2008, 15:10
ecco... e speriamo, che una buona volta sia chiaro anche ai più "distratti". :D

ci spero poco, anzi secondo me non avverrà affatto :D

!fazz
10-12-2008, 15:11
Già che ci sono potrebbero anche mettergli la presa per collegarla direttamente alla 220.

non mi ricordo con che scheda ma alcuni anni fà è stato fatto :D :D

demon77
10-12-2008, 15:13
Con una news come questa er scontata la guerra tra i fanboy delle due fazioni.. vabbeh..

In generale, come ho già detto, trovo insensate soluzioni così estreme per l'utilità che hanno adesso.. cioè giusto giusto giocare a risoluzioni folli.
Ma del resto è pur sempre una fascia di mercato con la sua clientela..

La questione dual pcb o single direi che è da vedere.. del resto entrambe hanno i loro pregi e difetti:
non dimentichiamo che il singolo pcb ha sì un design più pulito ma la scheda finale è grande un paio di metri quadri..

Flying Tiger
10-12-2008, 15:13
ecco... e speriamo, che una buona volta sia chiaro anche ai più "distratti". :D

Mi sa che non e' chiaro a voi un fatto ....qui non si tratta di denigrare o meno la 4870X2 , quanto invece il constatare che i difetti di quest' ultima sono stati interamente replicati da questa " nuova " meraviglia di Nvidia .....per questo mi chiedevo e vi chiedo dove stia la novita'.....

halduemilauno
10-12-2008, 15:15
...e comunque un scheda fatta così ha veramente senso? due PCB = doppio dello spazio occupato... inoltre usa la stessa tecnologia SLI e quindi è come se fossere due schede separate!! ma allora non conviene un sitema in SLI e amen?

Almeno ATI ha tirato fuori qualcosa di diverso (e forse più performante) nel costruire il bus di collegamento delle schede X2....

è proprio fatta per tutti quelli che non hanno schede madri che supportano lo sli.

Danielerapido
10-12-2008, 15:15
Sai cosa cavolo mi importa se è con due PCB uniti e comunicanti con la tecnologia Sli...tanto anche x la 4870 è la stessa cosa solo che ha un solo PCB ma sempre comunicanti con il crossfire...vedremo poi il prezzo la potenza e l'affidabilità...spero solo che non riscaldi molto e che riescano poi a chiuderla con una bella ventola di raffreddamento...un difetto tanto in una scheda video c'è sempre...mi chiedo cosa faranno tra un paio di mesi visto che una scheda video di top gamma occupa un sacco di spazio...dovrebbero ridurre le dimensioni e il consumo in watt se no x giocare si deve fare un doppio contratto con l'enel ed avere due contatori in casa!!!!

Scruffy
10-12-2008, 15:15
ottima vga direi: premetto cmq che con 240 sP a gpu si parla di 280gtx e non di 260gtx come altri citano.
secondo 600€ non son tanti se si pensa che 1 sola 280 costa sui 300-350€ .

avere 2 gpu su unico pcb, renderebbe 1° la vga lunga almeno il doppio, e con un sistema di dissipazione cmq elevato. così invece c'è spazio per tutta la circuiteria di cui questa scheda avrà bisogno.

prestazioni? lo sli in molti giochi viene sfruttato e dove va... le differenze si vedono. poi cmq queste son soluzioni diciamo top di gamma ( per coloro magari che la abbineranno ad X58 affiancandone magari 4 di queste) ovvio non hanno problemi di €.

di sicuro sarà la futura sostituta alla mia attuale Gx2 che va molto bene e fa fascion nel case :D

demon77
10-12-2008, 15:16
non mi ricordo con che scheda ma alcuni anni fà è stato fatto :D :D

:D :D :D
E' VERO!!! Era una Vodoo 5 se non sbaglio!! :cool:

halduemilauno
10-12-2008, 15:17
se ricordi, l'ho detto dall'uscita di gt200: niente dual su singolo pcb, né a 65 né a 55 nm (non credo che siano riusciti a scendere sotto i 450 mm^2)

esatto. infatti è 470 mm^2.

halduemilauno
10-12-2008, 15:18
le dimensioni del chip sono il motivo principale; secondariamente, una soluzione del genere evita gli sbattimenti per progettare uno sli su unico pcb; questo accelera i tempi di rilascio delle soluzioni dual

talmente ovvio. ma evidentemente non per tutti.

goldorak
10-12-2008, 15:21
ahahhahaahahahahhahahahhahahhahah

non ci posso credere!

Nvidia did it again!

600 Euro per un sandwich da 300W!

Ma dai..... ma come si fa.... -_-

Perseverano dopo la GX2....

Abbiamo la top! Eh si!
L'unica TOP... DUAL GPU - DUAL PCB!!!!

600 € per una scheda che durera' si e no 2 mesi sul mercato. :asd: E cioe' fino all'arrivo delle soluzioni a 40nm in casa ATI e qualche mese piu' tardi in casa Nvidia. Certo si spera che con i 40nm la Nvidia abbia un po' di decenza e non riproponga la serie G80/G92/G92b/... come schede di fascia media/medio bassa. :rolleyes:

appleroof
10-12-2008, 15:22
per i consumi, una 4870x2 consuma poco più di uno sli di gtx260 (parlo di quelle a 65nm)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/

:)

ghiltanas
10-12-2008, 15:23
diciamo quindi che questa gpu è solo per venire incotro a una ristrettissima fascia di mercato, che invece di prendersi due gpu gtx285 prenderà questa, giusto?( cmq a me le soluzioni dual nn piacciono...)

riepilogando la nomenclatura futura sarà la seguente?:

gtx295: dual gpu (di gtx285?)
gtx280 -> (diventerà) gtx285
gtx260 216sp -> gtx265

è corretto?

Flying Tiger
10-12-2008, 15:23
ottima vga direi: premetto cmq che con 240 sP a gpu si parla di 280gtx e non di 260gtx come altri citano.

Non direi proprio , sono delle 260GTX con gli sp portati a 240 , infatti sia il bus che la quantita' di ram rimangono quelli di questa serie , cioe' 448bit e 896 Mbytes .

Mentre le 280GTX hanno il bus a 512bit e 1Gb di ram.....

ElBizio
10-12-2008, 15:24
Originariamente inviato da: binoone
Già che ci sono potrebbero anche mettergli la presa per collegarla direttamente alla 220.


Originariamente inviato da: johnp1983
già che ci sei potevi anche evitare di scrivere sto post visto che non lo ritengo fonte di informazione trascendentale.


.....ELLAMADONNA......
raga, è "soltanto" una scheda video e non di sole schede video si nutre l'uomo

a parte l'OT, due gpu su due pcd con doppio bus e quantitativo di memoria....IMHO non è una nuova scheda video, sono due gtx280 in sli factory default, ne consegue che costerà il doppio di una singola gtx280 (forse di più perchè la manodopera per assemblarla qualcuno la deve pagare), scalderanno presumibilmente un po' di più della singola scheda se raddoppiano il sistema di raffreddamento su ogni pcb, e certamente consumeranno il doppio; per le prestazioni è inutile dire se scaleranno bene o male, i bench ce lo diranno...e poi lo sappiamo tutti che alla'uscita di ogni GPU i driver fanno cacare, prima di parlare di prestazioni quindi dovremmo aspettare le nuove release

scusate se mi sono dilungato

ghiltanas
10-12-2008, 15:26
un'altra cosa: nn dico assolutamente che è regalata, però nn bisogna sparare cifre a caso, se il prezzo sarà allineato alla 4870x2 perchè vi ostinate a dire 600? quando questa costa 460 euro circa?:mbe:

appleroof
10-12-2008, 15:28
Mi sa che non e' chiaro a voi un fatto ....qui non si tratta di denigrare o meno la 4870X2 , quanto invece il constatare che i difetti di quest' ultima sono stati interamente replicati da questa " nuova " meraviglia di Nvidia .....per questo mi chiedevo e vi chiedo dove stia la novita'.....

ma è proprio questo il punto: allo stato attuale le soluzioni di casa Nvidia e Ati hanno gli stessi pregi (prestazioni) e difetti (tutto il resto) perchè ancora nessuna delle due ha inventato qualcosa di veramente nuovo a livello di concetto (seguendo il tuo ragionamento come concetto complessivo la 4870x2 imita la 9800gx2 che imita la 3870x2 che imita la 7900gx2 ecc ecc)

la differenza è che una può costruire su 1 pcb perchè i suoi chip sono piccoli, l'altra no, ma all'atto pratico questo fà una differenza pari praticamente zero, da tutti i punti di vista

per questo mi fanno ridere certi commenti fanboistici: è il proverbiale bue che dà del cornuto all'asino :boh:

Flying Tiger
10-12-2008, 15:28
Ulteriore novità sta nel fatto che nVidia torna leader della fascia enthusiast... se per te neanche questo è degno di notizia, puoi benissimo non commentare (deja-vu).

Piu' che degno di notizia mi piacerebbe sapere da quali fonti hai tratto questa conclusione , visto che non mi pare che in giro ci siano bench o comparative a supportare questa affermazione.....o sbaglio ?....

goldorak
10-12-2008, 15:29
un'altra cosa: nn dico assolutamente che è regalata, però nn bisogna sparare cifre a caso, se il prezzo sarà allineato alla 4870x2 perchè vi ostinate a dire 600? quando questa costa 460 euro circa?:mbe:

Perche' la storia insegna che le schede Nvidia anche quando hanno prestazioni allineate alle controparte ATI costano sempre un botto in piu' (forse perche' non includono tutte quelle tecnologie da alcuni ritunute inutili :Perfido: ).
Forse questa dual gpu non costera' 600 €, ma un buon 500+€ non gliela toglie nessuno.
Si accettano scomesse. :asd:

Edit: credo che tra l'altro andra' a finire come per la 9800gx2. E cioe' una situazione in cui 2 8800GT in sli si mangiavano letteralmente la 9800gx2 come prestazione. E se ricordate molti siti sotto "influenza verde" non mettevano questo aspetto in risalto. Con la conseguenza che il consumatore andava a spendere un pacco di soldi per avere prestazioni inferiori a quelle ottenibili con 2 8000GT. :asd: Vogliamo scommettere che due GTX260 in SLI faranno a pezzi questo mostro dual pcb sia come prestazioni che come prezzo ? :Perfido:

yossarian
10-12-2008, 15:31
guarda che il plx è dentro la scheda video 4870x2...parlo di adesso se yoss ci spiega qualcosa in merito.....comunque oggi chiedero' delucidazioni anche alla conferenza aperta di amd....

il pex8647 progettato da PLX e implementato sulle 4870x2 è, di fatto, uno switch evoluto di tipo pci-e di II generazione a 48 piste (3 da 16, una per il collegamento del bridge chip con il pcb e, quindi con ram e cpu, l'altra per i due collegamenti delle due cpu con il bridge)

per chi vuole più informazioni

http://www.plxtech.com/pdf/product_briefs/PEX8647_Product_Brief_v0.96_10Oct08.pdf

manicomic
10-12-2008, 15:31
Sinceramente trovo queste schede quasi inutili, stesso discorso vale anche per la x4870 x2... costano uno sproposito, consumano ancora di piu', necessitano di alimentatori mostruosi, scaldano quanto un fornetto per offrire un plus di prestazioni rispetto ad una x4870 o una gtx 260/280 tutt'altro che entusiasmante... inoltre dopo solo 1 anno diventano dei pezzi di antiquariato, superati in prestazioni da modelli che costano 150 euro, cosumano 4 volte di meno e non hanno problemi di temperature.

GT82
10-12-2008, 15:31
Sto bolide si mangerà come minimo 300 watt da solo!

ahahhahaahahahahhahahahhahahhahah

non ci posso credere!

Nvidia did it again!

600 Euro per un sandwich da 300W!

Ma dai..... ma come si fa.... -_-

Perseverano dopo la GX2....

Abbiamo la top! Eh si!
L'unica TOP... DUAL GPU - DUAL PCB!!!!


Quoto

se andiamo avanti di 'sto passo, ci sarà gente che chiede all'Enel di passare da 3 a 4-5 KW di potenza

per videogiocare...:muro: :muro: :doh: assurdo

solo in America le console consumano all'anno 16 mila Gigawatt, metà del consumo annuo del Veneto (industrie comprese)

e la console che consuma di più è la PS3 (150 watt)

come diavolo si fa a proporre schede video che da sole ne pappano 300, aggiungeteci altri 130-150 watt per il resto del pc (scheda madre, processore, ram, dischi, ecc.) e ci ritroviamo una game station che chiede mezzo chilo di corrente

aggiungiamoci magari 200 watt medi per il plasma/lcd da 32" in su e il consumo del sistema 5.1


questi ultimi due ce li ho anch'io per carità, il pc da gioco però ho deciso per principio che deve stare entro i 200 watt
quindi allo stato attuale della tecnologia massimo una 4850 e l'anno prossimo un quad a 45 nm, per adesso tengo l'E5200

Flying Tiger
10-12-2008, 15:31
ma è proprio questo il punto: allo stato attuale le soluzioni di casa Nvidia e Ati hanno gli stessi pregi (prestazioni) e difetti (tutto il resto) perchè ancora nessuna delle due ha inventato qualcosa di veramente nuovo a livello di concetto (seguendo il tuo ragionamento come concetto complessivo la 4870x2 imita la 9800gx2 che imita la 3870x2 che imita la 7900gx2 ecc ecc)

la differenza è che una può costruire su 1 pcb perchè i suoi chip sono piccoli, l'altra no, ma all'atto pratico questo fà una differenza pari praticamente zero, da tutti i punti di vista

per questo mi fanno ridere certi commenti fanboistici: è il proverbiale bue che dà del cornuto all'asino :boh:

Guarda mi devo complimentare con te , hai centrato perfettamente la questione , che era poi quello che volevo dire io , e sono piu' che d' accordo con le tue argomentazioni .

Tra l' altro se guardi la mia firma ho una Nvidia e ho sempre avuto schede di questo brand.......

appleroof
10-12-2008, 15:35
il pex8647 progettato da PLX e implementato sulle 4870x2 è, di fatto, uno switch evoluto di tipo pci-e di II generazione a 48 piste (3 da 16, una per il collegamento del bridge chip con il pcb e, quindi con ram e cpu, l'altra per i due collegamenti delle due cpu con il bridge)

in estrema sostanza, un chip al posto del "ponticello" sli ma la scheda funziona in CF.

Corretto?

Guarda mi devo complimentare con te , hai centrato perfettamente la questione , che era poi quello che volevo dire io , e sono piu' che d' accordo con le tue argomentazioni .

:mano:

edit, ho visto che hai editato: guarda che potevi avere anche un'Ati in firma e avere avuto sempre ati in vita tua, la sostanza non sarebbe cambiata, credimi :)

Kharonte85
10-12-2008, 15:37
Ovvia e attesa risposta alla X2 di AMD, anche se come caratteristiche fa davvero sul serio non me la aspettavo così "carogna"...Per una volta il nome mi pare corretto dato che si collocherà sopra la gtx 280, curioso anche di vedere il refresh singolo di gt200 se porterà qualche novità.

Poi ormai mi viene da sorridere tutte le volte che esce una dual GPU i soliti commenti triti e ritriti...poi quello che mi scompiscia appunto è vedere come a seconda di chi la fa la si osanna o la si cosparge di melma...:doh:

Mettevi il cuore in pace, sono soluzioni che puntano ad ottenere il max non a fare economia, quindi è abbastanza inutile fare certi tipi di commenti...se vi fa schifo non la comprate e lasciate spazio alle considerazioni tecniche e commenti costruttivi.

ElBizio
10-12-2008, 15:38
finalmente un commento equilibrato

yossarian
10-12-2008, 15:40
in estrema sostanza, un chip al posto del "ponticello" sli ma la scheda funziona in CF.

Corretto?



si, le schede funzionano in CF; il vantaggio è che avendo un chip al posto del ponticello è possibile affidarsi ad un arbiter di tipo HW

http://www.plxtech.com/pdf/product_briefs/PEX8647_Product_Brief_v0.96_10Oct08.pdf

halduemilauno
10-12-2008, 15:41
Ovvia e attesa risposta alla X2 di AMD, anche se come caratteristiche fa davvero sul serio non me la aspettavo così "carogna"...Per una volta il nome mi pare corretto dato che si collocherà sopra la gtx 280, curioso anche di vedere il refresh singolo di gt200 se porterà qualche novità.

Poi ormai mi viene da sorridere tutte le volte che esce una dual GPU i soliti commenti triti e ritriti...poi quello che mi scompiscia appunto è vedere come a seconda di chi la fa la si osanna o la si cosparge di melma...:doh:

Mettevi il cuore in pace, sono soluzioni che puntano ad ottenere il max non a fare economia, quindi è abbastanza inutile fare certi tipi di commenti...se vi fa schifo non la comprate e lasciate spazio alle considerazioni tecniche e commenti costruttivi.

quoto.
;)

appleroof
10-12-2008, 15:41
cut

Poi ormai mi viene da sorridere tutte le volte che esce una dual GPU i soliti commenti triti e ritriti...poi quello che mi scompiscia appunto è vedere come a seconda di chi la fa la si osanna o la si cosparge di melma...:doh:

cut

io sono bipartisan: attualmente, non mi piacciono le soluzioni dual gpu, Ati o Nvidia che siano :D

per il resto, ovviamente sono d'accordissimo con te ;)

al135
10-12-2008, 15:44
dimensione dei chip. Ancora non vedo un commento costruttivo a riguardo del fatto che questa vga non è buona e la 4870x2 si (lasciamo perdere 3870x2/9800gx2...)

si so che è per la dimensione dei chip ovvio.
tuttavia si nota che a 65 e 55 la dimensione del chip sembra uguale dalle foto...:confused:

Kharonte85
10-12-2008, 15:44
io sono bipartisan: attualmente, non mi piacciono le soluzioni dual gpu, Ati o Nvidia che siano :D

per il resto, ovviamente sono d'accordissimo con te ;)

Quello anche a me, per me è melma assicurata per entrambe...:banned: :D

Pero' ovviamente sono curioso di vedere cosa combinano e riescono a fare ;)

appleroof
10-12-2008, 15:48
si, le schede funzionano in CF; il vantaggio è che avendo un chip al posto del ponticello è possibile affidarsi ad un arbiter di tipo HW

http://www.plxtech.com/pdf/product_briefs/PEX8647_Product_Brief_v0.96_10Oct08.pdf

all'atto pratico questo cosa dovrebbe comportare? una migliore scalabilità?

si so che è per la dimensione dei chip ovvio.
tuttavia si nota che a 65 e 55 la dimensione del chip sembra uguale dalle foto...:confused:

allora se lo sai (addirittura dici ovvio) perchè te lo chiedi? :stordita:

quanto alle dimensioni del chip, non credo chiaramente sia uguale..credo che sia l'HIS ad essere uguale

Quello anche a me, per me è melma assicurata per entrambe...:banned: :D

Pero' ovviamente sono curioso di vedere cosa combinano e riescono a fare ;)

idem ;)

al135
10-12-2008, 15:48
vai ati .. pentiumDizza questa scheda e facci godere :oink:

superbau
10-12-2008, 15:49
bhe cmq sia... finalmente, anche se a prezzi folli, uno può farsi un sli con chipset intel nella mobo con sti panettoni.... almeno ora si può... non vedo pk accanirsi tanto.. era un po il desiderio di tutti quelli che montavano chipset intel o sbaglio...almeno in passato?

ora ce l'avete.. ma l'unica cosa che uno sa dire è sputare nel piatto.. mha nn capisco..

certo io non me la prenderò mai, visto che sarà abbondantemente sopra il mio budget di spese per il mio pc, però... se potessi... magari...

al135
10-12-2008, 15:52
bhe cmq sia... finalmente, anche se a prezzi folli, uno può farsi un sli con chipset intel nella mobo con sti panettoni.... almeno ora si può... non vedo pk accanirsi tanto.. era un po il desiderio di tutti quelli che montavano chipset intel o sbaglio...almeno in passato?

ora ce l'avete.. ma l'unica cosa che uno sa dire è sputare nel piatto.. mha nn capisco..

certo io non me la prenderò mai, visto che sarà abbondantemente sopra il mio budget di spese per il mio pc, però... se potessi... magari...

ma infatti ora avro' piu scelta.
:D

Mparlav
10-12-2008, 15:52
Sta' scheda tecnicamente sta' alla 9800GX2 come la HD4870 X2 sta' alla HD3870 X2.

Dove è lo stupore? Sono entrambe ridicole.

Quello che trovo divertente invece, è che certi commenti si leggono solo quando esce la scheda Nvidia, mentre quando esce quella Ati è un "capolavoro d'ingegneria" :-)

E sui consumi, secondo me consumerà tanto quanto la HD4870 X2, sia in idle che in full load, anche se dipende soprattutto dal clock gpu che decidono di adottare.

Prezzo? Saranno 450-500 euro.
Prestazioni? Basta prendere 2x GTX260-216SU in SLI e si ha una buona approssimazione.

In sostanza, nulla di nuovo rispetto alla primavera scorsa, e come già accaduto, finiranno nel dimenticatoio non appena usciranno le schede di nuova generazione l'estate prossima, sia Ati che Nvidia.

ucuc
10-12-2008, 15:55
2 pcb a sandwich? :asd: ma nvidia lo sa che siamo nel 2008? :asd:

Sì, quasi 2009...
Ma vuoi mettere due GPU che fanno sesso??
:smack:

Dopo qualche mese potresti ritrovarti un'altra nVidia sull'altro slot PCIe...

ninja750
10-12-2008, 15:56
la differenza è che una può costruire su 1 pcb perchè i suoi chip sono piccoli, l'altra no, ma all'atto pratico questo fà una differenza pari praticamente zero, da tutti i punti di vista

a scatola chiusa e soffermandoci sulle performance no, ma dal punto di vista tecnico e di immagine un megasandwitch come questo nel 2009 fa ridere i polli senza contare che a questo punto se ati volesse e gli alimentatori lo permettessero.. potrebbe fare un sandwitch di due 4870x2 ;)

ninja750
10-12-2008, 15:57
Sì, quasi 2009...
Ma vuoi mettere due GPU che fanno sesso??
:smack:

Dopo qualche mese potresti ritrovarti un'altra nVidia sull'altro slot PCIe...

bello si potrà usare per il physix

halduemilauno
10-12-2008, 15:57
Sì, quasi 2009...
Ma vuoi mettere due GPU che fanno sesso??
:smack:

Dopo qualche mese potresti ritrovarti un'altra nVidia sull'altro slot PCIe...

esatto una GPUina.
:D

ninja750
10-12-2008, 15:57
Sta' scheda tecnicamente sta' alla 9800GX2 come la HD4870 X2 sta' alla HD3870 X2.

Dove è lo stupore? Sono entrambe ridicole.

su questo siamo d'accordo

la sottigliezza sta che essendo due esercizi di stile, chiamiamoli così, quello di nvidia stona un po

robox88
10-12-2008, 16:01
secondo me questa scheda ha poco senso...ma vi spiego subito perchè...

secondo voi ati o nvidia non sarebbero capaci di fare "una" scheda con 2, 3 o 4 schede collegate l'una all'altra con 2, 3 o 4 pcb etc?..beh si e questo è un po quello che ha fatto nvidia mettendo queste 2 schede appiccicate tanto per dire che nvidia avrà la scheda(ma in realtà le schede) più potente..se ati volesse anche lei potrebbe unire così 2 schede..che cavolo ci vuole..ma almeno ati si è sforzata un po e le ha messe in un unico pcb anche se alla fine entrambe le schede comunica una con crossfire e l'altra con lo sli..

ma questa soluzione adottata da nvidia sembra proprio una cosa fatta con i piedi..

poi vabbè..sarà la scheda più potente dell'universo..ma vabbè..alla prossima generazione di schede questa risulterà piuttosto inutile anche per quelli che giocano a risoluzioni altissime..

appleroof
10-12-2008, 16:05
Sì, quasi 2009...
Ma vuoi mettere due GPU che fanno sesso??
:smack:

Dopo qualche mese potresti ritrovarti un'altra nVidia sull'altro slot PCIe...

bella questa :asd:

a scatola chiusa e soffermandoci sulle performance no, ma dal punto di vista tecnico e di immagine un megasandwitch come questo nel 2009 fa ridere i polli senza contare che a questo punto se ati volesse e gli alimentatori lo permettessero.. potrebbe fare un sandwitch di due 4870x2 ;)

:eek: azz, arrivare a definire i fan rossi dei polli mi sembra eccessivo però...



:D :D :D

Darkbit
10-12-2008, 16:05
L'ideale sia per Ati che Nvidia sarebbe una programmazione simile a Intel, tick tock, nuova tecnologia e poi riduzione del processo produttivo...simile perchè anche loro non è che siano poi così coerenti, dato che si è è rispolverato l'hyper-threading.
Se Ati non porta dalla sua qualche gioco di rilievo la sfida sarà comunque e sempre impari.(vedi notizia fresca su mirror's edge)

Kharonte85
10-12-2008, 16:05
Sì, quasi 2009...
Ma vuoi mettere due GPU che fanno sesso??
:smack:

Dopo qualche mese potresti ritrovarti un'altra nVidia sull'altro slot PCIe...
:sbonk:

C'è un piccolo dettaglio pero': sono omosex quindi niente proliferazione :O :D

:eek: azz, arrivare a definire i fan rossi dei polli mi sembra eccessivo però...

autogol...:asd:

appleroof
10-12-2008, 16:11
autogol...:asd:

edit và

Mparlav
10-12-2008, 16:16
Stona quella Nvidia perchè usa 2 pcb invece di 1, ma fa' a meno del chip Plex?
Se in soldoni cambiasse qualcosa per l'utente, sarei d'accordo.

Ma entrambe le soluzioni hanno driver che gestiscono lo SLi/Crossfire "a modo loro", con i soliti problemi di profiling, di microshuttering, di necessità del doppio di memoria perchè non è condivisa tra le gpu, oltre che rapporto prestazioni/consumi indecente rispetto alla singola scheda.

A qualcuno va' bene e sono disposti ad accettarlo.

Ad altri no :-)

yossarian
10-12-2008, 16:18
all'atto pratico questo cosa dovrebbe comportare? una migliore scalabilità?



una maggior effiicienza che tradotta in altri termini significa più scalabilità e migliori prestazioni, maggior trasparenza al SW (insomma, i vantaggi di una gestione HW su una SW) . Ovviamente il chip va programmato all'uopo (casualmente esiste anche un devkit) :D

Kharonte85
10-12-2008, 16:18
Piuttosto si parlava di consumi "umani" un tdp intorno ai 290w, chissa' che non riescano ad ottenere un buon risultato o perlomeno allineato (paragonato alla 4870 x2)

M@tteo79
10-12-2008, 16:34
E' una vergogna constatare come uno dei migliori siti di sempre in materia di hardware (Hwupgrade) abbia un Forum non all'altezza della situazione.
Ho letto 5 pagine di gente che si insulta o che volutamente formula discorsi di parte con il fine unico di irritare i potenziali "nemici" e di scatenare infiniti botta e risposta.

Invece di gioire nei confronti di un'azienda che tra un paio di settimane renderà disponibili schede grafiche dalle grandi prestazioni a prezzi e consumi inferiori a quelli attuali.. qualcuno si ostina a percorrere la propria strada difendendo a tutti i costi la propria "bandiera".

GTX260@55nm ---> Costerà meno, scalderà meno, consumerà meno e si overcloccherà di più.

GTX285 ---> Costerà meno della GTX280, andrà decisamente di più e scalderà meno.

GTX295 ---> Consumerà quanto una HD 4870X2, andrà decisamente di più e costerà (LO DICE LA NEWS) uguale.

Accettate la realtà attuale e il futuro (tutto Blu e Verde... per CPU e GPU rispettivamente).

hibone
10-12-2008, 16:37
Piuttosto si parlava di consumi "umani" un tdp intorno ai 290w, chissa' che non riescano ad ottenere un buon risultato o perlomeno allineato (paragonato alla 4870 x2)

boh... a me quella foto sembra tanto un tarocco...

Flying Tiger
10-12-2008, 16:38
Stona quella Nvidia perchè usa 2 pcb invece di 1, ma fa' a meno del chip Plex?
Se in soldoni cambiasse qualcosa per l'utente, sarei d'accordo.

Ma entrambe le soluzioni hanno driver che gestiscono lo SLi/Crossfire "a modo loro", con i soliti problemi di profiling, di microshuttering, di necessità del doppio di memoria perchè non è condivisa tra le gpu, oltre che rapporto prestazioni/consumi indecente rispetto alla singola scheda.

A qualcuno va' bene e sono disposti ad accettarlo.

Ad altri no :-)

Infatti , un' analisi che mi trova assolutamente d' accordo , ora come ora le soluzioni multigpu , indifferentemente nvidia o ati , non hanno ancora raggiunto quella maturita' necessaria per essere sfruttate a dovere , e spesso sono fonte piu' di problemi che di vantaggi , a discapito delle prestazioni che sulla carta dovrebbero essere particolarmente elevate , salvo poi scoprire che in realta' cosi' non e'.....

Per quanto mi riguarda continuo a preferire le soluzioni a singola gpu...

hibone
10-12-2008, 16:40
Ho letto 5 pagine di gente che si insulta o che volutamente formula discorsi di parte con il fine unico di irritare i potenziali "nemici" e di scatenare infiniti botta e risposta.

Accettate la realtà attuale e il futuro (tutto Blu e Verde... per CPU e GPU rispettivamente).


:wtf: simpatia e coerenza la fanno da padrone vedo..
chissà cosa ne pensa il mod...

RICKYL74
10-12-2008, 16:41
:wtf:
Ma non sarebbe stato meglio un bel 1024MbX2 a sto punto? bus memoria da 448bit ciascuno e quantitativo totale pari a 1.792 Mbytes ..visto ancora le GDDR3.
speriamo abbiano aggiornato l'architettura DX 10.1 e SM 4.1 e migliorato soprattutto l'HD, ummmh..

Cmq. per me e solo un discorso per dire io ho la scheda più potente sul mercato (solo marketing a scopo pubblicitario) lo sanno anche alla nVidia che una scheda così venderà per lo 0,1% .. Più che altro sono curioso di vedere i test (su i giochi) e se riusciranno a farla andare meglio a livello driver delle GX2 o GTX2 precedenti, poi il problema sarà affiancargli una CPU e un sistema adeguato per sfruttarla a dovere, che per questa scheda vedo solo X58 con core i7

in altre parole quella a singola CPU non sarà più la 290 ma la 285GTX? avrei giurato che i nomi delle schede in uscita sarebbero stati proprio questi: 270, 290.. che confusione con ste sigle.

al135
10-12-2008, 16:45
:wtf: simpatia e coerenza la fanno da padrone vedo..
chissà cosa ne pensa il mod...

hahahah ho pensato la stessa cosa stavo per quotarlo mi hai preceduto :D

ps: leggi il count dei messaggi :asd: mah... ormai non mi stupisco piu di niente :rotfl:

Kharonte85
10-12-2008, 16:47
:wtf:
Ma non sarebbe stato meglio un bel 1024MbX2 a sto punto? bus memoria da 448bit ciascuno e quantitativo totale pari a 1.792 Mbytes ..visto ancora le GDDR3.
speriamo abbiano aggiornato l'architettura DX 10.1 e SM 4.1 e migliorato soprattutto l'HD, ummmh..

Cmq. per me e solo un discorso per dire io ho la scheda più potente sul mercato (solo marketing a scopo pubblicitario) lo sanno anche alla nVidia che una scheda così venderà per lo 0,1% .. Più che altro sono curioso di vedere i test (su i giochi) e se riusciranno a farla andare meglio a livello driver delle GX2 o GTX2 precedenti, poi il problema sarà affiancargli una CPU e un sistema adeguato per sfruttarla a dovere, che per questa scheda vedo solo X58 con core i7

in altre parole quella a singola CPU non sarà più la 290 ma la 285GTX? avrei giurato che i nomi delle schede in uscita sarebbero stati proprio questi: 270, 290.. che confusione con ste sigle.

no, questo è proprio impossibile.

Gnubbolo
10-12-2008, 16:48
que porqueria amigo :asd:

e.cera
10-12-2008, 16:49
mi fa impressione che se si rompe una saldatura o una resistenza butti tutto quel mucchio di tecnologia,
tra l'altro smaltire componenti costa parecchio, e non é facile trovare qualcuno in grado di ripararla, teoricamente il decreto RAEE (impostoci dall'europa e rinviato svariate volte) imponeva ai produttori di farsi carico dei costi di smaltimento attualmente a carico dello stato (!), tale decreto, che doveva dal 3 novembre 2008 attivare i centri di raccolta, è stato ritirato dal Governo per “difetto formativo”....

atomo37
10-12-2008, 16:51
perchè si è così convinti che il prezzo sarà allineato a quello di una 4870x2? nvidia è sempre stata più cara di ati, figuriamoci su una scheda pesantemente più veloce.

M@tteo79
10-12-2008, 16:52
:wtf: simpatia e coerenza la fanno da padrone vedo..


Non sono qui per essere simpatico. Se vuoi ridere è sufficiente che ti guardi una puntata di Zelig. Stavo solo puntualizzando la realtà dei fatti che molti di voi sembrano volutamente ignorare.

E' indubbio che Intel (a fronte anche della recente news sui 32nm) ha creato una voragine tale da rendere quasi impossibile ad AMD un recupero nel breve periodo.

E' altresì indubbio che Nvidia (con la presentazione di tutte le sue nuove proposte a 55nm) si porterà avanti rispetto alla concorrenza sia in termini di prestazioni (assolute ma anche relative) che in termini di costi (e per l'azienda e per noi consumatori finali).

Sono dati di fatto.

M@tteo79
10-12-2008, 16:57
leggi il count dei messaggi :asd: mah... ormai non mi stupisco piu di niente :rotfl:

Sono dell'opinione che l'intelligenza di una persona non si debba misurare dal numero totale dei messaggi ad essa attribuiti. Una frase di questo tipo mi fa supporre che sono su Hwupgrade da prima che tu nascessi. ;)

Stefem
10-12-2008, 16:59
si, le schede funzionano in CF; il vantaggio è che avendo un chip al posto del ponticello è possibile affidarsi ad un arbiter di tipo HW

http://www.plxtech.com/pdf/product_briefs/PEX8647_Product_Brief_v0.96_10Oct08.pdf

Guarda che tutte le GX2 NVIDIA hanno avuto un bridge PCI-E, tra laltro la vedrei dura senza...

RICKYL74
10-12-2008, 17:02
no, questo è proprio impossibile.


Già.

più che altro spero fortemente per la riproduzione dei video in alta definizione, non si può vedere un video full HD andare a scatti con schede del genere.

ghiltanas
10-12-2008, 17:04
il punto sono anche i consumi: ati nonostante i 55nm da questo punto di vista (specie in idle) nn si può certo dire che ha lavorato granchè bene. Con i 55nm nvidia spero li abbasserà ulteriormente in tutte le gpu a cui verrà applicato il dieshrink.

al135
10-12-2008, 17:06
Sono dell'opinione che l'intelligenza di una persona non si debba misurare dal numero totale dei messaggi ad essa attribuiti. Una frase di questo tipo mi fa supporre che sono su Hwupgrade da prima che tu nascessi. ;)

e infatti non intendevo sottolineare quello ci mancherebbe ;)
ti dico tranquillamente che ho pensato a qualche lameruccio atto a registrarsi nuovamente tanto per divertirsi a scatenare flames. e te lo dico perche è successo in passato , succede e capitera' sempre ;)
e il post tuo di sopra, appunto detto da un altro utente, non è per niente simpatico ma sembra solamente atto a scatenare i suddetti flames.
oltre tutto da come la metti sembri davvero poco informato su tutto quanto il prossimo mercato sia da parte di amd sia da parte di ati ;)
ati andra' sui 40nm e probabilmente con un approccio multi gpu diverso da quello di ora. amd ha tirato fuori dei phenom2 che sembra vadano niente male , se sara' concorrenziale a livello prezzi visto il salto prestazionale non enorme degli i7 intel ci sara' un' ottima scelta;)
quindi caro mio ti sconsiglio di prendere parti o tifare per un' unica supremazia che sia blu , rossa , verde , perche a rimetterci saremmo propio noi consumatori :)

M@tteo79
10-12-2008, 17:06
il punto sono anche i consumi: ati nonostante i 55nm da questo punto di vista (specie in idle) nn si può certo dire che ha lavorato granchè bene. Con i 55nm nvidia spero li abbasserà ulteriormente in tutte le gpu a cui verrà applicato il dieshrink.

Quoto e noto con piacere che finalmente ti sei deciso per il TW2000. Ottimo acquisto!

!fazz
10-12-2008, 17:07
Non sono qui per essere simpatico. Se vuoi ridere è sufficiente che ti guardi una puntata di Zelig. Stavo solo puntualizzando la realtà dei fatti che molti di voi sembrano volutamente ignorare.

E' indubbio che Intel (a fronte anche della recente news sui 32nm) ha creato una voragine tale da rendere quasi impossibile ad AMD un recupero nel breve periodo.

E' altresì indubbio che Nvidia (con la presentazione di tutte le sue nuove proposte a 55nm) si porterà avanti rispetto alla concorrenza sia in termini di prestazioni (assolute ma anche relative) che in termini di costi (e per l'azienda e per noi consumatori finali).

Sono dati di fatto.

si diceva lo stesso di ati prima dell'uscita delle HD48**
e attento hai nuovi phenom2 che ha quanto detto promettono bene (rapporto qualità prezzo pauroso)

comunque questa nuova scheda nvidia la prenderò come tutte le doppie schede nn mi ispirano fiducia

2012comin
10-12-2008, 17:07
:wtf:
Ma non sarebbe stato meglio un bel 1024MbX2 a sto punto? bus memoria da 448bit ciascuno e quantitativo totale pari a 1.792 Mbytes ..visto ancora le GDDR3.
speriamo abbiano aggiornato l'architettura DX 10.1 e SM 4.1 e migliorato soprattutto l'HD, ummmh..

Cmq. per me e solo un discorso per dire io ho la scheda più potente sul mercato (solo marketing a scopo pubblicitario) lo sanno anche alla nVidia che una scheda così venderà per lo 0,1% .. Più che altro sono curioso di vedere i test (su i giochi) e se riusciranno a farla andare meglio a livello driver delle GX2 o GTX2 precedenti, poi il problema sarà affiancargli una CPU e un sistema adeguato per sfruttarla a dovere, che per questa scheda vedo solo X58 con core i7

in altre parole quella a singola CPU non sarà più la 290 ma la 285GTX? avrei giurato che i nomi delle schede in uscita sarebbero stati proprio questi: 270, 290.. che confusione con ste sigle.


Ho come la sensazione che queste cose non siano tanto immediate :) cmq è ancora dx10.
Anche io la penso come te riguardo al marketing. Ricordo che anche Nvidia la pensa così: in una intervista un responsabile (non ricordo nè il nome nè il ruolo sorry) dichiarò esplicitamente che era "nella filosofia dell'azienda avere la scheda Top prestazioni"... aggiungo giustamente :)

Però ragazzi, in 9 pagine di commenti almeno la metà sono "di parte" e contengono parecchi dati fuorvianti (specialmente su prezzi e consumi).
Commenti che contengono suggerimenti utili si vedono "raramente"... per esempio l'alimentatore consigliato, a che cpu associarla, con quale monitor inizia a far comodo averla, ecc...

Se ci si limita a portare avanti la "guerra" Nvidia/ATI parlando di doppio PCB o meno (come se fosse così fondamentale) si finisce col stancare chi legge

ghiltanas
10-12-2008, 17:09
E' altresì indubbio che Nvidia (con la presentazione di tutte le sue nuove proposte a 55nm) si porterà avanti rispetto alla concorrenza sia in termini di prestazioni (assolute ma anche relative) che in termini di costi (e per l'azienda e per noi consumatori finali).

Sono dati di fatto.

nn sono imho fatti cosi ovvi come dici te. Il costo ad esempio delle 4870 era elevato anche a causa delle gddr5, che adesso sono calate. Quando nvidia lancerà le revision, amd potrà permettersi di abbassare il prezzo delle sue attuali soluzioni, restando competitiva dal punto di vista economico.Per le prestazioni, l'esperenzia mi ha fatto capire che è molto meglio nn sbilanciarsi e aspettare di vedere le prime recensioni ufficiali e i test dell'utenza :)

ghiltanas
10-12-2008, 17:09
Quoto e noto con piacere che finalmente ti sei deciso per il TW2000. Ottimo acquisto!

OT è 'na bomba :D, giocare su un 95" è uno spettacolo :asd: CHIUSO OT

M@tteo79
10-12-2008, 17:11
e infatti non intendevo sottolineare quello ci mancherebbe ;)
ti dico tranquillamente che ho pensato a qualche lameruccio atto a registrarsi nuovamente tanto per divertirsi a scatenare flames. e te lo dico perche è successo in passato , succede e capitera' sempre ;)


Non è il mio caso. Sono un appassionato di Audio/Video (e mi trovi sui 2 principali Forum dedicati)

ti sconsiglio di prendere parti o tifare per un' unica supremazia che sia blu , rossa , verde , perche a rimetterci saremmo propio noi consumatori :)

Non sono uno che "prende le parti" ... mi limito semplicemente ad analizzare quello che il mercato offre oggi e domani e non posso non constatare la supremazia di Intel sul lato CPU (ripeto: hanno appena annunciato il completamento con successo e largo anticipo dei 32nm) e quella imminente di Nvidia con l'introduzione dei 55nm.

Kal-El
10-12-2008, 17:11
Ma che ridicoli in pratica hanno preso due 260 e incollate assieme.:D :doh:

nVidia:ciapet:

M@tteo79
10-12-2008, 17:13
attento hai nuovi phenom2 che ha quanto detto promettono bene (rapporto qualità prezzo pauroso)

Ti prometto che farò attenzione ai nuovi Phenom II ma tu fai attenzione alle "H". :p

ghiltanas
10-12-2008, 17:15
Non è il mio caso. Sono un appassionato di Audio/Video (e mi trovi sui 2 principali Forum dedicati)




però per esempio, per le feature audio video ati ha lavorato meglio di nvidia, permettendo la gestione del flusso audio video hd attraverso la gpu e imho è una cosa utilissima (infatti per questo penso di prendermi una 4870). Nvidia purtroppo da questo punto di vista pecca un pò...se dovessi scegliere solo in ambito game mi sa che resterei con nvidia però, perchè i driver generalmente sono migliori grazie forse ad un elevato numero di partenership

M@tteo79
10-12-2008, 17:16
Ma che ridicoli in pratica hanno preso due 260 e incollate assieme.:D :doh:

nVidia:ciapet:

Non sapevo che le GTX260 attuali avessero 240sp ... :doh:

ghiltanas
10-12-2008, 17:17
amd invece che ha in programma? vuol puntare solo su un ulteriore taglio dei prezzi e andare direttamente alla nuova serie? (che per quando sarebbe prevista poi?:confused: )

ReDeX
10-12-2008, 17:17
A mio parere il solito mostro di frankenstein, al pari della 4870 X2, per avere il primato delle prestazioni. Cmq aspetto di vedere come si comporta sul campo.

massimomarc
10-12-2008, 17:17
imho viene fuori una bella scheda, come prestazioni e consumi, rapportata alla x2.

L'unica cosa da discutere è il prezzo, adesso una 4870x2 si trova a 460 euro circa, riuscirà nvidia a proporre due chip 55nm con 240sp a testa a quel prezzo? contando che una gtx280 singola ( 240sp a 65nm) costa 400 euro oggi ... imho siamo sui 550\600 euro, felice di essere smentito cmq :)

RICKYL74
10-12-2008, 17:19
Ho come la sensazione che queste cose non siano tanto immediate :) cmq è ancora dx10.
Anche io la penso come te riguardo al marketing. Ricordo che anche Nvidia la pensa così: in una intervista un responsabile (non ricordo nè il nome nè il ruolo sorry) dichiarò esplicitamente che era "nella filosofia dell'azienda avere la scheda Top prestazioni"... aggiungo giustamente :)

Però ragazzi, in 9 pagine di commenti almeno la metà sono "di parte" e contengono parecchi dati fuorvianti (specialmente su prezzi e consumi).
Commenti che contengono suggerimenti utili si vedono "raramente"... per esempio l'alimentatore consigliato, a che cpu associarla, con quale monitor inizia a far comodo averla, ecc...

Se ci si limita a portare avanti la "guerra" Nvidia/ATI parlando di doppio PCB o meno (come se fosse così fondamentale) si finisce col stancare chi legge



Hai ragione, bisognerebbe commentare da un lato un pò più costruttivo..
ma che vuoi quando si parla di schede video si scatena di tutto e di più :D

Beh!! sul monitor una scheda del genere la compri se possiedi almeno un 24" full hd (Minimo) altrimenti soldi sprecati. Per l'alimentatore dipende dall'intero sistema, se punti ad avere il max e chi sceglie una scheda del genere vuol dire che punta al massimo il sistema sarà costruito con componenti di qualità e al top quindi un alimentatore di qualità di almeno 800/850Watt e quasi d'obbligo, io metterei su senza pensarci tanto un 1000watt. Poi per quanto riguarda i consumi, beh!! stiamo parlando di fascia ENTHUSIAST ogni commento sarebbe superfluo. IMHO..

appleroof
10-12-2008, 17:22
:wtf:
Ma non sarebbe stato meglio un bel 1024MbX2 a sto punto? cut

quoto, su una scheda di questo tipo, destinata per sua natura a uber risoluzioni, mi sarei senz'altro aspettato 1 gb (sfruttata) di ram....

M@tteo79
10-12-2008, 17:24
però per esempio, per le feature audio video ati ha lavorato meglio di nvidia, permettendo la gestione del flusso audio video hd attraverso la gpu e imho è una cosa utilissima (infatti per questo penso di prendermi una 4870). Nvidia purtroppo da questo punto di vista pecca un pò...se dovessi scegliere solo in ambito game mi sa che resterei con nvidia però, perchè i driver generalmente sono migliori grazie forse ad un elevato numero di partenership

Hai ragione in parte. Inizialmente lo pensavo anch'io poi quando ho scoperto che è possibile fare la stessa cosa utilizzando la nuova scheda sonora presentata da Asus (collegando via HDMI la VGA alla scheda sonora e uscendo da quest'ultima, sempre in HDMI, al sinto o al VPR direttamente) con qualsiasi scheda grafica dotata di connettore HDMI (non molte a dire la verità) mi sono messo il cuore in pace.

Stefem
10-12-2008, 17:25
Stona quella Nvidia perchè usa 2 pcb invece di 1, ma fa' a meno del chip Plex?
Se in soldoni cambiasse qualcosa per l'utente, sarei d'accordo.

Ma entrambe le soluzioni hanno driver che gestiscono lo SLi/Crossfire "a modo loro", con i soliti problemi di profiling, di microshuttering, di necessità del doppio di memoria perchè non è condivisa tra le gpu, oltre che rapporto prestazioni/consumi indecente rispetto alla singola scheda.

A qualcuno va' bene e sono disposti ad accettarlo.

Ad altri no :-)

A quanto ne so il micro stuttering è un problema della 3870X2 e questo te lo assicuro non lo è mai stato per le NVIDIA GX2.

Per quanto riguarda la memoria condivisa non credo che a livello prestazionale potrebbe portare a miglioramenti tangibili, ferme restando le sue dimensioni ovviamente.

ghiltanas
10-12-2008, 17:29
Hai ragione in parte. Inizialmente lo pensavo anch'io poi quando ho scoperto che è possibile fare la stessa cosa utilizzando la nuova scheda sonora presentata da Asus (collegando via HDMI la VGA alla scheda sonora e uscendo da quest'ultima, sempre in HDMI, al sinto o al VPR direttamente) con qualsiasi scheda grafica dotata di connettore HDMI (non molte a dire la verità) mi sono messo il cuore in pace.

per amor di Dio lascia stare la asus, fa acqua da tutte le parti, problemi a nn finire :doh: . purtroppo l'audio hd per htpc è molto penalizzato e attualmente è possibile praticamente soltanto con le ati 4000. Se vuoi una scheda audio seria per pc ti mando in pvt il nome una discussione in inglese dove se ne parla (purtroppo per alcuni problemi dovuti alla produzione la sua commercializzazione è slittata a gennaio, e se nn sbaglio è realizzata in collaborazione con nvidia)

Stefem
10-12-2008, 17:40
Ma che ridicoli in pratica hanno preso due 260 e incollate assieme.:D :doh:

nVidia:ciapet:

Perché una 4870X2 cos'è?

goldorak
10-12-2008, 17:41
Non sapevo che le GTX260 attuali avessero 240sp ... :doh:


Questo numero maggiorato di sp andra' a compensare una frequenza ridotta delle due gpu e magari unita' shaders rispetto alle GTX260 proprio per mantenere a livelli accettabili il consumo ed il TDP.
Quindi non e' detto che la GTX295 vada piu' forte di due GTX260 (216 sp). :stordita:

baila
10-12-2008, 17:44
Mancava propio un altro fornetto!!! :muro: :muro:

Dj Antonino
10-12-2008, 17:45
Già che ci sono potrebbero anche mettergli la presa per collegarla direttamente alla 220.
La Asus ci aveva provato qualche anno fa con la EN7800GT Dual.. ma è meglio dimenticare questo tipo di "innovazioni":D
http://i.testfreaks.se/images/products/600x400/159/asus-en7800gt-dual-2dhtv-512m.24223.jpg

Thunderace77
10-12-2008, 17:55
Certo che da contentissimo possessore di 4870x2, che ha seguito la gloriosa 8800gtx e una serie sia di nvidia e ati (9800pro e x1950xtx) aspettavo con ansia questa proposta dual GT200 di nvidia... il GT200 di certo è il single chip più potente e perciò una dual GT200 da 240+240 sp mi sa che sarà al vertice, sopra la 4870x2 di un massimo 15/20% realisticamente parlando e sensata da risoluzioni dalla 1680x1050 con filtri in su.

Per chi dice che le dual sono inutili lo dice perchè non ha un monitor >= 24"... in 1920x1200 altrochè se sono utili, ovviamente sono assurde se si gioca fino a 1440x900 o 1280x1024...

Altra cosa che mi fa storcere parecchio il naso è questa: che senso ha usare il chip con tutte e 240 le unità attive ed abbinarlo al bus per le ram castrato???? No dico, a questo livello pagavo anche 50 euro in più ma volevo 2 GB di ram totale e 512bit! Questa scelta è quantomeno discutibile soprattutto perchè una tale potenza elaboativa rende questa scheda parecchio longeva e ci sono già titoli (come GTA4) che usano 1 GB in pieno e altri ne verranno... inoltre la strozzatura di bandwidth sulle ram peggiorerà le prestazioni con i filtri, che già non brillano su GT200 soprattutto, rispetto alle 4870 e x2 che se ne sbattono altamente dell'AA che a 2X è "gratis" e a 4X perde un niente (2/3 fps su crysis); le GT200 con AA oltre i 1680x1050 droppano brutalmente e una 280 è sotto anche alla singola 4870 in questi casi.

Stringendo al nocciolo io che punto al top aspetto se fanno la versione a 512bit e 2GB, questa castrata se la tengono tutta.

Mparlav
10-12-2008, 17:56
x Stefem: tutte le schede dual gpu sono affette da microshuttering, nessuna esclusa. In alcune è più evidente di altri, ma dipende anche dal gioco, risoluzione e dai fps che si riescono ad ottenere.
Basta fare una ricerca su pcgameshardware.com

In merito alla memoria condivisa: avere 2Gb onboard ma poterne sfruttare in realtà 1, è un'enorme spreco, soprattutto economico (il doppio di memoria, ma anche doppio bus e doppie linee di collegamento).
Ma siccome è progettualmente "facile" perchè recupera tutto il lavoro fatto a livello driver in anni di sviluppo del rendering AFR, si continua su questa strada.

Saresti contento se la tua cpu dual core, con 4Gb di ram, avesse un limite di 2Gb per core?
Non penso :-)

ghiltanas
10-12-2008, 17:58
prima dicevo che amd dal canto suo potrebbe ridurre i prezzi come controffensiva:

http://www.tomshw.it/news.php?newsid=16343

direi che un taglio del genere portebbe a una bella lotta ;)

halduemilauno
10-12-2008, 18:03
prima dicevo che amd dal canto suo potrebbe ridurre i prezzi come controffensiva:

http://www.tomshw.it/news.php?newsid=16343

direi che un taglio del genere portebbe a una bella lotta ;)

http://www.hwupgrade.it/forum/showthread.php?t=1881175
ti era sfuggito.

hibone
10-12-2008, 18:07
Non sono qui per essere simpatico. Se vuoi ridere è sufficiente che ti guardi una puntata di Zelig.

Comicità e simpatia non sono sinonimi...

Venire qui e criticare in toto il forum per un comportamento discutibile e invitare a migliorarsi ha un senso, e può risultare apprezzabile ( in questo senso mi riferivo al "fare il simpatico", ovvero "cercare di farsi apprezzare")...

Al contrario venire qui, criticare un determinato comportamento, e poi conformarsi alla "massa" con lo stesso comportamento, è sostanzialmente ipocrita e poco coerente, quindi la critica non è più un'invito a migliorarsi, ma una paternale di dubbio valore, tipica di chi si atteggia...

Questo giusto per spiegarti il mio post precedente, visto che hai avuto qualche difficolta nel capirlo e hai sentito il bisogno di replicare.

Veniamo ora alle tue osservazioni in merito:

Stavo solo puntualizzando la realtà dei fatti che molti di voi sembrano volutamente ignorare.
Altra generalizzazione tout court, non tutti ignorano, non tutti lo fanno volutamente, non tutti hanno interesse a darlo a vedere agli altri.

E' indubbio che Intel (a fronte anche della recente news sui 32nm) ha creato una voragine tale da rendere quasi impossibile ad AMD un recupero nel breve periodo.
E chissenefrega non ce lo metti?

AMD ancora vende, non è fallita. Quindi darla per morta non è che un'altra forma di atteggiamento miope e parziale, proprio dei fanboy che tanto critichi...

E' altresì indubbio che Nvidia (con la presentazione di tutte le sue nuove proposte a 55nm) si porterà avanti rispetto alla concorrenza sia in termini di prestazioni (assolute ma anche relative) che in termini di costi (e per l'azienda e per noi consumatori finali).
Idem con patate... Chissenefrega di nuovo...
È risaputo che ogni qualvolta esce un nuovo prodotto sul mercato, quelli già presenti vedono una contrazione di prezzo. A prescindere dal produttore.

Sinceramente presentare questa ovvietà come un merito di Nvidia, è come dire che senza Ferroli non esisteva l'acqua calda...

qboy
10-12-2008, 18:08
ma io non capisco una cosa: perchè l'ATI fa le dual gpu con lesue schede di punta e Nvidia mette una meno potente? non potrebbe mettere una gpu della 280 anziche quella 260? k idiozia

Defragg
10-12-2008, 18:10
Nel caso peggiore (leggasi: sfruttamento quasi nullo del multi-gpu) chi ha una GTX 295 si ritroverà in sostanza con una bella GTX 280 castrata su ROPs, RAM e bus. :asd:
Imho dovevano dotarla di 1792Mb di VRAM per ogni GPU (totale di 3584Mb :eek: ), altrimenti con GTA4 non puoi mettere le texture al massimo :asd: :rolleyes:

Mi unisco al coro dei detrattori del multi-gpu, ma preferisco spezzare una piccola lancia in favore della soluzione AMD (adesso mi saltano alla gola :asd: ) visto che mi pare più interessante dal punto di vista tecnico.

RICKYL74
10-12-2008, 18:17
Questo numero maggiorato di sp andra' a compensare una frequenza ridotta delle due gpu e magari unita' shaders rispetto alle GTX260 proprio per mantenere a livelli accettabili il consumo ed il TDP.
Quindi non e' detto che la GTX295 vada piu' forte di due GTX260 (216 sp). :stordita:


Infatti
i chip utilizzati sono i nuovi GT200b con 240 sp @55nm, ecco perchè inizialmente si vociferava il nome di 260GX2

La scelta della gpu è ricaduta sulla versione piu piccola a 216SP´s, che scalda e consuma meno della 280 e quindi si sposa meglio con la soluzione di raffreddamento della nuova scheda. Ma non è detto che due 260 in sli vadino più forte di questa 295, sulle frequenze di funzionamento non si sa ancora molto, mentre per le versioni a singola gpu le frequenze verranno sicuramente aumentate, visto che il die shrink a 55nm ha portato la scheda nuova a consumare meno della soluzione a 65nm, cosa strana sono le temperature, nVidia ha fatto sapere che queste nuove schede scalderanno di più: dato il fatto che la nuova GPU ha una superfice più piccola della vecchia e il calore è più concentrato e più difficile da smaltire dal dissipatore stock che è identico all´attuale, :wtf: onestamente come per la ram anche qui non capisco questa sparata, forse intendono quelle reference mah!!!

Cmq. questa scheda dovrebbe consumare intorno ai 290/300watt.


la 295GTX2 dual chip gt200b
la 285GTX singola gpu che sostituirà a breve la 280 ..c@xxo che fantasia?!?
poi da gennaio ci saranno versioni di GTX260 di tutti i tipi, infatti nVidia ha lasciato il via libera ai produttori di sbizzarrirsi come meglio credono.

fukka75
10-12-2008, 18:29
le GT200 con AA oltre i 1680x1050 droppano brutalmente e una 280 è sotto anche alla singola 4870 in questi casi.

ma dove?
http://www.hwupgrade.it/articoli/skvideo/2085/ati-vs-nvidia-a-confronto-17-configurazioni-video_8.html

A me pare che le GTX280 siano sempre avanti alle 4870 (HL2 a parte, che è sempre stato pro-ATI), a tutte le risoluzioni e con i filtri attivi :boh:
:confused: :confused:

Narsius
10-12-2008, 18:32
ma dove?
http://www.hwupgrade.it/articoli/skvideo/2085/ati-vs-nvidia-a-confronto-17-configurazioni-video_8.html

A me pare che le GTX280 siano sempre avanti alle 4870 (HL2 a parte, che è sempre stato pro-ATI), a tutte le risoluzioni e con i filtri attivi :boh:
:confused: :confused:

quoto, paragonare una 4870 a una gtx 280 :D roba da fanboy.

keglevich
10-12-2008, 18:44
Cmq. questa scheda dovrebbe consumare intorno ai 290/300watt.


Ti chiedo un chiarimento perche' non ho capito bene la tua affermazione; nella frase sopra ti riferivi alla 295? Se si come fa uno sli di 260 (perche' in soldoni e' di questo che si tratta) a consumare 300W, cioe' come una attuale 260? Ok che sono a 55 nm, ma non e' che le fanno a Lourdes ^^

appleroof
10-12-2008, 18:59
Ti chiedo un chiarimento perche' non ho capito bene la tua affermazione; nella frase sopra ti riferivi alla 295? Se si come fa uno sli di 260 (perche' in soldoni e' di questo che si tratta) a consumare 300W, cioe' come una attuale 260? Ok che sono a 55 nm, ma non e' che le fanno a Lourdes ^^

:confused: dove lo hai letto che l'attuale 260 consuma 300W?? :confused:

Narsius
10-12-2008, 18:59
http://www.hwupgrade.it/articoli/skvideo/2085/ati-vs-nvidia-a-confronto-17-configurazioni-video_9.html

e sono pure modelli oc :D

con il 55 nm dovrebbe consumare 250 w in full... ovviamente in teoria

Stefem
10-12-2008, 19:01
x Stefem: tutte le schede dual gpu sono affette da microshuttering, nessuna esclusa. In alcune è più evidente di altri, ma dipende anche dal gioco, risoluzione e dai fps che si riescono ad ottenere.
Basta fare una ricerca su pcgameshardware.com

In merito alla memoria condivisa: avere 2Gb onboard ma poterne sfruttare in realtà 1, è un'enorme spreco, soprattutto economico (il doppio di memoria, ma anche doppio bus e doppie linee di collegamento).
Ma siccome è progettualmente "facile" perchè recupera tutto il lavoro fatto a livello driver in anni di sviluppo del rendering AFR, si continua su questa strada.

Saresti contento se la tua cpu dual core, con 4Gb di ram, avesse un limite di 2Gb per core?
Non penso :-)

Io non ho mai sperimentato micro ne macro stuttering (non microshuttering), e il fatto che su pcgameshardware.com si dica il contrario non vuol dire che sia vero.

Il vero limite del multi GPU sono le API, non certo le varie tecniche AFR o SFR.

appleroof
10-12-2008, 19:08
http://www.hwupgrade.it/articoli/skvideo/2085/ati-vs-nvidia-a-confronto-17-configurazioni-video_9.html

e sono pure modelli oc :D

con il 55 nm dovrebbe consumare 250 w in full... ovviamente in teoria

quelli sono i consumi dell'intero sistema :doh:

e c'è pure bello scritto :doh: :doh:

appleroof
10-12-2008, 19:09
Io non ho mai sperimentato micro ne macro stuttering (non microshuttering), e il fatto che su pcgameshardware.com si dica il contrario non vuol dire che sia vero.

Il vero limite del multi GPU sono le API, non certo le varie tecniche AFR o SFR.

lo si dice pure su altri 100 siti :stordita: (fermo restando che fà piacere che tu goda appieno della tuo sistema multigpu)

inoltre, non capisco cosa vuoi dire quando affermi che il limite sono le API...

Narsius
10-12-2008, 19:10
scusami ma il facepalm lo faccio io

fare consumo meno intero sistema - consumo cpu= consumo gpu? :muro:

appleroof
10-12-2008, 19:12
scusami ma il facepalm lo faccio io

fare consumo meno intero sistema - consumo cpu= consumo gpu? :muro:

:confused:

la gtx 260@65nm in full consuma 182W, in idle 25W ;)

Narsius
10-12-2008, 19:19
infatti

gli ho postato il link per fargli vedere che uno SLI di 260 occate consuma circa 300w mobo etc incluse
(consumo intero sistema - consumo gpu= consumo gpu+ mobo + ram etc.)
quindi, la 295 per forza di cause consumerà meno ;)

appleroof
10-12-2008, 19:22
infatti

gli ho postato il link per fargli vedere che uno SLI di 260 occate consuma circa 300w mobo etc incluse
(consumo intero sistema - consumo gpu= consumo gpu+ mobo + ram etc.)
quindi, la 295 per forza di cause consumerà meno ;)

parlavi dello sli :doh: (questa volta riferito a me :stordita: ) ok, avevo capito ti riferissi alla scheda singola :)

M@tteo79
10-12-2008, 19:24
E chissenefrega non ce lo metti?

Può benissimo non "fregare" a te ma essere, al contrario, di grande interesse per qualcun altro. A me interessa molto in quanto un eccessivo divario tra le 2 aziende (e manca molto poco perchè ciò avvenga) porterà solo svantaggi economici per noi consumatori finali.

AMD ancora vende, non è fallita. Quindi darla per morta non è che un'altra forma di atteggiamento miope e parziale.

Nessuno la sta dando per morta. Si è solo detto che sarà quasi impossibile (soprattutto in un periodo di recessione economica come quella che stiamo attraversando a livello mondiale) per AMD recuperare nel "breve periodo".

Questo è solo uno dei recenti titoli che descrive la situazione di AMD: "AMD costretta a rivedere i termini dell'accordo con ATIC e Mubadala Development Company. La svalutazione degli asset impone all'azienda di cedere più di quanto preventivato inizialmente."


Idem con patate... Chissenefrega di nuovo...
È risaputo che ogni qualvolta esce un nuovo prodotto sul mercato, quelli già presenti vedono una contrazione di prezzo. A prescindere dal produttore.

Non vedo cosa c'entri questa frase con quello che è stato detto. Non stiamo parlando di contrazione del prezzo di prodotti già presenti ma dell'introduzione di nuovi e più performanti prodotti (GT200@55nm appunto e non solo) a prezzi INFERIORI a quelli praticati al momento attuale. Il concetto è diverso ma continua ad essere "ignorato".


JUST RELAX ;)

goldorak
10-12-2008, 19:28
:confused:

la gtx 260@65nm in full consuma 182W, in idle 25W ;)

Quali sono i consumi in full/idle per la versione a 55nm ?

keglevich
10-12-2008, 19:35
scusate avevo interpretato male i rapporti dei consumi :p

M@tteo79
10-12-2008, 19:38
per amor di Dio lascia stare la asus, fa acqua da tutte le parti, problemi a nn finire :doh: . purtroppo l'audio hd per htpc è molto penalizzato e attualmente è possibile praticamente soltanto con le ati 4000.

E' evidente che parliamo di 2 schede diverse. Hai un PM.

XmontyX
10-12-2008, 19:48
Ho un dubbio.

Correggetemi se sbaglio;
So che le differenze sostanziali tra slot pci-e 1.0 e 2.0 stanno nell'alimentazione fornita (problema risolvibile tramite alimentazione esterna, di norma presente s tutte le schede) e nel raddoppio della banda (che non porta miglioramenti prestazionali rispetto alla 1.0 a meno che non si utilizzi un sistema sli o crossfire dove in quel caso è fondamentale).
So che ne è già parlato più volte in passato, ma dato che le schede video si fanno sempre più potenti (anche come banda passante), risentono del tipo di slot o ancora il pci-e 1.0 è perfetto???

zerothehero
10-12-2008, 19:56
Sli/cross non lo prenderò mai, dipendono troppo dai driver per poter funzionare.

ghiltanas
10-12-2008, 20:08
http://www.hwupgrade.it/forum/showthread.php?t=1881175
ti era sfuggito.

è si mi era sfuggito :p

hibone
10-12-2008, 20:11
Può benissimo non "fregare" a te ma essere, al contrario, di grande interesse per qualcun altro. A me interessa molto in quanto un eccessivo divario tra le 2 aziende (e manca molto poco perchè ciò avvenga) porterà solo svantaggi economici per noi consumatori finali.

Nessuno la sta dando per morta. Si è solo detto che sarà quasi impossibile (soprattutto in un periodo di recessione economica come quella che stiamo attraversando a livello mondiale) per AMD recuperare nel "breve periodo".

Questo è solo uno dei recenti titoli che descrive la situazione di AMD: "AMD costretta a rivedere i termini dell'accordo con ATIC e Mubadala Development Company. La svalutazione degli asset impone all'azienda di cedere più di quanto preventivato inizialmente."


e constatare che il mercato è blu e verde ci salverà? a me pare tanto la solita affermazione di poco conto... amd ha sempre arrancato rispetto ad intel e così sarà, probabilmente, sempre o finchè non cambia il ceo, questo, è un dato di fatto. AMD è nata solo un anno dopo Intel, eppure non è mai riuscita a ricavarsi un posto di completo rilievo. Ribadirlo ora non è che minestra riscaldata...

Se poi dovesse fallire beh, non credo che IBM abbia problemi a rilevare quel che resta delle sue ceneri e occupare il posto di mercato vacante, sempre che vi siano margini apprezzabili. Già perchè Ibm ha lasciato il modo dei processori, Texas Instruments e motorola lo hanno lasciato... Non mi pare che sia mai finito il mondo, anzi, ci sono alti e bassi per carità nessuno lo nega, ma nascondersi dietro il paravento del
porterà solo svantaggi economici per noi consumatori finali.
è un insulto all'intelligenza.. Non è certo una novità che intel ricorra a pratiche commerciali scorrette, e non è la sola a farlo, eppure nessuno si sta lamentando della sua posizione dominante...


Non vedo cosa c'entri questa frase con quello che è stato detto. Non stiamo parlando di contrazione del prezzo di prodotti già presenti ma dell'introduzione di nuovi e più performanti prodotti (GT200@55nm appunto e non solo) a prezzi INFERIORI a quelli praticati al momento attuale. Il concetto è diverso ma continua ad essere "ignorato".

Ma è la stessa vecchia storia di sempre, un'altra ovvietà, tirata fuori in estremis... È ovvio che se diminuisce la superficie del chip diminuiscono consumi, aumentano clock e prestazioni, e si abbassano i costi per chip, almeno quando la tecnologia è matura... Lo trovi in qualsiasi appunto che parli di chip manufacturing..

Dire che "l'acqua è bagnata" non è una novità propriamente assoluta, passarla per dato di fatto a riprova che il mondo delle gpu è verde è un tantino risibile.. Fino a ieri, potrebbe dirti qualcuno, era rosso, ( in termini di prestazioni), qualcuno dice che invece è ancora blu ( in termini di share di mercato ), qualcun'altro può dirti che tra poco il mondo delle gpu sarà blu pure lui ( sempre in termini di prestazioni)...

PS. io sono assolutamente rilassato, tant'è che il discorso lo chiudo qui, che certi argomenti mi fanno passare la voglia di "dibattere"...

RICKYL74
10-12-2008, 20:11
infatti

gli ho postato il link per fargli vedere che uno SLI di 260 occate consuma circa 300w mobo etc incluse
(consumo intero sistema - consumo gpu= consumo gpu+ mobo + ram etc.)
quindi, la 295 per forza di cause consumerà meno ;)

:confused:
Scusa ma questo su quali dati tecnici lo puoi affermare? sei sicuro di quello che dici?
se si spiegati meglio perchè non capisco cosa intendi con: (consumo intero sistema - consumo gpu= consumo gpu+ mobo + ram etc.)


I consumi di queste schede sono da paura altro che, il TDP della 295 si aggira sui 289 watt. volendo essere ottimisti, quindi:

aggiungiamo la CPU la MOBO "comprese le ram naturalmente" la Sk. Audio gli HDD, DVD/RW, e chi più ne ha più ne metta..

quanto dovrebbe consumare il sistema? con quella scheda al massimo della potenza (cioè mentre giochi) non meno di 500watt direi "ottimisticamente parlando"..

come fa uno sli di 260GTX "182W x2" più il resto del sistema a consumare solo 300watt..

perdonami ma non capisco bene il tuo discorso, forse sto capendo male io, oppure ti riferisci ad altro non so.

Stefem
10-12-2008, 20:19
Ho un dubbio.

Correggetemi se sbaglio;
So che le differenze sostanziali tra slot pci-e 1.0 e 2.0 stanno nell'alimentazione fornita (problema risolvibile tramite alimentazione esterna, di norma presente s tutte le schede) e nel raddoppio della banda (che non porta miglioramenti prestazionali rispetto alla 1.0 a meno che non si utilizzi un sistema sli o crossfire dove in quel caso è fondamentale).
So che ne è già parlato più volte in passato, ma dato che le schede video si fanno sempre più potenti (anche come banda passante), risentono del tipo di slot o ancora il pci-e 1.0 è perfetto???

Direi che per ora la differenza è trascurabile o comunque non tale da indurre a cambiare scheda madre solo per questo motivo.

sdjhgafkqwihaskldds
10-12-2008, 20:50
ma che è un panino col prosciutto? :asd:





scherzo :D

dovrebbe abbassarsi il prezzo delle 260 e 280?

MiKeLezZ
10-12-2008, 21:23
edit.

gabi.2437
10-12-2008, 21:32
Una potenza di elaborazione video così elevata è davvero uno spreco secondo me.. (allo stato attuale chiaramente) se almeno si sbrigassero a fare un supporto serio e standard al calcolo GPGPU sicuramente avrebbe tutto più senso!
Sto bolide si mangerà come minimo 300 watt da solo!

Puoi scegliere tra Folding@home e GPUGrid se non vuoi tenerla in idle a non far nulla, oltre a essere utile nei giochi :D

devil_mcry
10-12-2008, 21:39
ho letto buona parte dei commenti di queste pagine ma

da dove esce l'aria caldA? nn l'ho capito

inoltre leggo che sli e cf hanno spesso problemi , queste schede di conseguenza riportano a loro volta i problemi originari immagino... cm fanno ad avere mercato? una volta ero dell'idea di installare un giorno il cf ora mi sono reso conto che per problemi e incompatibilità conviene cambiare gpu voi cosa ne pensate?

onestamente che sia 1 pbc o 2 pbc poco cambia la salsa e quella ma mi ha colpito la news pensavo che le nvidia x2 fossero cm le ati x2 di forma

XmontyX
10-12-2008, 22:05
Direi che per ora la differenza è trascurabile o comunque non tale da indurre a cambiare scheda madre solo per questo motivo.

E più o meno quanto sarebbe questa differenza? 1-2%? e vale anche per queste ultime soluzioni dual GPU o li si perde parecchio?

Sapevo che non ci fossero problemi prima con la serie 8-9x00, ma volevo essere sicuro che fosse ancora così anche per queste nuove gtx2x0 e controparti ATI 4xx0; non vorrei comprarmi una di queste nuove schede e non sfruttarla bene. :rolleyes:

Stefem
10-12-2008, 22:06
quoto.....ma pensare a un collegamento diverso dallo sli? nvidia fa sempre le minestrine riscaldate e spera che con sta vga venderà molto .....io dubito comunque
ati passa ai 40 nm e nvidia ai 55nm...nvidia sempre indietro.....

Perché la 4870X2 non funziona come un crossfire di 4870?

si per ora in crossfire x ma ha già implementato un nuovo supporto che è il plx che non è ancora stato attivato via driver....;)
inoltre è su un unico pcb scalda e costa meno...quindi la migliore soluzione dual gpu in commercio :Prrr:

Il chip PLX è uno switch PCI-E 2.0 a 3 porte e 48 linee(3x16), che vengono usate per collegare le due GPU al bus PCI-E, non c'è nessun canale speciale o funzione che verrà attivata via driver.
Anche tutte le schede NVIDIA GX2 sono dotate di uno switch PCI-E...

guarda che il plx è dentro la scheda video 4870x2...parlo di adesso se yoss ci spiega qualcosa in merito.....comunque oggi chiedero' delucidazioni anche alla conferenza aperta di amd....

Chiedi che è meglio...

Sì, quasi 2009...
Ma vuoi mettere due GPU che fanno sesso??
:smack:

Dopo qualche mese potresti ritrovarti un'altra nVidia sull'altro slot PCIe...

:D Questa è veramente bella!
La manderanno nei documentari di Discovery Channel

lo si dice pure su altri 100 siti :stordita: (fermo restando che fà piacere che tu goda appieno della tuo sistema multigpu)

inoltre, non capisco cosa vuoi dire quando affermi che il limite sono le API...

Me lo godevo, ora ho una scheda singola.

Naturalmente in multi GPU il frame rate è meno stabile, ma questo non è stuttering.

Le difficoltà di scaling delle configurazioni multi GPU è in buona parte dovuta alle API.

darek
10-12-2008, 22:10
480 SP http://www.andromedafree.it/webmaster/gifsmile/pagine/3/smile025.gif

scalmanato92
10-12-2008, 22:12
che cagata prima di fare schedce da 900 euro che comprano solo chi li defeca i soldi devono pensare a fare driver seri per quelle che compra la gente normale tipo la mia 8800gt che ogni volta che cerco di giocare mi dice nv4_disp ha smesso di funzionare.... ma vai va! la prossima sarà ati sicuro!

Stefem
10-12-2008, 22:43
E più o meno quanto sarebbe questa differenza? 1-2%? e vale anche per queste ultime soluzioni dual GPU o li si perde parecchio?

Sapevo che non ci fossero problemi prima con la serie 8-9x00, ma volevo essere sicuro che fosse ancora così anche per queste nuove gtx2x0 e controparti ATI 4xx0; non vorrei comprarmi una di queste nuove schede e non sfruttarla bene. :rolleyes:

se non hai intenzione di costruire un sistema muti GPU la differenza sarà trascurabile, + o - 2-5% un po' di più se usi applicazioni grafiche professionali

x.vegeth.x
10-12-2008, 22:52
ste schede sono delle bombe quando vengono sfruttate a dovere, il problema è che tutt'oggi escono giochi che non sfruttano per niente lo SLI...far cry 2? gta 4?

XmontyX
10-12-2008, 22:55
se non hai intenzione di costruire un sistema muti GPU la differenza sarà trascurabile, + o - 2-5% un po' di più se usi applicazioni grafiche professionali

Perfetto grazie, allora posso ancora stare tranquillo no? (non uso applicazioni grafiche pro, sopratutto giochi).

Con sistemi multi gpu mi riferivo a soluzioni ad una scheda come la 4870x2 o questa futura nvidia della rece, quindi sempre schede ad un solo slot pci-e, no di certo sistemi sli o cross, dove la perdita sarebbe non indifferente.

Kal-El
10-12-2008, 23:09
Non sapevo che le GTX260 attuali avessero 240sp ... :doh:

ah beh invece è più credibile il connubio 2 GTX280 = GTX295 ? Con due pcb poi che sembrano asseblate in cantina...:sofico:

Tonino
10-12-2008, 23:28
Il vero problema di questa scheda è che uscirà sul mercato tardi. Quando si troverà sul mercato in Italia ormai l'inverno sarà già finito o quasi. In quel periodo tutti quelli che volevano un riscaldamento alternativo avranno già montato una 4870X2 che invece è uscita correttamente alla fine dell'estate. :D

Mparlav
10-12-2008, 23:35
xStefem: guarda che il micro stuttering non è mica una "fantasia" di pcgameshardware o di qualche altro buontempone.
E' un problema ammesso da Ati stessa fin dai tempi della HD3870 X2, alleviato con la HD4870 X2, ma non risolto.
Basta un motore di ricerca e c'è tutto.

M@tteo79
10-12-2008, 23:36
ah beh invece è più credibile il connubio 2 GTX280 = GTX295 ? Con due pcb poi che sembrano asseblate in cantina...:sofico:

Non esiste "più credibile" o "meno credibile" ... esiste leggere la news ed attenersi a quello che viene detto. Si parla di 240sp (non l'ho scritto io) e non mi sembra esista una versione della GTX260 con cotanta sostanza al suo interno... ergo non si tratta di 2 GTX260 in coppia bensì di scheda completamente nuova.

Non credo poi che qualcuno ti obblighi ad acquistarla. Personalmente ho intenzione di buttarmi sulla GTX 285 in quanto amo la potenza pura espressa attraverso la singola GPU ma non per questo disdegno le soluzioni dual come quella in oggetto.

Elemento fondamentale (per quanto mi riguarda) è che queste schede siano dotate di interfaccia HDMI 1.3 .

Grey 7
10-12-2008, 23:39
che cagata prima di fare schedce da 900 euro che comprano solo chi li defeca i soldi devono pensare a fare driver seri per quelle che compra la gente normale tipo la mia 8800gt che ogni volta che cerco di giocare mi dice nv4_disp ha smesso di funzionare.... ma vai va! la prossima sarà ati sicuro!

non so quanto sarai piu tranquillo con i driver ati...

ghiltanas
10-12-2008, 23:42
che cagata prima di fare schedce da 900 euro che comprano solo chi li defeca i soldi devono pensare a fare driver seri per quelle che compra la gente normale tipo la mia 8800gt che ogni volta che cerco di giocare mi dice nv4_disp ha smesso di funzionare.... ma vai va! la prossima sarà ati sicuro!

la 8800gt la reputo una scheda veramente riuscita, driver ottimi. Ora che sono passato a 1920*1080 continua a darmi grandi soddisfazioni, anche grazie alle nuove release di driver.
nn è che hai una 8600gt? :asd:

Stefem
10-12-2008, 23:43
xStefem: guarda che il micro stuttering non è mica una "fantasia" di pcgameshardware o di qualche altro buontempone.
E' un problema ammesso da Ati stessa fin dai tempi della HD3870 X2, alleviato con la HD4870 X2, ma non risolto.
Basta un motore di ricerca e c'è tutto.

Non metto in dubbio che non sia una fantasia, però mi sto chiedendo come mai io non l'abbia mai sperimentato.
E non è che abbia giocato a 4 giochi in croce...

Defragg
10-12-2008, 23:44
Non esiste "più credibile" o "meno credibile" ... esiste leggere la news ed attenersi a quello che viene detto. Si parla di 240sp (non l'ho scritto io) e non mi sembra esista una versione della GTX260 con cotanta sostanza al suo interno... ergo non si tratta di 2 GTX260 in coppia bensì di scheda completamente nuova.

Sbagli.
Le GTX 260 hanno come GPU GT200, la stessa delle GTX 280, ma con unità disabilitate e bus/memorie diminuite.

Eccoti una tabella, alla quale aggiungo anche questa GTX 295.

GTX 260 (GT200 / 0.065 micron) PCI>EXPRESS 2.0
Gpu: 576 MHz, Memoria GDDR3: 1998 MHz, Bus memoria: 448 bit, Quantità memoria: 896 Mb,
192 stream processors @ 1242 MHz, 28 ROPs, 64 TMU
Banda Passante: 112 GB/s; (Dx10 ps4.0 vs4.0 gs4.0)

GTX 260 Core 216 (GT200 / 0.065 micron) PCI>EXPRESS 2.0
Gpu: 576 MHz, Memoria GDDR3: 1998 MHz, Bus memoria: 448 bit, Quantità memoria: 896 Mb,
216 stream processors @ 1242 MHz, 28 ROPs, 72 TMU
Banda Passante: 112 GB/s; (Dx10 ps4.0 vs4.0 gs4.0)

GTX 280 (GT200 / 0.065 micron) PCI>EXPRESS 2.0
Gpu: 602 MHz, Memoria GDDR3: 2214 MHz, Bus memoria: 512 bit, Quantità memoria: 1024 Mb,
240 stream processors @ 1296 MHz, 32 ROPs, 80 TMU
Banda Passante: 141.7 GB/s; (Dx10 ps4.0 vs4.0 gs4.0)

GTX 295 (2*GT200b / 0.055 micron) PCI>EXPRESS 2.0
Gpu: xxx MHz, Memoria GDDR3: xxx MHz, Bus memoria: 2*448 bit, Quantità memoria: 2*896 Mb,
480 (2*240) stream processors @ xxx MHz, 28 ROPs, 80 TMU
Banda Passante: xxx GB/s; (Dx10 ps4.0 vs4.0 gs4.0)

Osserva le similitudini/differenze.
GT200 è composto da 10 blocchi di unità, ciascuno integrante 24sp e 8 TMU. Inoltre al variare del numero di ROPs varia pure il bus adottato (28 ROPs, 448 bit; 32 ROPs, 512bit).

maumau138
10-12-2008, 23:50
IMHO esteticamente è meglio la X2 Ati, anche se capisco che per le elevate dimensioni del chip questa era l'unica soluzione, che comunque può dare un vantaggio dal punto di vista del raffreddamento, infatti un unico flusso d'aria può raffreddare contemporaneamente i due chip.

Una sola cosa, non venitemi a dire che questa è una scheda per chi ha una scheda madre che non supporta lo SLI, chi si compra una scheda di questo genere ha come minimo una scheda madre con i controca**i, per me ha il suo senso solo se in un ottica di un Quad Sli, possibile solo con queste schede.

Infatti essendo uno Sli di due chip GT200b non dovrebbe avere prestazioni differenti a due GTX285 in Sli (forse un pelino in meno per via del bus castrato e della minore memoria), basta vedere infatti le prestazioni della 4870X2, uguali a quelle di due 4870 in CF.

rollo82
11-12-2008, 00:32
IMHO esteticamente è meglio la X2 Ati, anche se capisco che per le elevate dimensioni del chip questa era l'unica soluzione, che comunque può dare un vantaggio dal punto di vista del raffreddamento, infatti un unico flusso d'aria può raffreddare contemporaneamente i due chip.

Una sola cosa, non venitemi a dire che questa è una scheda per chi ha una scheda madre che non supporta lo SLI, chi si compra una scheda di questo genere ha come minimo una scheda madre con i controca**i, per me ha il suo senso solo se in un ottica di un Quad Sli, possibile solo con queste schede.

Infatti essendo uno Sli di due chip GT200b non dovrebbe avere prestazioni differenti a due GTX285 in Sli (forse un pelino in meno per via del bus castrato e della minore memoria), basta vedere infatti le prestazioni della 4870X2, uguali a quelle di due 4870 in CF.

se però hai una fantastica scheda madre come la asus maximus formula e vuoi metterci uno sli ti attacchi... quindi sei obbligato a prenderti questa fornace infernale

M@tteo79
11-12-2008, 11:05
Osserva le similitudini/differenze.
GT200 è composto da 10 blocchi di unità, ciascuno integrante 24sp e 8 TMU. Inoltre al variare del numero di ROPs varia pure il bus adottato (28 ROPs, 448 bit; 32 ROPs, 512bit).

Quello che hai scritto è esatto ma forse ci siamo fraintesi. Quando dico "scheda completamente nuova" (in riferimento alla GTX295) intendo dire che non esiste al momento attuale una scheda che ad un bus da 448bit (come quello delle GTX260) abbini 240sp (propri della GTX280). Che poi sia stata ricavata dallo stesso blocco base tramite abilitazione/disabilitazione di alcune parti siamo d'accordo.

Sta di fatto che una GTX260 con 240sp abilitati è un'altra scheda (prestazionalmente parlando)... basta guardare l'incremento che hanno ottenuto con la 216sp per rendersi conto di quanto sia grande il potenziale di questa nuova GTX295.

M@tteo79
11-12-2008, 11:12
Una sola cosa, non venitemi a dire che questa è una scheda per chi ha una scheda madre che non supporta lo SLI, chi si compra una scheda di questo genere ha come minimo una scheda madre con i controca**i, per me ha il suo senso solo se in un ottica di un Quad Sli, possibile solo con queste schede.

Non sono d'accordo con il tuo punto di vista. Trovo che il vero vantaggio di queste soluzioni consista proprio nel fatto di permettere a chi è in possesso di chipset Intel (nel mio caso P35 Deluxe) di poter usufruire delle stesse prestazioni ottenibili solo attraverso l'uso (non consentito nel mio caso) di 2 schede collegate in SLI.
La mia scheda madre (Asus) è dotata di 2 slot PCI-EX 16X e potrebbe ospitare una GTX296 nel primo slot e una 8800GTS (la mia scheda attuale) nel secondo dandomi la possibilità di usufruire di un SLI di 2 GTX260 ultra pompate (240sp) e di relegare la 8800GTS alla gestione della fisica (PhisX)... il tutto senza cambiare nulla (dunque con un notevole risparmio di denaro).

Sui consumi di una soluzione del genere tuttavia sorvoliamo :p

wolfnyght
11-12-2008, 12:24
io invece penso a
8 tolotti per le vga
1 per il chipset
1 per la cpu
non vuoi raffreddar bene le ram?percui....

,praòe con 20 30 kg di rame si risolve(asd asd)

io non gioco però bencho a livelli pesanti(azoto rulez)

se questa vga farà bei punteggi ai 3d.......potrei io ed il mio team(di sicuro uno del mio team già adesso sbava)pernderne qualcuna eheheh
però sti i7 per adesso deludono come overclock estremo :( non hò ancora visto result degni di nota(ch sò un 6giga pippati un 3d ad almeno 5800 5900mhz)

Però una soluzione per chi ha mobo con un solo pcxpress x16 utilizzabile(chipset intel o mobo p45 p35 965o mobo amd con singolo pcxpress x16)è una manna dal cielo ;)

cioè dai commenti che ho letto
praticamente tutti hanno i7 mobo sli crossfire compatibili qualche tonnellata di ddr3
ma voglion una vga grossa come una x300se 128mb low profile che consumi meno di un'integrata con ram condivisa.

Morale?

prendetevi una console e via(consuma meno và bene per i giochi e via)

ste vga vanno a corrente
il pc non è nato solo per giocare
molti le useranno non solo per giocare
se hai speso 2000 euros di pc(secondo quello che leggo anche di più)non son il prezzo di questa vga a far testo.
percui.......se è fuori targhet,uno scende di livello,tanto con le medie riescia giocarci(anche se leggo che alcuni han monitor da millemila pollici percui...vedi discorso che il prezzo della vga non fà testo)
i bench non fanno testo(nvidia ed i driver 43.03 truccati per i 3d nella storia han insegnato)e lo dico io che bencho solo!

unico appunto che ancora non capisco è:
ma perchè ormai non fanno una vga sia nvidia che ati stile computer?
prendi ti cambi la gpu
aumenti o diminuisci la ram
ogni 2 3 anni cambi il pbc della vga e via
come i pc daltronde!
tanto per chi vuole il top sempre il top avrà
mentre per chi è opulato nella scelta
magari partirà prima con una (dico un nome tanto per dire)9600gt per poi arrivar a passar ad una 280 come gpu
ecco li sarebbe innovazione ;)
2 pbc
uno con bus a 256
uno con bus a 512
oppure soluzioni dual gpu tri gpu quad gpu
come le mobo dei server
dove magari una mobo con 4 slot per processori
ne installi uno e viaggi
ne installi due idem come sopra e così via

si darebbe un maggiore mercato,con soluzioni alla fine semplici,inbase a :quanto mi posso permettere adesso?
1 gpu 512mb di ddr5?
ma voglio il pbc buono
così tra un pochetto mi prendo altri 512mb di ddr5 ed un'altra gpu


sapete qual'è il problema?(ma nemmeno tanto)
troppo sbattimento per i programmatori di driver giochi et similia ;) (andrebbe il tutto preso completamente da un'altro punto di vista eheh)ma pioi alla fine sarebbe anche una soluzione ,una volta standarizzata semplice.


ps la vga che "si collegava alla 220v" era la wodoo 6000 con 4 gpu ,mai entrata in commercio.
aveva un alimentatore esterno che la alimentava :)
e stiamo parlando ormai di preistoria,la stessa che vediamo oggi con lo sli e crossfire(il dual vga lo ha inventato 3dfx ;) società fallita ed inglobata da nvidia....)


morale?
io guardo alle prestazioni:
chi mi dà di più(e magari a minor prezzo)io corro da lui
che sia intel amd nvidia ati asus foxcoon dfi o asrock (LOL)
questo per i bench premetto ;)
se pensate che stò con un mulo adesso in questo momento
con su un p4 2800@3200 ed una nvidia vanta 16mb LOL e faccio quello che fate voi lo stesso(scrivere nel forum)
vuoi consumar poco?
un mulo a basso consumo
vuoi prestazioni massime?
pc serio,ma il pc serio consuma ;)

ah a chi dice ma così devo aver 2 pc.......un mulo te lo fai con 50 sacchi ;)
eheheheh

XmontyX
11-12-2008, 13:02
Non sono d'accordo con il tuo punto di vista. Trovo che il vero vantaggio di queste soluzioni consista proprio nel fatto di permettere a chi è in possesso di chipset Intel (nel mio caso P35 Deluxe) di poter usufruire delle stesse prestazioni ottenibili solo attraverso l'uso [B](non consentito nel mio caso) di 2 schede collegate in SLI.
CUT.

Diciamo invece che è consentito, ma comunque altamente sconsigliato poiché solo il primo slot pci-e va a 16x, il tuo secondo slot è si pci-e, ma va a 4x non a 16.

Sei sicuro di ciò che dici?
Vero è che non essendo in sli non sei obbligato ad usare il secondo slot pci-e che di norma può limitare le prestazioni, ma si parla in questo caso di una scheda dual GPU (con prestazioni e banda non indifferenti dunque) su uno slot pci-e 1.0...
Non è che li si è obbligati ad usare come slot il pci-e 2.0?
La mia non vuole essere un'affermazione, ma sopratutto una domanda, anche perché la mia e la tua situazione sono molto simili. :)

ghiltanas
11-12-2008, 13:32
Diciamo invece che è consentito, ma comunque altamente sconsigliato poiché solo il primo slot pci-e va a 16x, il tuo secondo slot è si pci-e, ma va a 4x non a 16.

Sei sicuro di ciò che dici?
Vero è che non essendo in sli non sei obbligato ad usare il secondo slot pci-e che di norma può limitare le prestazioni, ma si parla in questo caso di una scheda dual GPU (con prestazioni e banda non indifferenti dunque) su uno slot pci-e 1.0...
Non è che li si è obbligati ad usare come slot il pci-e 2.0?
La mia non vuole essere un'affermazione, ma sopratutto una domanda, anche perché la mia e la tua situazione sono molto simili. :)

nvidia solo con l'x58 ha permesso alle mobo basate su chipset intel di sfruttare lo sli, col p35 quindi solo crossfire

On3sgh3p
11-12-2008, 13:41
io invece penso a
8 tolotti per le vga
1 per il chipset
1 per la cpu
non vuoi raffreddar bene le ram?percui....

,praòe con 20 30 kg di rame si risolve(asd asd)

io non gioco però bencho a livelli pesanti(azoto rulez)

se questa vga farà bei punteggi ai 3d.......potrei io ed il mio team(di sicuro uno del mio team già adesso sbava)pernderne qualcuna eheheh
però sti i7 per adesso deludono come overclock estremo :( non hò ancora visto result degni di nota(ch sò un 6giga pippati un 3d ad almeno 5800 5900mhz)

Però una soluzione per chi ha mobo con un solo pcxpress x16 utilizzabile(chipset intel o mobo p45 p35 965o mobo amd con singolo pcxpress x16)è una manna dal cielo ;)

cioè dai commenti che ho letto
praticamente tutti hanno i7 mobo sli crossfire compatibili qualche tonnellata di ddr3
ma voglion una vga grossa come una x300se 128mb low profile che consumi meno di un'integrata con ram condivisa.

Morale?

prendetevi una console e via(consuma meno và bene per i giochi e via)

ste vga vanno a corrente
il pc non è nato solo per giocare
molti le useranno non solo per giocare
se hai speso 2000 euros di pc(secondo quello che leggo anche di più)non son il prezzo di questa vga a far testo.
percui.......se è fuori targhet,uno scende di livello,tanto con le medie riescia giocarci(anche se leggo che alcuni han monitor da millemila pollici percui...vedi discorso che il prezzo della vga non fà testo)
i bench non fanno testo(nvidia ed i driver 43.03 truccati per i 3d nella storia han insegnato)e lo dico io che bencho solo!

unico appunto che ancora non capisco è:
ma perchè ormai non fanno una vga sia nvidia che ati stile computer?
prendi ti cambi la gpu
aumenti o diminuisci la ram
ogni 2 3 anni cambi il pbc della vga e via
come i pc daltronde!
tanto per chi vuole il top sempre il top avrà
mentre per chi è opulato nella scelta
magari partirà prima con una (dico un nome tanto per dire)9600gt per poi arrivar a passar ad una 280 come gpu
ecco li sarebbe innovazione ;)
2 pbc
uno con bus a 256
uno con bus a 512
oppure soluzioni dual gpu tri gpu quad gpu
come le mobo dei server
dove magari una mobo con 4 slot per processori
ne installi uno e viaggi
ne installi due idem come sopra e così via

si darebbe un maggiore mercato,con soluzioni alla fine semplici,inbase a :quanto mi posso permettere adesso?
1 gpu 512mb di ddr5?
ma voglio il pbc buono
così tra un pochetto mi prendo altri 512mb di ddr5 ed un'altra gpu


sapete qual'è il problema?(ma nemmeno tanto)
troppo sbattimento per i programmatori di driver giochi et similia ;) (andrebbe il tutto preso completamente da un'altro punto di vista eheh)ma pioi alla fine sarebbe anche una soluzione ,una volta standarizzata semplice.


ps la vga che "si collegava alla 220v" era la wodoo 6000 con 4 gpu ,mai entrata in commercio.
aveva un alimentatore esterno che la alimentava :)
e stiamo parlando ormai di preistoria,la stessa che vediamo oggi con lo sli e crossfire(il dual vga lo ha inventato 3dfx ;) società fallita ed inglobata da nvidia....)


morale?
io guardo alle prestazioni:
chi mi dà di più(e magari a minor prezzo)io corro da lui
che sia intel amd nvidia ati asus foxcoon dfi o asrock (LOL)
questo per i bench premetto ;)
se pensate che stò con un mulo adesso in questo momento
con su un p4 2800@3200 ed una nvidia vanta 16mb LOL e faccio quello che fate voi lo stesso(scrivere nel forum)
vuoi consumar poco?
un mulo a basso consumo
vuoi prestazioni massime?
pc serio,ma il pc serio consuma ;)

ah a chi dice ma così devo aver 2 pc.......un mulo te lo fai con 50 sacchi ;)
eheheheh


bella wolf, ma prima di scrivere quanto hai tirato??? :-P

Brom
11-12-2008, 14:05
perchè adesso saltano fuori quelli che esaltano la 4870x2 diffamando questa?
si sono accorti che i problemi che dovrebbe avere la 295 li ha tutti la 4870x2?
il collegamento è sempre il CF, che stando a quanto so ha rendimenti inferiori rispetto allo SLI, e anche molte più grane coi driver.
design su 1 pcb = aumento del costo per produrre piste per il crossfire, raffreddamento probabilmente peggiore, scheda più lunga
design su 2 pcb = spazio occupato uguale al monopcb (il dual occupa 2 slot, il mono 2 lo stesso perchè pensa di poter raffreddare efficacemente 2 GPU del genere con un dissipatore single slot senza uscita dal case dell'aria calda, a mio parere è una persona da rinchiudere)

per chi ha detto "farsi un sistema sli e basta no eh?"
perchè, il crossfire cos'è?
il fatto è che non tutti hanno una mobo che ha lo sli, o perchè non se la possono permettere (anche se sembra strano, a poter comprare una mobo così) o perchè vogliono solo cambiare VGA e quando avevano preso la mobo non l'avevano presa sli, o perchè usano chip intel che non è l'X58 (quindi niente sli)

cmq, ati cosa fa? progetta le mobo CFX (4 pciex), e quando esce la x2, mette un solo connettore CF, così il massimo di schede è 4. invece, nvidia progetta le 3way e fa schede con il connettore x il 3way (se non sbaglio), quindi 6 GPU, e in caso niente 3way sono comunque 4 GPU (come il CFX di 4870, solo che in single gpu la 280 è meglio della 4870)
ps. sempre che abbiate un case con 2 alloggiamenti per alimentatori da 1000W :Perfido: :asd: :asd: :asd:

@x.veget.x: se guardi la recensione del nuovo pc gaming di neXT che è uscita recentemente nelle news, nei bench lo sli di gtx280 fa il doppio della gtx260.216sp, quindi lo svantaggio è minimo (48SP buttate)

bella l'idea di wolfnygth: vendere solo il PCB come si fa con le schede madri in base al bus e al numero di socket GPU e slot per le ram, e poi vendere il resto separatamente

comunque secondo me queste schede dovevano essere gddr5, quando serve la memoria le 4870 vanno parecchio (il doppio della frequenza delle ddr3)

per chi si è confuso e l'ha presa x una 260 gx2: è un dual di 280 (sarebbe 240sp x2)

comunque, secondo me i consumi non saranno attorno ai 300W come detto da alcuni siti: considerando che la 280 attuale se non sbaglio consuma attorno ai 230, uno sli di queste a 55nm dovrebbe consumarne almeno 400.

ciao

XmontyX
11-12-2008, 14:15
nvidia solo con l'x58 ha permesso alle mobo basate su chipset intel di sfruttare lo sli, col p35 quindi solo crossfire

Ah vero!!!, scusate, me lo sono scordato... :p

Allora rinnovo lo stesso il quesito di prima:
Vero è che non essendo in cross non sei obbligato ad usare il secondo slot pci-e che di norma può limitare le prestazioni, ma parlando di schede dual GPU come 4870x2 o GTX295 (con prestazioni e banda non indifferenti dunque) siamo sicuri che non trovino impedimento su uno slot pci-e 1.0?

appleroof
11-12-2008, 14:34
cut

Una sola cosa, non venitemi a dire che questa è una scheda per chi ha una scheda madre che non supporta lo SLI


perchè se volessi prendermela io, ad esempio? :stordita:

appleroof
11-12-2008, 15:54
Quali sono i consumi in full/idle per la versione a 55nm ?

non so ancora la gtx260, ma la gtx285 (gtx 280@55nm) è accreditata di un tdp massimo di 183W, che sarebbe eccellente, come puoi capire.

halduemilauno
11-12-2008, 15:57
perchè adesso saltano fuori quelli che esaltano la 4870x2 diffamando questa?
si sono accorti che i problemi che dovrebbe avere la 295 li ha tutti la 4870x2?
il collegamento è sempre il CF, che stando a quanto so ha rendimenti inferiori rispetto allo SLI, e anche molte più grane coi driver.
design su 1 pcb = aumento del costo per produrre piste per il crossfire, raffreddamento probabilmente peggiore, scheda più lunga
design su 2 pcb = spazio occupato uguale al monopcb (il dual occupa 2 slot, il mono 2 lo stesso perchè pensa di poter raffreddare efficacemente 2 GPU del genere con un dissipatore single slot senza uscita dal case dell'aria calda, a mio parere è una persona da rinchiudere)

per chi ha detto "farsi un sistema sli e basta no eh?"
perchè, il crossfire cos'è?
il fatto è che non tutti hanno una mobo che ha lo sli, o perchè non se la possono permettere (anche se sembra strano, a poter comprare una mobo così) o perchè vogliono solo cambiare VGA e quando avevano preso la mobo non l'avevano presa sli, o perchè usano chip intel che non è l'X58 (quindi niente sli)

cmq, ati cosa fa? progetta le mobo CFX (4 pciex), e quando esce la x2, mette un solo connettore CF, così il massimo di schede è 4. invece, nvidia progetta le 3way e fa schede con il connettore x il 3way (se non sbaglio), quindi 6 GPU, e in caso niente 3way sono comunque 4 GPU (come il CFX di 4870, solo che in single gpu la 280 è meglio della 4870)
ps. sempre che abbiate un case con 2 alloggiamenti per alimentatori da 1000W :Perfido: :asd: :asd: :asd:

@x.veget.x: se guardi la recensione del nuovo pc gaming di neXT che è uscita recentemente nelle news, nei bench lo sli di gtx280 fa il doppio della gtx260.216sp, quindi lo svantaggio è minimo (48SP buttate)

bella l'idea di wolfnygth: vendere solo il PCB come si fa con le schede madri in base al bus e al numero di socket GPU e slot per le ram, e poi vendere il resto separatamente

comunque secondo me queste schede dovevano essere gddr5, quando serve la memoria le 4870 vanno parecchio (il doppio della frequenza delle ddr3)

per chi si è confuso e l'ha presa x una 260 gx2: è un dual di 280 (sarebbe 240sp x2)

comunque, secondo me i consumi non saranno attorno ai 300W come detto da alcuni siti: considerando che la 280 attuale se non sbaglio consuma attorno ai 230, uno sli di queste a 55nm dovrebbe consumarne almeno 400.

ciao

la gtx285 consumerà 50watt in meno della gtx280. infatti ha due connettori da sei invece che 1 da sei e l'altro da otto.
;)

goldorak
11-12-2008, 15:57
non so ancora la gtx260, ma la gtx285 (gtx 280@55nm) è accreditata di un tdp massimo di 183W, che sarebbe eccellente, come puoi capire.

A me la GTX285 non interessa :fagiano: , vorrei i dati sul consumo della GTX260 (55nm) perche' sono in procinto di cambiare vga e devo valutare un po' di cose.

halduemilauno
11-12-2008, 16:00
non so ancora la gtx260, ma la gtx285 (gtx 280@55nm) è accreditata di un tdp massimo di 183W, che sarebbe eccellente, come puoi capire.

per la gtx260 55nm si parla di 146watt.
;)

appleroof
11-12-2008, 16:04
per la gtx260 55nm si parla di 146watt.
;)

:eek: ottimo, sarebbe davvero ottimo (altro che cambio di alimentatore :asd: )

halduemilauno
11-12-2008, 16:12
:eek: ottimo, sarebbe davvero ottimo (altro che cambio di alimentatore :asd: )

contro i 182 attuali. si veramente ottimo.
;)

Kharonte85
11-12-2008, 16:18
contro i 182 attuali. si veramente ottimo.
;)
circa il 20% in meno...buttalo via :sofico:

appleroof
11-12-2008, 16:21
contro i 182 attuali. si veramente ottimo.
;)

circa il 20% in meno...buttalo via :sofico:

e per me lo sarebbe, ottimo, anche a parità di prestazioni con l'attuale gtx260 che và benissimo, figuriamoci se andasse anche un pelo meglio :)

M@tteo79
11-12-2008, 17:25
Diciamo invece che è consentito, ma comunque altamente sconsigliato poiché solo il primo slot pci-e va a 16x, il tuo secondo slot è si pci-e, ma va a 4x non a 16.

Tralasciando il fatto che il secondo slot non va a 4X (nella Deluxe sono 24-16=8)
leggiti un po' qua e medita:

nvidia solo con l'x58 ha permesso alle mobo basate su chipset intel di sfruttare lo sli, col p35 quindi solo crossfire

;)

M@tteo79
11-12-2008, 17:29
siamo sicuri che non trovino impedimento su uno slot pci-e 1.0?

Si, perdono la bellezza di 3fps :p

scalmanato92
11-12-2008, 17:44
....

XmontyX
11-12-2008, 17:48
Tralasciando il fatto che il secondo slot non va a 4X (nella Deluxe sono 24-16=8)
leggiti un po' qua e medita:



;)

Mah. in tutti i siti dove vado, compreso il theared ufficiale della p5k deluxe, leggo sempre la stessa cosa, ovvero che il primo slot (quello blu) è 1.0 a 16x, mentre il secondo (quello nero) supporta il 4x e 1x, poi, non so che dirti...;

Comunque se tu avessi letto, avresti già notato che ho risposto a ghiltanas dicendo:

Ah vero!!!, scusate, me lo sono scordato... :p

Allora rinnovo... CUT.

scalmanato92
11-12-2008, 17:51
la 8800gt la reputo una scheda veramente riuscita, driver ottimi. Ora che sono passato a 1920*1080 continua a darmi grandi soddisfazioni, anche grazie alle nuove release di driver.
nn è che hai una 8600gt? :asd:

si adesso non so che scheda ho... è una 8800gt... comuque a me a default funziona bene, è in overclock che crashano i driver :p
il bello è che l'ho presa della asus con il dissi glaciator apposta per overcloccarla un pò e poi mi ritrovo a litigare con i driver!:mad:

XmontyX
11-12-2008, 17:52
Si, perdono la bellezza di 3fps :p

Azz, non so se sopravviverò alla perdita...:D

Cmq scherzi a parte, per me è una buona notizia sapere di poter optare ad una soluzione dual GPU e non perderci in prestazione nonostante il pci-e 1.0.

Ma avete per caso qualche link dove ci sono test in proposito?

ghiltanas
11-12-2008, 19:04
si adesso non so che scheda ho... è una 8800gt... comuque a me a default funziona bene, è in overclock che crashano i driver :p
il bello è che l'ho presa della asus con il dissi glaciator apposta per overcloccarla un pò e poi mi ritrovo a litigare con i driver!:mad:

io l'ho presa della zotac che imho è ottima e pratica già di suo un pò di oc :)

per il consumo se ha ragione hal, alla nvidia avrebbero lavorato veramente bene, 146 accoppiati a quella potenza è un ottimo risultato. In idle rimarrebbe invariato il consumo?

per le prestazioni a logica dovrebbero essere superiori in virtù di un margine di oc + elevato, il condizionale in questi casi ècmq d'obbligo. E cmq superiori nn credo di molto, in quanto con l'aumento delle freq e basta le prestazioni nn aumentano tanto. Imho gli obbiettivi principali di nvidia sono la riduzione dei costi e dei consumi, cosi da poter ridurre anche il prezzo di vendita ed essere competitiva anche da questo punto di vista con le 4000

qboy
11-12-2008, 20:54
scusate ma è possibile mettere in sli 3 gtx295 per creare cosi un Esasli o come cavolo sarebbe con 6 gpu 280 (dato che sono 240 e non 216)?e poi comunque il problema del dalore non si pone uno che spende 600 eurazzi per una vga. sicuramente avrà il suo sistema liquido o mi sbaglio?

Stefem
11-12-2008, 22:35
Diciamo invece che è consentito, ma comunque altamente sconsigliato poiché solo il primo slot pci-e va a 16x, il tuo secondo slot è si pci-e, ma va a 4x non a 16.

Sei sicuro di ciò che dici?
Vero è che non essendo in sli non sei obbligato ad usare il secondo slot pci-e che di norma può limitare le prestazioni, ma si parla in questo caso di una scheda dual GPU (con prestazioni e banda non indifferenti dunque) su uno slot pci-e 1.0...
Non è che li si è obbligati ad usare come slot il pci-e 2.0?
La mia non vuole essere un'affermazione, ma sopratutto una domanda, anche perché la mia e la tua situazione sono molto simili. :)

Ah vero!!!, scusate, me lo sono scordato... :p

Allora rinnovo lo stesso il quesito di prima:
Vero è che non essendo in cross non sei obbligato ad usare il secondo slot pci-e che di norma può limitare le prestazioni, ma parlando di schede dual GPU come 4870x2 o GTX295 (con prestazioni e banda non indifferenti dunque) siamo sicuri che non trovino impedimento su uno slot pci-e 1.0?

Azz, non so se sopravviverò alla perdita...:D

Cmq scherzi a parte, per me è una buona notizia sapere di poter optare ad una soluzione dual GPU e non perderci in prestazione nonostante il pci-e 1.0.

Ma avete per caso qualche link dove ci sono test in proposito?

Nei sistemi multi GPU su più slot, per comunicare i chip utilizzano sia il bus PCI-E della scheda madre sia il connettore con cui si collegano le schede video.
In questo frangente la banda disponibile sul bus della scheda madre può diventare un fattore critico.
Nei sistemi a più GPU su singolo connettore invece, il bus PCI-E della scheda madre viene utilizzato solo per la comunicazione tra CPU e ram di sistema, in questo caso per comunicare tra loro le GPU utilizzano appositi collegamenti tra di esse presenti sulla scheda video, lasciando "libero" il bus PCI-E tra connettore e chipset della scheda madre.

XmontyX
12-12-2008, 01:52
Nei sistemi multi GPU su più slot, per comunicare i chip utilizzano sia il bus PCI-E della scheda madre sia il connettore con cui si collegano le schede video.
In questo frangente la banda disponibile sul bus della scheda madre può diventare un fattore critico.
Nei sistemi a più GPU su singolo connettore invece, il bus PCI-E della scheda madre viene utilizzato solo per la comunicazione tra CPU e ram di sistema, in questo caso per comunicare tra loro le GPU utilizzano appositi collegamenti tra di esse presenti sulla scheda video, lasciando "libero" il bus PCI-E tra connettore e chipset della scheda madre.

Ok, grazie 1000, sei stato chiarissimo.
Allora per adesso, posso stare tranquillo con tutte le soluzioni :D, a meno che qualche volta non mi sveglio con l'idea di farmi un cross...fortuna che ci sono le dual GPU.:rolleyes:

PCinceppato
12-12-2008, 12:51
Secondo me sarà allineata alle prestazioni di due gtx260 in sli... ma la mia speranza è che siano anche maggiori dato che avrà 240 stream processor anzichè 216 come la gtx260

maumau138
12-12-2008, 15:18
Ehm, avevo dimenticato il piccolo particolare dei chipset intel :doh:

Se non vado errato attualmente non si possono connettere tra di loro in modalità Sli-CF più di quattro GPU, né per Nvidia né per ATI.

Secondo me sarà allineata alle prestazioni di due gtx260 in sli... ma la mia speranza è che siano anche maggiori dato che avrà 240 stream processor anzichè 216 come la gtx260

IMHO l'aumento di SP probabilmente verrà compensato dalla non perfetta scalabilità dello Sli, quindi secondo me dovrebbero le prestazioni dovrebbero essere quasi il doppio di una GT 260

Rizlo+
12-12-2008, 17:13
Basta con questi fornetti da pizza che consumano uno spropositooo!!

Chi li compra è un fesso!!!!

leoneazzurro
12-12-2008, 23:38
ahahhahaahahahahhahahahhahahhahah

non ci posso credere!

Nvidia did it again!

600 Euro per un sandwich da 300W!

Ma dai..... ma come si fa.... -_-

Perseverano dopo la GX2....

Abbiamo la top! Eh si!
L'unica TOP... DUAL GPU - DUAL PCB!!!!

Evitiamo le solite uscite, per piacere. Ammonizione.

Credo che è meglio che tu non ti lanci in previsione... visto l'ultima brutta figura fatta nel thread di Nehalem...

a proposito: com'è che da quel giorno non ti sei fatto vedere più?

Poi uno dice che è sbagliato pensare male... :rolleyes:
Non sono 2 GTX280 in SLI... rileggiti la news. ;)

Dunque... una GTX260 va di + di una 4870... e se tanto mi da tanto. :rolleyes:

Evitiamo le member war. Ammonizione

E' una vergogna constatare come uno dei migliori siti di sempre in materia di hardware (Hwupgrade) abbia un Forum non all'altezza della situazione.
Ho letto 5 pagine di gente che si insulta o che volutamente formula discorsi di parte con il fine unico di irritare i potenziali "nemici" e di scatenare infiniti botta e risposta.

Invece di gioire nei confronti di un'azienda che tra un paio di settimane renderà disponibili schede grafiche dalle grandi prestazioni a prezzi e consumi inferiori a quelli attuali.. qualcuno si ostina a percorrere la propria strada difendendo a tutti i costi la propria "bandiera".

GTX260@55nm ---> Costerà meno, scalderà meno, consumerà meno e si overcloccherà di più.

GTX285 ---> Costerà meno della GTX280, andrà decisamente di più e scalderà meno.

GTX295 ---> Consumerà quanto una HD 4870X2, andrà decisamente di più e costerà (LO DICE LA NEWS) uguale.

Accettate la realtà attuale e il futuro (tutto Blu e Verde... per CPU e GPU rispettivamente).

Non sono qui per essere simpatico. Se vuoi ridere è sufficiente che ti guardi una puntata di Zelig. Stavo solo puntualizzando la realtà dei fatti che molti di voi sembrano volutamente ignorare.

E' indubbio che Intel (a fronte anche della recente news sui 32nm) ha creato una voragine tale da rendere quasi impossibile ad AMD un recupero nel breve periodo.

E' altresì indubbio che Nvidia (con la presentazione di tutte le sue nuove proposte a 55nm) si porterà avanti rispetto alla concorrenza sia in termini di prestazioni (assolute ma anche relative) che in termini di costi (e per l'azienda e per noi consumatori finali).

Sono dati di fatto.

E' un dato di fatto che spesso il lupo perde il pelo ma non il vizio, in questo caso di fare flame. Sospeso 3 giorni.

Basta con questi fornetti da pizza che consumano uno spropositooo!!

Chi li compra è un fesso!!!!

E 3 giorni anche per questo commento inutilmente offensivo.