PDA

View Full Version : Le molte indiscrezioni su NVIDIA G80


Redazione di Hardware Upg
06-10-2006, 09:13
Link alla notizia: http://www.hwupgrade.it/news/skvideo/18815.html

Dopo le prime immagini presunte delle schede G80, emergono nuove informazioni molto interessanti benché non confermate

Click sul link per visualizzare la notizia.

ErminioF
06-10-2006, 09:14
Mostruosa.
Se davvero con un alimentatore da 400W di marca si riesce ad alimentare una gtx/gts, non sarà niente male, considerando anche l'integrazione dei circuiti della fisica (da cui 768MB= 512 + 256).
Anche se il massimo da queste schede (g80 e r600) salterà fuori solo col vista a inizio 2007

spannocchiatore
06-10-2006, 09:22
si..peccato che di gioci dx10 ce ne vorrà per vederne...

sbaffo
06-10-2006, 09:24
ma Ati così si prende una bella batosta a Natale, tutti compreranno nvidia per essere già pronti per Vista!! Mi sembra incredibile questo ritardo.
Cmq nvidia ha fatto la misteriosa fino alla fine e poi a tirato fuori la sorpresona. Ottima strategia.

capitan_crasy
06-10-2006, 09:26
si..peccato che di gioci dx10 ce ne vorrà per vederne...
il G80 sarà anche DX9...

Devil!
06-10-2006, 09:26
400W per la sola scheda video? o per tutto il sistema?
sembrerebbe la prima, altrimenti non si spiegano gli 800W per un sistema sli...

ErminioF
06-10-2006, 09:28
Si parla di 400-450W consigliati per la scheda singola, 800 per lo sli, nel senso che ti servirà un alimentatore del genere per reggere il sistema, quindi non si riferisce alla sola scheda

dwfgerw
06-10-2006, 09:28
è dai tempi di nv30 che nvidia non divulga più informazioni se non ad un mesetto dal lancio. Questa è un'ottima strategia, non lascia mai trapelare nulla fino alla fine

Feanortg
06-10-2006, 09:28
Quindi ati sarà in ritardo di circa 3 mesi...

farinacci_79
06-10-2006, 09:31
...le nuove schede uscenti saranno si più potenti delle precedenti, ma ancora non pienamente sfruttate.
Si profila un periodo in cui saranno molto appetibili le varie 79xx, con i prezzi in caduta per smaltire le scorte.

Per sfruttare appieno le nuove schede, come detto dobbiamo aspettare Vista e DX10 e un certo periodo di rodaggio per le software house che devono adeguarsi alle nuove API e un certo periodo per la maturazione dei driver.

Quindi, come ogni volta, conviene aspettare il restyling delle nuove schede (tipo da 78xx a 79xx), che avranno consumi inferiori e piccole migliorie.

Attenti videogiocatori incalliti......chi ha da una 7800 in su se la tenga tranquillamente almeno un altro annetto.....magari fate un pensierino ad uno SLI, a Natale o meglio a gennaio si potranno fare ottimi affari!!!

DarKilleR
06-10-2006, 09:31
non mi piace il fatto di una così netta differenziazione HW tra la 8800 GTS e la GTX....

Cymonk
06-10-2006, 09:32
Nella maggior parte delle case in Italia i contatori possono erogare 3KW, significa che quando accenderò il PC dovrò fare in modo che le utenze siano quasi tutte spente. Forse forse stiamo un pochetto esagerando!!!

]Sim085[
06-10-2006, 09:33
Impressionanti questi dati..
Il quantum Phisyx da quanto letto in altri siti è una nuova funzionalità che probabilmente utilizzera i 128 bit di bus (nella 8800 GTX) o i 64 bit di bus (nella 8800 GTS) in più rispetto ai normali 256, per effettuare calcoli sulla fisica, utilizzando per questo anche parte della memoria implementata sulla scheda e sfruttando la maggior velocità dello slot PciExpress rispetto al Pci. Penso che se veramente la tecnologia quantum serva a questo, la Ageia è già bella ke morta :( ..sempre IMHO

lowenz
06-10-2006, 09:36
Ma è un scheda video o un incrociatore spaziale? :D

Redvex
06-10-2006, 09:37
Ogni volta che esce una nuova generazione di schede di parla di cadute di prezzi della precedente...cosa che ancora io non ho mai visto, e se l'ho vista oramai era inutile spenderci su soldi

the.smoothie
06-10-2006, 09:38
Se le indiscrezioni sulle G80 si confermeranno vere, allora queste schede secondo me saranno dei mostri di potenza!

Comunque credo che ati non starà con le mani in mano e quando presenterà le sue soluzioni r600 sicuramente non saranno da meno!

Una sola domanda: ma 768 e 640 Mbytes rispettivamente sono le configurazioni massime di memoria che le GeForce8800 possono indirizzare? Perchè adesso come adesso mi sembrano davvero uno sproposito (tra poco la memoria video supererà in quantitativo quella di sistema! e poi non dovrebbero tirare fuori driver ed api che permettano di sfruttare l'enorme potenza di calcolo e le risorse offerte dalle odierne soluzioni video! praticamente è come avere un secondo sistema in parallelo!)!

Concludo dicendo: forse nel 2007 mi faccio il sistema nuovo e questa volta non lesinerò sulla scheda video!

Ciauz!

Dexther
06-10-2006, 09:43
non la comprerò.... ma non vedo l'ora di vedere cos'è in grado di fare :sofico:

Paolo Corsini
06-10-2006, 09:44
400W per la sola scheda video? o per tutto il sistema?
sembrerebbe la prima, altrimenti non si spiegano gli 800W per un sistema sli...
Ovviamente per tutto il sistema, considerando l'adozione di un processore top di gamma (Core 2 Duo o Athlon 64 X2 - FX)

Dexther
06-10-2006, 09:45
non mi piace il fatto di una così netta differenziazione HW tra la 8800 GTS e la GTX....

credo che siano rimasti ampiamente scottati dal successo riscosso dalle soluzioni 7900gt rispetto a quelle 7900gtx a causa della relativamente poca differenziazione (se poco può definirsi 256mb di ram e abbastanza Mhz in meno....) ... poi magarico dico una stupidata ma questa è la mia impressione.

Dexther
06-10-2006, 09:46
Ovviamente per tutto il sistema, considerando l'adozione di un processore top di gamma (Core 2 Duo o Athlon 64 X2 - FX)

OT /
non avevo mai notato la sign .... è bellissima :sofico:
ci aggiungerei anche avvocati e medici :asd:
OT /off

Dexther
06-10-2006, 09:52
ma Ati così si prende una bella batosta a Natale, tutti compreranno nvidia per essere già pronti per Vista!! Mi sembra incredibile questo ritardo.
Cmq nvidia ha fatto la misteriosa fino alla fine e poi a tirato fuori la sorpresona. Ottima strategia.


bè speriamo che non si affretti troppo mettendo sul mercato VGA non pronte come già successo ..

Cmq nutro qualche dubbio sul passaggio in massa a G80, ma ovviamente opinione tutta mia :)

LUCH81
06-10-2006, 09:53
L'architettura di NVIDIA (descritta anche qui) non è affatto a shader unificati, si parla di architettura ibrida. Troveremo un chip tradizionale (quello operante a 575MHz per la GTX e 500MHz per la GTS) che è del tutto paragonabile a quello contenuto in R580 (650MHz per la versione XTX); in più ci saranno le unità dedicate agli shader, per ATi in R580 ci sono 64 unità, mi sembra plausibile che nell'architettura NVIDIA ce ne siano di più (e seguendo il "trend" informatico mi sembra che 128 sia un numero "corretto"), in più sembra si conosca il clock di queste unità, cosa che ATi non ha specificato per la sua architettura ibrida (R580).
Il discorso sul bus di memoria è particolare, si parla sempre di 256-bit + 128-bit e 256-bit + 64-bit, come riportato da DTS mi viene da pensare a due canali separati dedicati ad operazioni differenti, ecco il perché delle dimensioni "particolari" della memoria.

Un chip tutto da scoprire e sinceramente se le richieste di alimentazione sono queste ci potremmo aspettare dei consumi in linea con quelli di R580 di ATi.
Pensare che R600 di ATi consumi più di G80 non è sbagliato dato che: non ne conosciamo l'architettura (1) e storicamente (serie X e serie X1) consumano di più rispetto alle controparti NVIDIA (2).

Wilfrick
06-10-2006, 09:55
Io intanto, sotto rendering pesante, con il mio athlon, la mia 6600, una scheda di editing video real time, controller raid, 5HD, masterizzatore e monitor 19" crt compreso... assorbo 259 watt in tutto ed il mio piccolo gruppo di continuità è in grado di reggere 15 minuti!

Non so quanto consumava la 7800.... ma 450 watt solo la scheda video??? sono scandalizzato! E c'è gente che si fa i problemi se un processore consuma 20watt più dell'altro!!!
E poi queste schede che portano via 2 slot mi schifano, già lo spazio nei comp (e parlo di full tower) è misero tant'è che i dischi li si devono ficcare nei posti più disparati, se prendi una scheda in più dove la metti??? Praticamente uno che vuole un computer un po' serio per lavorare si deve prendere una vga di basso livello per farcela stare.

Devil!
06-10-2006, 09:56
Ovviamente per tutto il sistema, considerando l'adozione di un processore top di gamma (Core 2 Duo o Athlon 64 X2 - FX)

Grazie per la precisazione; tuttavia ancora non comprendo come essendo sufficienti 400W per un sistema ad una vga, ne siano consigliati ben 800 per un sistema sli. Perchè ipotizzare un consumo doppio anche di tutti gli altri componenti? Forse perchè, come parzialmente suggerito dall'articolo, alimentatori OEM da 800W (esistono?) si presume eroghino solamente 550-600W?

lowenz
06-10-2006, 09:57
Io personalmente aspetto e confido nella revisione del chip (G81) per un ribassamento dei requisiti di alimentazione (e quindi, necessariamente, di dissipazione termica).

monsterman
06-10-2006, 10:02
non mi piace il fatto di una così netta differenziazione HW tra la 8800 GTS e la GTX....

magari lo fanno anche per evitare effetti tipo moddature da gts a gtx :stordita:

ThePunisher
06-10-2006, 10:02
Farà paura!

cristt
06-10-2006, 10:06
768mega di memoria?? 384bit?? sembra quasi una bufala...
ma quanto costerà, 1.500 euro?!?!?

Mister24
06-10-2006, 10:12
E' inoltre presumibile che NVIDIA abbia scelto di gestire in modo più efficace il proprio filtro anisotropico,

Questa è la notizia + importante, avete visto su xbitlabs che tristezza sono il filtro trilineare e l' anisotropico delle schede top nvidia. :muro: :muro: :muro:

Se raggiungeranno la qualità d' immagine di ati, a questo giro nvidia farà il botto perchè la forza bruta la ha sempre avuta.

PS sono un anti fanboy, non inveitemi ora aquisterei una x1900 tra un paio di mesi preferirò una g80(sempre che la qualità dei filtri sia decente ;)

Quelo76
06-10-2006, 10:15
m... ci sono un po' di cose che non mi sono chiare...
nvidia tempo fa dichiarò che la tecnologià a shader unificati sarebbe stata implementata da loro + avanti nel tempo dato che la considera/va "acerba", ora si parla non solo di shader unificati ma addirittura di 128 e li chiamano "stream processors" a 1.3 ghz!
ora la mia domanda è come lavorano questi shader? quanti processi x clock ad esempio?

che abbiano preso qualcuno del marketing della Sony? ^^
sta "leaked" mi sembra strana...

ps: ma l'nda esiste ancora :)

eta_beta
06-10-2006, 10:17
dalla vecchia generazione solo 24 e 600Mhz
qui non il doppio arara non il quadruplo mmmaaaa arara ma 5 volte di più e il doppio di frequenza
ma per favore
come se intel presentava il core 2 duo con 4 core 5Ghz

aspetto

tony73
06-10-2006, 10:18
ma Ati così si prende una bella batosta a Natale, tutti compreranno nvidia per essere già pronti per Vista!! Mi sembra incredibile questo ritardo.


Batosta? non credo..Vista esce giusto giusto in contemporanea con R600 e prima che si vedano dei giochi DX10 al 100% ne passera'...con Crysis,che esce proprio li li,vedremo quale sara' piu performante (io la mia idea la ho gia)

Mister24
06-10-2006, 10:22
dalla vecchia generazione solo 24 e 600Mhz
qui non il doppio arara non il quadruplo mmmaaaa arara ma 5 volte di più e il doppio di frequenza
ma per favore
come se intel presentava il core 2 duo con 4 core 5Ghz

aspetto

Effetivamente i numeri dichiarati sembrano un pò esagerati :sofico:

Mi sa che ci siamo presi un bel pesce d' aprile ad ottobre in piena faccia :doh:

Questa news è una tipica sparata alla inquired :cry: (imho)

bjt2
06-10-2006, 10:27
Beh, dipende. Le 24 unità del G70 possono fare due operazioni contemporanee (in certi casi), quindi è quasi come fossero 48. Poi ci sono i vertex shader (altri 8) e le TMU fisicamente separate dai PS. Se queste 128 unità fossero mono operazione per clock (compensato da un clock circa doppio), allora i conti potrebbero tornare... A proposito... Ma quante ROP? A che frequenza? Quante TMU? Oppure uno stream processor può fare da TMU (non credo)?

MenageZero
06-10-2006, 10:27
:wtf:

mah, con le "specifiche" che circolano ora sembra quasi una gpu troppo "sborona" per essere vera...
una cosa su tutto, si passerebbe dal max attuale delle 48+8 shader units sulle x1900xt e superiori a ben 128 (unificati) che lavorerebbero poi a niente di meno che 1,3 Gz e rotti... quando inoltre per mesi e fino ha poco tempo fa si dava per quasi certo che g80 non sarebbe stato a shader unificati ....

ci sarebbe inoltre anche una ppu integrata in g80...

inoltre le ampiezze di bus e quantità di mem. "bizzarre" sembrerebbero "a naso" confermare le indiscrezioni che g80 si compostio da due die (o cmq due "unità" ben distinte anche se sullo stesso die, ognuna con mem e bus "personali"),ram 512MB & bus 256bit quello "principale", mem 128 o 64 & bus 128 o 64 quello "secondario" (il quale potrebbe essere la ppu ?)

... ed il tutto ancora 90 o 80 nm ?

strana poi la scelta di gddr3 quando ati già ora mette le gddr4 su r580+,r

non "torna" molto neanche l'aspetto consumo: per un pc (e nel caso si suppone un pc +/- al top del possibile, non uno particolarmente risparmioso di corrente) con g80 andrebbe bene anche un ali 400-450 W di quelli "non di marca", ma per far andare la 8800gtx servirebbero ben due connettori di alimentazione aggiuntivi... :boh:

inoltre se anche tutto fosse confermato ma a suo tempo l'r600 di ati fosse (come succede quasi sempre ad ogni nuovo scontro) cmq +/- alla pari come prestazioni del chip, imho nv rischierebbe, causa la relativa "parsimonia" su quantità e velocità di mem e sull'ampiezza di bus, magari dovuta al voler mettere la ppu e non poter alzare + di tanto i costi di produzione, di farsi "bastonare" da ati grazie a scrlte più "pompate" questo settore: per esempio se r600 non avesse una ppu ma magari non meno 1GB di mem gddr4 a non meno di 2GHz, e bus 512bit o cmq + di 256bit ...

yossarian
06-10-2006, 10:33
128 = 32x4 :sofico:

MenageZero
06-10-2006, 10:36
128 = 32x4 :sofico:
non essere criptico, plz... :D

edit:

le 128 unità sono allocablli a lavoarare sui pixel o sui vertex solo gruppi di 32 ?

sono semplicemente il quadruplo di quelle du g70/g71, (24p+8v)*4, quindi non unificate ?

leoneazzurro
06-10-2006, 10:39
128 = 32x4 :sofico:

Ciao! Bentornato. :)
Quindi sarebbero 128 ALU (come avevo supposto) ma divise in 4 ALU per "pixel unit" (io avevo pensato 64x2).
Pensi siano 2 Vettoriali + 1 scalare, o 3+1? O sono tutte "multifunzione"?
A questo punto, direi che le TMU saranno 16 o 32 al max

Quelo76
06-10-2006, 10:41
e 2 molex...
ma siamo sicuri che sia effettivamente a shadar unificati?
poi una cosa ma se sommiamo il numero di operazioni del g70 arriviamo a 4 tra ps e vs per clock giusto?
qui siamo a shader unificati
quindi?
1xclock? (naturalmente a 1.3ghz)

edit: ok come non detto ho letto yossarian e dopo leoneazzurro..thx

yossarian
06-10-2006, 10:46
Ciao! Bentornato. :)
Quindi sarebbero 128 ALU (come avevo supposto) ma divise in 4 ALU per "pixel unit" (io avevo pensato 64x2).
Pensi siano 2 Vettoriali + 1 scalare, o 3+1?

potrebbero costituire un array di 128 unità scalari. Oppure essere divise in 4 gruppi da 32 unità l'uno

MenageZero
06-10-2006, 10:48
Ciao! Bentornato. :)
Quindi sarebbero 128 ALU (come avevo supposto) ma divise in 4 ALU per "pixel unit" (io avevo pensato 64x2).
Pensi siano 2 Vettoriali + 1 scalare, o 3+1?

ah ok, quindi 32 pu con 4 alu a testa e quindi niente shader unificati, come si è sempre detto. e le unità vertex, quante ? e dove ? nel "fantomatico" die separato ? (nel caso la parte meno vera della specifiche sarebbe la prsenza di una ppu ?)
(come fanno ad essere 2+1 le alu se devono essere 4 per ogni "unit" :confused: )

mano a mano che appaiono commenti "interessanti" (e bene informati suppongo :Perfido: ) le specifiche di g80 si "umanizzano" sempre più... :sofico:

ThePunisher
06-10-2006, 10:53
E' inoltre presumibile che NVIDIA abbia scelto di gestire in modo più efficace il proprio filtro anisotropico,

Questa è la notizia + importante, avete visto su xbitlabs che tristezza sono il filtro trilineare e l' anisotropico delle schede top nvidia. :muro: :muro: :muro:

Se raggiungeranno la qualità d' immagine di ati, a questo giro nvidia farà il botto perchè la forza bruta la ha sempre avuta.

PS sono un anti fanboy, non inveitemi ora aquisterei una x1900 tra un paio di mesi preferirò una g80(sempre che la qualità dei filtri sia decente ;)

Ancora con queste sparate?

http://www.firingsquad.com/hardware/ati_nvidia_image_quality_showdown_august06/

Ebbasta su.

Sunto:
NVIDIA AA 4X > ATI AA 4X
NVIDIA AF 16X > ATI AF 16X

ATI 6X (-10-15% di prestazioni) > NVIDIA 4X (e grazie al cazzo)
ATI AF HQ (-10-15% di prestazioni) > NVIDIA AF 16X (e grazie ancora al cazzo)

leoneazzurro
06-10-2006, 10:56
potrebbero costituire un array di 128 unità scalari. Oppure essere divise in 4 gruppi da 32 unità l'uno

IMHO è più probabile il secondo, si faciliterebbero le interconnessioni e comunque dubito che ci siano più di 32 TMU...
A questo punto R600 e G80 avrebbero (se si contano solo queste unità in G80) più o meno lo stesso numero di ALU (se R600 è come Xenos ugni unità shader dovrebbe avere 2 ALU ma lì dovrebbero essere 1vettore + 1scalare)

RadeonDexter
06-10-2006, 10:58
400 watt !!!!???!?!?!?!! cioè consuma come mezza lavatrice??? cakkio dovrò avvertire la mamma quando accenderò il computer se no si rischia di far saltare la luce mentre fa il bucato....

semplicemente assurdo.... e poi fanno di tutto per far consumare meno i processori.... nn hanno proprio buon senso!!

ciauz!

leoneazzurro
06-10-2006, 11:00
ah ok, quindi 32 pu con 4 alu a testa e quindi niente shader unificati, come si è sempre detto. e le unità vertex, quante ? e dove ? nel "fantomatico" die separato ? (nel caso la parte meno vera della specifiche sarebbe la prsenza di una ppu ?)
(come fanno ad essere 2+1 le alu se devono essere 4 per ogni "unit" :confused: )

mano a mano che appaiono commenti "interessanti" (e bene informati suppongo :Perfido: ) le specifiche di g80 si "umanizzano" sempre più... :sofico:


Volevo dire "2+2" :D Si, immagino che -se ci sono 2 bus memoria e 2 die - ci siano le unità Vertex e Geometry in un secondo die.

Quelo76
06-10-2006, 11:01
i 400w sono comprensivi di tutto il sistema
non solo la vga..

AndreaG.
06-10-2006, 11:03
400 watt !!!!???!?!?!?!! cioè consuma come mezza lavatrice??? cakkio dovrò avvertire la mamma quando accenderò il computer se no si rischia di far saltare la luce mentre fa il bucato....

semplicemente assurdo.... e poi fanno di tutto per far consumare meno i processori.... nn hanno proprio buon senso!!

ciauz!

E' già stato detto una infinità di volte... 400watt è riferito ad un alimentatore OEM (LEGGI ciofeca) non al consumo del singolo componente (scheda video)....e non mi sembra niente di assurdo! se con un 400watt da 15 euro che compero all'ipercoop ci mando un sistema adeguato+8800gts (450 da 20 euro sempre all'ipercoop con mastercard per la gtx :D ) significa che consumano relativamente poco per le caratteristiche che hanno

mbk
06-10-2006, 11:09
E' già stato detto una infinità di volte... 400watt è riferito ad un alimentatore OEM (LEGGI ciofeca) non al consumo del singolo componente (scheda video)....e non mi sembra niente di assurdo! se con un 400watt da 15 euro che compero all'ipercoop ci mando un sistema adeguato+8800gts (450 da 20 euro sempre all'ipercoop con mastercard per la gtx :D ) significa che consumano relativamente poco per le caratteristiche che hanno

io ho bruciato 4 ALI da 450W "economici" (35€) ed ho una solo 7900GTX...secondo me hai esagerato :D :D

bs82
06-10-2006, 11:09
il bello è che come ad ogni uscita delle schede nvidia se ne dicono di tutti e colori, per poi ritrovarsi schede decisamente ridimensionate e alla pari con quelle di Ati...e ovviamente ritrovando i soliti difetti.... qualità dei filtri...in primis!!!

mbk
06-10-2006, 11:11
io ho bruciato 4 ALI da 450W "economici" (35€) ed ho una solo 7900GTX...secondo me hai esagerato :D :D

alla quarta volta ke sn andato a cambiare l'ali me ne hanno dato uno da 70€...e ora nn c sn + prob...

Uriziel
06-10-2006, 11:38
400w per la scheda video???
un fornetto.
siamo impazziti.

R@nda
06-10-2006, 11:39
400w per la scheda video???
un fornetto.
siamo impazziti.

Certo che da queste parti quando paritite con un idea chi vi ferma più eh?
E' già stato detto più di una volta che è comprensivo del sistema.

ThePunisher
06-10-2006, 11:40
Certo che da queste parti quando paritite con un idea chi vi ferma più eh?
Giuro che ho pensato la stessa cosa... indipendentemente da quanto sia sbagliata o sia stato ripetuto che non è affatto così continuano :asd:.

Free Gordon
06-10-2006, 11:51
128 = 32x4 :sofico:


Saluti al nuovo CEO di AMD.. :sofico:


Sono PS o vere unità shader unificate?

AndreaG.
06-10-2006, 11:52
io ho bruciato 4 ALI da 450W "economici" (35€) ed ho una solo 7900GTX...secondo me hai esagerato :D :D


ecco un altro che non legge :D

se qualcuno ha esagerato non sono stato di certo io ma chi ha divulgato l'informazione che basta un 400watt comune per tto il pc ;)

Cmq veramente... scommettiamo che entro stasera ci saranno altr2 2 pagine di gente che si lamenterà di una scheda che consuma DA SOLA 400 watt!?? :sofico: :D :D :D

yossarian
06-10-2006, 11:59
Saluti al nuovo CEO di AMD.. :sofico:

:D




Sono PS o vere unità shader unificate?

potrebbero essere unificate oppure solo parzialmente unificate (qualche gruppo potrebbe occuparsi solo dei pixel e i restanti lavorare su pixel e vertici

Free Gordon
06-10-2006, 12:04
Ancora con queste sparate?
http://www.firingsquad.com/hardware/ati_nvidia_image_quality_showdown_august06/
Ebbasta su.
Sunto:
NVIDIA AA 4X > ATI AA 4X
NVIDIA AF 16X > ATI AF 16X
ATI 6X (-10-15% di prestazioni) > NVIDIA 4X (e grazie al cazzo)
ATI AF HQ (-10-15% di prestazioni) > NVIDIA AF 16X (e grazie ancora al cazzo)


Devo ammettere che non concordo quasi mai con le interpretazioni che danno loro delle immagini.. :D cmq è un'opinione rispettabile e per tale va presa.

Attualmente nemmeno io credo che ATI sia migliore nell'IQ (ma nemmeno peggiore :) ).

Ai tempi della 9700 invece, il discorso invece era ben diverso... ;)

Free Gordon
06-10-2006, 12:10
:D

Mi pare il minimo. :D

Tutto bene, no?? Mi stavo seriamente preoccupando per la tua assenza... :cry:



potrebbero essere unificate oppure solo parzialmente unificate (qualche gruppo potrebbe occuparsi solo dei pixel e i restanti lavorare su pixel e vertici

Ah, per cui è ancora in forse...
Mi sa che quest'inverno ci sarà da divertirsi sul forum! :D

Come va secondo te un ipotetico R600 nei confronti di queste specifiche? Stando solo a quanto si sa ufficialmente, ovviamente. :Prrr:

Uriziel
06-10-2006, 12:12
Certo che da queste parti quando paritite con un idea chi vi ferma più eh?
E' già stato detto più di una volta che è comprensivo del sistema.
ma si sa quandi quanto dovrebbe consumare da sola sta cavlo di scheda???

halduemilauno
06-10-2006, 12:14
ma si sa quandi quanto dovrebbe consumare da sola sta cavlo di scheda???

da sola sola no

yossarian
06-10-2006, 12:15
Ah, per cui è ancora in forse...
Mi sa che quest'inverno ci sarà da divertirsi sul forum! :D

Come va secondo te un ipotetico R600 nei confronti di queste specifiche? Stando solo a quanto si sa ufficialmente, ovviamente. :Prrr:

R600 ha lo shader core più grande :D

lowenz
06-10-2006, 12:15
:D
Sei davvero entrato in AMD? Se sì tutti i miei complimenti yoss! :mano:

halduemilauno
06-10-2006, 12:15
R600 ha lo shader core più grande :D

ma non più lungo.
;)

Free Gordon
06-10-2006, 12:22
R600 ha lo shader core più grande :D


Ma essendo unificate saranno meno efficienti! :ciapet:

Cmq mi aspetto grandi cose da R600... :cool: sai cosa intendo! :sofico:


Ps.
anche se bissare il successo di R300, sarà praticamente impossibile.. :p

yossarian
06-10-2006, 12:22
ma non più lungo.
;)

:D

Mister24
06-10-2006, 12:59
Ancora con queste sparate?

http://www.firingsquad.com/hardware/ati_nvidia_image_quality_showdown_august06/

Ebbasta su.

Sunto:
NVIDIA AA 4X > ATI AA 4X
NVIDIA AF 16X > ATI AF 16X

ATI 6X (-10-15% di prestazioni) > NVIDIA 4X (e grazie al cazzo)
ATI AF HQ (-10-15% di prestazioni) > NVIDIA AF 16X (e grazie ancora al cazzo)

Leggero OT (in quato nella news si parla di miglioramenti qualitativi del filtro anisotropico)

Non volevo flammare o altro, ho detto solo che chi fosse interessato all' argomento di quardare il nuovo articolo di xbit punto.

Il filtro anisotropico e trilineare(fondamentali nella qualita' dell texture) di nvidia e' tecnicamente inferiore a quello Ati e questo e' un dato di fatto(ati lavora con texture di qualsiasi angolo, nvidia approssima di +-15 gradi circa)

Detto questo preciso che nei giochi(dove contano queste cose) le differenze sono non visibili o visibili in alcuni casi particolari. ;)

ulk
06-10-2006, 13:01
magari lo fanno anche per evitare effetti tipo moddature da gts a gtx :stordita:

E sarebbe anche ora, mica è tanto giusto che chi spende 400-500 euro si trovi poi a pari prestazioni con chi ne spende 200 o meno.

ulk
06-10-2006, 13:02
R600 ha lo shader core più grande :D

Dettagli...... :O

bjt2
06-10-2006, 13:11
Non contano le dimensioni, ma come lo usi... :asd: (lo spazio sul die, intendevo...)

ThePunisher
06-10-2006, 13:11
Leggero OT (in quato nella news si parla di miglioramenti qualitativi del filtro anisotropico)

Non volevo flammare o altro, ho detto solo che chi fosse interessato all' argomento di quardare il nuovo articolo di xbit punto.

Il filtro anisotropico e trilineare(fondamentali nella qualita' dell texture) di nvidia e' tecnicamente inferiore a quello Ati e questo e' un dato di fatto(ati lavora con texture di qualsiasi angolo, nvidia approssima di +-15 gradi circa)

Detto questo preciso che nei giochi(dove contano queste cose) le differenze sono non visibili o visibili in alcuni casi particolari. ;)

Insomma hai il paraocchi e non leggi quello che scrivono gli altri.

L'AF filtering di cui parli si chiama AF HQ e rileggiti il mio post.

Narmo
06-10-2006, 13:25
Io attendo R600.

(chiamatemi bambino ma da quando nVidia ha chiuso la 3dfx per me è come se non esistesse)

R@nda
06-10-2006, 13:30
Io attendo R600.

(chiamatemi bambino ma da quando nVidia ha chiuso la 3dfx per me è come se non esistesse)

Bhe si sei un bambino :D
Anche io attendo le due offerte sul mercato...ma poi comprerò (ma anche no) quella che mi conviene di più.

Se non sbaglio il G80 era dato a consumi sui 180W..ma son sempre rumor.
Ha un architettura alquanto bizzarra però eh?

Yossarian quando si parla del suo lavoro bissa sempre.....m a io lo so che lui è un ingeniere Ati che ora lavora anche per Amd :Prrr:

Pat77
06-10-2006, 13:31
Mi sembrano decisamente proporzionate le richieste energetiche, oggi per una 7900Gt/x1900Gt ci vuole minimo un 500W per stare tranquilli, quando poi in full load consumano circa 230W.

Pk77

Mister24
06-10-2006, 13:34
Insomma hai il paraocchi e non leggi quello che scrivono gli altri.

L'AF filtering di cui parli si chiama AF HQ e rileggiti il mio post.

Non ti arrabbiare, mi sono spiegato male intendevo i filtri applicati uno alla volta e con impostazione standard nei driver. (le immagini di xbit non le posto x chi ha il 56k ma si riferiscono a quello che ho appena detto)

in genere le persone non espertissime come te lasciano tutto a default nei driver e non sanno cosa sia il AF HQ

Chiudo qua e mi scuso se qualcuno ha frainteso quello che ho scritto(visto che scrivo da cani :fagiano: )

DOCXP
06-10-2006, 13:43
E sarebbe anche ora, mica è tanto giusto che chi spende 400-500 euro si trovi poi a pari prestazioni con chi ne spende 200 o meno.

:mbe:
Stando al tuo ragionamento dovrebbero bloccare anche l'FSB dei processori.

nico88desmo
06-10-2006, 13:44
secondo me yoss sa qualcosa... :D

Crysis90
06-10-2006, 13:47
Non vedo l'ora di godermi Crysis a massimo dettaglio a 1280 x1024 con la nuova belva di NVidia, sperando che il prezzo non sia esagerato!

psychok9
06-10-2006, 13:52
Ragazzi le richieste di Watt sono perlomeno fuorvianti:
"Significative le informazioni circa i requisiti di alimentazione per queste schede video: si parla di 450 Watt per una scheda GeForce 8800 GTX, valore che scende a 400 Watt per la soluzione GeForce 8800 GTS, con un picco di 800 Watt consigliati per un sistema SLI con due schede GeForce 8800."

Con 400 Watt cosa ci volete alimentare? :cool: Fa solo ridere... (a meno che volete far i fuochi d'artificio :P).
Cè nè vorranno 480W reali o 550W farlocchi per la soluzione a singola scheda, e 600W reali per quella in SLI...

p.s. E' la news in sè a trarre in inganno: aggiungi una scheda all'attuale per avere lo SLI e necessiti di 400W in più? :doh:
p.s.2. Resto dell'idea che soluzioni SLI/Crossfire sono 1 idiozia pura e convenienti nell'eventualità di un upgrade facile e futuro (es. ho una 1800XT, e tra 1 anno gli metto a fianco una X2600XT con una cifra ridotta ho una scheda + potente della X2800XT).

R@nda
06-10-2006, 13:53
Io dico che le 600€ le sfora...e sti soldi non li spendo di certo, per una sk video.
Però basta attendere i modelli medi per spendere meno e bene, oppure un calo di prezzi.

AndreaG.
06-10-2006, 14:11
Io dico che le 600€ le sfora...e sti soldi non li spendo di certo, per una sk video.
Però basta attendere i modelli medi per spendere meno e bene, oppure un calo di prezzi.


anche io attendo ansioso la 8600gt :D

quindi fino alla fine della primavera prossima il mio portafogli dovrebbe stare tranquillo :asd:

ulk
06-10-2006, 14:30
:mbe:
Stando al tuo ragionamento dovrebbero bloccare anche l'FSB dei processori.

I molti dei proci sono già bloccati, quello che ti permette l'overclock è l'fbs delle schede madri.

psychok9
06-10-2006, 14:48
anche io attendo ansioso la 8600gt :D

quindi fino alla fine della primavera prossima il mio portafogli dovrebbe stare tranquillo :asd:

Speriamo siano degne schede di fascia media (ho visto troppe schede di fascia cosiddetta media troppo distanti dalle high :/).
Comunque penso che sia meglio attendere metà 2007 a questo punto... :)

dwfgerw
06-10-2006, 14:51
Io attendo R600.

(chiamatemi bambino ma da quando nVidia ha chiuso la 3dfx per me è come se non esistesse)

Più che bambino ti chiamerei ignorante in materia.

3Dfx ha chiuso i battenti da sola, facendo scelte sbagliate come ad esempio l'acquisizione di STB. Nvidia non ha fatto altro che prelevare il core asset quando 3dfx era già bella che in liquidazione, dando lavoro al 90% del team di 3dfx che oggi è felicemente in Nvidia.

Ma perchè vedete le acquisizioni come omicidi ? Il CEO di ATi era ben contento di essere stato acquisito da AMD, ed ha le sue ragioni soprattutto economiche...

psychok9
06-10-2006, 14:57
Più che bambino ti chiamerei ignorante in materia.

3Dfx ha chiuso i battenti da sola, facendo scelte sbagliate come ad esempio l'acquisizione di STB. Nvidia non ha fatto altro che prelevare il core asset quando 3dfx era già bella che in liquidazione, dando lavoro al 90% del team di 3dfx che oggi è felicemente in Nvidia.

Ma perchè vedete le acquisizioni come omicidi ? Il CEO di ATi era ben contento di essere stato acquisito da AMD, ed ha le sue ragioni soprattutto economiche...

Si emotivizza ciò che è invece danaro nudo e crudo :cool:
Bah :doh:

VeldorN
06-10-2006, 15:08
bhe ragazzi miei io conservero i miei bei 300 Euro da investire su una Vga dx10 almeno fino all uscita di r600 per il semplice fatto che Ati ormai ha gia battuto la strada degli shader unificati ( e perfino le GDr4) e quindi con questa nuova famiglia di vga non può far altro che migliorare ciò che gia era perfetto (x1950xtx docet)
e poi c e quella piccola variabile chiamata AMD e metti che tutto st ambaradam dell acquisizione l hanno tirato fuori dal cilindro per dare un supporto chipset in esclusiva ad AMD e per garantire un core dei futuri
K8L quadcore alla gestione della fisica delle VGA ati
ci sono troppi elementi che mi incuriosiscono e sicuramente g80 almeno a mio modesto parere puo rimanere sugli scaffali, okkio non facccio fanboysmo ho detto solo un mio pensiero, non condivisibile magari!

DOCXP
06-10-2006, 15:24
I molti dei proci sono già bloccati, quello che ti permette l'overclock è l'fbs delle schede madri.

Infatti è quello che ho scritto. Chi spende 500 € non dovrebbe lamentarsi perchè chi ne spende 200 raggiunge le stesse prestazioni. Magari si informerà meglio la prossima volta. :D

baruk
06-10-2006, 15:49
Qualcuno comincia a chiedersi se un PC moderno con questi aggeggi costringerà ad aumentare il kW del contratto ENEL pena il buio e il silenzio per gli altri componenti della famiglia quando acceso? :D :D :D

AndreaG.
06-10-2006, 16:16
Speriamo siano degne schede di fascia media (ho visto troppe schede di fascia cosiddetta media troppo distanti dalle high :/).
Comunque penso che sia meglio attendere metà 2007 a questo punto... :)


mah guarda.... io ho preso un anno e mezzo fa una 6600gt quando sul mercato c'erano le 6800 nelle varie configurazioni (venivo da una 6800 liscia bruciata per tentare il mod no garanzia :cry: ) e le prestazioni della media 6600gt senza filtri erano sempre vicini alla 6800. anzi! alle risoluzioni a cui io gioco (1280 o 1024) spesso era anche un tantinello più veloce della 6800 liscia. Chiaramente le gt e ultra erano su un altro pianeta, ma non così tanto. Io spero nella serie 8 di fascia media, anche perchè, all'uscita di una generazione di chip, nvidia presenta sempre delle ottime schede in quel settore.

ulk
06-10-2006, 16:56
Infatti è quello che ho scritto. Chi spende 500 € non dovrebbe lamentarsi perchè chi ne spende 200 raggiunge le stesse prestazioni. Magari si informerà meglio la prossima volta. :D


E' molto diverso da usare Rivatuner o riflashare la scheda, sta ai produttori impedire l'upgrade facile.

DevilsAdvocate
06-10-2006, 17:42
400 Watt e' improponibile. Fortunatamente queste notizie parlano di
128 unified shaders quindi non e' illogico aspettarsi successivamente una
8600 che consumi sui 200 Watt (in genere la fanno col processo piu' nuovo)
e che abbia 64 unified shaders (sempre il doppio di una x1900, se non sbaglio).

Apple80
06-10-2006, 17:55
Si parla di 400-450W consigliati per la scheda singola, 800 per lo sli, nel senso che ti servirà un alimentatore del genere per reggere il sistema, quindi non si riferisce alla sola scheda

si ma il mio Tagan da 530 della serie U22 è come un 800 OEM che mettono dentro nei tostapani. :asd:

In ogni modo.... è questo quello che stavo aspettando !!! Coi soldini che ho risparmiato ,invece che passare dalla 7800GTX alla 7900GTX, faro' questo splendido salto. altro che un 40% di più, qui ne vedremo delle belle.

Mi pare di tornare indietro quando fu uscito l'R300. Tutti i giochi in dx8.1 li sparavo su al massimo e non rallentava una virgola. Quell è stato l'investimento più duraturo fino a farcry, cioè 2 anni senza cambiare sv.

Il conto alla rovescia è iniziato.... se promette prestazioni paragonate alle caratteristiche tecniche , questa scheda sarà mia.

MenageZero
06-10-2006, 17:55
400 Watt e' improponibile. Fortunatamente queste notizie parlano di
128 unified shaders quindi non e' illogico aspettarsi successivamente una
8600 che consumi sui 200 Watt (in genere la fanno col processo piu' nuovo)
e che abbia 64 unified shaders (sempre il doppio di una x1900, se non sbaglio).

400-450 W è riferito alll'alimentatore minimo da mettere in un pc con g80, per giunta a quanto dicono con alimentatore "buono" dovrebbe bastar anche un wattaggio minore ;)

Significative le informazioni circa i requisiti di alimentazione per queste schede video: si parla di 450 Watt per una scheda GeForce 8800 GTX, valore che scende a 400 Watt per la soluzione GeForce 8800 GTS, con un picco di 800 Watt consigliati per un sistema SLI con due schede GeForce 8800. Ovviamente stiamo parlando di indicazioni conservative, pensando più alla potenza degli alimentatori utilizzati dagli OEM nei propri sistemi che a quella delle soluzioni retail di marca disponibili sul mercato, tipicamente con migliore efficienza e quindi tali da necessitare di un'inferiore potenza di targa

MenageZero
06-10-2006, 18:01
...
Il conto alla rovescia è iniziato.... se promette prestazioni paragonate alle caratteristiche tecniche , questa scheda sarà mia.

ma aspetta che esce anche r600, no? così aspettando cmq meno di 6 mesi (e nel frattempo non ti "perdi" nemmeno una uscita dx10 visto che tali vg usciranno cmq dopo vista ed entrambe le schede), potrai in tutta serenità e sicurezza scegliere il prodotto migliore o cmq, se si equivarranno, quello che ti piacerà di più per qualche motivo :boh:

JohnPetrucci
06-10-2006, 18:21
Queste schede saranno mostruose! :eek:
Sinceramente non so fino a che punto queste indiscrezioni siano vere, ma se lo fossero, sarebbe un bel salto in avanti tecnologicamente parlando.

Apple80
06-10-2006, 18:28
ma aspetta che esce anche r600, no? così aspettando cmq meno di 6 mesi (e nel frattempo non ti "perdi" nemmeno una uscita dx10 visto che tali vg usciranno cmq dopo vista ed entrambe le schede), potrai in tutta serenità e sicurezza scegliere il prodotto migliore o cmq, se si equivarranno, quello che ti piacerà di più per qualche motivo :boh:

lo farei ..ma visto che ho una DFI SLI, restero' su Gforce,almeno se torno a rifarmi lo sli ho la possibiità di farlo.
Sarei daccordo con te se fosse la solita revisione, ma dalle caratteristiche tecniche ,qui stiamo parlando di una vera rivoluzione., roba che il G80 ti fà girare titoli come fear cod2 ecc come se nulla fosse.
è per questo che non mi preoccupo, tanto prima che verrà sfruttata al max passerà almeno un anno e un'altro anno ancora prima che verrà appesantita seriamente. Ovvio che prima aspettero' le recensioni. SPeriamo che facciano le cose per bene cosi per altri 2 anni non la cambio come fu stato per l'R300... poi si tornerà ad avere le solite revisioni.... :(

Apple80
06-10-2006, 18:50
Queste schede saranno mostruose! :eek:
Sinceramente non so fino a che punto queste indiscrezioni siano vere, ma se lo fossero, sarebbe un bel salto in avanti tecnologicamente parlando.

e non solo.... sarebbe anche un ottimo ivestimento rispetto alle solite revisioni (es 7800>7900)... è vero ,costa molto, ma penso che dua anni tranquilli campa.

ThePunisher
06-10-2006, 19:05
in genere le persone non espertissime come te lasciano tutto a default nei driver e non sanno cosa sia il AF HQ
Non espertissime come me? Guarda che TU ti sei spiegato male (o non sapevi di cosa parli non so), non IO.

L'AF "trasversale" di cui parlavi è l'HQ AF, punto.

psychok9
06-10-2006, 19:17
400-450 W è riferito alll'alimentatore minimo da mettere in un pc con g80, per giunta a quanto dicono con alimentatore "buono" dovrebbe bastar anche un wattaggio minore ;)

Ok ma il raddoppio è fuorviante...

MenageZero
06-10-2006, 19:34
lo farei ..ma visto che ho una DFI SLI, restero' su Gforce,almeno se torno a rifarmi lo sli ho la possibiità di farlo.
Sarei daccordo con te se fosse la solita revisione, ma dalle caratteristiche tecniche ,qui stiamo parlando di una vera rivoluzione., roba che il G80 ti fà girare titoli come fear cod2 ecc come se nulla fosse.
è per questo che non mi preoccupo, tanto prima che verrà sfruttata al max passerà almeno un anno e un'altro anno ancora prima che verrà appesantita seriamente. Ovvio che prima aspettero' le recensioni. SPeriamo che facciano le cose per bene cosi per altri 2 anni non la cambio come fu stato per l'R300... poi si tornerà ad avere le solite revisioni.... :(
capito... ;)

... quindi secondo te il mantenere la possibilità della doppia gpu (senza cambiare altro) vale lo scegliere a priori g80 tra esso ed r600 ?(considerato che uno o l'altro appena usciti sono cmq una "spesona", e poi un sistema 939, anche se con l'a64fx da 2.8GHz,.. sarebeb "adatto"a 2 g80 in sli ?)

dj883u2
06-10-2006, 20:07
Quanta gente delusa che ci sarà.... :D :D
Ciao ;)

MenageZero
06-10-2006, 20:23
Quanta gente delusa che ci sarà.... :D :D
Ciao ;)

dicci quello che sai allora, no ? :)

Free Gordon
06-10-2006, 21:45
Mi pare di tornare indietro quando fu uscito l'R300. Tutti i giochi in dx8.1 li sparavo su al massimo e non rallentava una virgola. Quell è stato l'investimento più duraturo fino a farcry, cioè 2 anni senza cambiare sv.


A dire il vero, con la 9700pro ho giocato bene anche a Far Cry (primo titolo pienamente dx9) e anche all'avverso Doom3! :D

roma
06-10-2006, 22:00
ora che ati è partner di amd , nvidia tira fuori gli artigli

Gurendaiz
06-10-2006, 23:38
Ma escono anche per Notebook? Se si sempre a novembre?

nudo_conlemani_inTasca
07-10-2006, 00:56
Mah, è proprio strano questa nuova GPU di nVidia.
Ho notato che è fortemente espansa sotto il profilo del bus da/verso GPU/GDDR,
ma è fortemente penalizzata sul fronte di freq. del Core e della BW della RAM montata a bordo (575Mhz e 900Mhz.. ma così poco? :eek: ).

Decisamente strano, già. :mbe:

Alcune caratteristiche fanno rabbrividire dalla "pura" potenza di elaborazione che sembrerebbero in grado di sviluppare queste GPU di nuova generazione (G80).


Bene il miglioramento del filtro anisotropico, ora 16x e l'adozione di 768MB.
Buono l'utilizzo del Quantum Physics, per la gestione avanzata della fisica,
incapsulata dentro il package della GPU.
Ottimo l'utilizzo degli shader unificati, ne gioverà la programmabilità della GPU.

Sembrano veramente valide le prossime SVGA di nVidia, chissà poi con l'ottimizzazione sfruttabile dalle DX10 che abbandoneranno le limitazioni ancestrali delle vecchie e farraginose DX8.1 e via discorrendo.

Sono veramente curioso di vederle all'opera, mi chiedo se alla nVidia abbiano anche incluso le funzionalità di HDR in contemporanea con altri filtri per il trattamento dell'immagine e pure le funzionalità di Video Avanzato per gestire flussi sia compressi che in standard HD (Hi-Definition).

Il consumo energetico è molto alto però, questa inversione di tendenza nella mancata parsimonia vista nei chip G71, fa presagire nuovi acquisti di alimentatori ad alto wattaggio all'orizzonte.. :rolleyes:

Speriamo sia una lotta accesa tra G80 e R600, sia come prestazioni, disponibilità e prezzi (la vedo dura sotto l'aspetto di consumi in Watt.. unico grosso neo che mi sembra evidenziabile) sul mercato retail.
:cry: :sperem:

halduemilauno
07-10-2006, 05:54
Mah, è proprio strano questa nuova GPU di nVidia.
Ho notato che è fortemente espansa sotto il profilo del bus da/verso GPU/GDDR,
ma è fortemente penalizzata sul fronte di freq. del Core e della BW della RAM montata a bordo (575Mhz e 900Mhz.. ma così poco? :eek: ).

Decisamente strano, già. :mbe:

Alcune caratteristiche fanno rabbrividire dalla "pura" potenza di elaborazione che sembrerebbero in grado di sviluppare queste GPU di nuova generazione (G80).


Bene il miglioramento del filtro anisotropico, ora 16x e l'adozione di 768MB.
Buono l'utilizzo del Quantum Physics, per la gestione avanzata della fisica,
incapsulata dentro il package della GPU.
Ottimo l'utilizzo degli shader unificati, ne gioverà la programmabilità della GPU.

Sembrano veramente valide le prossime SVGA di nVidia, chissà poi con l'ottimizzazione sfruttabile dalle DX10 che abbandoneranno le limitazioni ancestrali delle vecchie e farraginose DX8.1 e via discorrendo.

Sono veramente curioso di vederle all'opera, mi chiedo se alla nVidia abbiano anche incluso le funzionalità di HDR in contemporanea con altri filtri per il trattamento dell'immagine e pure le funzionalità di Video Avanzato per gestire flussi sia compressi che in standard HD (Hi-Definition).

Il consumo energetico è molto alto però, questa inversione di tendenza nella mancata parsimonia vista nei chip G71, fa presagire nuovi acquisti di alimentatori ad alto wattaggio all'orizzonte.. :rolleyes:

Speriamo sia una lotta accesa tra G80 e R600, sia come prestazioni, disponibilità e prezzi (la vedo dura sotto l'aspetto di consumi in Watt.. unico grosso neo che mi sembra evidenziabile) sul mercato retail.
:cry: :sperem:

il 900 è x2. 1800.
;)

desmacker
07-10-2006, 09:22
La potenza pura va bene ma sembra una GPU che rimane soffocata dal peso dei 90nm,mi sa tanto che aspetterò che le GPU passino ad un processo produttivo di 65nm e con una bella revisione in stile G71.

ThePunisher
07-10-2006, 09:41
Bene il miglioramento del filtro anisotropico, ora 16x

Di costa stai parlando? Il FA 16X esiste da secoli. Qui si parla di filtro Anti-Aliasing.

Apple80
07-10-2006, 11:25
Ma escono anche per Notebook? Se si sempre a novembre?


bella domanda. Chissà quanto ci metteranno per inserirla in un notebook,sicurmente non sarà al pari della versione GTX

Apple80
07-10-2006, 11:37
capito... ;)

... quindi secondo te il mantenere la possibilità della doppia gpu (senza cambiare altro) vale lo scegliere a priori g80 tra esso ed r600 ?(considerato che uno o l'altro appena usciti sono cmq una "spesona", e poi un sistema 939, anche se con l'a64fx da 2.8GHz,.. sarebeb "adatto"a 2 g80 in sli ?)

dai test effettuati da me. con 27800GTX in sli a 1280 con effetti al max e AA4x, ho constatato che con un san diego da 2000mhz a 2800mhz c'è stato un guadagno di 2frame. Pero' a singolo core.

non ho ancora preso un dual.core semplicemente x' non ancora sfruttato dai giochi. cmq penso che 2 8800gtx in sli arriveranno ad essere cpu limitied, o GPU dipendente da 1280 in su con ultra qualità e aa4x.

Il fatto dello sli puo' essere un'alternativa , al cambio della sv con una revisione.

RadeoForce
07-10-2006, 11:51
Salve a tutti
Domanda da ignorantone: ma secondo voi, nell'ipotesi che i +128bit e +256Mb siano per il sistema Quantum Effects per la gestione della fisica, in caso di mancato supporto da parte del gioco questa parte del sistema se ne starà a dormire tranquillamente o darà una mano al 'normale' funzionamento della GPU? Oppure se il carico per la parte fisica non sarà eccessivo, farà un po' e un po' ?
Mi rendo conto che in mancanza di informazioni sicure e più dettagliate è un po' come discutere del sesso deglia angeli.... :confused: però... che ne pensate? :stordita: :stordita:

Apple80
07-10-2006, 12:21
Salve a tutti
Domanda da ignorantone: ma secondo voi, nell'ipotesi che i +128bit e +256Mb siano per il sistema Quantum Effects per la gestione della fisica, in caso di mancato supporto da parte del gioco questa parte del sistema se ne starà a dormire tranquillamente o darà una mano al 'normale' funzionamento della GPU? Oppure se il carico per la parte fisica non sarà eccessivo, farà un po' e un po' ?
Mi rendo conto che in mancanza di informazioni sicure e più dettagliate è un po' come discutere del sesso deglia angeli.... :confused: però... che ne pensate? :stordita: :stordita:

boh.... secondo mè dipenderà dai driver. come per lo sli , i giochi dovranno supportarlo. Dopotutto è sempre una questione di driver.

MenageZero
07-10-2006, 13:01
Salve a tutti
Domanda da ignorantone: ma secondo voi, nell'ipotesi che i +128bit e +256Mb siano per il sistema Quantum Effects per la gestione della fisica, in caso di mancato supporto da parte del gioco questa parte del sistema se ne starà a dormire tranquillamente o darà una mano al 'normale' funzionamento della GPU? Oppure se il carico per la parte fisica non sarà eccessivo, farà un po' e un po' ?
Mi rendo conto che in mancanza di informazioni sicure e più dettagliate è un po' come discutere del sesso deglia angeli.... :confused: però... che ne pensate? :stordita: :stordita:

mah... dagli ultimi commenti probabilmente bene informati (leoneazzurro e yossarian soprattutto, se il primo non avesse accesso alle info su un sample di g80 dato in nda ad hwupg) pare che il "core secondario" associato al +128bit & +256 di bus & mem, nel caso g80 fosse veramente fatto in questo modo, dovrebbe essere la parte con vertex e geometry shaders, quindi una ppu integrata potrebbe non esserci affatto... :boh:

nudo_conlemani_inTasca
07-10-2006, 13:28
Di costa stai parlando? Il FA 16X esiste da secoli. Qui si parla di filtro Anti-Aliasing.

Si, ho invertito i filtri 16x (non quelli che pensi tu eh.. :D :fiufiu: )
volevo dire il filtro Anti Aliasing (scalettatura dei poligoni), il senso era quello,
ATI lo implementa già da 1 anno abbondante, o forse più.

leoneazzurro
07-10-2006, 14:26
mah... dagli ultimi commenti probabilmente bene informati (leoneazzurro e yossarian soprattutto, se il primo non avesse accesso alle info su un sample di g80 dato in nda ad hwupg) pare che il "core secondario" associato al +128bit & +256 di bus & mem, nel caso g80 fosse veramente fatto in questo modo, dovrebbe essere la parte con vertex e geometry shaders, quindi una ppu integrata potrebbe non esserci affatto... :boh:

Ovviamente io non ho accesso a parti G80, perchè non faccio parte della redazione, si lavora ovviamente su quello che si ha.
Il core secondario potrebbe benissimo contenere una PPU, in realtà, oltre ai VS/GS. Anzi dato che la PPU lavorerebbe soprattutto sulla geometria, sarebbe normale accoppiarla a tali funzioni. Oppure potrebbe esserci semplicemente un solo core con bus a 384 bit, ossia 64+64+64+64+64+64, cioè 6 controller indipendenti a 64 bit. Il che mi fa pensare, che si è parlato di 6 TCP per la verione GTX e 5 per la versione GTS, che causalmente ha bus a 320 bit (64x5) Quindi potrebbe essere che i TCP (che dovrebbero essere i controller atti a smistare il carico sulle unità shader) abbiano un canale di memoria "dedicato" a 64 bit (Ognuno necessita di una certa banda).
Per quanto riguarda gli "stream processors" quasi sicuramente si tratta di ALU singole, poi dipende cosa è in grado di fare ciascuna ALU. Se sono scalari (operano ciascuna su una singola variabile) bisogna stare attenti perchè ad esempio G70 ha 48 ALU (2 per pipeline PS) ma ognuna di esse (ma qui Yossarian lo sa moooolto meglio di me :D ) se non erro può lavorare vettorialmente con una singola istruzione su 4 numeri. Analogamente anche R580 ha 48 unità PS ognuna con 2 ALU, di cui se non erro una è vettoriale (e quindi la cui potenza è equivalente teoricamente a quella di più unità scalari) e una scalare . R500 ha 48 shader unit, di cui ognuna con 2 ALU, una capace di lavorare vettorialmente su 4 variabili e una scalare). Se invece quelle di G80 fossero unità vettoriali sarebbe un bel colpo in termini di potenza di calcolo (ma credo sia un pò improbabile perchè vorrebe dire un SACCO di transistor).
Il fatto che potrebbero essere unità scalari avrebbe senso se si parla dei fantomatici "1350 MHZ" a cui andrebbe lo shader core: su Beyond 3D si discuteva del fatto che potrebbero essere ALU "double pumped" come le ALU intere del P4, ossia eseguire 2 operazioni per ciclo di clock. Il che ha più senso se le 128 unità sono scalari.
A questo punto le unità scalari probabilmente sono organizzate in gruppi, potrebbero essere 64x2 o 32x4, Yossarian penso ritenga la seconda più probabile perchè di norma si lavora in "quads" di pixel (4 pixel alla volta). Poi mancano le info a proposito di TMU e ROPs: io ritengo probabile 32 o anche solo 16 TMU mentre per le ROPs non ci sono sufficienti elementi pe rvalutare, possibile rimangano 16 ma che vengano aumentati l'efficienza e il numero di features supportate.

aaasssdddfffggg
07-10-2006, 15:30
18 ottobre: il giorno di nVidia G80


Geforce 7800
Xfx geforce 7800 gs extreme edition 256 da eBay
€396,00
Scheda video geforce 7800 gs da eBay
€324,00
Gainward - Bliss geforce 7800 gs+ agp da ePRICE.it
€418,00





nVidia ha indentificato nel 18 di ottobre prossimo la data di presentazione della nuova gpu G80, che avverrà a Santa Clara, in California, sede principale dell'azienda.

E' inoltre prevista una replica dell'happening per quanto riguarda la stampa europea, che avverrà tre settimane più tardi ed in contemporanea con il rilascio ufficiale.

DjLode
07-10-2006, 15:55
Per sapere, ma che cacchio c'entrano i perzzi delle 7800? Che tra l'altro mi paiono dei ladrocini belli e buoni :asd:

aaasssdddfffggg
07-10-2006, 16:02
infatti.Quei prezzi non centrano un cazzo.Ho sbagliato a postarli.

bonzuccio
07-10-2006, 17:14
infatti.Quei prezzi non centrano un cazzo.Ho sbagliato a postarli.


Io ho difficoltà a capirti.. è pazzesco ammetti di dare i numeri.. bah!

nudo_conlemani_inTasca
07-10-2006, 18:10
infatti.Quei prezzi non centrano un cazzo.Ho sbagliato a postarli.

Io non dico niente.. è meglio. :asd:

nudo_conlemani_inTasca
07-10-2006, 18:13
Io ho difficoltà a capirti.. è pazzesco ammetti di dare i numeri.. bah!

Si vede che ha letto il post dell'anno scorso il G70 e si è catapultato a dare i numeri... ehm, i prezzi! :D
Miii sono con 1 anno di ritardo, in fondo mica è tanto.. :sofico:
All'uscita del G90 posterà i prezzi del G80 dell'anno scorso.. ci scommetto!
:rotfl:
E' una caso cronico.. non fateci caso.. :asd:

Già lo so.. ti ho capito mascherina :p

MenageZero
07-10-2006, 19:29
Ovviamente io non ho accesso a parti G80, perchè non faccio parte della redazione, si lavora ovviamente su quello che si ha.
Il core secondario potrebbe benissimo contenere una PPU, in realtà, oltre ai VS/GS. Anzi dato che la PPU lavorerebbe soprattutto sulla geometria, sarebbe normale accoppiarla a tali funzioni. Oppure potrebbe esserci semplicemente un solo core con bus a 384 bit, ossia 64+64+64+64+64+64, cioè 6 controller indipendenti a 64 bit. Il che mi fa pensare, che si è parlato di 6 TCP per la verione GTX e 5 per la versione GTS, che causalmente ha bus a 320 bit (64x5) Quindi potrebbe essere che i TCP (che dovrebbero essere i controller atti a smistare il carico sulle unità shader) abbiano un canale di memoria "dedicato" a 64 bit (Ognuno necessita di una certa banda).
Per quanto riguarda gli "stream processors" quasi sicuramente si tratta di ALU singole, poi dipende cosa è in grado di fare ciascuna ALU. Se sono scalari (operano ciascuna su una singola variabile) bisogna stare attenti perchè ad esempio G70 ha 48 ALU (2 per pipeline PS) ma ognuna di esse (ma qui Yossarian lo sa moooolto meglio di me :D ) se non erro può lavorare vettorialmente con una singola istruzione su 4 numeri. Analogamente anche R580 ha 48 unità PS ognuna con 2 ALU, di cui se non erro una è vettoriale (e quindi la cui potenza è equivalente teoricamente a quella di più unità scalari) e una scalare . R500 ha 48 shader unit, di cui ognuna con 2 ALU, una capace di lavorare vettorialmente su 4 variabili e una scalare). Se invece quelle di G80 fossero unità vettoriali sarebbe un bel colpo in termini di potenza di calcolo (ma credo sia un pò improbabile perchè vorrebe dire un SACCO di transistor).
Il fatto che potrebbero essere unità scalari avrebbe senso se si parla dei fantomatici "1350 MHZ" a cui andrebbe lo shader core: su Beyond 3D si discuteva del fatto che potrebbero essere ALU "double pumped" come le ALU intere del P4, ossia eseguire 2 operazioni per ciclo di clock. Il che ha più senso se le 128 unità sono scalari.
A questo punto le unità scalari probabilmente sono organizzate in gruppi, potrebbero essere 64x2 o 32x4, Yossarian penso ritenga la seconda più probabile perchè di norma si lavora in "quads" di pixel (4 pixel alla volta). Poi mancano le info a proposito di TMU e ROPs: io ritengo probabile 32 o anche solo 16 TMU mentre per le ROPs non ci sono sufficienti elementi pe rvalutare, possibile rimangano 16 ma che vengano aumentati l'efficienza e il numero di features supportate.

grazie mille x le info:)

ma 'ste cose le trovi su arircoli pubblicati, o hai le tue "fonti" ? :D

quindi se ho capito bene, per l'elaborazione sui pixel,

g70/g71 ha 48 alu "vettoriali" ( 1 op. su 4 diversi dati contemp.)

r580 ha 48 alu "vettoriali" (non lo ha specificato ma azzardo, prr analogia con r500 che elaborino 4 dati contemp., quindi sono anche come quelle nv)
+ 48 alu "scalari"

considerato che se non ricordo male sui test sintetici che prendono di mira i vertex shader ati brilla più di nvidia e che r580 ha clock maggiore di g71 e che per quel che riguarda i pixel, se diciamo "alla buona" che una alu scalare vale il 25% di 1 alu vettoriale (da 4), r580 dovrebbe avere normalmente (almeno in dx) prestazioni superiori del 25% rispetto a g71...

ricordo male o invece il margine è molto più ridotto ? e se ricordo bene come mai ? :wtf:

leoneazzurro
07-10-2006, 20:25
grazie mille x le info:)

ma 'ste cose le trovi su arircoli pubblicati, o hai le tue "fonti" ? :D

quindi se ho capito bene, per l'elaborazione sui pixel,

g70/g71 ha 48 alu "vettoriali" ( 1 op. su 4 diversi dati contemp.)

r580 ha 48 alu "vettoriali" (non lo ha specificato ma azzardo, prr analogia con r500 che elaborino 4 dati contemp., quindi sono anche come quelle nv)
+ 48 alu "scalari"

considerato che se non ricordo male sui test sintetici che prendono di mira i vertex shader ati brilla più di nvidia e che r580 ha clock maggiore di g71 e che per quel che riguarda i pixel, se diciamo "alla buona" che una alu scalare vale il 25% di 1 alu vettoriale (da 4), r580 dovrebbe avere normalmente (almeno in dx) prestazioni superiori del 25% rispetto a g71...

ricordo male o invece il margine è molto più ridotto ? e se ricordo bene come mai ? :wtf:


Non ho le mie "fonti", ma semplicemente leggo molto in giro e tantissimo in inglese, soprattutto Beyond3D, che è un sito di riferimento per la grafica 3D, fondato da Dave Baumann (detto Wavey, che ora lavora in ATI)in cui vengono analizzate le architetture delle schede grafiche attuali e sul cui forum scrivono spesso molti che "ne capiscono parecchio". C'è ad esempio Humus, programmatore ATI che scrisse la famosa patch per Doom3, o nao (programmatore 3D che è italiano e scriveva qualche tempo fa anche qui) e gente legata più o meno ad ATI e/o a Nvidia. Qui su HWU il nostro Yossarian (un vero maestro per me :ave: tanto buono che non mi riprende neanche quando scrivo qualche stupidaggine) ne capisce veramente molto e credo che abbia sì le sue "fonti" ;) E poi ogni tanto si vede anche fek che lavora per i Lionhead Studios.

Comunque, si, la situazione è più o meno quella che hai detto tu, ma oltre a cosa sono capaci di fare le ALU bisogna considerare anche come vengono utilizzate e come sono strutturate loro e le risorse ad esse dedicate. Siccome parliamo dei pixel shader (e non dei vertex) il vantaggio teorico di r580 è più del 25% sui calcoli FP (anche perchè se viene utiizzata una TMU in G70 una ALU non può lavorare per calcoli FP), ma ad esempio G70 ha più TMU e nelle operazioni che utilizzano molto queste unità è avvantaggiato, e le sue ALU possono inoltre fare una operazione di "normalizzazione" (calcolo dei componenti di un vettore perpendicolare ad una superficie) in FP16 "gratis" per ciclo. Capirai che quindi spesso le differenze sono tali che non è faciel dire quale architettura sarà più performante. Ad esempio R520 ha 1/3 della potenza PS di R580 ma il divario non è assolutamente enorme.

Tuttavia, in futuro, i giochi andranno sempre più a tassare i pixel shader e meno le TMU o, meglio, il rapporto tra operazioni sui pixel shader e operazioni sulle texture tenderà a crescee. In questo caso si vedrà che le prestazioni relative tra R580 e R520 andrà a crescere, così come tra R580 e G70/71.

maggiore scia
07-10-2006, 22:19
la cosa straordinaria di questa gpu, sono questi fantomatici 128 stream processor dedicati agli shader.
pensare ke r500 della 360 ha "solo" 48 alu unicate per gli shader.

Free Gordon
07-10-2006, 22:50
Non ho le mie "fonti", ma semplicemente leggo molto in giro e tantissimo in inglese, soprattutto Beyond3D, che è un sito di riferimento per la grafica 3D, fondato da Dave Baumann (detto Wavey, che ora lavora in ATI)in cui vengono analizzate le architetture delle schede grafiche attuali e sul cui forum scrivono spesso molti che "ne capiscono parecchio". C'è ad esempio Humus, programmatore ATI che scrisse la famosa patch per Doom3, o nao (programmatore 3D che è italiano e scriveva qualche tempo fa anche qui) e gente legata più o meno ad ATI e/o a Nvidia. Qui su HWU il nostro Yossarian (un vero maestro per me :ave: tanto buono che non mi riprende neanche quando scrivo qualche stupidaggine) ne capisce veramente molto e credo che abbia sì le sue "fonti" ;) E poi ogni tanto si vede anche fek che lavora per i Lionhead Studios.

Facciamo le stesse letture, leo.. :sofico: solo che io c'azzecco di meno! :D



Tuttavia, in futuro, i giochi andranno sempre più a tassare i pixel shader e meno le TMU o, meglio, il rapporto tra operazioni sui pixel shader e operazioni sulle texture tenderà a crescee. In questo caso si vedrà che le prestazioni relative tra R580 e R520 andrà a crescere, così come tra R580 e G70/71.

Lo aspetto al varco R580, proprio su quel terreno di scontro...e penso che dovremo proprio usare Crysis come bench di riferimento.

Peccato però che non avremo per molto tempo ancora del software dx10 vero e proprio, per confrontare G80 e R600 per benino. :(

Free Gordon
07-10-2006, 22:51
la cosa straordinaria di questa gpu, sono questi fantomatici 128 stream processor dedicati agli shader.
pensare ke r500 della 360 ha "solo" 48 alu unicate per gli shader.


Come ha detto sopra leone, potrebbero essere 48x2=96 vs 128 contati alla stessa maniera.. ;)

Aspettiamo e vediamo. :D

leoneazzurro
08-10-2006, 10:02
Come ha detto sopra leone, potrebbero essere 48x2=96 vs 128 contati alla stessa maniera.. ;)

Aspettiamo e vediamo. :D

Inoltre le ALU di R500 sono 1 vettoriale (4 componenti) e 1 scalare.

aaasssdddfffggg
08-10-2006, 10:03
Ho postato una notizia proveniente da un altro sito ma accidentalmente ho selezionato anche un paio di righe che non centravano nulla con la notizia.Tutto qua.Qui l'idiota di turno sei proprio tu che tiri fuori dei commenti che non servono ad un cazzo.

bonzuccio
08-10-2006, 10:09
Ho postato una notizia proveniente da un altro sito ma accidentalmente ho selezionato anche un paio di righe che non centravano nulla con la notizia.Tutto qua.Qui l'idiota di turno sei proprio tu che tiri fuori dei commenti che non servono ad un cazzo.


No guarda cerca di non girare la frittata, si aspettava da parte tua una risposta a una domanda di leoneazzurro un po di pagine fa e comunque è chiaro che i tuoi interventi abbassano il livello della discussione da sempre, oltre al fatto che vai sulle offese personali
se vuoi continuare a quanto pare sei libero di farlo
manco il copia incolla che tristezza :rolleyes:
prima di dare un mouse in mano alla gente bisognerebbe fargli un test attitudinale
ciao :Prrr:

aaasssdddfffggg
08-10-2006, 10:11
Avessi tu il sistema che ho tra le mani.Non ci arriverai nemmeno tra 10 anni.Ciao amico.

bonzuccio
08-10-2006, 10:22
cut..
Tuttavia, in futuro, i giochi andranno sempre più a tassare i pixel shader e meno le TMU o, meglio, il rapporto tra operazioni sui pixel shader e operazioni sulle texture tenderà a crescee. In questo caso si vedrà che le prestazioni relative tra R580 e R520 andrà a crescere, così come tra R580 e G70/71.

Speriamo che l'architettura di r580 regga decentemente i prossimi titoli e l'uso delle nuove librerie, la gx2 di nemesis vale 10 euro in meno al giorno :D

aaasssdddfffggg
08-10-2006, 10:28
Infatti.Il mio sistema è pronto per essere aggiornato con 2 8800gtx in SLI.Ma diamogli il tempo di farle uscire.Un saluto

MenageZero
08-10-2006, 10:31
Inoltre le ALU di R500 sono 1 vettoriale (4 componenti) e 1 scalare.
proprio per questo, o meglio ancora per il fatto che r580 ne ha 48 vett. + 48 scal. solo per i pixel, e g71 nello stesso ambito 48 vettoriali,

non è improbabile che se 128 è il num. di alu, quste siano tutte scalari ?

se fossero tutte scalari ed il clock 1,3GHz e rotti (+/- doppio rispetto a r580), g80 per avere ad esempio potenza di calcolo sui pixel simile a r580, dovrebbe avere, a spanne,

(48*4 + 48 ) /2 = 120

alu scalari e infatti approssimatamente i conti sembrano tornare ...

... ma siccome g80 è la gen. successiva e non è difficile ipotizzare che uno degli obbiettivi sia superare, non si può sapere oradi quanto, ma sicuramente nettamente r580 anche nell'ambito citato (come è sempre stato fra divers egenerazioni di cpu),...

ecco che allora 128 alu, anche fossero solo per le pixel units, sembrano addirituura pochine, se fossero solo scalari (per non parlare dell'ipotesi in cui il clock non fosse così elevato come da indiscrezioni) ... :stordita:

Raven
08-10-2006, 10:39
Ho postato una notizia proveniente da un altro sito ma accidentalmente ho selezionato anche un paio di righe che non centravano nulla con la notizia.Tutto qua.Qui l'idiota di turno sei proprio tu che tiri fuori dei commenti che non servono ad un cazzo.

Sospeso 3gg! :O

Free Gordon
08-10-2006, 11:13
Infatti.Il mio sistema è pronto per essere aggiornato con 2 8800gtx in SLI.Ma diamogli il tempo di farle uscire.Un saluto


Saresti super-cpu-limited con un sistema del genere... soldi buttati in pratica! :D
Una direi che basta e avanza! :oink:

ulk
08-10-2006, 12:04
Saresti super-cpu-limited con un sistema del genere... soldi buttati in pratica! :D
Una direi che basta e avanza! :oink:

Perchè non fa 600 invece di 300 frame con Half Life 2 può essere ma non conta nulla, è la scheda video che tira nei giochi.

Free Gordon
08-10-2006, 15:15
Perchè non fa 600 invece di 300 frame con Half Life 2 può essere ma non conta nulla, è la scheda video che tira nei giochi.


Per HL2, basta e avanza una qualunque 7800/1800... :D figuriamoci un G80!!

Vedremo coi giochi più pesanti del 2007 se la cpu non conterà proprio nulla..... :cool: (ad esempio Alan Wake).

Apple80
08-10-2006, 17:42
Per HL2, basta e avanza una qualunque 7800/1800... :D figuriamoci un G80!!

Vedremo coi giochi più pesanti del 2007 se la cpu non conterà proprio nulla..... :cool: (ad esempio Alan Wake).

in sli a 1600x1200 la cpu anche se dual core, non darà grossi risultati quanto una nuova revisione di una sv precedente.

Uno sli puo' darti dal 70 al 105%. Lo so', perchè ho perso giorni per fare test su tes, scoprendo che col single core anche se oc (da 2000mhz a 2800mhz) ,ho guadagnato solo 2 frame e la cosa è stata a dir poco imbarazzante. Parlo sempre per sistemi sli e risoluzioni da 1280 in su con tutto a manetta. A singola scheda è diverso.


test fatti su quake 4


1280x1024 - - - - - - SLI OC
Alta Qualità

AA off - 95 - - - - - - 156

AA 2x - 85 - - - - - - - 148

AA 4x - 73 - - - - - - 132

AA 8x - 25 - - - - - - - 58

1600x1200 - - - - - - SLI OC
Alta Qualità

AA off - 74 - - - - - - 133

AA 4x - 56 - - - - - - 103


sfido un qualunque gioco anche se sfruttasse il dual-core,ad ottenere un simile risultato impostando un AA a 4x. Ecco x' ,attualmente non sento il bisogno di prendere un X2. Se poi il G80 e l'R600 potranno gestire nel migliore dei modi la fisica, sarà allegerita la cpu , diventando meno dipendente.

Parlo sempre per i modelli top gamma delle sv, per gente che è abituata a mettere tutto a palla. a 1024 senza AA il dual core conteranno di più.

_xtc_
09-10-2006, 08:48
Come direbbe zio Bill... "640Mb should be enough for everyone..."

cmq incredibile... me l'aspettavo prima o poi l'uso del moltiplicatore interno come le cpu...

manga81
09-10-2006, 15:05
senza dubbio una bella scheda... ma a metà novembre io comprerei una 7950gt che si troverà nuova anche a 150-200 euro al max e poi aspetterei 1-2 anni prima di passare a qualcosa di ancora + performante...........

Kharonte85
09-10-2006, 15:51
Rispetto a quello che si diceva tempo fa sui consumi sono rincuorato... :)

Potrebbe essere stata una mossa di nvidia quella di far trapelare consumi spropositati...cosi' alla ATI (che è sempre un po' piu' ciucciawatt) pensavano di essere salvi...mentre adesso si staranno guardando in faccia dicendosi l'un con l'altro: :doh: come cavolo facciamo a farla consumare meno di 600w? :asd:

Naturalmente sto scherzando...pero' l'immagine è troppo divertente... :D

capitan_crasy
09-10-2006, 16:08
senza dubbio una bella scheda... ma a metà novembre io comprerei una 7950gt che si troverà nuova anche a 150-200 euro al max e poi aspetterei 1-2 anni prima di passare a qualcosa di ancora + performante...........
Nvidia non fa beneficenza; piuttosto che vendere una 7950GT a €.200 la toglie dal mercato...

manga81
09-10-2006, 19:08
Nvidia non fa beneficenza; piuttosto che vendere una 7950GT a €.200 la toglie dal mercato...

non per contraddirti ma su ebay la si trova a meno di 185euro già ora.......ed in germania nuova la vendono a circa 250euro.....tu non pensi?!?poi posso pure sbaliare...

velorius
10-10-2006, 00:49
Originariamente inviato da: capitan_crasy
Nvidia non fa beneficenza; piuttosto che vendere una 7950GT a €.200 la toglie dal mercato...



non per contraddirti ma su ebay la si trova a meno di 185euro già ora.......ed in germania nuova la vendono a circa 250euro.....tu non pensi?!?poi posso pure sbaliare...

si si sbalia sbalia :D

nudo_conlemani_inTasca
10-10-2006, 02:29
non per contraddirti ma su ebay la si trova a meno di 185euro già ora.......ed in germania nuova la vendono a circa 250euro.....tu non pensi?!?poi posso pure sbaliare...

si si sbalia sbalia :D

Io sbalio
tu sbali
egli sbalia
noi sbadiliano
voi sbadilate
essi sbadonzolano

:D

albaneseg
10-10-2006, 08:35
Ragazzi come avete detto voi giustamente nei post precedenti non conviene proprio acquistarne una,proprio per niente.Con l'avvento di questa nuova scheda sicuramente e per nonstra fortuna si abbasserà il prezzo della mitica GeForce 7950GX2 con il quale con questa si va sul sicuro per parecchio tempo,e qui entra in gioco l'ultimo post di farinacci_79 che ha pienamente ragione.

halduemilauno
10-10-2006, 08:58
http://www.pdxlan.net/nvidia/news.php
7-8 novembre.
;)

ProgMetal78
10-10-2006, 12:05
Piu' passa il tempo piu' sfornano mostri...mi adeguerò...

Free Gordon
10-10-2006, 16:29
in sli a 1600x1200 la cpu anche se dual core, non darà grossi risultati quanto una nuova revisione di una sv precedente.
Uno sli puo' darti dal 70 al 105%. Lo so', perchè ho perso giorni per fare test su tes, scoprendo che col single core anche se oc (da 2000mhz a 2800mhz) ,ho guadagnato solo 2 frame e la cosa è stata a dir poco imbarazzante. Parlo sempre per sistemi sli e risoluzioni da 1280 in su con tutto a manetta. A singola scheda è diverso.



Più sali di risoluzione (o metti AA) e più la cpu risulta meno influente, perchè più calano i frame... (ma la CPU è allo stesso modo influente :D ).

Che lo SLI ti possa dare più del 100% di incremento mi pare difficile crederlo... :mbe: (non è che per caso hai fatto i test non nelle stesse condizioni?)


I giochi hanno utilizzi diversi della CPU, certamente l'utilizzo che fa della CPU un TES, non è quello che faranno i giochi futuri.. ;)

Per me è più sensato avere un sistema bilanciato, con una CPU in grado di sorreggere bene la VGA partendo da risoluzioni di 1024x768 in su, piuttosto che avere un sistema CPU limited ma con prestazioni assolute migliori nel 3d.

Cmq ognuno fa le scelte che ritiene più giuste, io sopra dicevo che 2 G80 in SLI per le CPU attuali sono uno spreco, e questo è vero in prospettiva, magari non attualmente; lo sarà però in futuro, quando quelle VGA non avranno più la potenza necessaria per spingere titoli a risoluzioni alte o con molti filtri.

Molto dipende da quanto uno il sistema se lo tiene. ;)

Apple80
10-10-2006, 18:14
Che lo SLI ti possa dare più del 100% di incremento mi pare difficile crederlo... :mbe: (non è che per caso hai fatto i test non nelle stesse condizioni?)







non ci credevo nemmeno io ma ho un testimone (Erminiof ) di tutti i test che ho postato nei thread ufficiali di q4 e cod2. Anche lui rimasto impressionato dai test fatti.

te ne posto un'altro.. anche qui c'era Erminiof mentre lo facevo ..entrambi rimasti di m****.

FEAR

http://img143.imageshack.us/img143/6512/fearmaxng1.th.jpg (http://img143.imageshack.us/my.php?image=fearmaxng1.jpg)

http://img241.imageshack.us/img241/7340/fearmax7800kk6.th.jpg (http://img241.imageshack.us/my.php?image=fearmax7800kk6.jpg)

http://img48.imageshack.us/img48/2046/faermax7800sli2ah5.th.jpg (http://img48.imageshack.us/my.php?image=faermax7800sli2ah5.jpg)

Abbiamo testato anche durante il gioco girando nella palazzina all'inizio del gioco. I frame raddoppiano con sistema sli. pero' abbiamo notato anche che ogni AA ne dimezza. esempio...

aaoff 200 frame
aa2x 100
aa4x 50

poi ho rifatto questo test con san diego downclocato a 2000mhz e poi a 2800 e poco più. differenza di 2-3 frame. sempre in sli. Senza sli con cpu oc ,ho avuto un incremento di 8-9 frame.

La cpu non nasce per la computer grafica ma per fare ogni cosa , quindi non si sbilancia ad essere migliore per un determinato lavoro. Più la grafica si evolve e più abiamo bisogno di hw specifico per la grafica. La cpu puo' aiutare in un determinato modo sempre che il gioco sia ottimizzato per sfruttarla. Ma oggi giorno i programamtori non si tirano cosi matti per sfruttare al meglio le cpu a risoluzioni stratosferiche ,x' a quel punto diventa troppo impegnativo e forse anche inutile in termini di prestazioni. Fino a 1280 con aa4x già la cpu si vede quanto meno valga rispetto a risoluzioni di 640x480 800x600 e 1024x720. Questo lo dimostrano le recensioni fatte alle cpu dove non vanno mai oltre i 1024 nei test.
Nel vedere le foto di Crisis siamo di fronte ad un nuovo concetto di computer grafica ,mai sfruttato seriamente,cioè la fisica e la quantià di oggetti su schermo. Ho letto che solo la fisica mangia via un sacco di potenza alla gpu solo per i calcoli che deve fare per ogni singola scheggia che vola via da un'esplosione. Sarebbe stato comodo farglielo fare ai dual -core ,kissà perchè invece non l'hanno fatto non lo so.
In ogni modo col nuovo cryengine2 ,quando sarà sfruttato in tutta la sua potenza ci si renderà conto che abbiamo bisogno di sv performanti ,gpu che elaborano grafica più complessa ecc. Fra qualche anno arriveremo al pari della realtà. :D


mmh... per farmi capire meglio..... una cpu è destinata per ogni tipo di lavoro.. e per questo non è poi cosi complessa la sua costruzione rispetto ad una gpu.
A quel punto non è cosi difficile puntare su una riduzione dei voltaggi per l'utilizzo, una cpu ha anche meno transistor rispetto ad una gpu.
In ogni modo le cpu non hanno da star dietro a nulla se non a loro stesse per ridurre i tempi di lavoro. encoding ,multitasking ecc.
le gpu devono invece star dietro all'evolversi della grafica,sempre più complessa e prossima alla realtà,ogni volta questo necessita di un sensibile aumento di prestazioni. E l'abbiamo notato negli ultimi 2 anni con l'evolversi delle dx9.
parlo sempre per risoluzioni elevate !!!!

poi oh.. se sto qui a tirarla ancora un po' mi stanco pure io :ronf:

Free Gordon
10-10-2006, 22:21
non ci credevo nemmeno io ma ho un testimone (Erminiof ) di tutti i test che ho postato nei thread ufficiali di q4 e cod2. Anche lui rimasto impressionato dai test fatti.
te ne posto un'altro.. anche qui c'era Erminiof mentre lo facevo ..entrambi rimasti di m****.
FEAR
http://img143.imageshack.us/img143/6512/fearmaxng1.th.jpg (http://img143.imageshack.us/my.php?image=fearmaxng1.jpg)

http://img241.imageshack.us/img241/7340/fearmax7800kk6.th.jpg (http://img241.imageshack.us/my.php?image=fearmax7800kk6.jpg)

http://img48.imageshack.us/img48/2046/faermax7800sli2ah5.th.jpg (http://img48.imageshack.us/my.php?image=faermax7800sli2ah5.jpg)

Ma questo non è un incremento di oltre il 100% (o 105), ma del 94 (da 35 a 68%). :p

I frame massimi segnalati dal bench di FEAR non hanno molto valore, sono picchi che possono variare con molta facilità, all'interno di un gioco.



La cpu non nasce per la computer grafica ma per fare ogni cosa , quindi non si sbilancia ad essere migliore per un determinato lavoro. Più la grafica si evolve e più abiamo bisogno di hw specifico per la grafica. La cpu puo' aiutare in un determinato modo sempre che il gioco sia ottimizzato per sfruttarla. Ma oggi giorno i programamtori non si tirano cosi matti per sfruttare al meglio le cpu a risoluzioni stratosferiche ,x' a quel punto diventa troppo impegnativo e forse anche inutile in termini di prestazioni. Fino a 1280 con aa4x già la cpu si vede quanto meno valga rispetto a risoluzioni di 640x480 800x600 e 1024x720. Questo lo dimostrano le recensioni fatte alle cpu dove non vanno mai oltre i 1024 nei test.

La CPU conta sempre allo stesso modo, a qualsiasi risoluzione. :D

Sono i frame che calano al salire della res e dei filtri, perchè sale la complessità dei calcoli che deve fare la GPU.

Come dicevo prima però, a 1024x768 (o più in basso) vedi se una CPU riesce a spingere al suo limite una scheda video di fascia alta (perchè non si è in una condizione GPU-limited) e se non lo fà prima (con una x1800 poniamo il caso), non lo farà nemmeno dopo, accoppiata ad una GPU più veloce. :)

Per questo preferisco avere un sistema bilanciato, piuttosto che spendere tutto in VGA, anche se avendo un sistema SLI o comprando GPU sempre nuove (senza cambiare cpu) avrei un incremento di frame certamente sostanzioso. ;)

Apple80
10-10-2006, 22:45
Ma questo non è un incremento di oltre il 100% (o 105), ma del 94 (da 35 a 68%). :p

I frame massimi segnalati dal bench di FEAR non hanno molto valore, sono picchi che possono variare con molta facilità, all'interno di un gioco.








sapevo di questa tua risposta ecco x' nel posto ti ho detto che girando nella palazzina col morto sulla sedia, abbiamo fatto dei test durante il gioco. e si sono rilevati come nel banchmark. Ovviamente i test che ho fato su ogni gioco ,q4,cod2,splinter cell chaos ecc.... li ha fatti coi demo e giocando per confrontarli. Non ho trovato delle discrepanze e quindi ho potuto confermare il guadagno, come dato dai demo. Per quello li ho rigiocati lasciando attivo la visulizzazione dei frame tenendoli d'occhio con e senza SLI. Sti test mi sono durati + di una settimana alal fine, calcolando che non facevo altro dalle 18 a mezzanotte. :D Mi sono tirato matto ma almeno ora posso confermare il tutto,oltretutto con un testimone. :p



La CPU conta sempre allo stesso modo, a qualsiasi risoluzione.

Esattamente la cpu conta sempre x' serve per avviare l'os. :p scherzi a parte.....
Conterebbe di più se da 200 di bus a 260 mi farebbe almeno un 10% in più,ma qui stiamo parlando di un 1%. Sia con un 3200 new castle ,con un san diego 3700+ e un ipotetico FX58. la cosa è imbarazzante. Roba da staccare la cpu e farne ameno mentre si gioca in sli. Se ci fossi stato tu fare sti tst al mio posto,ora non dormiresti più la notte. Altro che notte horror. :sofico:



Per questo preferisco avere un sistema bilanciato, piuttosto che spendere tutto in VGA, anche se avendo un sistema SLI o comprando GPU sempre nuove (senza cambiare cpu) avrei un incremento di frame certamente sostanzioso.

Sono daccordo con te, se resti su risoluzioni da 1024 una buona cpu conta molto, e non hai bisogno di 2GB di ram per sfruttare sv top gamma ,con setatggi su ultra qualità ecc. é che io ormai,dopo la 9700pro mi sono rovinato. Ho visto la luce e mi sono convertito. Da allora solo sv top gamma.
aiutatemiiiiiiiiiiiiiiiiii vi pregooooooooooooo. :oink:

Dylan BJ
10-10-2006, 23:49
Ho venduto la HisX1900XTX x passare alla 7950X2; premetto gioco solo a 1900x1200 con AF a 4x e AA a 16X. Il mio ex procio era un 939 3200+ con 2gb di ram 400, e nn vi dico la delusione nel constatare che a questa risoluz l'nvidia nn andava quanto pensassi (titoli come doom e quake a parte, x ovvie ragioni!!). Con episode one faticavo a superare i 20fps; poi mi e' capitata una bazza di passare dal sistema nforce4 al nuovo 965 + conroe 6600, 2gb di ram 667 (o.c. a 800).
Ebbene, nn riconosco + la mia GPU... episode one fisso sui 60fps (60!!!), e nn vi dico le imbarazzanti migliorie altrove.
Sicuramente prima ero cpu limited pure alle alte risoluz, qualcuno mi ha spiegato x via della complessita' di gestire, di fatto,2skede (presenti all'interno della 7950X2) cosa ke forse il 939 nn riusciva proprio a digerire....
Morale: se ad alte risoluz con filtri il procio fosse ininfluente.... ora nn posterei qui!!! :p

Free Gordon
11-10-2006, 00:05
sapevo di questa tua risposta ecco x' nel posto ti ho detto che girando nella palazzina col morto sulla sedia, abbiamo fatto dei test durante il gioco. e si sono rilevati come nel banchmark. Ovviamente i test che ho fato su ogni gioco ,q4,cod2,splinter cell chaos ecc.... li ha fatti coi demo e giocando per confrontarli. Non ho trovato delle discrepanze e quindi ho potuto confermare il guadagno, come dato dai demo. Per quello li ho rigiocati lasciando attivo la visulizzazione dei frame tenendoli d'occhio con e senza SLI. Sti test mi sono durati + di una settimana alal fine, calcolando che non facevo altro dalle 18 a mezzanotte. :D Mi sono tirato matto ma almeno ora posso confermare il tutto,oltretutto con un testimone. :p

Dal bench, deduciamo cmq che l'incremento è sempre del 94%.. :D più del 100% di incremento (come avevi detto) è fisicamente impossibile.

Curiosità: ma quel test (con quei setting) lo hai fatto con lo SLI o con la singola 7800?
Perchè per curiosità ho provato ora a fare il test di FEAR con gli stessi setting... e sul mio sistema (in sign) faccio 63fps di media.




Sono daccordo con te, se resti su risoluzioni da 1024 una buona cpu conta molto, e non hai bisogno di 2GB di ram per sfruttare sv top gamma ,con settaggi su ultra qualità ecc. é che io ormai,dopo la 9700pro mi sono rovinato. Ho visto la luce e mi sono convertito. Da allora solo sv top gamma.
aiutatemiiiiiiiiiiiiiiiiii vi pregooooooooooooo. :oink:

Coi giochi attuali non gioco a 1024... col mio sistema gioco bene a res altissime (1920x1200 ad esempio, ho un monitor che la brama ;) ) e persino con filtri! ^_^

Ad esempio nella demo di Dark Messiah con setting al massimo, a 1920x1200 con HDR e AF16x, sto sui 45 fps di media..

Free Gordon
11-10-2006, 00:18
Sicuramente prima ero cpu limited pure alle alte risoluz, qualcuno mi ha spiegato x via della complessita' di gestire, di fatto,2skede (presenti all'interno della 7950X2) cosa ke forse il 939 nn riusciva proprio a digerire....
Morale: se ad alte risoluz con filtri il procio fosse ininfluente.... ora nn posterei qui!!! :p


Avevi un problema prima col 939.. non è possibile che prendi 40fps cambiando procio, a 1900x1200 per giunta! :D

Uriziel
11-10-2006, 08:18
Ho venduto la HisX1900XTX x passare alla 7950X2; premetto gioco solo a 1900x1200 con AF a 4x e AA a 16X. Il mio ex procio era un 939 3200+ con 2gb di ram 400, e nn vi dico la delusione nel constatare che a questa risoluz l'nvidia nn andava quanto pensassi (titoli come doom e quake a parte, x ovvie ragioni!!). Con episode one faticavo a superare i 20fps; poi mi e' capitata una bazza di passare dal sistema nforce4 al nuovo 965 + conroe 6600, 2gb di ram 667 (o.c. a 800).
Ebbene, nn riconosco + la mia GPU... episode one fisso sui 60fps (60!!!), e nn vi dico le imbarazzanti migliorie altrove.
Sicuramente prima ero cpu limited pure alle alte risoluz, qualcuno mi ha spiegato x via della complessita' di gestire, di fatto,2skede (presenti all'interno della 7950X2) cosa ke forse il 939 nn riusciva proprio a digerire....
Morale: se ad alte risoluz con filtri il procio fosse ininfluente.... ora nn posterei qui!!! :p
non è per dire eh, pero' il problema non era il 939 ma il fatto che il procio non era dual core e manco un single core dei piu potenti.
gia con un 3800 single imho le cose sarebbero migliorate.

Apple80
11-10-2006, 08:46
Curiosità: ma quel test (con quei setting) lo hai fatto con lo SLI o con la singola 7800?



Perchè per curiosità ho provato ora a fare il test di FEAR con gli stessi setting... e sul mio sistema (in sign) faccio 63fps di media.





con lo sli e con la 7800 singola.



http://www.hwupgrade.it/articoli/skvideo/1405/fear_2.png

è logico che con la tua fai di più. Fear è anche meglio gestito con schede ati perchè realizzato con l'Havok.

Ma se guardiamo l'unreal engine 2


http://www.hwupgrade.it/articoli/skvideo/1405/sc_2.png


la differenza non è cosi sostanziale come con l'havok.

Free Gordon
11-10-2006, 10:43
L'Havok è il motore fisico, non c'entra col motore grafico (quello di FEAR penso sia proprietario dei Monolith).

Apple80
11-10-2006, 10:55
L'Havok è il motore fisico, non c'entra col motore grafico (quello di FEAR penso sia proprietario dei Monolith).


vero .Motore grafico è "Lithtech - jupiter-EX" dei Monolith, motore fisico Havok.

Me è propio quello che avvantaggia le ati.

Free Gordon
11-10-2006, 11:40
Me è propio quello che avvantaggia le ati.


Quel motore fisico non utilizza la GPU, usa la CPU (mi pare che nemmeno l'ultimo Havok, il 4, usa la GPU), come potrebbe avvantaggiare una scheda rispetto all'altra?

Dylan BJ
11-10-2006, 13:47
non è per dire eh, pero' il problema non era il 939 ma il fatto che il procio non era dual core e manco un single core dei piu potenti.
gia con un 3800 single imho le cose sarebbero migliorate.
temo proprio sia cosi'.. perche' allora leggo ovunque che il dual core nn porta ancora benefici importanti xke' pressoke' ignorato dai titolissimi?infatti mi stupivo proprio di questo... :p

Free Gordon
11-10-2006, 14:11
temo proprio sia cosi'.. perche' allora leggo ovunque che il dual core nn porta ancora benefici importanti xke' pressoke' ignorato dai titolissimi?infatti mi stupivo proprio di questo... :p


+40 fps in media, da una config all'altra, sono fuori dal mondo. Non ci credo nemmeno se lo vedo.. :D
Avrai sicuramente avuto qualche problema col sistema 939 oppure non hai fatto i test di confronto, in modo rigoroso.

Da 20fps a 60 vuol dire il 200% di incremento, nemmeno montando una vga di una generazione successiva lo avresti avuto (a quelle res).

Apple80
11-10-2006, 14:14
Quel motore fisico non utilizza la GPU, usa la CPU (mi pare che nemmeno l'ultimo Havok, il 4, usa la GPU), come potrebbe avvantaggiare una scheda rispetto all'altra?

bè bella domanda. Visto che HL2 gira meglio su schede ati, e stessa cosa è successo con fear.
C'è più divario con fear che con tutti gli altri titoli.

Dylan BJ
11-10-2006, 20:40
+40 fps in media, da una config all'altra, sono fuori dal mondo. Non ci credo nemmeno se lo vedo.. :D
Avrai sicuramente avuto qualche problema col sistema 939 oppure non hai fatto i test di confronto, in modo rigoroso.

Da 20fps a 60 vuol dire il 200% di incremento, nemmeno montando una vga di una generazione successiva lo avresti avuto (a quelle res).
infatti la cosa tuttora mi lascia incredulo... e dire ke ho sempre agg tutto con pignoleria..... non so ke dire!beh cosi' mi sembra di essere stato catapultato dal medioevo... 60fps manco me li sognavo alla notte!! :p :D

leoneazzurro
11-10-2006, 20:45
Siamo andati leggermente OT o sbaglio? ;)

Dylan BJ
11-10-2006, 20:52
sorry :p

Pinko7
17-10-2006, 14:10
mizzega che mostri!

cristt
17-10-2006, 16:36
ma i prezzi? se rimangono coerenti con i valori attuali del mercato queste bestie dovranno costare almeno 1500 euro!! sembrerebbe uno sproposito ma a livello di credibilità non posso credere che queste schede avranno un costo simile a quello delle attuali soluzioni top-level, visto che potenzialmente saranno almeno il 50% più performanti! :mc:
sono proprio curioso di vedere cosa succederà
mi balena anche l'idea che questi dati tecnici siano pura fantasia :eek:

MenageZero
18-10-2006, 10:08
ma i prezzi? se rimangono coerenti con i valori attuali del mercato queste bestie dovranno costare almeno 1500 euro!! sembrerebbe uno sproposito ma a livello di credibilità non posso credere che queste schede avranno un costo simile a quello delle attuali soluzioni top-level, visto che potenzialmente saranno almeno il 50% più performanti! :mc:
sono proprio curioso di vedere cosa succederà
mi balena anche l'idea che questi dati tecnici siano pura fantasia :eek:

non so per i dati tecnici, ma è molto più probabile che prezzi come 1500€ a scheda siano pura fantasia: ;)

negli ultimi anni, indipendentemente che con nuova generazione si sia avuto un + 20, 50, 100 % etc. di prestazioni, i prezzi delle top appena uscite sono sempre stati tra i 500 e i 700 $, con eventualmente conseguenti lievi ribassi delle precedenti top nel breve e poi uscita di produzione e scomparsa delle stesse

imho non c'è alcun motivo di pensare ad un improvviso più che raddoppio del prezzo a questao giro (a meno che non puntino a venderne meno possibile :D )

City Hunter '91
18-10-2006, 11:26
anche io penso che il prezzo sara piu o meno quello solito delle schede di fascia alta nuove di zecca,anche perche' la domanda ormai si e' stabilizzata su quella cifra e quella quantita' di schede piazzabili appena uscite e questo nvidia ed ati lo sanno bene,quindi un rialzo di prezzo se nn a livelli minimi e' impensabile secondo me,significherebbe nn sapere da parte di nvidia come reagira' il mercato della domanda ad un offerta del genere,o meglio sapere che rimarranno sugli scaffali per un bel po'

Mister Tarpone
21-10-2006, 06:19
Ho venduto la HisX1900XTX x passare alla 7950X2; premetto gioco solo a 1900x1200 con AF a 4x e AA a 16X. Il mio ex procio era un 939 3200+ con 2gb di ram 400, e nn vi dico la delusione nel constatare che a questa risoluz l'nvidia nn andava quanto pensassi (titoli come doom e quake a parte, x ovvie ragioni!!). Con episode one faticavo a superare i 20fps; poi mi e' capitata una bazza di passare dal sistema nforce4 al nuovo 965 + conroe 6600, 2gb di ram 667 (o.c. a 800).
Ebbene, nn riconosco + la mia GPU... episode one fisso sui 60fps (60!!!), e nn vi dico le imbarazzanti migliorie altrove.
Sicuramente prima ero cpu limited pure alle alte risoluz, qualcuno mi ha spiegato x via della complessita' di gestire, di fatto,2skede (presenti all'interno della 7950X2) cosa ke forse il 939 nn riusciva proprio a digerire....
Morale: se ad alte risoluz con filtri il procio fosse ininfluente.... ora nn posterei qui!!! :p
Lo credo bene :asd: ..ti mancava il dual core.
Con solo 200euro ti prendevi l' x2 4400+ ,lo montavi e ottenevi le stesse prestazioni :) .
Non giustificare la tua nuova spesa fatta per l'isterismo di avere sempre un sistema inutilmente nuovo,e al top come prestazioni teoriche( e benkmarck :asd: )....perchè in pratica,non cambia una bella sega :) .
E adesso può venire anche il prof di turno a smentirmi,ma io ho avuto la conferma di ciò che affermo vedendo il tutto.
e 6400 + 2gb ram 7900gt x 2 4400 x2 + 2gbram 7900gt x 2 prestazioni identiche a 1600x1200 (e Oblivion scattava ugualmente in certi punti :eek: ).
Credetemi,se avete già un buon pc,NON spendete altri 800euro per rifarlo nuovo..i giochi vanno UGUALI a parità di sistema grafico!!!
Se volete un botto di prestazioni invece,prendete R600 o G80(cosa che farò appena uscirà,visto che ho i soldini da parte :cool: )..che nel pc,le sv contano il 90%!!è sempre stato cosi(so anni ,anni e ancora anni che va così.. :D ),c'è poco da fare... ;)
Spendere 800 euro per passare da un ottimo pc(come gli X2 ;) ) ad un + che ottimo pc è una discreta cazzata
visto che nei giochi non cambia una cippa ripeto!!!guardate Gothic3 Call of juarez ecc..a parità di sv,sia su conroe e su A64 x2 hanno la stessa bassa fluidita:rotfl:.Non è che sulle cpu intel li giochi a 80 frames eh :asd: perchè chi vi racconta di "prestazioni mirabolanti" sta sparando una minchiata colossale :asd:
Uomo avvisato,mezzo salvato(da una costosa spesa che non gli frutta quasi nulla..in termini di prestazioni :) ).
"Comprate tanta ram,il nuovo os e le superSV dx10".
Se avete la possibilità di mettere un dualcore sulla vostra mobo e se supporta il pc-e 16x,siete tranquillamente a posto!!ve l'assicuro ;) .
I pc da cambiare al giorno d'oggi sono i vecchi athlonXp 32bit e i P4 soket 478..sistemi che usano ancora l'agp...quindi irrimediabilmente obsoleti(ci metti 4gb ram ok,ci metti win.vista ok..ma G80 o R600 NO!! quindi è inutile:stordita: )
In quel caso,anch'io mi comprerei un conroe(ma se trovassi a molto meno un amd x2 usato lo prenderei tranquillamente ;) ).
Ah,sono anch'io dell'idea che un a64 sandiego,con 2-3gb ram e 8800GTX,sia un bel pc..e assolutamente performante nei prossimi giochi come Crisis,UT2007 ecc anche perchè queste schede come avevo predetto,gestiranno la fisica dei giochi in dx10.Cioè!!!volete mettere??è tutto a vantaggio delle cpu centrali..imho,queste schede non saranno come un passaggio da 6800gt a 7800gt..imho il salto sarà mooooolto più enorme!!M'importa una bella pippa dei watt,del non ci credo,del aspetto la revisione ecc ecc( TUTTE menate mentali tirate fuori da chi ora ha preso un sv di fascia alta pagandola un botto,e ovviamente,ci sforma tantissimo a non aver saputo aspettare..con il risultato,che le sv che hanno adesso stanno per diventare obsoletissime :) ) perchè queste schede,come potenza e qualità grafica,saranno M-O-S-T-R-U-O-S-E :cool: .
Fin'ora ho sempre aggiornato BENE i vari pc avuti..e scommetto che andrà così come penso io..e c'ho SEMPRE dato,MAI sbagliato un aquisto ;) .

LUCH81
21-10-2006, 12:28
Lo credo bene :asd: ..ti mancava il dual core.
Con solo 200euro ti prendevi l' x2 4400+ ,lo montavi e ottenevi le stesse prestazioni :) .
Non giustificare la tua nuova spesa fatta per l'isterismo di avere sempre un sistema inutilmente nuovo,e al top come prestazioni teoriche( e benkmarck :asd: )....perchè in pratica,non cambia una bella sega :) .
E adesso può venire anche il prof di turno a smentirmi,ma io ho avuto la conferma di ciò che affermo vedendo il tutto.
e 6400 + 2gb ram 7900gt x 2 4400 x2 + 2gbram 7900gt x 2 prestazioni identiche a 1600x1200 (e Oblivion scattava ugualmente in certi punti :eek: ).
Credetemi,se avete già un buon pc,NON spendete altri 800euro per rifarlo nuovo..i giochi vanno UGUALI a parità di sistema grafico!!!
Se volete un botto di prestazioni invece,prendete R600 o G80(cosa che farò appena uscirà,visto che ho i soldini da parte :cool: )..che nel pc,le sv contano il 90%!!è sempre stato cosi(so anni ,anni e ancora anni che va così.. :D ),c'è poco da fare... ;)
Spendere 800 euro per passare da un ottimo pc(come gli X2 ;) ) ad un + che ottimo pc è una discreta cazzata
visto che nei giochi non cambia una cippa ripeto!!!guardate Gothic3 Call of juarez ecc..a parità di sv,sia su conroe e su A64 x2 hanno la stessa bassa fluidita:rotfl:.Non è che sulle cpu intel li giochi a 80 frames eh :asd: perchè chi vi racconta di "prestazioni mirabolanti" sta sparando una minchiata colossale :asd:
Uomo avvisato,mezzo salvato(da una costosa spesa che non gli frutta quasi nulla..in termini di prestazioni :) ).
"Comprate tanta ram,il nuovo os e le superSV dx10".
Se avete la possibilità di mettere un dualcore sulla vostra mobo e se supporta il pc-e 16x,siete tranquillamente a posto!!ve l'assicuro ;) .
I pc da cambiare al giorno d'oggi sono i vecchi athlonXp 32bit e i P4 soket 478..sistemi che usano ancora l'agp...quindi irrimediabilmente obsoleti(ci metti 4gb ram ok,ci metti win.vista ok..ma G80 o R600 NO!! quindi è inutile:stordita: )
In quel caso,anch'io mi comprerei un conroe(ma se trovassi a molto meno un amd x2 usato lo prenderei tranquillamente ;) ).
Ah,sono anch'io dell'idea che un a64 sandiego,con 2-3gb ram e 8800GTX,sia un bel pc..e assolutamente performante nei prossimi giochi come Crisis,UT2007 ecc anche perchè queste schede come avevo predetto,gestiranno la fisica dei giochi in dx10.Cioè!!!volete mettere??è tutto a vantaggio delle cpu centrali..imho,queste schede non saranno come un passaggio da 6800gt a 7800gt..imho il salto sarà mooooolto più enorme!!M'importa una bella pippa dei watt,del non ci credo,del aspetto la revisione ecc ecc( TUTTE menate mentali tirate fuori da chi ora ha preso un sv di fascia alta pagandola un botto,e ovviamente,ci sforma tantissimo a non aver saputo aspettare..con il risultato,che le sv che hanno adesso stanno per diventare obsoletissime :) ) perchè queste schede,come potenza e qualità grafica,saranno M-O-S-T-R-U-O-S-E :cool: .
Fin'ora ho sempre aggiornato BENE i vari pc avuti..e scommetto che andrà così come penso io..e c'ho SEMPRE dato,MAI sbagliato un aquisto ;) .


:ahahah:
Ma fammi il piacere!!! non è minimamente paragonabile il conroe con l'amd nei giochi,prestazioni totalmente superiori da ex felice possessore di un fx-62, che casualmente è passato ad un misero e6300 ma ci ho guadagnato assai con le prestazioni e con il portafoglio. ma dimmi quando lo fai con superpi 1mb in 17 sec con un amd??!! con fx-62 facevo 26sec overcloccando. MEDITATE RAGAZZI.

MenageZero
21-10-2006, 15:48
:ahahah:
Ma fammi il piacere!!! non è minimamente paragonabile il conroe con l'amd nei giochi,prestazioni totalmente superiori da ex felice possessore di un fx-62, che casualmente è passato ad un misero e6300 ma ci ho guadagnato assai con le prestazioni e con il portafoglio. ma dimmi quando lo fai con superpi 1mb in 17 sec con un amd??!! con fx-62 facevo 26sec overcloccando. MEDITATE RAGAZZI.
tale fatto da solo non significa che la cpu che fa 17s al s.pi dia molta più performance nel normale utilizzo dei vg (ovvero non in situazioni estermamente cpu-limited che significherebbero risoluzioni molto basse, situazioni che non fanno la norma per i vg attuali dato che chi ne è appassionato di solito si procura un sistema cmq adeguato se non il top disponibile) di quella che fa 26s. ;)

non so da che deriva la grande differenza (hai fatto i tuoi test i situazioni motlo cpu-limited ?) di performance (suppongo a parità di tutto il resto, gioco e risoluzione usata compresi) nei giochi che tu hai notato da fx62 a e6300 (e suppongo anche che sottointendi l' e6300 overclockato almeno a +/- 2,4 GHz, che è la freq di un e6600 ed è la cpu che le recensioni mostrano essere quella che basta per superare quasi-sempre un fx62),

ma dalle recensioni risulta proprio che i conroe seppur significativamente più performanti dei diretti concorrenti k8, quello dei vg è proprio l'ambito di utilizzo tra quelli più comuni e testati dov le differenze sono più ridotte

(forse proprio perché i vg non sono proprio il max, se non in situazioni particolari, del "cpu-intesive", o almeno del "cpu-dependant", conta molto di più il "lavoro" della gpu... forse è per questo che alcuni si stupiscono delle grandi e generalizzate differenze che hai riscontrato tu :boh: )

bonzuccio
21-10-2006, 16:40
.. da ex felice possessore di un fx-62, che casualmente è passato ad un misero e6300 ma ci ho guadagnato assai con le prestazioni e con il portafoglio.. MEDITATE RAGAZZI.


Sto meditando :rolleyes:
i miei complimenti :doh:

Mister Tarpone
21-10-2006, 17:00
:ahahah:
Ma fammi il piacere!!! non è minimamente paragonabile il conroe con l'amd nei giochi,prestazioni totalmente superiori da ex felice possessore di un fx-62, che casualmente è passato ad un misero e6300 ma ci ho guadagnato assai con le prestazioni e con il portafoglio. ma dimmi quando lo fai con superpi 1mb in 17 sec con un amd??!! con fx-62 facevo 26sec overcloccando. MEDITATE RAGAZZI.
:rotfl: :rotfl: :rotfl: :rotfl:
E qui che ti volevo!!!(classico caso di chi cerca di giustificare una spesa inutile :asd: ) hai scritto proprio ciò che volevo io :asd:
Cioè,hai dato via un ottimo pc per prenderne un altro che nei giochi va UGUALE..(io per passare a 2core ho speso solo 200euro :) )e come giustifazione del nuovo aquisto mi tiri fuori "la solita minchiata del superPI!!!!!! :D "
Lo vuoi capire che col superPi non ci fai una bella pippa???!!:asd:lo vuoi capire che il superPi è inutile per giocare!!??lo sai fosse per me,che uso il pc per giocare,films,musica,internet e 3-4 programmetti + dove melo posso cacciare il superPI... :cool:
Se già si ha un bel pc,è un poco inutile(per come la vedo io)spendere 350euro di mem.ddr2 e n'altra botta per conroe + mobo figa,per poi avere come unico vantaggio sensibile,di fare 17sec nel "giochino INUTILE del superPI"
Poi sia chiaro,ripeto!!chi si compra un pc nuovo fa bene a prender conroe..che è un bel processore :) ma nei giochi,uno vale l'altro perche conta la schedavideo :)
Quindi il mio consiglio rimane quello di valutare bene tra r600 e g80(ma saranno ottime entrambe ;) )quale sv comprare,per giocare come si deve con i prossimi videogiochi.

MEDITATE SULLA FRASE DI LUCH81 RAGAZZI...MEDITATE :doh:

Bona.. ;)

LUCH81
21-10-2006, 17:47
:rotfl: :rotfl: :rotfl: :rotfl:
E qui che ti volevo!!!(classico caso di chi cerca di giustificare una spesa inutile :asd: ) hai scritto proprio ciò che volevo io :asd:
Cioè,hai dato via un ottimo pc per prenderne un altro che nei giochi va UGUALE..(io per passare a 2core ho speso solo 200euro :) )e come giustifazione del nuovo aquisto mi tiri fuori "la solita minchiata del superPI!!!!!! :D "
Lo vuoi capire che col superPi non ci fai una bella pippa???!!:asd:lo vuoi capire che il superPi è inutile per giocare!!??lo sai fosse per me,che uso il pc per giocare,films,musica,internet e 3-4 programmetti + dove melo posso cacciare il superPI... :cool:
Se già si ha un bel pc,è un poco inutile(per come la vedo io)spendere 350euro di mem.ddr2 e n'altra botta per conroe + mobo figa,per poi avere come unico vantaggio sensibile,di fare 17sec nel "giochino INUTILE del superPI"
Poi sia chiaro,ripeto!!chi si compra un pc nuovo fa bene a prender conroe..che è un bel processore :) ma nei giochi,uno vale l'altro perche conta la schedavideo :)
Quindi il mio consiglio rimane quello di valutare bene tra r600 e g80(ma saranno ottime entrambe ;) )quale sv comprare,per giocare come si deve con i prossimi videogiochi.

MEDITATE SULLA FRASE DI LUCH81 RAGAZZI...MEDITATE :doh:

Bona.. ;)

:doh:
Caro mio, se tu mi dici che il superpi non conta un tubo sono pure daccordo con te, ma se non altro mi fa capire che il processore e il sistema in generale che ho acquistato e ben piu performante del vecchio. Per quanto riguarda il computer nuovo, al meno per me,quando cambio componenti vendo quelli vecchi che in tal caso vendendo l fx-62 sono riuscito a prendere la scheda madre figa come dici tu le ddr2 1066 ed il processore e ci ho guadagnato pure 200 euro. quindi tu mi dici: "hai dato via un ottimo pc per prenderne un altro che nei giochi va UGUALE" in questo a pienamente torto perche io ho dato via un pc rispettivamente inferiore in tutto, rispetto ad uno economico e qualititivamente superiore. Quindi con questa tranzazione ci ho solo guadagnato. Se non concordi dimostrami il contrario!! :read:

Inoltre aggiungo che con i sistemi amd se non hai un minimo di memoria performante le prestazioni sui video giochi te le sogni ,avoglia a dire che basta la scheda video.

Per quanto riguarda le nuove schede g80 e r600 sicuramente saranno ottime scheda che faranno la differenza , ma di certo non con un sistema di 1 anno o 1 e mezzo , e se compro un scheda di punta cerco il massimo e non mi devo accontentare, altrimenti basterebbe un semplice scheda di fascia media.

Mister Tarpone
21-10-2006, 18:30
:doh:
Caro mio, se tu mi dici che il superpi non conta un tubo sono pure daccordo con te, ma se non altro mi fa capire che il processore e il sistema in generale che ho acquistato e ben piu performante del vecchio. Per quanto riguarda il computer nuovo, al meno per me,quando cambio componenti vendo quelli vecchi che in tal caso vendendo l fx-62 sono riuscito a prendere la scheda madre figa come dici tu le ddr2 1066 ed il processore e ci ho guadagnato pure 200 euro. quindi tu mi dici: "hai dato via un ottimo pc per prenderne un altro che nei giochi va UGUALE" in questo a pienamente torto perche io ho dato via un pc rispettivamente inferiore in tutto, rispetto ad uno economico e qualititivamente superiore. Quindi con questa tranzazione ci ho solo guadagnato. Se non concordi dimostrami il contrario!! :read:
Siamo d'accordo che con il "compra rivendi" hai preso un pc teoricamente più veloce,ma "nella pratica",nei giochi,"non cambia una emerita pippa" ;) (la comprendi sta cosa vero?? :) ).
Quindi perchè dover cambiare tutto se le prestazioni son sempre quelle??..nei videogiochi!! :) allora molto meglio saltare cambi inutili e passare direttamente alla generazione 8core e ddr3.. ;) (e per chi ha un ottima mobo 939,gli conviene comprare solo il procio 2 core,enorme risparmio e prestazioni ottime :) )
Discorso diverso per chi ha una carcassa di pc,in quel caso,vada per un conroe,certamente ;) .
Ma chi già ha Opteron e X2,può tranquillamente tenerselo(senza rivende,sbattersi cambiare ecc ) che va benissimo.
E ricorda che non tutti hanno un fx62(anche questo costosissimo e ASSOLUTAMENTE INUTILE ) = 900euro da potersi rivendere :asd:.

Inoltre aggiungo che con i sistemi amd se non hai un minimo di memoria performante le prestazioni sui video giochi te le sogni ,avoglia a dire che basta la scheda video.
Cazzata gigantesca..:rotfl: mi picerebbe aprirti gli occhi anche in ambito ram e overclock :asd:.
Non cambia una mazza..come è gia stato scritto in queste pagine(nei giochi max 1,2frames e tanti soldi che partono..:asd: )serve solo al superPIppa e benckmark vari ;) .

Per quanto riguarda le nuove schede g80 e r600 sicuramente saranno ottime scheda che faranno la differenza , ma di certo non con un sistema di 1 anno o 1 e mezzo , e se compro un scheda di punta cerco il massimo e non mi devo accontentare, altrimenti basterebbe un semplice scheda di fascia media.
Cosa diamine c'entra che il procio se ha già un anno allora la sv nuova è sprecata??? :mbe:
Se hai un bel processore,anche se di un anno fa ste schede rulleranno eccome...perchè non dovrebbero?? :doh:
Su su su..non ti far pippe mentali :doh: un x2 o un conroe poco importa,perchè se insieme ci sarà montata un g80,i giochi andranno UGUALI.:asd:
Ci scommetterei la casa..è troppi anni che sto dietro all'hardware..so cosa influisce veramente e cosa no,nei giochi:asd:.
Svegliati :) .


:flower:

LUCH81
21-10-2006, 18:52
Siamo d'accordo che con il "compra rivendi" hai preso un pc teoricamente più veloce,ma "nella pratica",nei giochi,"non cambia una emerita pippa" ;) (la comprendi sta cosa vero?? :) ).
Quindi perchè dover cambiare tutto se le prestazioni son sempre quelle??..nei videogiochi!! :) allora molto meglio saltare cambi inutili e passare direttamente alla generazione 8core e ddr3.. ;) (e per chi ha un ottima mobo 939,gli conviene comprare solo il procio 2 core,enorme risparmio e prestazioni ottime :) )
Discorso diverso per chi ha una carcassa di pc,in quel caso,vada per un conroe,certamente ;) .
Ma chi già ha Opteron e X2,può tranquillamente tenerselo(senza rivende,sbattersi cambiare ecc ) che va benissimo.
E ricorda che non tutti hanno un fx62(anche questo costosissimo e ASSOLUTAMENTE INUTILE ) = 900euro da potersi rivendere :asd:.


Cazzata gigantesca..:rotfl: mi picerebbe aprirti gli occhi anche in ambito ram e overclock :asd:.
Non cambia una mazza..come è gia stato scritto in queste pagine(max 1,2frames e tanti soldi che partono..:asd: )serve solo al superPIppa ;) .


Cosa diamine c'entra che il procio se ha già un anno allora la sv nuova è sprecata??? :mbe:
Se hai un bel processore,anche se di un anno fa ste schede rulleranno eccome...perchè non dovrebbero?? :doh:
Su su su..non ti far pippe mentali :doh: un x2 o un conroe poco importa,perchè se insieme ci sarà montata un g80,i giochi andranno UGUALI.:asd:
Ci scommetterei la casa..è troppi anni che sto dietro all'hardware..so cosa influisce veramente e cosa no,nei giochi:asd:.
Svegliati :) .


:flower:


Laciamo perdere dopo la cazzata delle memorie "Cazzata gigantesca mi picerebbe aprirti gli occhi anche in ambito ram e overclock
Non cambia una mazza..come è gia stato scritto in queste pagine(max 1,2frames e tanti soldi che partono )serve solo al superPIppa ;) "
E tu saresti uno che conosce l'hardware AMD DIPENDE DAI TEMPI DI ACCESSO DELLE MEMORIE PIU SONO ALTI PIU LE PRESTAZIONI DIMINUISCONO, anche del 20% leggiti qualche prova in giro e sui giochi sei penalizzato al massimo
Mentre per intel memorie con tempi di accesso alti o bassi non cambia niente si ha un incremento di circa il 3% con tempi di accesso bassi quindi lascia perdere

Cmq se sei un tipo che tiene un sistema 2 anni mi dici come fai a dire che il tuo sistema è meglio del mio , senza aver provato su pelle, come fai a fare un confronto con le foto che vedi su internet o con il computer comprato da poco a casa dell'amichetto .... ma dai........... :muro:

Kharonte85
21-10-2006, 18:59
Ah... :stordita:

:mbe: ma qui non si dovrebbe parlare di g80? :confused:

halduemilauno
21-10-2006, 19:05
Siamo d'accordo che con il "compra rivendi" hai preso un pc teoricamente più veloce,ma "nella pratica",nei giochi,"non cambia una emerita pippa" ;) (la comprendi sta cosa vero?? :) ).
Quindi perchè dover cambiare tutto se le prestazioni son sempre quelle??..nei videogiochi!! :) allora molto meglio saltare cambi inutili e passare direttamente alla generazione 8core e ddr3.. ;) (e per chi ha un ottima mobo 939,gli conviene comprare solo il procio 2 core,enorme risparmio e prestazioni ottime :) )
Discorso diverso per chi ha una carcassa di pc,in quel caso,vada per un conroe,certamente ;) .
Ma chi già ha Opteron e X2,può tranquillamente tenerselo(senza rivende,sbattersi cambiare ecc ) che va benissimo.
E ricorda che non tutti hanno un fx62(anche questo costosissimo e ASSOLUTAMENTE INUTILE ) = 900euro da potersi rivendere :asd:.


Cazzata gigantesca..:rotfl: mi picerebbe aprirti gli occhi anche in ambito ram e overclock :asd:.
Non cambia una mazza..come è gia stato scritto in queste pagine(nei giochi max 1,2frames e tanti soldi che partono..:asd: )serve solo al superPIppa e benckmark vari ;) .


Cosa diamine c'entra che il procio se ha già un anno allora la sv nuova è sprecata??? :mbe:
Se hai un bel processore,anche se di un anno fa ste schede rulleranno eccome...perchè non dovrebbero?? :doh:
Su su su..non ti far pippe mentali :doh: un x2 o un conroe poco importa,perchè se insieme ci sarà montata un g80,i giochi andranno UGUALI.:asd:
Ci scommetterei la casa..è troppi anni che sto dietro all'hardware..so cosa influisce veramente e cosa no,nei giochi:asd:.
Svegliati :) .


:flower:

a mister tarpò se metti una cpu più potente essa trasmetterà questa superiorità in tutti gli ambiti. quindi compreso il video gioco. a maggior ragione se si tratta dei core2duo.
mo basta se ve và continuate in pvt. qui si parla di g80.
;)

leoneazzurro
21-10-2006, 19:36
Allora, avevo già richiamato per oT prima. Quindi Mr. Tarpone e Luch81 vi beccate un'ammonizione a testa.

Per concludere l'OT, il superPI non è un programma adatto a confrontare architetture differenti, in quanto molto influenzato ad esempio dalla cache.
Quindi può essere indicativo solo se si parla di architetture simili o identiche, gli Athlon e i Core 2 NON sono architetture simili da questo punto di vista. Oltretutto Luch81 per fare 17 s al SuperPI 1 million lo hai a frequenze vicine ai 3 GHz, se sei CPU limited e fai il paragone con un FX-62 a default, direi che ci siamo, ma non parliamo di E6300 a default che è sicuramente inferiore nei giochi ad un FX-62. Discorso memorie: gli AMD sono più sensibili alle latenze, quindi è vero che perdi diversi punti percentuali nei VG con tempi di latenza alti, anche se non il 20%: quello lo si perde combinando latenze alte al mancato utilizzo dello "1t command rate".
(E se volete continuare, usate i PVT).

Mister Tarpone
21-10-2006, 19:41
a mister tarpò se metti una cpu più potente essa trasmetterà questa superiorità in tutti gli ambiti. quindi compreso il video gioco. a maggior ragione se si tratta dei core2duo.
mo basta se ve và continuate in pvt. qui si parla di g80.
;)
Certo,dovrebbe esser cosi(e ricordiamoci e i 2core non sono neanche sfruttati decentemente ;) )..ma alla prova dei fatti,nei giochi non cambia veramente nulla..credimi,che se ci fosse stato un consistente salto di prestazioni l'avrei comprato pure io :asd: ma non è assolutamente così.
Per questo consiglio di spendere per questi mostri di sv.. :cool:

LUCH81 se prendi un athlon 3500+ con 2gb ddr spinte(tipo G,skill o corsair :) )
e metti a confronto lo stesso pc ma con 2gb ddr standard,a parità di sv VANNO UGUALI nei giochi...con la differenza che il secondo pc,lo paghi meno e perde solo nel superPI ecc :) (inutile).
Non scherziamo eh!! io ste cose le ho viste e provate:asd:.
Non sono l'unico che ha un pc nella mia città.. conosco pure io l'amico che lavora in negozio di hardware e che assembla mooolti pc :asd:
Poi oh..ognuno compra quel che vuole eh!!:asd: io ho dato un consiglio sul cosa conviene per giocare bene.(e ho detto una verità)

Bona :cool:

Ho visto solo adesso il mes. di leoneazzuro..scusa l'enorme ot.(che finisce qui)

capitan_crasy
24-10-2006, 10:03
http://bbs.mychat.to/attach/Fid_462/462_226658.jpg

Clicca qui... (http://bbs.mychat.to/read.php?tid=578438)

Dexther
24-10-2006, 10:05
2 connettori di alimentazione :doh:

Dexther
24-10-2006, 10:07
scusate ma ha 768 mb di RAM o sto rimbecillendo? :confused:

halduemilauno
24-10-2006, 10:08
scusate ma ha 768 mb di RAM o sto rimbecillendo? :confused:

si.
;)

Dexther
24-10-2006, 10:09
si.
;)

ma è una singola Gpu o sono 2?

halduemilauno
24-10-2006, 10:11
ma è una singola Gpu o sono 2?

singola.
;)

Free Gordon
24-10-2006, 11:14
E ' una sola GPU ma mi sa che è proprio divisa in due.

Un bus a 256bit per i PS e uno a 128 per i VS e GS.
512 + 256 (o 128) di DDR3.

Dexther
24-10-2006, 11:17
Certo che la scelta dei 768Mb mi sà strana.....
Forse è una scelta che rappresenta un pegno alla recente crisi produttiva dei chip per RAM....

capitan_crasy
24-10-2006, 16:47
E ' una sola GPU ma mi sa che è proprio divisa in due.

Un bus a 256bit per i PS e uno a 128 per i VS e GS.
512 + 256 (o 128) di DDR3.

di sicuro ha "qualcosa" in più:
http://we.pcinlife.com/attachments/forumid_206/8800%20GTS_7_PhbEyYpicNQ3.jpg
:eek:

Kharonte85
24-10-2006, 16:58
Mi sto commuovendo cerebralmente... :D

leoneazzurro
24-10-2006, 17:05
di sicuro ha "qualcosa" in più:

:eek:

Da notare il die marchiato nvidia sulla sinistra.

Dexther
24-10-2006, 17:18
si ma mi manca un connettore di alimentazione.. :confused: :mbe:

che sia la ver. GT oppure un semplice prototipo?

halduemilauno
24-10-2006, 17:33
si ma mi manca un connettore di alimentazione.. :confused: :mbe:

che sia la ver. GT oppure un semplice prototipo?

è la 8800gts. e quel chip è per la fisica.
;)

Dexther
24-10-2006, 21:22
nel thread di seguito ho messo un paio di foto :)

http://www.hwupgrade.it/forum/showthread.php?p=14395018#post14395018

LUCH81
26-10-2006, 14:55
Ragazzi che ne pensate di questo qui (http://www.tomshw.it/news.php?newsid=8183)


Secondo voi sono test affidabili?

Dexther
26-10-2006, 15:29
se fossero attendibili sono semplicemente spaventosi :eek:

manga81
26-10-2006, 19:44
se fossero attendibili sono semplicemente spaventosi :eek:
non ci credo

Dexther
26-10-2006, 20:19
non ci credo

questione di giorni e sapremo :boh:

kenjcj2000
26-10-2006, 20:38
come pesavo in campo drtx9 (e con driver acerbi) le prestazioni saranno simili a una 7950gx2.... e gente che credeva che sarebbe andata il doppio ;)

io personalmente lo ritengo un ottimo risultato

R@nda
26-10-2006, 21:01
Da notare il die marchiato nvidia sulla sinistra.

E' la cpu fisica?
Non potrebbe essere il chip per l'hdcp?
Comunque la gpu è una padella enorme, mai visto un chip così grande.

leoneazzurro
26-10-2006, 21:38
Non potrebbe essere il chip per l'hdcp?


Troppo grosso. Ma forse un pò piccolo per una PPU :mbe:
(o forse semplicemente la scheda è così grossa che le proporzioni traggono in inganno :D)

DjLode
26-10-2006, 22:23
Troppo grosso. Ma forse un pò piccolo per una PPU :mbe:
(o forse semplicemente la scheda è così grossa che le proporzioni traggono in inganno :D)

Pure Video? (spero si chiami così il corrispondente dell'Avivo...non mi ricordo!!!)

Free Gordon
27-10-2006, 00:14
come pesavo in campo drtx9 (e con driver acerbi) le prestazioni saranno simili a una 7950gx2.... e gente che credeva che sarebbe andata il doppio ;)
io personalmente lo ritengo un ottimo risultato


Ma da che cosa lo deduci questo? (parlo delle prestazioni)

LUCH81
27-10-2006, 08:46
come pesavo in campo drtx9 (e con driver acerbi) le prestazioni saranno simili a una 7950gx2.... e gente che credeva che sarebbe andata il doppio ;)

io personalmente lo ritengo un ottimo risultato

Si è vero che ha prestazioni simili ad una 7950gx2 ma:

7950gx2:
-2 gpu
-1 gb ddr3
-dx 9c

contro la 8800 gtx:
-1 sola gpu
-512 ddr 3
-dx10

Quindi se fossero veri i testi fatti sarebbe un vero mostro di potenza considerando i driver molto acerbi.

capitan_crasy
27-10-2006, 11:05
Pure Video? (spero si chiami così il corrispondente dell'Avivo...non mi ricordo!!!)
approfitto del tuo post:
che sia un chip per encoder/decoderd dedicato hai filmati HD?
Il progetto originale del PUREVIDEO secondo Nvidia doveva utilizzare la GPU per "aiutare" la CPU durante la riproduzione e/o la creazione di filmati HD e non...

aaasssdddfffggg
01-11-2006, 09:30
Io ormai non ho dubbi.Come arrivano sul mercato le 8800gtx ne prendo subito 2 per lo SLI.Sono certo che mi daranno grandissime soddisfazioni sun monitor SAMSUNG 305T da 30 pollici in 2560x1600 di imminete uscita anch'esso.

DjLode
01-11-2006, 13:57
approfitto del tuo post:
che sia un chip per encoder/decoderd dedicato hai filmati HD?
Il progetto originale del PUREVIDEO secondo Nvidia doveva utilizzare la GPU per "aiutare" la CPU durante la riproduzione e/o la creazione di filmati HD e non...

Come si legge in giro la teoria più accreditata parla di RamDac. Però come dici tu e come ho provato a dire io potrebbe essere qualcosa relativo ai filmati e alla codifica/decodifica degli stessi.
Aspettiamo e vediamo :)

Apple80
01-11-2006, 19:35
Io ormai non ho dubbi.Come arrivano sul mercato le 8800gtx ne prendo subito 2 per lo SLI.Sono certo che mi daranno grandissime soddisfazioni sun monitor SAMSUNG 305T da 30 pollici in 2560x1600 di imminete uscita anch'esso.


cavoli...... abiti sull'enterprise ?

Salutami il capitano Kirk e quel gay di Spok :D

kenjcj2000
03-11-2006, 13:56
Prestazioni ottime consumi abbastanza contenuti....


http://www.dailytech.com/article.aspx?newsid=4812

Apple80
03-11-2006, 18:55
Prestazioni ottime consumi abbastanza contenuti....


http://www.dailytech.com/article.aspx?newsid=4812

esce settimana prossima ?

Il 7 e 8 sarebbe la data di presentazione...e sarebbe anche la data di commercializzazione? Cavoli... lunedi informero' la direzione che pigliero' una mezza giornata di permesso senza preavviso per fiondarmi a prenderla. :oink:


EDIT



ma ha due connettori per lo sli ?

http://images.dailytech.com/nimage/2872_large_2870_large_G80_2.jpg


cacchio.... per fare lo sli di due 8800 servono due ponticelli?

Anche le viti... una marea. Mi ci vorrà una mezz'ora buona per smontare il dissi.