PDA

View Full Version : NVIDIA GeForce 8800 GTX: un passo nel futuro


Pagine : 1 [2] 3

Intel-Inside
09-11-2006, 19:24
Scalabilità


E' evidente come siano pochi gli scenari nei quali la scheda GeForce 8800 sia limitata dal processore; alla luce delle note espresse in precedenza ricordiamo in ogni caso come sia preferibile avere a disposizione un sistema di elevata potenza elaborativa da abbinare a una scheda come la GeForce 8800 GTX.


Scusate ma questa frase non è una contraddizzione?
Come si fa a consigliare di usare lo stesso processori Top Di Gamma se all'atto pratico la differenza in termini di fps tra un E6600 e X6800 è ZERO al massimo della risoluzione, mentre in termini monetari ci sono almeno 700€ di differenza.

Io piuttosto avrei consigliato di investire la differenza in Ali e Monitor visto che ormai il target per le skede top di gamma si sta spostando a risoluzioni sopra i 2048 e ci vogliono Ali sempre più potenti e certificati...

Cosa ne pensate?

halduemilauno
09-11-2006, 19:25
Una potenza di scheda, ma non mi piace la strada seguita da nividia e ati (mentre amd e intel hanno invertito, la rotta con grande attenzione ai consumi tdp) che prestano scarsa attenzione ai consumi e alla rumorosità (le varie ati x1800 x1900 x es. fanno un rumore infernale situazione recentemente migliorata con la x1950xtx, le schede con raffreddamento passivo sono rare e costano di più).
Vi rendete conto che la 8800 GTX in idle si mangia 188 watt e in full load 291? Questa bestia di scheda x navigazione web e scrittura letterine si fotte 200 watt!! :eek:
Ciao

e che sarà mai.
;)

MenageZero
09-11-2006, 19:25
Sono vettoriali quelle di G70 (cmq son 112 nella gx2, mi sono sbagliato sopra).

Le TMU in G70/71 sono 24, in G80 devo ancora capire che cosa sono diventate le TMU... :D Quì la cosa è differente rispetto a tutte le architetture del passato.

mmm...

0)lasciando le varie unità di calcolo ad ulteriori considerazioni nei punti successivi, nelle altre caratteristiche menzionate nella scheda tecnica, la 7950 sta sopra solo nelle rops (32 a 24) nella q.tà di mem. (1024MB a 768GB); "azzardando" che i 256MB in + non possano poi essere molto determinanti, resta come "nota a margine" da chiarire il peso delle 8 rops in +;

1) ipotizziamo, come facevi tu (che sei più informato e acculturato di me sull'architettura delle gpu) che, rozzamente, in g80 1 s.p. = 1 alu scalare ...

2) g71: mi pare di capire 2 alu vett. in una pixel unit, 1 alu vett. in una vertex unit; quindi (2*24+8)*2=112 alu vett. in tutto nella 7950gx2

3) è ora determinante capire a quante alu scalari(come quelle del g80) possano equivalere queste 112 vett.
essendo vett., a parità di clock, potrebbe essere almeno 1alu vett (g71) <-> 2 alu scal (g80). (bisognerebbe sapere su quanti dati scal. lavora simultaneamente la alu vett. del g71)
se ciò fosse una ipotesi approssimativamente corretta, considerata anche la differenza in in freq.
112 alu vett 7950gx2 <-> 112*2*500/1350=(circa)83 alu scal. 8800gtx.mettiamo tra 80 e 90 o anche 90, la diffrenza nelle risorse di calcolo a disposizione nelle due schede una volta considerata anche la frequenza molto maggiore di g80 è tutt'altro che trascurabile (a meno che non basti spesso il maggior numero di rops della 7950gx2 a bilanciare il tutto)

ecco perché mi sarei aspettato di vedere la 8800gtx, che è anche la gen successiva di architettura, superare costantemente e nettamente la 7950gtx e al limite la gts nella situazione della gtx.

se poi le alu vett. di g71 operano invece su 3 o 4 scalari, il risultato del conticino barbaro al punto 3 viene 124 o 165 e allora in tal caso si può dire che la 8800gtx, risultata dal test come performance un po' + che equivalente alla gx2 e con qualche picco notrevole a suo favore, evidenzia migliore o molto migliore efficenza della gx2.

se le alu vett. di g71 opreano su più di 4 scalari, (con 5 verrebbe 207) beh allora l'achitettura g80 fa proprio miracoli :D

ps: che le tmu in g80 siano rimpiazzate da quelle 4 ta + 8 tf per ogni blocco di 16 sp ?

pps: c'è qualche rituale con cui si può evocare yoss ? o anche di fek direi ci si potrebbe "accontentare" ... :D

Jackari
09-11-2006, 19:25
Una potenza di scheda, ma non mi piace la strada seguita da nividia e ati (mentre amd e intel hanno invertito, la rotta con grande attenzione ai consumi tdp) che prestano scarsa attenzione ai consumi e alla rumorosità (le varie ati x1800 x1900 x es. fanno un rumore infernale situazione recentemente migliorata con la x1950xtx, le schede con raffreddamento passivo sono rare e costano di più).
Vi rendete conto che la 8800 GTX in idle si mangia 188 watt e in full load 291? Questa bestia di scheda x navigazione web e scrittura letterine si fotte 200 watt!! :eek:
Ciao

ma il muletto che lo tieni a fare?? :D

Deschutes
09-11-2006, 19:29
ma il muletto che lo tieni a fare?? :D
Al momento non l'ho, ho solo un pc.
Ciao

MenageZero
09-11-2006, 19:31
Nel G80 ci sono 32T Address e 64T Filter unit.. che cosa siano in grado di fare per ora mi è oscuro. :D Quanti Gt/s? Boh..

Cmq nVidia conferma la sua tendenza ad essere conservatrice. L'architettura è sì unificata ma non particolarmente sofisticata, anche questo G80 bada molto alla forza bruta e al bilanciamento fra texture e shader.
Ati sarà molto più protesa verso gli shader che verso il texturing, cosa che già accade con R580.
è un aggettivo che cmq per questo g80 non mi sarei aspettato :stordita: :wtf:

cionci
09-11-2006, 19:36
Vi rendete conto che la 8800 GTX in idle si mangia 188 watt e in full load 291? Questa bestia di scheda x navigazione web e scrittura letterine si fotte 200 watt!! :eek:
Per valutare il livello di consumo delle schede video in prova in queste pagine è stato misurato il consumo dell'intero sistema, cercando di utilizzare gli stessi componenti per le parti condivise;
;)

Edgar83
09-11-2006, 19:40
Prestazionalmente, sbaglio o il "salto" è minore rispetto agli scorsi passaggi generazionali(5900->6800->7900)

Fermo restando che questa scheda darà il meglio in dx10 e che avendo un'architettura nuova, ha molto da guadagnare con i futuri driver.

leptone
09-11-2006, 20:42
CAXXO non mi collego per un giorno e trovo una vera novità con tanto di
24 pagine di recensione 6
26 pagine di commento forum
ci vuole una settimana, o non devo lavorare, o dormire, o vedere la mia ragaza(quest'ultima mai, e va bene la passione ma sono sempre umano)

Apple80
09-11-2006, 21:34
xché, cos' è bfg, oltre al cannone in doom e (ovviamente) un dei produttori dim s. video ? :D


BFG è l'unica che dà garanzia e vita per le su schede video. Poi se ce ne sono altre scusate l'ignoranza,ma sicurmente xfx e pov no.

MenageZero
09-11-2006, 21:58
BFG è l'unica che dà garanzia e vita per le su schede video. Poi se ce ne sono altre scusate l'ignoranza,ma sicurmente xfx e pov no.
cioè se fra qualche anno non funziona più ti danno un sk. video dello stesso valore ? :eek:
... devi solo sperare che si rompa al momento giusto quando vorrai cmq cambiare la tua top di gamma ... :Perfido: :D

Mercury777
09-11-2006, 22:11
ma soprattutto.... chi me li da i soldi per comprare il RESTO del pc adatto a una scheda del genere?? molti utenti che vorrebbero acquistare sta scheda saranno costretti a spendere ulteriori 1500e (minimo...) per il resto del pc..

MenageZero
09-11-2006, 22:21
ma soprattutto.... chi me li da i soldi per comprare il RESTO del pc adatto a una scheda del genere?? molti utenti che vorrebbero acquistare sta scheda saranno costretti a spendere ulteriori 1500e (minimo...) per il resto del pc..
costretti... da che mondo è mondo il "lusso" costa... nell'ambito videogiochi, come in tutti gli altri chi vuole il max deve aprire il portafoglio e alleggerirlo per bene, c'è poco da sorprendersi o "indignarsi" ... :mbe: (scusa se ti dessero un g80 a 100€ ed il resto necessario per sfruttarlo al max entro i 300€, la maggior parte del materiale che c'è in vendita dovrebbero praticamente regalarlo, chiunque lavora nel settore IT, come chiunque lavora e basta, lo fa per i $ prima di tutto, mica per passare il tempo... )

Kharonte85
09-11-2006, 22:29
BFG è l'unica che dà garanzia e vita per le su schede video. Poi se ce ne sono altre scusate l'ignoranza,ma sicurmente xfx e pov no.
Pov 3 anni mi sembra... ;)

PS: "teoricamente" pero' con oc la garanzia svampa... :read: :D

aaasssdddfffggg
09-11-2006, 22:34
In configurazione SLI con un core2 duo 6800 extreme edition overcloccato a 3,76 Ghz ho raggiunto 19670 punti al 3dmark06.Comunque sono fortemente penalizzato dal processore.Potrebbero andare molto oltre le 2 880gtx.Ce gente che ha raggiunto 23000 punti salendo ancor di più con il processore.

Tetsujin
09-11-2006, 22:36
In configurazione SLI con un core2 duo 6800 extreme edition overcloccato a 3,76 Ghz ho raggiunto 19670 punti al 3dmark06.Comunque sono fortemente penalizzato dal processore.Potrebbero andare molto oltre le 2 880gtx.Ce gente che ha raggiunto 23000 punti salendo ancor di più con il processore.

sarebbe il caso di postare uno screen, che dici? :D

leoneazzurro
09-11-2006, 23:00
mmm...

0)lasciando le varie unità di calcolo ad ulteriori considerazioni nei punti successivi, nelle altre caratteristiche menzionate nella scheda tecnica, la 7950 sta sopra solo nelle rops (32 a 24) nella q.tà di mem. (1024MB a 768GB); "azzardando" che i 256MB in + non possano poi essere molto determinanti, resta come "nota a margine" da chiarire il peso delle 8 rops in +;

1) ipotizziamo, come facevi tu (che sei più informato e acculturato di me sull'architettura delle gpu) che, rozzamente, in g80 1 s.p. = 1 alu scalare ...

2) g71: mi pare di capire 2 alu vett. in una pixel unit, 1 alu vett. in una vertex unit; quindi (2*24+8)*2=112 alu vett. in tutto nella 7950gx2

3) è ora determinante capire a quante alu scalari(come quelle del g80) possano equivalere queste 112 vett.
essendo vett., a parità di clock, potrebbe essere almeno 1alu vett (g71) <-> 2 alu scal (g80). (bisognerebbe sapere su quanti dati scal. lavora simultaneamente la alu vett. del g71)
se ciò fosse una ipotesi approssimativamente corretta, considerata anche la differenza in in freq.
112 alu vett 7950gx2 <-> 112*2*500/1350=(circa)83 alu scal. 8800gtx.mettiamo tra 80 e 90 o anche 90, la diffrenza nelle risorse di calcolo a disposizione nelle due schede una volta considerata anche la frequenza molto maggiore di g80 è tutt'altro che trascurabile (a meno che non basti spesso il maggior numero di rops della 7950gx2 a bilanciare il tutto)

ecco perché mi sarei aspettato di vedere la 8800gtx, che è anche la gen successiva di architettura, superare costantemente e nettamente la 7950gtx e al limite la gts nella situazione della gtx.

se poi le alu vett. di g71 operano invece su 3 o 4 scalari, il risultato del conticino barbaro al punto 3 viene 124 o 165 e allora in tal caso si può dire che la 8800gtx, risultata dal test come performance un po' + che equivalente alla gx2 e con qualche picco notrevole a suo favore, evidenzia migliore o molto migliore efficenza della gx2.

se le alu vett. di g71 opreano su più di 4 scalari, (con 5 verrebbe 207) beh allora l'achitettura g80 fa proprio miracoli :D

ps: che le tmu in g80 siano rimpiazzate da quelle 4 ta + 8 tf per ogni blocco di 16 sp ?

pps: c'è qualche rituale con cui si può evocare yoss ? o anche di fek direi ci si potrebbe "accontentare" ... :D

Se ti "accontenti" :D le ALU di G70 possono eseguire operazioni su più di 2 componenti, ossia fino a 4 componenti anche in combinazione 1+1, 1+2, 2+2 e 3+1 . Ognuna delle ALU (2 per PS) può effettuare MADD+MUL, ma una unità gestisce anche i texture lookups, per cui quando si accede alle texture non si può utilizzare una delle ALU per i calcoli. Tieni conto che anche se scalari le 128 ALU di G80 possono effettuare 1 MADD+1MUL. Diciamo che quindi 1 ALU di G80 è circa pari ad 1/4 di una ALU di G71, ma con una grandissima differenza di efficienza, in quanto:

1) G70 non può usare una delle ALU quando effettua texture lookups
2) 4 unità scalari sono più efficienti di una ALU vettoriale se non si utilizzano sempre 4 componenti (es. se utilizzi l'ALU solo per 3 valori FP invece di 4 hai sprecato in quel ciclo il 25% della potenza di calcolo)
3) L'approccio a shader unificati è notevolmente più efficiente di quello a shader separati, nvidia dichiara di avere il 100% di efficenza con G80, il che non è chiaramente possibile, ma con questa architettura sono possibilissimi valori effettivi oltre il 90%, si stimava che un'architettura tradizionale fosse intorno al 60-70% di efficienza.

leoneazzurro
09-11-2006, 23:10
PS: Comunque, scheda veramente eccezionale, questa G80 ;)

DVD2005
09-11-2006, 23:12
PS: Comunque, scheda veramente eccezionale, questa G80 ;)

bene, spero che questo post sintetizzi il tuo di sopra per me un pò ostico :D

robe64
10-11-2006, 00:00
- 1000W per il pc
- 600W per il condizionatore
- un mutuo per pagare la bolletta ENEL!!!

Complimenti!!!

poverociccio
10-11-2006, 00:11
Premetto:l'interesse per quello che l'evoluzione tecnologia riesce a raggiungere è un conto; il giudizio su quello che poi viene presentato come prodotto commerciale è un altro.

Ok ci siamo estasiati, abbiamo goduto, ci siamo sentiti finalmente appagati. Adesso ritorniamo alla realtà del "presente":siamo di fronte ad uno stampo di plastica e metallo che consuma quasi 600 watt in slide :per ogni 2 ore che passeremo a giocare con questa scheda a 2560x1600 (nuova risoluzione di tendenza, a meno non mi consumo i polpastrelli), una famiglia africana potrebbe avere la propria capanna illuminata la sera per un mese. Invece rimarrà al buio perchè quell'energia non si può produrre sia per noi che per loro.Non siamo di fronte ad una scheda che con minor consumi riesce ad avere migliori performance della precedente;và più forte perchè brucia di più; tutto qua:niente di nuovo sotto il sole!(anzi magari andasse con quella lì). Mi chiedo se un solo componente dell'intero Pc può assorbire più del 60% del suo consumo senza che ciò sia fondamentale per il suo utilizzo. Questi prodotti poi non dovrebbero seguire, eventualmente, richieste sempre più esigenti del panorama videoludico a livello di software? e invece si fa il contrario: prima si realizza la scheda e poi si aspettano i giochi e i monitor e le risoluzioni che la sfruttino.E' un mondo capovolto. E mentre ci facciamo le pippe mentali sull'evoluta e futuristica "architettura" hardware che andrebbe a giustificare la nostra nuova esigenza di acquisto, nel mondo c'è un problema che si chiama E.N.E.R.G.I.A. I nuovi processori Intel e gli AMD a 35watt sono "evoluzioni" (perchè a parità di consumo sono più performanti). I nuovi hard disk sono evoluzioni (perchè a parità di consumo hanno decuplicato la loro capienza, e maggior capienza significa maggior informazione a disposizione). Le nuove schede madri sono "evoluzione" perchè con lo stesso ingombro e lo stesso consumo di quelle di 5-10 anni fa hanno audio, video, e sono connesse al mondo intero.Questa scheda NO! per me è un passo indietro: propone illusioni in cambio di energia; impone nuovi standard (alimentatori da 1000W!) che non possono essere di massa, ma che oltretutto creerebbero problemi anche nel quotidiano di chi per passione o per disponibilità economica deciderà di prenderla: perchè non dimenticatevi che sono 3000 i watt a disposizione della comune utenza domestica ...OLTRETUTTO. Quindi se la mamma vuole fare il pollo con le patate al forno, deve turnare con Noi che andiamo matti per il Pac-man con antialiasing 32x., e il bello è che questa non è una battuta.Se continuiamo così il "computer a manovella" anzichè essere una soluzione per gli abitanti del terzo mondo, diventerà uno standard per noi del "primo".

Free Gordon
10-11-2006, 00:30
mmm...

0)lasciando le varie unità di calcolo ad ulteriori considerazioni nei punti successivi, nelle altre caratteristiche menzionate nella scheda tecnica, la 7950 sta sopra solo nelle rops (32 a 24) nella q.tà di mem. (1024MB a 768GB); "azzardando" che i 256MB in + non possano poi essere molto determinanti, resta come "nota a margine" da chiarire il peso delle 8 rops in +;

1) ipotizziamo, come facevi tu (che sei più informato e acculturato di me sull'architettura delle gpu) che, rozzamente, in g80 1 s.p. = 1 alu scalare ...

2) g71: mi pare di capire 2 alu vett. in una pixel unit, 1 alu vett. in una vertex unit; quindi (2*24+8)*2=112 alu vett. in tutto nella 7950gx2

3) è ora determinante capire a quante alu scalari(come quelle del g80) possano equivalere queste 112 vett.
essendo vett., a parità di clock, potrebbe essere almeno 1alu vett (g71) <-> 2 alu scal (g80). (bisognerebbe sapere su quanti dati scal. lavora simultaneamente la alu vett. del g71)
se ciò fosse una ipotesi approssimativamente corretta, considerata anche la differenza in in freq.
112 alu vett 7950gx2 <-> 112*2*500/1350=(circa)83 alu scal. 8800gtx.mettiamo tra 80 e 90 o anche 90, la diffrenza nelle risorse di calcolo a disposizione nelle due schede una volta considerata anche la frequenza molto maggiore di g80 è tutt'altro che trascurabile (a meno che non basti spesso il maggior numero di rops della 7950gx2 a bilanciare il tutto)

ecco perché mi sarei aspettato di vedere la 8800gtx, che è anche la gen successiva di architettura, superare costantemente e nettamente la 7950gtx e al limite la gts nella situazione della gtx.

se poi le alu vett. di g71 operano invece su 3 o 4 scalari, il risultato del conticino barbaro al punto 3 viene 124 o 165 e allora in tal caso si può dire che la 8800gtx, risultata dal test come performance un po' + che equivalente alla gx2 e con qualche picco notrevole a suo favore, evidenzia migliore o molto migliore efficenza della gx2.

se le alu vett. di g71 opreano su più di 4 scalari, (con 5 verrebbe 207) beh allora l'achitettura g80 fa proprio miracoli :D

ps: che le tmu in g80 siano rimpiazzate da quelle 4 ta + 8 tf per ogni blocco di 16 sp ?

pps: c'è qualche rituale con cui si può evocare yoss ? o anche di fek direi ci si potrebbe "accontentare" ... :D



1) 3+1 se non ricordo male le ALU di G70.

2) Ovvio che G80 è più efficiente... è un'archi unificata! ^_^ nVidia dice 100%... ma io direi che il 90% di ATI è molto più realistico...

3) non credo sia il massimo dell'efficienza raggiungibile da un'archi unificata. :D

The_SaN
10-11-2006, 01:02
Premetto:l'interesse per quello che l'evoluzione tecnologia riesce a raggiungere è un conto; il giudizio su quello che poi viene presentato come prodotto commerciale è un altro.

Ok ci siamo estasiati, abbiamo goduto, ci siamo sentiti finalmente appagati. Adesso ritorniamo alla realtà del "presente":siamo di fronte ad uno stampo di plastica e metallo che consuma quasi 600 watt in slide :per ogni 2 ore che passeremo a giocare con questa scheda a 2560x1600 (nuova risoluzione di tendenza, a meno non mi consumo i polpastrelli), una famiglia africana potrebbe avere la propria capanna illuminata la sera per un mese. Invece rimarrà al buio perchè quell'energia non si può produrre sia per noi che per loro.Non siamo di fronte ad una scheda che con minor consumi riesce ad avere migliori performance della precedente;và più forte perchè brucia di più; tutto qua:niente di nuovo sotto il sole!(anzi magari andasse con quella lì). Mi chiedo se un solo componente dell'intero Pc può assorbire più del 60% del suo consumo senza che ciò sia fondamentale per il suo utilizzo. Questi prodotti poi non dovrebbero seguire, eventualmente, richieste sempre più esigenti del panorama videoludico a livello di software? e invece si fa il contrario: prima si realizza la scheda e poi si aspettano i giochi e i monitor e le risoluzioni che la sfruttino.E' un mondo capovolto. E mentre ci facciamo le pippe mentali sull'evoluta e futuristica "architettura" hardware che andrebbe a giustificare la nostra nuova esigenza di acquisto, nel mondo c'è un problema che si chiama E.N.E.R.G.I.A. I nuovi processori Intel e gli AMD a 35watt sono "evoluzioni" (perchè a parità di consumo sono più performanti). I nuovi hard disk sono evoluzioni (perchè a parità di consumo hanno decuplicato la loro capienza, e maggior capienza significa maggior informazione a disposizione). Le nuove schede madri sono "evoluzione" perchè con lo stesso ingombro e lo stesso consumo di quelle di 5-10 anni fa hanno audio, video, e sono connesse al mondo intero.Questa scheda NO! per me è un passo indietro: propone illusioni in cambio di energia; impone nuovi standard (alimentatori da 1000W!) che non possono essere di massa, ma che oltretutto creerebbero problemi anche nel quotidiano di chi per passione o per disponibilità economica deciderà di prenderla: perchè non dimenticatevi che sono 3000 i watt a disposizione della comune utenza domestica ...OLTRETUTTO. Quindi se la mamma vuole fare il pollo con le patate al forno, deve turnare con Noi che andiamo matti per il Pac-man con antialiasing 32x., e il bello è che questa non è una battuta.Se continuiamo così il "computer a manovella" anzichè essere una soluzione per gli abitanti del terzo mondo, diventerà uno standard per noi del "primo".
Hai toccato un punto davvero polemico.
Capisco che se per giocare vuoi piú potenza devi "bruciare" piú energia. E fin qui ci posso stare, perfetto.
Ma se io per andare in internet spendo 50W in piú e la scheda video non fa NIENTE di piú di una scheda normale, allora io mi preoccupo.
Questa io non la chiamo evoluzione, ma una dimostrazione di forza (molto ben riuscita, come ho gia fatto notare in altri post).
L' ottimizzazione é andata a farsi benedire (perché di ottimizzazione si parla, ad esempio la x1950xtx consuma di piú di una 7900gtx, ma in idle consuma UGUALE) ed é un andazzo che sta cominciando a diventare preoccupante ;)

leptone
10-11-2006, 01:05
Non ho letto tutto, macome fate a dire a Nemesis Elite, che spende soldi per cazzate. E sono ancora la post 36 pagina 4, chissa quante altre ne leggerò.
Siete solo invidiosi, io dico BEATO LUI, che può permettersi due schede del genere, un monitor del genere, e si comprerà pure l'intel quad core(che non è ancora sfruttato a pieno). E pagherà pure la bolletta dell'Enel.
BEATO LUI,BEATO LUI,BEATO LUI
Magari lo potessi fare io, scusate sono pochi ma ci sono i ricchi tipo gli industriali ecc.... e queste cose sono per i ricchi ovvero gente che può spendere montagne di soldi per cose superflue, e che fa anche beneficenza

Una Lamborghini Diablo costa y volte la mia citroen saxo del '97, e non va y volte + veloce, e non ha y volte l'accelerazione della mia, e perchè non dite a chi se la compra che sbaglia.

BEATO LUI BEATO LUI BEATO LUI

OverClocK79®
10-11-2006, 01:23
raga manteniamo un tono TECNICO o cmq pertinente alla discussione
non è il momento ne il luogo per affrontare discorso come la fame nel mondo
il consumo di energia rispetto alle famiglie africane etc etc
perchè ce ne sarebbe veramente da tirar fuori da tutti i campi
a partire dalle sigarette, ai beni superflui etc etc

quindi restiamo in TH please e non divaghiamo su cose che non centrano....
altrimenti non se ne viene più fuori

BYEZZZZZZZZZZ

MenageZero
10-11-2006, 02:53
Se ti "accontenti" :D le ALU di G70 possono eseguire operazioni su più di 2 componenti, ossia fino a 4 componenti anche in combinazione 1+1, 1+2, 2+2 e 3+1 . Ognuna delle ALU (2 per PS) può effettuare MADD+MUL, ma una unità gestisce anche i texture lookups, per cui quando si accede alle texture non si può utilizzare una delle ALU per i calcoli. Tieni conto che anche se scalari le 128 ALU di G80 possono effettuare 1 MADD+1MUL. Diciamo che quindi 1 ALU di G80 è circa pari ad 1/4 di una ALU di G71, ma con una grandissima differenza di efficienza, in quanto:

1) G70 non può usare una delle ALU quando effettua texture lookups
2) 4 unità scalari sono più efficienti di una ALU vettoriale se non si utilizzano sempre 4 componenti (es. se utilizzi l'ALU solo per 3 valori FP invece di 4 hai sprecato in quel ciclo il 25% della potenza di calcolo)
3) L'approccio a shader unificati è notevolmente più efficiente di quello a shader separati, nvidia dichiara di avere il 100% di efficenza con G80, il che non è chiaramente possibile, ma con questa architettura sono possibilissimi valori effettivi oltre il 90%, si stimava che un'architettura tradizionale fosse intorno al 60-70% di efficienza.

1) 3+1 se non ricordo male le ALU di G70.

2) Ovvio che G80 è più efficiente... è un'archi unificata! ^_^ nVidia dice 100%... ma io direi che il 90% di ATI è molto più realistico...

3) non credo sia il massimo dell'efficienza raggiungibile da un'archi unificata. :D

grazie ad entrambi per le precisazione, io (come ovviamente si è capito per bene) sono un profano qualunque per quel che riguarda la tecnica delle gpu, ma è stata comunque esplicativa e ho capito di aver, ricordando male, sottostimato g70/71 e di conseguenza un po' sottovalutato le performance di g80

ps: azz... almeno un 30% mediamente di potenza di calcolo "sprecata" con le architetture "tradizionali"... e perché hanno aspettato tutti questi anni a unificare le unità di calcolo ? :stordita: ... una specie di uovo di colombo ? ... :D

psychok9
10-11-2006, 03:31
Bella scheda ma forse troppo prematura per il mercato dei videogame...
Io aspetto la prox serie e a prezzi/consumi umani... E intanto ci sarà qualche titolo DX10 in giro da poter sfruttare... :O
Adesso per me è potenza e $$$ sprecati. IMHO.

Eldainen
10-11-2006, 09:02
Oggi ne sono arrivate 6 nel mio negozio sotto casa... meglio che non ci pensi troppo... (prezzo: circa 600 Euro)

ThePunisher
10-11-2006, 09:06
Scusate il ritardo, ma ero sospeso lol... volevo solo fare i miei complimenti ad Hardware Upgrade per la recensione, non si trova ne' si troverà niente del genere neanche nelle più blasonate testate internazionali! Continuate così!!!

Nella rece di GTS e 680i non può mancare l'overclock però! ;) :D


Per chi non lo avesse ancora visto invito tutti a guardare questo divertente video promozionale by NVIDIA che incentiva l'overclock (e l'acquisto dei suoi prodotti chiaramente asd):

http://download.nvidia.com/downloads/nZone/videos/Overclocker_Priceless_360P.wmv


Tra l'altro il protagonista del video (Kingpin), ha proprio in questi giorni abbattuto (anzi abbattuto è riduttivo... direi SFONDATO) tutti i record ai 3DMark con quella config. sotto LN2 (anche le schede video):
23K al 3DMark06
~30,4K al 3DMark05
E via dicendo.

Kharonte85
10-11-2006, 09:34
Scusate il ritardo, ma ero sospeso lol... volevo solo fare i miei complimenti ad Hardware Upgrade per la recensione, non si trova ne' si troverà niente del genere neanche nelle più blasonate testate internazionali! Continuate così!!!

Nella rece di GTS e 680i non può mancare l'overclock però! ;) :D


Per chi non lo avesse ancora visto invito tutti a guardare questo divertente video promozionale by NVIDIA che incentiva l'overclock (e l'acquisto dei suoi prodotti chiaramente asd):

http://download.nvidia.com/downloads/nZone/videos/Overclocker_Priceless_360P.wmv


Tra l'altro il protagonista del video (Kingpin), ha proprio in questi giorni abbattuto (anzi abbattuto è riduttivo... direi SFONDATO) tutti i record ai 3DMark con quella config. sotto LN2 (anche le schede video):
23K al 3DMark06
~30,4K al 3DMark05
E via dicendo.
:rotfl:

mbk
10-11-2006, 09:50
Non ho letto tutto, macome fate a dire a Nemesis Elite, che spende soldi per cazzate. E sono ancora la post 36 pagina 4, chissa quante altre ne leggerò.
Siete solo invidiosi, io dico BEATO LUI, che può permettersi due schede del genere, un monitor del genere, e si comprerà pure l'intel quad core(che non è ancora sfruttato a pieno). E pagherà pure la bolletta dell'Enel.
BEATO LUI,BEATO LUI,BEATO LUI
Magari lo potessi fare io, scusate sono pochi ma ci sono i ricchi tipo gli industriali ecc.... e queste cose sono per i ricchi ovvero gente che può spendere montagne di soldi per cose superflue, e che fa anche beneficenza

Una Lamborghini Diablo costa y volte la mia citroen saxo del '97, e non va y volte + veloce, e non ha y volte l'accelerazione della mia, e perchè non dite a chi se la compra che sbaglia.

BEATO LUI BEATO LUI BEATO LUI

vuoi forse farti regalare qualke scheda da nemesis elite?? :D :D :D

ThePunisher
10-11-2006, 10:02
:rotfl:
Bello, vero? :D

aaasssdddfffggg
10-11-2006, 10:13
Mbk grazie per il supporto anche se le crictiche che mi fanno su come spendo i miei soldi mi fanno soltanto ridere.Sei invitatao a casa mia.Un saluto al forum.

aaasssdddfffggg
10-11-2006, 10:16
Pardon.Leptone volevo dire.Un saluto anche a mbk comunque.

thecatman
10-11-2006, 10:19
azzo quanto scrivete! bella recensione comunque!
mi piacerebbe vedere, quando sarà possibile, una prova col sistema 4x4 amd e poi anche con gli amd fx e opteron. ovviamente una rece sul 30" dell non guasta!
poi voglio ricordare che vista non è lontano infatti dovrebbe essere disponibile alle aziende in un paio di settimane il che vuol dire anche in rete. poi ci sarebbe da verificare anche un altro articolo che spiega come, con vista, passando da 2 a 4 giga di ram si ha un incremento di prestazioni nei giochi dal 10 al 20%.
ciao

mbk
10-11-2006, 10:28
Pardon.Leptone volevo dire.Un saluto anche a mbk comunque.
Ricambio e concordo con te nell'ignorare le critiche su come si spendono i propri soldi...se 6 un appassionato di pc e te lo puoi permettere senza problemi puoi spenderci tutti i soldi ke vuoi...se si va a fare un giro in qualke raduno di auto tuning ci si accorge ke c'è gente ke su una 206 ci spende piu di 70000 € oltre al prezzo di aquisto e ci monta 5000W di stereo con vari monitorlcd e chi + ne ha, + ne metta...anke in questo caso non ha senso perche, x esempio non c'è nessuna utilità a montarsi 5000W di stereo! ma x chi è un patito di tuning e non ha nessun limite economico (o se ce l'ha è parecchio alto :D ) quella macchina sarà un mostro di elaborazione...
Stessa cosa coi pc, tutti sti pezzi performanti, a partire dalle SV, servono a elaborare il pc e a guadagnare sulle prestazioni...
La mia opinione è ke se puoi permettertelo senza alcun problema e hai una gran passione x i pc, allora puoi spendere tt i soldi ke vuoi...l'unica cosa sarebbe non andare in giro a sbandierarlo ai 4 venti solo x suscitare l'invidia di quelli ke hanno la passione ma nn posso permettersi determinati livelli di upgrade...cosi si rischia solo di passare x bambini immaturi...

aaasssdddfffggg
10-11-2006, 10:34
Parole sante.Sono un super appassionato di pc come lo sono i miei amici più stretti.Ciao

thecatman
10-11-2006, 10:35
a chi interessa qua ce una rece con lo sli e con gli effettivi miglioramenti applicati a alcuni zoom di schermata di un gioco http://www.anandtech.com/video/showdoc.aspx?i=2870

Xilema
10-11-2006, 10:39
Scheda spaventosa per prestazioni e features... ma attualmente assolutamente INUTILE !
Bisognerebbe essere dei pazzi per comprare questa scheda adesso... ai prezzi a cui verrà proposta.
I primi giochi in grado di sfruttarla decentemente usciranno a febbraio-marzo dell' anno prossimo: per allora sarà sul mercato anche la concorrente di casa ATI e i prezzi saranno scesi.

Free Gordon
10-11-2006, 10:43
grazie ad entrambi per le precisazione, io (come ovviamente si è capito per bene) sono un profano qualunque per quel che riguarda la tecnica delle gpu, ma è stata comunque esplicativa e ho capito di aver, ricordando male, sottostimato g70/71 e di conseguenza un po' sottovalutato le performance di g80
ps: azz... almeno un 30% mediamente di potenza di calcolo "sprecata" con le architetture "tradizionali"... e perché hanno aspettato tutti questi anni a unificare le unità di calcolo ? :stordita: ... una specie di uovo di colombo ? ... :D



Innanzitutto voglio dire che anch'io sono come te: un profano qualunque :p (leone, è quello che c'azzecca di più quà dentro, in assenza di Yoss :D ).

Seconda cosa non credo che gli shader unificati di Nvidia arrivino al 100% di efficienza, soprattutto adesso, dove in giro ci sono solo giochi programmati per archi tradizionali. ;)

Su console, dove gli shader unificati ci sono da un anno :D si è visto che, in giochi programmati in modo tradizionale (senza tener conto dell'ottimizzazione e della gestione più raffinata dell'arbiter, che stabilisce come distribuire i carichi di lavoro) si perde fino al 25% di shader power rispetto ad un'architettura tradizionale. ;)
Perchè gli shader unificati sono meno efficienti di quelli dedicati nello svolgere ruoli specifici, solo che compensano con un utilizzo più intenso, cosa che non avveniva con gli shader dedicati (più tempo di rendering era bruciato, in idle).

aaasssdddfffggg
10-11-2006, 10:43
... ma quando uscirà r600 uscirà anche il g80 con frequenze più alte.Matematico e forse nVIDIA ci potrebbe sorprendere con un processo produttivo più affinato insieme all'uscita di R600 appunto.

Mercuri0
10-11-2006, 11:05
Una curiosità: nVidia ha rilasciato le specifiche per le estensioni OpenGL per questa scheda. (ne discutevano sui forum OpenGL)

Questo significa che le novità della scheda "Directx10" non accessibili su WinXP potrebberlo esserlo su Linux & Windows & Mac tramite OpenGL ^^

(La cosa mi fa pesantemente riflettere sulla scelta progettuale delle DirectX)

ale0bello0pr
10-11-2006, 11:07
Ricambio e concordo con te nell'ignorare le critiche su come si spendono i propri soldi...se 6 un appassionato di pc e te lo puoi permettere senza problemi puoi spenderci tutti i soldi ke vuoi...se si va a fare un giro in qualke raduno di auto tuning ci si accorge ke c'è gente ke su una 206 ci spende piu di 70000 € oltre al prezzo di aquisto e ci monta 5000W di stereo con vari monitorlcd e chi + ne ha, + ne metta...anke in questo caso non ha senso perche, x esempio non c'è nessuna utilità a montarsi 5000W di stereo! ma x chi è un patito di tuning e non ha nessun limite economico (o se ce l'ha è parecchio alto :D ) quella macchina sarà un mostro di elaborazione...
Stessa cosa coi pc, tutti sti pezzi performanti, a partire dalle SV, servono a elaborare il pc e a guadagnare sulle prestazioni...
La mia opinione è ke se puoi permettertelo senza alcun problema e hai una gran passione x i pc, allora puoi spendere tt i soldi ke vuoi...l'unica cosa sarebbe non andare in giro a sbandierarlo ai 4 venti solo x suscitare l'invidia di quelli ke hanno la passione ma nn posso permettersi determinati livelli di upgrade...cosi si rischia solo di passare x bambini immaturi...

MA QUI 70.000€ NON PROPRIO MA QUASI LA META'... :D

PRICELESS (http://download.nvidia.com/downloads/nZone/videos/Overclocker_Priceless_360P.wmv)

Free Gordon
10-11-2006, 11:08
... ma quando uscirà r600 uscirà anche il g80 con frequenze più alte.Matematico e forse nVIDIA ci potrebbe sorprendere con un processo produttivo più affinato insieme all'uscita di R600 appunto.



Lo spero proprio. ^_^

Perchè, secondo il mio modestissimo parere, la schedozza è senza dubbio potente ma non così potente e complessa come le recensioni coi giochi attuali fanno presupporre. Dovremo vederla coi giochi del 2007 e successivi per giudicarla meglio..

Come al solito nVidia ha battuto la strada più sicura, strizzando l'occhio al futuro ma con un occhio di riguardo al passato. :D

Il chip è così grosso perchè integra molte texture unit, lo shader core non è in rapporto 3:1 con le TMU, come probabilmente invece sarà in R600.
Per questo motivo, G80 ha bisogno di molta banda per sfruttarle tutte a fondo, molto probabilmente di più di quella che servirà a R600 (che imho sarà meno complesso da quel lato).
Solo che non mi pare ci sia un memcontroller avveneristico che possa gestire tutti questi scambi in maniera efficiente... parrebbe un crossbar evoluto, e quando le cose si complicheranno credo che non sarà semplice supportare le TU a dovere..

Ovviamente non voglio dire che il progetto sia sbagliato o chissà cosa.. :D (lungi da me dire follie simili) ma come progetto DX10 mi pare un pò troppo tradizionalista/conservativo per essere davvero leader nella futura generaziobe di API.. (anche se devo ammettere che mai mi sarei aspettato un design così elegante da parte di nVidia!!) ^_^

ThePunisher
10-11-2006, 11:10
MA QUI 70.000€ NON PROPRIO MA QUASI LA META'... :D

PRICELESS (http://download.nvidia.com/downloads/nZone/videos/Overclocker_Priceless_360P.wmv)

Guarda che era il costo di tutto il carico del camion :asd:.

ale0bello0pr
10-11-2006, 11:15
Guarda che era il costo di tutto il carico del camion :asd:.

XKè NN LO SAI CHE FRA 1 ANNO TUTTI NOI AVREMO SORRIDENTI UNA BELLA TANICA DI LN2 SEMPRE A PORTATA DI MANO PER L'OC.... :asd: :rotfl:

p.s. cmq notare l'incoscienza di kingpin che nn aveva guanti..e se una minima goccia gli cadeva sulla mano...ki lo rimborsava?? :D

GigiDagostino
10-11-2006, 11:18
direi che sotto sotto tra questi c'è qualcuno che invece è molto furbo (seriamente) ;)
cioè? :confused:

nudo_conlemani_inTasca
10-11-2006, 11:26
Bello, vero? :D

Che figata questo Video Promo, ma ce ne sono altri in giro? :D
Sembra fatto apposta per la Tivvù! :p
(magari gira sulle TV Americane..) :mbe:

Ottimo Link.. ;)

GigiDagostino
10-11-2006, 11:33
Questa scheda ha senso in questi due o tre mesi, poi sarà da rottamare. E' la stessa cosa della prima 7800. Oggi nvidia può dire di avere la scheda più veloce ed ha fatto benissimo ad uscire ora. Ati metterà in commercio una scheda più potente di questa ed una settimana dopo nvidia uscirà con il vero G80, senza cose strane (tipo quantità di memoria e frequenze) che sono un po' sospette ora, ed avrà ancora la scheda più veloce costringendo ATI ad altri mesi per poter essere all'altezza.
Intanto chi se la compra ora ha qualche mese di puro godimento davanti, chi aspetta il vero G80 godrà dopo. Chi rimarrà fregato sarà colui che aspetta R600 e lo compra appena esce per accorgersi dopo una settimana che esiste già altro più veloce. E non sarei sorpreso nemmeno di vedere un g80 a 80 nanometri, contro ogni previsione, così come lo sono stati gli shader unificati. A quel punto nvidia avrebbe proprio fatto il colpaccio schiacciando ati per un bel po'.
Vabbé, cmq a me schifano le schede che occupano due slot. ;)
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl:

Ma che stai dicendo????

:rotfl: :rotfl: :rotfl: :rotfl: :rotfl:

leoneazzurro
10-11-2006, 11:48
Innanzitutto voglio dire che anch'io sono come te: un profano qualunque :p (leone, è quello che c'azzecca di più quà dentro, in assenza di Yoss :D ).

Grazie, ma anche io sono un profano "che si sta facendo una cultura" ;) O meglio, profano nel campo VGA, meno per quanto riguarda l'elettronica in generale :D


Seconda cosa non credo che gli shader unificati di Nvidia arrivino al 100% di efficienza, soprattutto adesso, dove in giro ci sono solo giochi programmati per archi tradizionali. ;)

Su console, dove gli shader unificati ci sono da un anno :D si è visto che, in giochi programmati in modo tradizionale (senza tener conto dell'ottimizzazione e della gestione più raffinata dell'arbiter, che stabilisce come distribuire i carichi di lavoro) si perde fino al 25% di shader power rispetto ad un'architettura tradizionale. ;)

No, perdevano il 25% rispetto alla stessa architettura programmata in maniera unificata ;) Del resto questo significa allocare 16 (!) unità di R500 totalmente alla gestione dei vertici. Questo perchè per mantenere la semplicità costruttiva necessaria per contenere i costi della console, le 48 unità shader (con 2 ALU ciascuna, una 5D, ossia vettoriale a 5 componenti e una scalare) di R500 sono divise in 3 gruppi di 16 unità ciascune. Il bello di G80 è che 128 unità scalari sono ancora più efficienti delle unità shader di R500, quindi pur non potendo essere il 100%, l'efficienza globale di G80 è probabilmente molto vicina al massimo ottenibile. Se R600 adotterà un approccio simile a quello di R500 per le unità shader (ne dovrebbero essere presenti 64, con più ALU per unità PS) avrà forse una maggiore potenza di calcolo di picco, ma un'efficienza inferiore.


Perchè gli shader unificati sono meno efficienti di quelli dedicati nello svolgere ruoli specifici, solo che compensano con un utilizzo più intenso, cosa che non avveniva con gli shader dedicati (più tempo di rendering era bruciato, in idle).

Dipende. Se dobbiamo fare riferimento a quanto visto con G80, mi sa tanto che le unità shader unificate di questa generazione sono almeno tanto efficienti quanto quelle di vecchia generazione. :D
Ovviamente questo si paga in termini di numero di transistors.

GigiDagostino
10-11-2006, 11:49
Premetto:l'interesse per quello che l'evoluzione tecnologia riesce a raggiungere è un conto; il giudizio su quello che poi viene presentato come prodotto commerciale è un altro.

Ok ci siamo estasiati, abbiamo goduto, ci siamo sentiti finalmente appagati. Adesso ritorniamo alla realtà del "presente":siamo di fronte ad uno stampo di plastica e metallo che consuma quasi 600 watt in slide :per ogni 2 ore che passeremo a giocare con questa scheda a 2560x1600 (nuova risoluzione di tendenza, a meno non mi consumo i polpastrelli), una famiglia africana potrebbe avere la propria capanna illuminata la sera per un mese. Invece rimarrà al buio perchè quell'energia non si può produrre sia per noi che per loro.Non siamo di fronte ad una scheda che con minor consumi riesce ad avere migliori performance della precedente;và più forte perchè brucia di più; tutto qua:niente di nuovo sotto il sole!(anzi magari andasse con quella lì). Mi chiedo se un solo componente dell'intero Pc può assorbire più del 60% del suo consumo senza che ciò sia fondamentale per il suo utilizzo. Questi prodotti poi non dovrebbero seguire, eventualmente, richieste sempre più esigenti del panorama videoludico a livello di software? e invece si fa il contrario: prima si realizza la scheda e poi si aspettano i giochi e i monitor e le risoluzioni che la sfruttino.E' un mondo capovolto. E mentre ci facciamo le pippe mentali sull'evoluta e futuristica "architettura" hardware che andrebbe a giustificare la nostra nuova esigenza di acquisto, nel mondo c'è un problema che si chiama E.N.E.R.G.I.A. I nuovi processori Intel e gli AMD a 35watt sono "evoluzioni" (perchè a parità di consumo sono più performanti). I nuovi hard disk sono evoluzioni (perchè a parità di consumo hanno decuplicato la loro capienza, e maggior capienza significa maggior informazione a disposizione). Le nuove schede madri sono "evoluzione" perchè con lo stesso ingombro e lo stesso consumo di quelle di 5-10 anni fa hanno audio, video, e sono connesse al mondo intero.Questa scheda NO! per me è un passo indietro: propone illusioni in cambio di energia; impone nuovi standard (alimentatori da 1000W!) che non possono essere di massa, ma che oltretutto creerebbero problemi anche nel quotidiano di chi per passione o per disponibilità economica deciderà di prenderla: perchè non dimenticatevi che sono 3000 i watt a disposizione della comune utenza domestica ...OLTRETUTTO. Quindi se la mamma vuole fare il pollo con le patate al forno, deve turnare con Noi che andiamo matti per il Pac-man con antialiasing 32x., e il bello è che questa non è una battuta.Se continuiamo così il "computer a manovella" anzichè essere una soluzione per gli abitanti del terzo mondo, diventerà uno standard per noi del "primo".
Sante parole...

leoneazzurro
10-11-2006, 12:05
Lo spero proprio. ^_^

Perchè, secondo il mio modestissimo parere, la schedozza è senza dubbio potente ma non così potente e complessa come le recensioni coi giochi attuali fanno presupporre. Dovremo vederla coi giochi del 2007 e successivi per giudicarla meglio..

Come al solito nVidia ha battuto la strada più sicura, strizzando l'occhio al futuro ma con un occhio di riguardo al passato. :D

Hmm.. al contrario, la scheda con il passato IMHO a proprio ben poco a che vedere. ;) Anzi!


Il chip è così grosso perchè integra molte texture unit, lo shader core non è in rapporto 3:1 con le TMU, come probabilmente invece sarà in R600.
Per questo motivo, G80 ha bisogno di molta banda per sfruttarle tutte a fondo, molto probabilmente di più di quella che servirà a R600 (che imho sarà meno complesso da quel lato).
Solo che non mi pare ci sia un memcontroller avveneristico che possa gestire tutti questi scambi in maniera efficiente... parrebbe un crossbar evoluto, e quando le cose si complicheranno credo che non sarà semplice supportare le TU a dovere..


Sicuro che il rapporto sarà 3:1? ;) Io direi proprio di no :D 3:1 è il rapporto di R500. Da quel che penso R600 sarà molto più "granulare" di R500 e se vi saranno 64 Shader unit avremo la possibilità di 16 o 32 TMU. Una mia ipotesi è che inoltre queste TMU saranno un filino più "complesse" di quelle di R580, personalmente propendo per 32. Se ci saranno 96 shader unit come ipotizzato da alcuni rumors si dovrebbero attestare IMHO sul numero di 24.
Ad ogni modo, non è che il concetto di crossbar faccia proprio schifo, eh :D
In realtà anzi ha anche dei vantaggi rispetto al ring bus, soltanto che per avere una maggiore granularità il numero di connessioni sale di molto, ecco perchè ATI ha adottato il ring bus per R580 in combinazione con 8 controller da 32 bit di ampiezza.


Ovviamente non voglio dire che il progetto sia sbagliato o chissà cosa.. :D (lungi da me dire follie simili) ma come progetto DX10 mi pare un pò troppo tradizionalista/conservativo per essere davvero leader nella futura generaziobe di API.. (anche se devo ammettere che mai mi sarei aspettato un design così elegante da parte di nVidia!!) ^_^

Come detto, è tutto fuorchè tradizionalista, anzi potrebbe essere più innovativo di quello di ATI ;)

ezekiel22
10-11-2006, 12:12
Non capisco come mai da molto tempo nelle recensioni non vengono più messi i valori del test generale del 3dmark2005 e/o 2006.

Si parla di test sintetici e quindi cosa meglio del magico numerillo per dare "sinteticamente" l'idea della potenza delle scheda ?
Accanto a "fille rate" e compagnia bella non ci starebbe bene ?

Sono daccordo, il 3dmark non è tutto ( anzi ), ma risulta utile a chiarire meglio le idee.

Non capisco questa scelta redazionale .... magari la cosa è già stata affrontata e sapete dirmi il perchè.

ciao

ThePunisher
10-11-2006, 12:47
Non capisco come mai da molto tempo nelle recensioni non vengono più messi i valori del test generale del 3dmark2005 e/o 2006.

Si parla di test sintetici e quindi cosa meglio del magico numerillo per dare "sinteticamente" l'idea della potenza delle scheda ?
Accanto a "fille rate" e compagnia bella non ci starebbe bene ?

Sono daccordo, il 3dmark non è tutto ( anzi ), ma risulta utile a chiarire meglio le idee.

Non capisco questa scelta redazionale .... magari la cosa è già stata affrontata e sapete dirmi il perchè.

ciao

Sì la cosa è già stata affrontata, anche se non ne ho mai capito appieno le ragioni... alla fine è solo un qualcosa in più che manca che se proprio non si vuole venga frainteso dai meno esperti basta venga accompagnato da una nota di precisazione\delucidazione (magari su come viene calcolato, ecc.). Sembra quasi una scelta per dare un elemento in più di carattere elitario alla recensione (che non serve... le recensioni di HWU lo sono già e per meriti molto più concreti), ma imho è solo un dato sintetico che come gli altri aiuta anche in ottica di confronti a dare un'idea che purtroppo manca.

Lungi da me comunque incentivare un flame in proposito (la mia è solo una considerazione personale).

Kharonte85
10-11-2006, 13:13
Sì la cosa è già stata affrontata, anche se non ne ho mai capito appieno le ragioni... alla fine è solo un qualcosa in più che manca che se proprio non si vuole che venga frainteso dai meno esperti basta che venga accompagnato da una nota di precisazione\delucidazione (magari su come viene calcolato, ecc.). Sembra quasi una scelta per dare un elemento in più di carattere elitario alla recensione (che non serve... le recensioni di HWU lo sono già e per meriti molto più concreti), ma imho è solo un dato sintetico che come gli altri aiuta a dare un'idea che purtroppo manca.

Lungi da me comunque incentivare un flame in proposito (la mia è solo una considerazione personale).
Supermegaquotonecarpiato... ;)

Koji
10-11-2006, 13:18
Premetto:l'interesse per quello che l'evoluzione tecnologia riesce a raggiungere è un conto; il giudizio su quello che poi viene presentato come prodotto commerciale è un altro.

Ok ci siamo estasiati, abbiamo goduto, ci siamo sentiti finalmente appagati. Adesso ritorniamo alla realtà del "presente":siamo di fronte ad uno stampo di plastica e metallo che consuma quasi 600 watt in slide :per ogni 2 ore che passeremo a giocare con questa scheda a 2560x1600 (nuova risoluzione di tendenza, a meno non mi consumo i polpastrelli), una famiglia africana potrebbe avere la propria capanna illuminata la sera per un mese. Invece rimarrà al buio perchè quell'energia non si può produrre sia per noi che per loro.Non siamo di fronte ad una scheda che con minor consumi riesce ad avere migliori performance della precedente;và più forte perchè brucia di più; tutto qua:niente di nuovo sotto il sole!(anzi magari andasse con quella lì). Mi chiedo se un solo componente dell'intero Pc può assorbire più del 60% del suo consumo senza che ciò sia fondamentale per il suo utilizzo. Questi prodotti poi non dovrebbero seguire, eventualmente, richieste sempre più esigenti del panorama videoludico a livello di software? e invece si fa il contrario: prima si realizza la scheda e poi si aspettano i giochi e i monitor e le risoluzioni che la sfruttino.E' un mondo capovolto. E mentre ci facciamo le pippe mentali sull'evoluta e futuristica "architettura" hardware che andrebbe a giustificare la nostra nuova esigenza di acquisto, nel mondo c'è un problema che si chiama E.N.E.R.G.I.A. I nuovi processori Intel e gli AMD a 35watt sono "evoluzioni" (perchè a parità di consumo sono più performanti). I nuovi hard disk sono evoluzioni (perchè a parità di consumo hanno decuplicato la loro capienza, e maggior capienza significa maggior informazione a disposizione). Le nuove schede madri sono "evoluzione" perchè con lo stesso ingombro e lo stesso consumo di quelle di 5-10 anni fa hanno audio, video, e sono connesse al mondo intero.Questa scheda NO! per me è un passo indietro: propone illusioni in cambio di energia; impone nuovi standard (alimentatori da 1000W!) che non possono essere di massa, ma che oltretutto creerebbero problemi anche nel quotidiano di chi per passione o per disponibilità economica deciderà di prenderla: perchè non dimenticatevi che sono 3000 i watt a disposizione della comune utenza domestica ...OLTRETUTTO. Quindi se la mamma vuole fare il pollo con le patate al forno, deve turnare con Noi che andiamo matti per il Pac-man con antialiasing 32x., e il bello è che questa non è una battuta.Se continuiamo così il "computer a manovella" anzichè essere una soluzione per gli abitanti del terzo mondo, diventerà uno standard per noi del "primo".


Io trovo una parziale giustificazione nel fatto che questa è la prima scheda dx10. Hanno voluto buttare fuori un mostro di potenza per poter avere il primato in velocità, senza curarsi dei consumi, è vero, ma io lo vedo come il primo step. Il secondo sarà una scheda progettata a 65nm che avrà qualcosa in più di potenza e consumerà meno.
Per fare un paragone, vi ricordate la 5800? Fu un flop sia per le prestazioni che soprattutto per i consumi (ricordo ancora le giffine fatte ai phon :D ), poi con la 5900 ridussero i consumi e le prestazioni migliorarono. Ecco stessa cosa succede adesso, solo che stavolta hanno sfornato una scheda perlomeno molto prestante.

Io la vedo così, infatti non son più tanto sicuro di prendermi la GTS ma di aspettare qualche mese e vedere cosa succede. In fondo per pensare alle dx10 è ancora presto. ;)

Vodka
10-11-2006, 13:38
Premetto:l'interesse per quello che l'evoluzione tecnologia riesce a raggiungere è un conto;...............a loro capienza, e maggior capienza significa maggior informazione a disposizione). Le nuove schede madri sono "evoluzione" perchè con lo stesso ingombro e lo stesso consumo di quelle di 5-10 anni fa hanno audio, video, e sono connesse al mondo intero.Questa scheda NO! per me è un passo indiet................il Pac-man con antialiasing 32x., e il bello è che questa non è una battuta.Se continuiamo così il "computer a manovella" anzichè essere una soluzione per gli abitanti del terzo mondo, diventerà uno standard per noi del "primo".

Secondo me il tuo post è fine a se stesso.
Hai ragione se consideriamo il campo di interesse nell'ambito casalingo e basta, ma qui tu menzioni addirittura un fenomeno mondiale...

Imho la soluzione a queste carenze economiche e non , è da ricercarsi in cose che ognuno di noi compie durante tutta la giornata ma che , vuoi per il fattore media, vuoi per le nostre comodità, non consideriamo.
Ad esempio lo stesso cibo, i mezzi di trasporto, gli imballaggi o confezionamenti, televisioni, cellulari, sono spesso poco ottimizzati e sprecano molto di pià in risorse esauribili che in pure energia elettrica.
Quanti di noi hanno una pessima dieta nella maggiorparte dei casi abbondando senza la necessità?
Quanti hanno una macchina che utilizzano più di quanto sia necessario?
Quanti hanno più di un televisore acceso contemporaneamente in una casa, che magari rimane acceso gran parte della giornata?
Quasi ogni persona ha almeno un cellulare, e molti di noi lo lasciano perennemente acceso in carica....
Quante persone al mondo hanno un sistema con un conroe quad e 2 8800GTX in SLi con alimentatore da 1000w?

In queste cose più che il prodotto bisognerebbe considerare il numero di utenti.
E di sicuro (almeno spero ;) ) negli uffici montano i processori con il miglior rapporto prezzo/prestazioni/consumo, quindi sta tranquillo che consumeranno ben poco.

ThePunisher
10-11-2006, 13:39
Supermegaquotonecarpiato... ;)
Io e te ci intendiamo benissimo vedo :D.

Mercury777
10-11-2006, 14:32
menage zero:


costretti... da che mondo è mondo il "lusso" costa... nell'ambito videogiochi, come in tutti gli altri chi vuole il max deve aprire il portafoglio e alleggerirlo per bene, c'è poco da sorprendersi o "indignarsi" ... (scusa se ti dessero un g80 a 100€ ed il resto necessario per sfruttarlo al max entro i 300€, la maggior parte del materiale che c'è in vendita dovrebbero praticamente regalarlo, chiunque lavora nel settore IT, come chiunque lavora e basta, lo fa per i $ prima di tutto, mica per passare il tempo... )



vero... ma esiste anche il rapporto qualità/prezzo sai.. e io continuo a pensare che spendere 700e per una svid o 1000e per una cpu sia davvero esagerato per una persona "media"..klaro ke se sei "ricco" allora va bene tutto

yossarian
10-11-2006, 16:18
ah, ma quindi uno stream processor è solo (o ha solo) una alu scalare ?



no; G80 ha unità scalari; un generico stream processor può avere unità scalari e/o vettoriali

Se ti "accontenti" :D le ALU di G70 possono eseguire operazioni su più di 2 componenti, ossia fino a 4 componenti anche in combinazione 1+1, 1+2, 2+2 e 3+1 . Ognuna delle ALU (2 per PS) può effettuare MADD+MUL, ma una unità gestisce anche i texture lookups, per cui quando si accede alle texture non si può utilizzare una delle ALU per i calcoli. Tieni conto che anche se scalari le 128 ALU di G80 possono effettuare 1 MADD+1MUL. Diciamo che quindi 1 ALU di G80 è circa pari ad 1/4 di una ALU di G71, ma con una grandissima differenza di efficienza, in quanto:

1) G70 non può usare una delle ALU quando effettua texture lookups
2) 4 unità scalari sono più efficienti di una ALU vettoriale se non si utilizzano sempre 4 componenti (es. se utilizzi l'ALU solo per 3 valori FP invece di 4 hai sprecato in quel ciclo il 25% della potenza di calcolo)
3) L'approccio a shader unificati è notevolmente più efficiente di quello a shader separati, nvidia dichiara di avere il 100% di efficenza con G80, il che non è chiaramente possibile, ma con questa architettura sono possibilissimi valori effettivi oltre il 90%, si stimava che un'architettura tradizionale fosse intorno al 60-70% di efficienza.

tralasciando le SF e le eventuali operazioni di normalizzazione, ogni pixel pipeline di G7x può effettuare 2 MAD con unità 4+1; il che equivale a 20 flops; moltiplicato per 24 si hanno 480 flops per ciclo a cui si devono aggiungere le 80 dei VS. Le 128 unità di G80, invece sono capaci di una MAD + una ADD/MUL su un singolo dato a fp32; il che equivale a dire che ogni unità può eseguire 3 flops per ciclo, per un totale di 384 flops (contro le 560 di G7x). Però lo shader core di G80 lavora ad una frequenza praticamente doppia rispetto a quela di G7x. Questo senza tener conto della maggior efficienza complessiva del chip della non dipendenza tra texture fetch e operazioni matematiche, del notevole miglioramento nelle operazioni di HSR e di DB (quello di G7x era praticamente inutile se non addirittura controproducente in certe situazioni).

Questo, ovviamente, a livello teorico. Nella pratica, resta il fatto (che sostengo da qualche anno a questa parte, e questa né è la conferma definitiva), che un chip a shader unificati è molto più efficiente di uno a shader dedicati. :D

yossarian
10-11-2006, 16:21
Non capisco come mai da molto tempo nelle recensioni non vengono più messi i valori del test generale del 3dmark2005 e/o 2006.

Si parla di test sintetici e quindi cosa meglio del magico numerillo per dare "sinteticamente" l'idea della potenza delle scheda ?
Accanto a "fille rate" e compagnia bella non ci starebbe bene ?

Sono daccordo, il 3dmark non è tutto ( anzi ), ma risulta utile a chiarire meglio le idee.

Non capisco questa scelta redazionale .... magari la cosa è già stata affrontata e sapete dirmi il perchè.

ciao

perchè quel "magico" numeretto che esce alla fine di un 3DMark è quanto di più inutile si possa concepire, in quanto lo si può ottenere in molteplici modi più o meno leciti (l'esempio più eclatante è stato quello di NV30 e clipping plane). Al contrario, sui singoli test sintetici non è possibile (o quanto meno è molto più complesso) e meno utile barare

ThePunisher
10-11-2006, 16:24
perchè quel "magico" numeretto che esce alla fine di un 3DMark è quanto di più inutile si possa concepire, in quanto lo si può ottenere in molteplici modi più o meno leciti (l'esempio più eclatante è stato quello di NV30 e clipping plane)

Tanti bench possono essere taroccati (vedi PCMark), ma se è HWU ad eseguirli e vuole mantenere la credibilità non si mette di certo a farlo, pertanto il numero che esce può essere come altri test sintetici uno dei metri per giudicare a grandi linee la posizione dell'hardware in questione.

Poi non è tanto "magico", ma è frutto di un algoritmo (anche piuttosto semplice a dir la verità) dipendente dal framerate conseguito nei test e mi sembra che come metro di paragone prendiamo i framerate dei titoli, no?

yossarian
10-11-2006, 16:26
Tanti bench possono essere taroccati (vedi PCMark), ma se è HWU ad eseguirli e vuole mantenere la credibilità non si mette di certo a farlo, pertanto il numero che esce può essere come altri test sintetici uno dei metri per giudicare a grandi linee la posizione dell'hardware in questione.

Poi non è tanto "magico", ma è frutto di un algoritmo (anche piuttosto semplice a dir la verità) dipendente dal framerate conseguito nei test e mi sembra che come metro di paragone prendiamo i framerate dei titoli, no?

il taroccamento di cui parlo è quello fattibile via driver; in tal caso il recensore non c'entra un bel niente. In quel caso fu nVIDIA a taroccare il bench per far credere che NV30 aveva solo problemi di driver acerbi.

Il framerate su un bench che utilizza sempre le stesse immagini nella stessa sequenza si può modificare a piacimento (facendo raddoppiare o quasi il punteggio) tra una release di driver e la successiva, a distanza di una settimana: non mi pare si amolto attendibile :D

leoneazzurro
10-11-2006, 16:29
tralasciando le SF e le eventuali operazioni di normalizzazione, ogni pixel pipeline di G7x può effettuare 2 MAD con unità 4+1; il che equivale a 20 flops; moltiplicato per 24 si hanno 480 flops per ciclo a cui si devono aggiungere le 80 dei VS. Le 128 unità di G80, invece sono capaci di una MAD + una ADD/MUL su un singolo dato a fp32; il che equivale a dire che ogni unità può eseguire 3 flops per ciclo, per un totale di 384 flops (contro le 560 di G7x). Però lo shader core di G80 lavora ad una frequenza praticamente doppia rispetto a quela di G7x. Questo senza tener conto della maggior efficienza complessiva del chip della non dipendenza tra texture fetch e operazioni matematiche, del notevole miglioramento nelle operazioni di HSR e di DB (quello di G7x era praticamente inutile se non addirittura controproducente in certe situazioni).

Ehilà! :D
Grazie per la precisazione, su Beyond3d le informazioni che avevo trovato mi davano 2 MAD ma solo per unità 4D (mi mancava la parte scalare). La normalizzazione "free" FP16 di G70 (che non è più free in G80) invece la conoscevo :D. Anche per il resto le informazioni che ho trovato in giro mi davano la seconda operazione possibile sugli stream processors come solo MUL, non MUL/ADD :confused: Ma visto che Nvidia è restia a dire tutto...
Soprattutto quello che mi ha impressionato è l'architettura delle ROPS, IMHO gran parte dei "nuovi" transistors di G80 è andata proprio in queste unità, vista la gran quantità e qualità di funzioni supportate. Tu che ne dici? ;)

PS: il mio ragionamento su R600 potrebbe avere un piccolo fondamento di verità? :D

ThePunisher
10-11-2006, 16:32
il taroccamento di cui parlo è quello fattibile via driver; in tal caso il recensore non c'entra un bel niente. In quel caso fu nVIDIA a taroccare il bench per far credere che NV30 aveva solo problemi di driver acerbi.

Il framerate su un bench che utilizza sempre le stesse immagini nella stessa sequenza si può modificare a piacimento (facendo raddoppiare o quasi il punteggio) tra una release di driver e la successiva, a distanza di una settimana: non mi pare si amolto attendibile :D

Non mi sembra che il trend degli ultimi driver ne' da parte di ATI, ne' da parte di NVIDIA sia stato adoperarsi in questo senso (forse sempre per il discorso di credibilità?), anzi, credo che con un grafico (che non ho assolutamente voglia di fare, ma sono sicurissimo che puoi capirmi) possa essere dimostrato che come sono cresciuti i framerate medi dei titoli di ultima generazione in seguito a ottimizzazione via driver così anche i punteggi del 3DMark che RIPETO quindi sono UN INDICATORE (uno dei tanti) che, QUI SONO D'ACCORDO CON TE, visto da solo può non significare nulla, ma nel contesto di una recensione in cui sono presenti molteplici test di ogni natura assume il senso di completare il quadro.

P.S. = Possono essere fatti anche driver ad hoc per le timedemo standard dei giochi comunque se proprio vogliamo dirla tutta.

yossarian
10-11-2006, 16:33
Ad ogni modo, non è che il concetto di crossbar faccia proprio schifo, eh :D
In realtà anzi ha anche dei vantaggi rispetto al ring bus, soltanto che per avere una maggiore granularità il numero di connessioni sale di molto, ecco perchè ATI ha adottato il ring bus per R580 in combinazione con 8 controller da 32 bit di ampiezza.


infatti; il ring bus (adottato su R5x0, ma anche su Cell) è il sostituto di una crossbar connection che dovrebbe mettere in comunicazione tutti i possibili utilizzatori con tutte le celle di memoria disponibili; all'aumentare del numero degli utilizzatori e del quantitativo di ram, questo tipo di connessione diventa estremamente complessa e dispendiosa (anche se, nel momento in cui la si realizza, resta la migliore); per questo ATi e IBM hanno optato per il ring bus

Agonia
10-11-2006, 16:36
Bella...a che serve?

yossarian
10-11-2006, 16:41
Dipende. Se dobbiamo fare riferimento a quanto visto con G80, mi sa tanto che le unità shader unificate di questa generazione sono almeno tanto efficienti quanto quelle di vecchia generazione. :D
Ovviamente questo si paga in termini di numero di transistors.

una singola unità a shader unificati è meno efficiente di una a shader dedicati nel compiere una specifica operazione (motivo per il quale il 100% dell'efficienza, che già non è raggiungibile nella singola operazione da un'unità dedicata, non è, a maggior ragione, raggiungibile da una unità e, di conseguenza, da un chip a shader unificati); questo perchè a monte e a valle di ogni unità ci sono delle unità che svolgono funzioni di controllo, decodifica e indirizamento dei dati in ingresso, in maggior quantità e di maggior complessità rispetto a quelle di un chip a shader dedicati. Questo si paga in termini di cicli di clock. In particolare, un chip superscalare, come G80, ha, a valle di ogni gruppo di unità di shading, un controller che "decide" se i dati elaborati appartengono o meno ad un vettore (e, in caso affermativo, di quanti componenti). Quindi aumenta ulteriormente la complessità rispetto ad un chip a shader unificati che fa uso di unità vettoriali; in compenso, aumenta la flessibilità d'impiego nel processare i dati

ORS0
10-11-2006, 16:47
Ciao!

Complimenti al sig.Corsini per l'ottima recensione.

Mi domandavo: non sarebbe possibile inserire tra i vari tests anche
una "prova" con Microsoft 'Flight Simulator X'?

Mi rendo conto che trattasi di una richiesta forse estemporanea
poiché il suddetto prodotto viene, generalmente, considerato
"di nicchia" però, visto che in tutta la rete ci sono centinaia di persone
che ribadiscono la particolare "pesantezza" di questo gioco (o come lo
si vuol chiamare) sarebbe forse interessante leggere il comportamento
di una scheda del genere (con tutto l'hardware al top che l'accompagna)
proprio con un prodotto particolare quale reputo sia FSX.

Grazie!

yossarian
10-11-2006, 16:48
Ehilà! :D
Grazie per la precisazione, su Beyond3d le informazioni che avevo trovato mi davano 2 MAD ma solo per unità 4D (mi mancava la parte scalare). La normalizzazione "free" FP16 di G70 (che non è più free in G80) invece la conoscevo :D.

su G80 non è più free semplicemente perchè a fp32 non lo era neppure su G70 e G80 lavora solo a fp32 (problema di complessità del circuito).

Ehilà! :D

Soprattutto quello che mi ha impressionato è l'architettura delle ROPS, IMHO gran parte dei "nuovi" transistors di G80 è andata proprio in queste unità, vista la gran quantità e qualità di funzioni supportate. Tu che ne dici? ;)

PS: il mio ragionamento su R600 potrebbe avere un piccolo fondamento di verità? :D

a queste due ti rispondo non appena avrò un po' più di tempo a disposizioni (se ci riesco tra stasera e domani :D )

ciao leo :)

leoneazzurro
10-11-2006, 16:49
una singola unità a shader unificati è meno efficiente di una a shader dedicati nel compiere una specifica operazione (motivo per il quale il 100% dell'efficienza, che già non è raggiungibile nella singola operazione da un'unità dedicata, non è, a maggior ragione, raggiungibile da una unità e, di conseguenza, da un chip a shader unificati); questo perchè a monte e a valle di ogni unità ci sono delle unità che svolgono funzioni di controllo, decodifica e indirizamento dei dati in ingresso, in maggior quantità e di maggior complessità rispetto a quelle di un chip a shader dedicati. Questo si paga in termini di cicli di clock. In particolare, un chip superscalare, come G80, ha, a valle di ogni gruppo di unità di shading, un controller che "decide" se i dati elaborati appartengono o meno ad un vettore (e, in caso affermativo, di quanti componenti). Quindi aumenta ulteriormente la complessità rispetto ad un chip a shader unificati che fa uso di unità vettoriali; in compenso, aumenta la flessibilità d'impiego nel processare i dati

Tuttavia mi sembra di capire dal punto di vista delle pure performances (facendo anche due conti sui throughput teorici in termini di Flops) che comunque G80 nasconda molto bene queste inefficienze :D Nel senso che alla fine ciò che si ottiene da G80, grazie sicuramente anche alla frequenza dello shader core e alla maggiore "efficienza strutturale" della USA, è comunque di molto superiore a ciò che si ottiene da chip ad architettura tradizionale con shader dedicati, segno che comunque a livello di singola ALU IMHO in realtà non si è messi poi così male, ed è questo quello che intendevo dire nel mio precedente post :)

leoneazzurro
10-11-2006, 16:52
su G80 non è più free semplicemente perchè a fp32 non lo era neppure su G70 e G80 lavora solo a fp32 (problema di complessità del circuito).

Yes, chiarissimo. Però questo è chiaramente un piccolo vantaggio di G70 su G80 in DirectX9 :D



a queste due ti rispondo non appena avrò un po' più di tempo a disposizioni (se ci riesco tra stasera e domani :D )

ciao leo :)

Fai con comodo, Sabato e Domenica sono assente :D.

Ciao Yoss! :)

Drakogian
10-11-2006, 17:01
Secondo me il tuo post è fine a se stesso.
Hai ragione se consideriamo il campo di interesse nell'ambito casalingo e basta, ma qui tu menzioni addirittura un fenomeno mondiale...

... cut ...

Quante persone al mondo hanno un sistema con un conroe quad e 2 8800GTX in SLi con alimentatore da 1000w?

In queste cose più che il prodotto bisognerebbe considerare il numero di utenti.
E di sicuro (almeno spero ;) ) negli uffici montano i processori con il miglior rapporto prezzo/prestazioni/consumo, quindi sta tranquillo che consumeranno ben poco.

Potrei risponderti cosi: quante persone 2 anni fà avevano bisogno di un alimentatore da 500W ? Oggi chi assembla un pc appena decente non ne può fare a meno. Di questo passo fra 2 anni i 1000W saranno la norma.
Pur apprezzando il lato tecnico di questa scheda (e della futura ATI) quello che mi preoccupa è il trend che si stà imponendo nel campo delle schede video. E questo trend è quello di aumentare transistors e dimensioni e quindi la potenza dissipata. E non ci saranno 65nm che tengano, servirà solo a piazzare più transistor. Per uno che ha imbottito la casa di lampadine a basso consumo e di elettrodomestici di categoria AAA schede come questa sono inaccettabili tenendo conto che il loro fine è solo quello ludico. Spero solo che NVidia e ATI prima o poi si rendino conto di questo aspetto etico. Lo ha fatto l'Intel con le nuove cpu conroe possono farlo anche loro.

Duncan
10-11-2006, 17:17
L'ATI potrebbe sorprendere tutti implementando supporto completo a DX10, modesto aumento delle prestazioni ma drastica riduzione dei consumi, sarebbe una buona notizia, almeno per me

yossarian
10-11-2006, 17:22
Tuttavia mi sembra di capire dal punto di vista delle pure performances (facendo anche due conti sui throughput teorici in termini di Flops) che comunque G80 nasconda molto bene queste inefficienze :D Nel senso che alla fine ciò che si ottiene da G80, grazie sicuramente anche alla frequenza dello shader core e alla maggiore "efficienza strutturale" della USA, è comunque di molto superiore a ciò che si ottiene da chip ad architettura tradizionale con shader dedicati, segno che comunque a livello di singola ALU IMHO in realtà non si è messi poi così male, ed è questo quello che intendevo dire nel mio precedente post :)

maggior inefficienza se si prende la singola unità come termine di paragone, ma efficienza notevolmente superiore a livello di organizzazione del chip. Poichè le prestazioni sono determinate dall'efficienza complessiva dell'architettura e non da quella della singola unità, un chip a shader unificati "vince" su tutta la linea rispetto ad un chip a shader dedicati

leoneazzurro
10-11-2006, 17:28
L'ATI potrebbe sorprendere tutti implementando supporto completo a DX10, modesto aumento delle prestazioni ma drastica riduzione dei consumi, sarebbe una buona notizia, almeno per me

Ehm... non esiste il "supporto completo" alle Dx10. O si è DX10 o non si è DX10, infatti tutte le schede DX10 devono supportare le stesse features.
Nelle DX10, infatti, non esistono più i "capability bit" che indicano quale feature set è supportato e quale no. Solo per la precisione.
I rumors almeno per le schede di fascia alta comunque non sono troppo incoraggianti, almeno per il momento. Sperem.

DakmorNoland
10-11-2006, 17:32
Ehm... non esiste il "supporto completo" alle Dx10. O si è DX10 o non si è DX10, infatti tutte le schede DX10 devono supportare le stesse features.
Nelle DX10, infatti, non esistono più i "capability bit" che indicano quale feature set è supportato e quale no. Solo per la precisione.
I rumors almeno per le schede di fascia alta comunque non sono troppo incoraggianti, almeno per il momento. Sperem.

Beh non è propio esatto, tutti ci ricordiamo la serie Geforce FX dichiarata come 100% DX9 ma che poi implementava scarsamente i PS 2.0, tant'è vero che queste schede hanno problemi a far girare oblivion e richiedono un mod che forzi il gioco ad utilizzare i PS 1.1 con gravi perdite a livello grafico.

leoneazzurro
10-11-2006, 17:35
maggior inefficienza se si prende la singola unità come termine di paragone, ma efficienza notevolmente superiore a livello di organizzazione del chip. Poichè le prestazioni sono determinate dall'efficienza complessiva dell'architettura e non da quella della singola unità, un chip a shader unificati "vince" su tutta la linea rispetto ad un chip a shader dedicati

Intendevo dire che se la singola ALU di G80 fosse, mettiamo caso, il 50% meno "potente", probabilmente non avremmo le prestazioni "stratosferiche" che vediamo. Se l'efficienza dell'architettura crescesse dal 60% al 90% ma una ALU unificata facesse solo il 50% del lavoro di una ALU dedicata (a parità di numero di ALU e componenti, clock, ecc) l'architettura dedicata sarebbe comunque in vantaggio. Invece da quel che vedo, facendo qualche calcolo, è che le unità unificate di G80 sembrano svolgere un lavoro per unità di clock che non è molto lontano da quello di unità dedicate.

Drakogian
10-11-2006, 17:38
L'ATI potrebbe sorprendere tutti implementando supporto completo a DX10, modesto aumento delle prestazioni ma drastica riduzione dei consumi, sarebbe una buona notizia, almeno per me

Lo spero anch'io ma ne dubito. La corsa fra Ati e NVidia all'aumento della potenza dissipata è in corso da un bel pò di tempo. Ci vorrebbe una sterzata come quella che fece l'AMD con gli Athlon 64 che in 2 anni ha costretto Intel a recedere dalla folle corsa ai Mhz/consumi.

leoneazzurro
10-11-2006, 17:41
Beh non è propio esatto, tutti ci ricordiamo la serie Geforce FX dichiarata come 100% DX9 ma che poi implementava scarsamente i PS 2.0, tant'è vero che queste schede hanno problemi a far girare oblivion e richiedono un mod che forzi il gioco ad utilizzare i PS 1.1 con gravi perdite a livello grafico.

Quello che volevo dire era che le DX9 erano molto "larghe" nella definizione di cosa era DX9 compliant e cosa no. Le DX 10 hanno richieste più "strette" (nessuna differenza nel feature set supportato) e comunque a livello logico impongono una maggiore convergenza rispetto alle DX9. Ad ogni modo il discorso che fai è a livello di performances, che comunque non pare manchino in G80 (sotto DX10 possono solo migliorare) nè credo possano mancare in R600.

MiKeLezZ
10-11-2006, 18:03
COMMENTO 1
VERSIONE BREVE :

Prestazioni nVidia Serie 8 >>> Prestazioni ATI Serie X1
Filtri nVidia Serie 8 >> Filtri ATI
HDR nVidia Serie 8 > HDR ATI Serie X1
PureVideo nVidia Serie 8 > AVIVO ATI
etc.

Ogni scusa è crollata miseramente. Lo scorso mercoledì pomeriggio a qualche fanboy ATI deve essergli venuta più di un'emicrania, eh?

MiKeLezZ
10-11-2006, 18:08
COMMENTO 2
VERSIONE LUNGA (by moderators request) :

Leggendo i commenti noto una esaltazione diffusa, mista a un'aria di sconforto; mi ricorda molto l'atmosfera che permeava al debutto delle soluzioni Intel Conroe; l'analogia neppure è casuale, visto che la demarcazione ATI-AMD e INTEL-NVIDIA è oggigiorno più netta che mai.
Fortunatamente sono meno del previsto gli "aficionados" AMD che non riescono a digerire ancora il colpo, tirando fuori vacillanti giustificazioni e frasi di circostanza (storica e abusatissima quella de "il confronto non vale", in tutte le sue varianti).
Questa scheda altro non può fare che spiazzare chiunque, in bene o in male, dato che mesi fa i rumor presagivano una soluzione "ibrida", non pienamente a shader unificati, e dai consumi mai visti; ecco invece una Dx10 "pura" che tutto sembra fuorchè malriuscita.
Analizzandola nel dettaglio, la si può addirittura considerare come una naturale evoluzione del progetto X1xx0 di ATI, date le grandi somiglianze (è un bel rospo da buttar giù)!
(Personalmente, credo inoltre che derivi dagli ingegneri dietro il progetto Serie 5, il che sarebbe un male, ma evidentemente hanno saputo riscattarsi lavorando alacremente...).

Elenchiamo quindi le sue maggiori potenzialità, come si possono anche evincere dalla lettura dell'articolo in oggetto:
IMPORTANTE -> 1) Il filtro Anisotropico nVidia 8800 Series a Default è estremamente superiore in qualità a quello ATI X1xx0, quest'ultimo non solo a Default, ma anche se impostato al massimo (High-Quality).
Dato il minimo impatto prestazionale, è prassi comune mantenere sempre attivo il filtro Anisotropico (16X o 8X), anche sui giochi più pesanti; questo è quindi un grosso vantaggio. Personalmente mi ha stupido parecchio: era ora!
Improvvisamente si nota anche qualcos'altro, ovvero che, rispetto a quello della serie 8800, i filtri anisotropici adottati finora dalle schede ATI e nVidia sono ben poco dissimili fra loro, lo sbandierato "vantaggio AMD" è ora enormemente ridimensionato.
IMPORTANTE -> 2) Sono state introdotte nuove modalità per i filtri Anti-Aliasing, denominate CSAA. Adesso un 8X richiede quasi la stessa potenza di un 4X, con un altrettanto ovvio vantaggio.
IMPORTANTE -> 3) E' stato introdotto il filtro Anti-Aliasing 16X che, poichè sfrutta la tecnologia del punto sopra, impatta solo marginalmente le prestazioni.
Questo è più utile di quanto sembri, per esempio per chi come me ha uno schermo con una risoluzione relativamente bassa (1280x1024) e non intende cambiarlo, o coloro che amano giocare sulla TV (26" widescreen a 720p è una goduta), o ancora, chi gioca ancora alle "vecchie glorie" (personalmente ho ancora da finire Half-Life 2).
IMPORTANTE -> 4) PureVideo di nVidia supera in qualità (seppur di poco) il tanto osannato, e sopravvalutato, AVIVO di AMD; promettendo un punteggio perfetto (e la compatibilità HD).
Abbiamo quindi un netto ribaltamento della situazione, adesso è nVidia che, dopo anni di inferiorità, batte tranquillamente ATI (anche) nel reparto "filtri" e "qualità video".
Non si può dire altro se non che la 8800 sia la miglior scheda in assoluto sia sotto il profilo qualitativo, che prestazionale; la fascia alta AMD perde di botto significato, almeno ai prezzi attuali (così come fu con A64 e Core 2).
E' strano che nei commenti nessuno (o pochissimi) li abbiano rimarcati, di fatto questi sono grandi vantaggi, secondo la mia opinione, molto più che non fare 160fps invece che 90fps (questo è spiegato anche meglio nella recensione su HardOPC, dove si misura non con il benchmark, ma tramite l'esperienza di gioco -geniale-).

Vi sono anche poi alcune notazioni marginali che si possono fare:
a) Supporto per HDR a 32bit, ancora inusato dai giochi, ma supera quello a 16bit presente nelle ATI X1xx0 (la differenza qualitativa è piuttosto marcata).
b) Profondità di colore a 10bit, pareggio quindi con le ATI X1xx0; sarà utile con gli schermi che verranno.
c) L'architettura interna ha una "granularità" a 32 invece che a 48 (per le ATI X1xx0); maggior efficienza degli shader unificati.
d) Moduli GDDR3 invece dei più recenti GDDR4; questo lascia un buon margine per le future evoluzioni.
e) Processo produttivo a 90nm invece del più recente 80nm; anche qui ci sarà margine per miglioramenti (non è detto 80nm, sono possibili anche i 65nm).
f) Dissipatore meno rumoroso rispetto alle precedenti schede nVidia, e al concorrente AMD; misurazione che ad alcuni piace tanto (seppur per me rimanga un dato inutile).
g) Supporto per i calcoli fisici, per l'accelerazione dei calcoli matematici, possibile espandibilità con una terza scheda; interessanti, ma attualmente poco utili.
h) Doppia DVI Dual Link, è possibile veicolare fino a 2 monitor a 2560x1600 di risoluzione (prima era necessario usare entrambe le DVI per uno solo).
i) Filtro Anti-Aliasing 4x QUASI senza perdita di performance, grazie al fatto venga processato il tutto in una passata (fino ad ora quello in una passata era solo il 2x); vedere benchmark.
l) Per i più maligni: lancio con disponibilità immediata e in quantità generose, come da tradizione nVidia.

I punti deboli si possono condensare in questi:
x) Lunghezza totale; nel mio case ad esempio già non ci starebbe (forse, neppure la GTS).
y) Potenza assorbita maggiore di qualche punto percentuale rispetto alla top gamma AMD, che già consumava eccessivamente; è comunque giustificabile dati i punti (d) e (e), e per le prestazioni globali, che al contrario non sono maggiori di "solo" qualche punto percentuale.
z) Costo; ma questo era chiaro, non è certo una scheda per tutti, ma nulla di scoraggiante (mi ricordo soluzioni ancora più costose), soprattutto per chi fino adesso si è rivolto a configurazioni Crossfire o SLI (alternative che dopo aver letto questa recensione perdono di significato).


Ulteriori commenti previsionistici (confronto con R600, futura fascia media nVidia) io li soffocherei sul nascere, almeno fino a quando avremo effettivamente dati certi su cui discutere.


"The new King of the hill" (e sicuramente lo resterà per ancora qualche mese).


----------------------------------------------------


RISPOSTE AI COMMENTI:

- Questa scheda non è in anticipo, nVidia non si è "cacata sotto" per la fusione di AMD e ATI, e ha sfornato i "gattini ciechi". Ha seguito la sua solita roadmap, se seguite, sapete che successe LO STESSO con la Serie 7800.
Venne fuori giusto l'anno scorso, e anche allora non c'era concorrenza di ATI, che aveva ancora schede della serie vecchia, e infatti vendette una vagonata (anche se le "casacche rosse" giuravano che le vendite fossero infime, come no).
E' chiaro che poi questo anticipo, a meno di azioni sconsiderate, poi ti rimane sempre rispetto al concorrente, e a te giostrarlo come meglio credi...
- Il processo a 80nm, è un ibrido, non ha molto senso progettare una nuova GPU per quel processo anzi, non ne ha nessuno. E' verissimo che il chip è grossino... Inutile negare che prima o poi (direi, giusto in tempo per ATI, e le indiscrezioni infatti già parlano di un derivato di G80 per Febbraio) ci sia il die-shrink a 65nm.
Nulla di nuovo sotto al Sole, è sempre stato così, le schede di fascia alta si avvantaggiano inizialmente del processo collaudato, così si prende del tempo per affinare il die-shrink di/ed eventuali chip derivati, da collaudare poi nella fascia medio/bassa. Deja-vù? Certo, la già nominata 7800 ha avuto lo stesso iter (ma gli esempi sono molteplici).
- Il fatto che prestazionalmente il 16X AA sia simile al 4X, NON significa che qualitativamente siano uguali!!! La differenza è netta: http://www.guru3d.com/article/Videocards/391/6/ , http://www.anandtech.com/video/showdoc.aspx?i=2870&p=10 .
- ThePunisher, ho capito finalmente cosa intendono con "integrazione nei driver della tecnologia PureVideo": se usi un software compatibile (tipo Intervideo), non serve che scarichi il pacchetto decoder PureVideo, invece necessario se al tuo programma serve in forma di codec esterno.
- Riferito a Nemesis, ma non solo (sono famosi "commenti ciclichi"). Credo che ogni persona abbia diritto a spendere i soldi come più preferisci, così come ogni altra persona abba diritto a criticarla come più gli aggrada. La cosa fondamentale rimane però una: non importa come spendi i tuoi soldi, ma importa che dopo averli spesi, tu sia felice!!! Se dopo aver preso una 8800 a 600E, non ti senti in colpa, anche sapendo presto verrà deprezzata, ma anzi sei felice come un Bambino il giorno di Natale, bhe, perchè non farlo!!!

Un consiglio per tutti: il mondo è vasto e variopinto... Andate a guardare anche altre recensioni prima di mettervi a parlare (seriamente) di benchmark o altro, e ricordandovi che la qualità di immagine è migliore nella 8800 (l'Anisotropico 16X non è lo stesso delle ATI), quindi anche in caso di parità...
Giusto per esempio, rispetto a una X1950XTX ho visto un Tomb Raider Legend con AA 4x + HDR andare a 59.3 FPS invece che 25.1, e Oblivion, sempre AA 4x + HDR, a 46.6 invece che a 17 (da www.hardware.fr). Se la matematica non è un'opinione questi sono incrementi rispettivamente del 140% e del 170% sopra il top gamma AMD: e per alcuni non bastano! :rolleyes: .
Personalmente, mi farei un giretto su anandtech, ha probabilmente una delle recensioni migliori che ci sono in giro, anche solo per gli "screens comparison" e i grafici di "performance hit" e "performance per watt"...

Salut

aaasssdddfffggg
10-11-2006, 18:27
E' inutile cercare di paragonare adesso la 8800gtx a qualsiasi scheda che si trovi oggi in commercio.Fa parte di un'altra generazione appunto.E' superiore sia nel 3d che nella riproduzione video che nella qualita' dei filtri.Ma è normale che sia così.Chiunque sia già entrato in possesso di questo gioiello sono certo che non rimpiangerà i soldi versati.Ne sono più che sicuro.Un saluto.

Kharonte85
10-11-2006, 19:15
perchè quel "magico" numeretto che esce alla fine di un 3DMark è quanto di più inutile si possa concepire, in quanto lo si può ottenere in molteplici modi più o meno leciti (l'esempio più eclatante è stato quello di NV30 e clipping plane). Al contrario, sui singoli test sintetici non è possibile (o quanto meno è molto più complesso) e meno utile barare
Quel magico numeretto potrebbe aiutare molto in sezione: consigli per gli aquisti :D ...quando un utonto è incerto sulla vga da aquistare e io (sapendo come vanno anche nei giochi) se corrisponde gli posso postare il punteggio al 3dmark (che puntualmente mi devo andare a cercare fuori da Hupgrade :doh: ) tranne lo 06 ( :ncomment: ) cosi' si convince e non prende caxxate... :D

Resta in ogni caso una cosa in meno e una mancanza di Hupgrade (per fortuna si contano sulle dita della zampa di un cavallo :D ). ;)

i punteggi del 3DMark che RIPETO quindi sono UN INDICATORE (uno dei tanti) che, QUI SONO D'ACCORDO CON TE, visto da solo può non significare nulla, ma nel contesto di una recensione in cui sono presenti molteplici test di ogni natura assume il senso di completare il quadro.

quoto... :)

Kharonte85
10-11-2006, 19:20
ecco invece una Dx10 "pura" che tutto sembra fuorchè malriuscita.
Che sia "pura" lo sapremo solo coi game dx10...anche se sono convinto che lo sara' (Serie Fx insegna) ;)

MiKeLezZ
10-11-2006, 19:54
Che sia "pura" lo sapremo solo coi game dx10...anche se sono convinto che lo sara' (Serie Fx insegna) ;)
Con "pura" si vuole intende semplicemente un'architettura unificata.
Le DX10 non esplicitano che la scheda video debba necessariamente esser così progettata, è tuttavia implicito, dato che è possibile sfruttarle a pieno (ND: le DX10) unicamente con un'architettura del genere.
Ecco le virgolette, usate non a caso.
Che supporti "puramente" le DX10, ne abbiamo già certezza (in realtà, anche qualcosina più, dato l'HDR a 32-bit), COME lo farà, sarà il nostro indice prestazionale, ma più inerente all'efficienza progettuale interna, che non alle API (cioè a livello di codice di programmazione).
Ciao.

Kharonte85
10-11-2006, 19:55
Con "pura" si vuole intende semplicemente un'architettura unificata.
Le DX10 non esplicitano che la scheda video debba necessariamente esser così progettata, è tuttavia implicito, dato che è possibile sfruttarle a pieno unicamente con un'architettura del genere.
Ecco le virgolette, usate non a caso.
Che supporti "puramente" le DX10, ne abbiamo già certezza (in realtà, anche qualcosina più, dato l'HDR a 32-bit), COME lo farà, sarà il nostro indice prestazionale, ma più inerente all'efficienza progettuale interna, che non alle API (cioè a livello di codice di programmazione).
Ciao.
Ok...adesso è piu' chiaro...io mi riferivo proprio al COME che poi è quello che ci interessera' di piu' ;)

Deschutes
10-11-2006, 21:28
Lo spero anch'io ma ne dubito. La corsa fra Ati e NVidia all'aumento della potenza dissipata è in corso da un bel pò di tempo. Ci vorrebbe una sterzata come quella che fece l'AMD con gli Athlon 64 che in 2 anni ha costretto Intel a recedere dalla folle corsa ai Mhz/consumi.
QUOTO
Come detto nel mio precedente post la bestia 8800 gtx per stare a dormire in idle si mangia 188 watt, i molti watt in full load quando la scheda viene spremuta al max ci possono anke stare, ma almeno ati e nvidia potrebbero impegnarsi a far consumare meno le schede in idle.
Da notare la maggiore differenza consumo in watt tra idle e full load nella x1950xtx rispetto alle nvidiaò.
Ciao

DakmorNoland
10-11-2006, 23:03
Ho dato un'occhiata in giro per la rete e visto il prezzo + competitivo, i minori consumi e l'ottimo overclock, credo che sia consigliabile per gli interessati prendere una 8800GTS piuttosto che una 8800GTX. Si risparmiano minimo 150€ e si ha una scheda che in linea di massima sale di + in overclock, seppur rimanendo di poco sotto alla sorella maggiore...Cmq mi pare che la differenza specie con entrambe overcloccate non giustifichi il prezzo così distante. Poi fate voi! :D

Stig
10-11-2006, 23:17
Ho dato un'occhiata in giro per la rete e visto il prezzo + competitivo, i minori consumi e l'ottimo overclock, credo che sia consigliabile per gli interessati prendere una 8800GTS piuttosto che una 8800GTX. Si risparmiano minimo 150€ e si ha una scheda che in linea di massima sale di + in overclock, seppur rimanendo di poco sotto alla sorella maggiore...Cmq mi pare che la differenza specie con entrambe overcloccate non giustifichi il prezzo così distante. Poi fate voi! :D
purtroppo qui piu che di overclock maggiore la gtx ha una struttura proprio diversa dalla gts...
qui non bastera aumentare le freq come per le 7900gt verso le 7900gtx... :muro:

MiKeLezZ
10-11-2006, 23:31
Ho dato un'occhiata in giro per la rete e visto il prezzo + competitivo, i minori consumi e l'ottimo overclock, credo che sia consigliabile per gli interessati prendere una 8800GTS piuttosto che una 8800GTX. Si risparmiano minimo 150€ e si ha una scheda che in linea di massima sale di + in overclock, seppur rimanendo di poco sotto alla sorella maggiore...Cmq mi pare che la differenza specie con entrambe overcloccate non giustifichi il prezzo così distante. Poi fate voi! :D
Una recensione diceva "25% meno shader", "25% meno prestazioni", "25% meno costo". Quindi...

yossarian
11-11-2006, 00:40
Non mi sembra che il trend degli ultimi driver ne' da parte di ATI, ne' da parte di NVIDIA sia stato adoperarsi in questo senso (forse sempre per il discorso di credibilità?), anzi, credo che con un grafico (che non ho assolutamente voglia di fare, ma sono sicurissimo che puoi capirmi) possa essere dimostrato che come sono cresciuti i framerate medi dei titoli di ultima generazione in seguito a ottimizzazione via driver così anche i punteggi del 3DMark che RIPETO quindi sono UN INDICATORE (uno dei tanti) che, QUI SONO D'ACCORDO CON TE, visto da solo può non significare nulla, ma nel contesto di una recensione in cui sono presenti molteplici test di ogni natura assume il senso di completare il quadro.

P.S. = Possono essere fatti anche driver ad hoc per le timedemo standard dei giochi comunque se proprio vogliamo dirla tutta.

se vogliamo dirla veramente tutta si può fare cheating o ottimizzazione spinta anche in game (shader replacement di varia natura, tanto per fare un esempio).
Certo è che dopo clipping plane e 3DMurk, il punteggio finale del bench di futuremark ha conservato, come unica utilità e attrattiva, quella di permettere a qualcuno di fregiarsi di qualche record; magari può essere utile a fare prove di o/c senza dover ricorrere all'effettuazione di un gran numero di test. Ma in quanto ad attendibilità per valutare le performance di una vga, sia attuali che in prospettiva futura, vale praticamente zero. Sarà un caso (o forse no :D ), ma come test è sparito da tutte le maggiori testate online (non mi pare, a meno che non mi sia sfuggito qualcosa, di averlo visto nelle ultime rece di Anand, B3D, digit life, xbit, hardware.fr, 3dcenter, che pure danno uno spazio molto più ampio di quello di HWUpgrade ad altri tipi di test sintetici.

alexlionheart
11-11-2006, 08:45
non ho avuto voglia di leggere tutto il topic e vi volevo chiedere una roba
ma vi siete accorti che solo dalla rece di questo sito la 7950gx2 e' superiore alla 8800gtx?
mi sono letto otto recensioni su siti stranieri e 2 su siti italiani e la 8800gtx faceva SEMPRE + frames della sorella a 2 gpu e in alcuni casi eguagliava o superava un crossfire di 1950xtx
dove sta la verita'?

CosasNostras
11-11-2006, 10:25
non ho avuto voglia di leggere tutto il topic e vi volevo chiedere una roba
ma vi siete accorti che solo dalla rece di questo sito la 7950gx2 e' superiore alla 8800gtx?
mi sono letto otto recensioni su siti stranieri e 2 su siti italiani e la 8800gtx faceva SEMPRE + frames della sorella a 2 gpu e in alcuni casi eguagliava o superava un crossfire di 1950xtx
dove sta la verita'?
misteri dell'informatica

Kharonte85
11-11-2006, 10:47
non ho avuto voglia di leggere tutto il topic e vi volevo chiedere una roba
ma vi siete accorti che solo dalla rece di questo sito la 7950gx2 e' superiore alla 8800gtx?
mi sono letto otto recensioni su siti stranieri e 2 su siti italiani e la 8800gtx faceva SEMPRE + frames della sorella a 2 gpu e in alcuni casi eguagliava o superava un crossfire di 1950xtx
dove sta la verita'?
Me lo ero chiesto anche io... ;)

http://www.hwupgrade.it/forum/showpost.php?p=14609691&postcount=164

lumacone10
11-11-2006, 12:00
novità = directx 10.... pare ovvio, è stata studiata apposta, e poi vedrete che margini che avrà cn i nuovi giochi, credo pazzeschi proprio x il fatto che verranno ottimizzati di + ste schede qui, sarà una nuova era sicuramente... avremo una grafica CG in real time di sicuro... ciauz

DakmorNoland
11-11-2006, 12:05
Una recensione diceva "25% meno shader", "25% meno prestazioni", "25% meno costo". Quindi...

Ti dico solo che overcloccate, la 8800GTS fa 10200 al 3d mark 2006, la GTX 11500 circa, se per te 1500 punti in + al 3d mark 06 valgono 150-200€, beh allora lascia che ti dica che non te ne intendi molto. Ovviamente il 3d mark è cmq inaffidabile, quindi quella differenza potrebbe valere anche meno nei giochi veri, inoltre da notare che cmq stiamo parlando di punteggi oltre i 10000 punti, quindi una differenza di 1500 è ancora + insignificante...

Cmq se volete spendere assolutamente 1milione e mezzo per una scheda video quando potreste risparmiarne quasi 500.000 e avere le stesse prestazioni...accomodatevi. :D

MenageZero
11-11-2006, 12:28
menage zero:



vero... ma esiste anche il rapporto qualità/prezzo sai.. e io continuo a pensare che spendere 700e per una svid o 1000e per una cpu sia davvero esagerato per una persona "media"..klaro ke se sei "ricco" allora va bene tutto

mah.. se è per questo il rapporto qualità/prezzo o ancora meglio il rapporto <quello che ci devo fare io con una cosa>/prezzo interessa molto anche a me... e non è che abbia pdv da "ricco" da difendere dato che per esempio ora uso un pc, fatto per la maggior parte di pezzi usati, con axp 2GHz e r9600pro e non ho in programma upgrades neanche a lungo termine al momento...

ma non credo che si possa fare dei costi diretti o indiretti per una scheda come quella recensita uno specifico difetto "congenito" e generale del prodotto in quanto non mi pare che ci siano impennate tali da sovrastare nettamente quella che è sempre stata la norma e la tendenza nella specifica categoria di componenti

MenageZero
11-11-2006, 13:20
no; G80 ha unità scalari; un generico stream processor può avere unità scalari e/o vettoriali



tralasciando le SF e le eventuali operazioni di normalizzazione, ogni pixel pipeline di G7x può effettuare 2 MAD con unità 4+1; il che equivale a 20 flops; moltiplicato per 24 si hanno 480 flops per ciclo a cui si devono aggiungere le 80 dei VS. Le 128 unità di G80, invece sono capaci di una MAD + una ADD/MUL su un singolo dato a fp32; il che equivale a dire che ogni unità può eseguire 3 flops per ciclo, per un totale di 384 flops (contro le 560 di G7x). Però lo shader core di G80 lavora ad una frequenza praticamente doppia rispetto a quela di G7x. Questo senza tener conto della maggior efficienza complessiva del chip della non dipendenza tra texture fetch e operazioni matematiche, del notevole miglioramento nelle operazioni di HSR e di DB (quello di G7x era praticamente inutile se non addirittura controproducente in certe situazioni).

Questo, ovviamente, a livello teorico. Nella pratica, resta il fatto (che sostengo da qualche anno a questa parte, e questa né è la conferma definitiva), che un chip a shader unificati è molto più efficiente di uno a shader dedicati. :D

una singola unità a shader unificati è meno efficiente di una a shader dedicati nel compiere una specifica operazione (motivo per il quale il 100% dell'efficienza, che già non è raggiungibile nella singola operazione da un'unità dedicata, non è, a maggior ragione, raggiungibile da una unità e, di conseguenza, da un chip a shader unificati); questo perchè a monte e a valle di ogni unità ci sono delle unità che svolgono funzioni di controllo, decodifica e indirizamento dei dati in ingresso, in maggior quantità e di maggior complessità rispetto a quelle di un chip a shader dedicati. Questo si paga in termini di cicli di clock. In particolare, un chip superscalare, come G80, ha, a valle di ogni gruppo di unità di shading, un controller che "decide" se i dati elaborati appartengono o meno ad un vettore (e, in caso affermativo, di quanti componenti). Quindi aumenta ulteriormente la complessità rispetto ad un chip a shader unificati che fa uso di unità vettoriali; in compenso, aumenta la flessibilità d'impiego nel processare i dati

:ave:

yoss, dacci una tua "personalissima assolutamente svincolata da info non pubblicamente disponibili" opinione...

R600, per esempio nei test fatti da hwupg, farebbe poco/tanto meglio/peggio di G80 ?

chi farà meglio in dx10 ?

:sofico: :fiufiu:

MenageZero
11-11-2006, 13:30
Ti dico solo che overcloccate, la 8800GTS fa 10200 al 3d mark 2006, la GTX 11500 circa, se per te 1500 punti in + al 3d mark 06 valgono 150-200€, beh allora lascia che ti dica che non te ne intendi molto. Ovviamente il 3d mark è cmq inaffidabile, quindi quella differenza potrebbe valere anche meno nei giochi veri, inoltre da notare che cmq stiamo parlando di punteggi oltre i 10000 punti, quindi una differenza di 1500 è ancora + insignificante...

Cmq se volete spendere assolutamente 1milione e mezzo per una scheda video quando potreste risparmiarne quasi 500.000 e avere le stesse prestazioni...accomodatevi. :D

tralasciando il discorso generale se la gtx (o qualunque altra scheda) possa valere il suo prezzo o meno, riguarado a gtx vs gts dal pdv delle prestazioni, potrebbe essere molto opinabile che possano essere (soprattutto in futuro) quasi equivalenti, anche con una diffrenza in freq. molto più ridotta dopo averle overclockate entrambe:

1/4 di unità di calcolo in meno, non possono essere una differenza trascurabile, specie "sul campo" e con gli engine futuri che "stresseranno" di più anche il g80; inoltre yossarian, che possiamo tranquillamnte considerare una voce autorevole in materia, ha da pochi post cercato di spiegare come ormai i punteggi del 3dmark siano sostanzialmente insignificanti per "leggere" quelle che possono essere le effettive prestazioni nei giochi delle gpu, quindi non credo che ci sia da dare molto peso al confronto tra le due tramite il 3dmark...
;)

MiKeLezZ
11-11-2006, 13:31
:ave:

yoss, dacci una tua "personalissima assolutamente svincolata da info non pubblicamente disponibili" opinione...

R600, per esempio nei test fatti da hwupg, farebbe poco/tanto meglio/peggio di G80 ?

chi farà meglio in dx10 ?

:sofico: :fiufiu:
"Nei test fatti da hwupgrade"? Sembra una domanda retorica... :rolleyes:
non ho avuto voglia di leggere tutto il topic e vi volevo chiedere una roba
ma vi siete accorti che solo dalla rece di questo sito la 7950gx2 e' superiore alla 8800gtx?
mi sono letto otto recensioni su siti stranieri e 2 su siti italiani e la 8800gtx faceva SEMPRE + frames della sorella a 2 gpu e in alcuni casi eguagliava o superava un crossfire di 1950xtx
dove sta la verita'?
E' un quesito di molti, anche io ho detto di guardarsi in giro.. La verità solitamente sta in quello che la maggior parte delle persone dice..
Ti dico solo che overcloccate, la 8800GTS fa 10200 al 3d mark 2006, la GTX 11500 circa, se per te 1500 punti in + al 3d mark 06 valgono 150-200€, beh allora lascia che ti dica che non te ne intendi molto. Ovviamente il 3d mark è cmq inaffidabile, quindi quella differenza potrebbe valere anche meno nei giochi veri, inoltre da notare che cmq stiamo parlando di punteggi oltre i 10000 punti, quindi una differenza di 1500 è ancora + insignificante...

Cmq se volete spendere assolutamente 1milione e mezzo per una scheda video quando potreste risparmiarne quasi 500.000 e avere le stesse prestazioni...accomodatevi. :D
Mi confronti la GTS overcloccata con la GTX di default?
Mele con mele e pere con pere, se la confronti OC, devi OC anche la GTX, e siamo alla solita differenza del 25%.
Spendi il 25% in più, e hai il 25% di architettura in più, che porta il 25% di prestazioni in più.
C'è poco da rimaneggiarla, è così.

Al massimo si può dire che una GTS "basta e avanza", ma non che il prezzo della GTX sia ingiustificato.

capitan_crasy
11-11-2006, 13:32
:ave:

yoss, dacci una tua "personalissima assolutamente svincolata da info non pubblicamente disponibili" opinione...

R600, per esempio nei test fatti da hwupg, farebbe poco/tanto meglio/peggio di G80 ?

chi farà meglio in dx10 ?

:sofico: :fiufiu:
e già che ci sei dicci quando fa un quad core K8L in superPI... :D :sofico: :read:

MenageZero
11-11-2006, 13:35
io ho praticamente chiesto solo di tirare ad indovinare qualitativamente, chiunque può farlo :O :Perfido: :D

DakmorNoland
11-11-2006, 13:40
tralasciando il discorso generale se la gtx (o qualunque altra scheda) possa valere il suo prezzo o meno, riguarado a gtx vs gts dal pdv delle prestazioni, potrebbe essere molto opinabile che possano essere (soprattutto in futuro) quasi equivalenti, anche con una diffrenza in freq. molto più ridotta dopo averle overclockate entrambe:

1/4 di unità di calcolo in meno, non possono essere una differenza trascurabile, specie "sul campo" e con gli engine futuri che "stresseranno" di più anche il g80; inoltre yossarian, che possiamo tranquillamnte considerare una voce autorevole in materia, ha da pochi post cercato di spiegare come ormai i punteggi del 3dmark siano sostanzialmente insignificanti per "leggere" quelle che possono essere le effettive prestazioni nei giochi delle gpu, quindi non credo che ci sia da dare molto peso al confronto tra le due tramite il 3dmark...
;)

Io invece credo che con i giochi futuri DX10 e non il distacco tra GTS e GTX si ridurrà sempre +. Basta guardare indietro, è sempre stato così....

Sulla non affidibilità dei 3d mark 2006 sono d'accordo, però per confrontare due schede con architetture simili credo siano ancora discretamente affidabili.



Al massimo si può dire che una GTS "basta e avanza", ma non che il prezzo della GTX sia ingiustificato.

Il prezzo è totalmente ingiustificato, come lo è quello delle CPU top di gamma.

MiKeLezZ
11-11-2006, 13:41
io ho praticamente chiesto solo di tirare ad indovinare qualitativamente, chiunque può farlo :O :Perfido: :DCon l'architettura unificata come si è visto è molto più semplice fare un confronto... Fai un rapporto con l'attuale numero di shader rispetto alle prestazioni confrontandolo con il futuro numero di shader rispetto all'incognita prestazioni future.
Ergo, dato che probabilmente non ci saranno cambi sostanziali di architettura, se raddoppiano gli shader possiamo dire che raddoppieranno le prestazioni.
Io invece credo che con i giochi futuri DX10 e non il distacco tra GTS e GTX si ridurrà sempre +. Basta guardare indietro, è sempre stato così....

Sulla non affidibilità dei 3d mark 2006 sono d'accordo, però per confrontare due schede con architetture simili credo siano ancora discretamente affidabili.
Credo invece sarà proprio il contrario: con l'introduzione delle DX10 il distacco non cambierà, se non lievemente in peggio.

MenageZero
11-11-2006, 13:47
"Nei test fatti da hwupgrade"? Sembra una domanda retorica... :rolleyes:
scusa, spiega... :wtf:

la mia domanda è per ovvi motivi nei termini più generici possibili... ;)

poi menziono i "test fatti da hwupgrade" semplicemente per intendere con gli specifici test effettuati nella rece che stiamo commentando (dato anche che al momento ho letto solo questa) e solo per dare un riferimento concreto qualunque nel caso yoss voglia rispondere (affinché non debba rispondere per prima cosa "dipende da cosa esegui", ma non è che che mi aspetti che risponda quantitativamente, chiedevo solo una "opinionm generica", appunto :D)

MenageZero
11-11-2006, 14:13
Con l'architettura unificata come si è visto è molto più semplice fare un confronto... Fai un rapporto con l'attuale numero di shader rispetto alle prestazioni confrontandolo con il futuro numero di shader rispetto all'incognita prestazioni future.
Ergo, dato che probabilmente non ci saranno cambi sostanziali di architettura, se raddoppiano gli shader possiamo dire che raddoppieranno le prestazioni.

cioè ipotizzi che r600 sostanzialmente avrà risorse di calcolo e +/- anche prstazioni doppie rispetto a g80 ? cmq io domandavo a yoss proprio di "pronosticare" su r600 vs g80, per quando ormai si saprà per certo quasi come è fatto r600, ci saranno anch i primi test, ufficiali o meno, +/- come è successo per g80 credo :D

DakmorNoland
11-11-2006, 14:20
Credo invece sarà proprio il contrario: con l'introduzione delle DX10 il distacco non cambierà, se non lievemente in peggio.

Sbagli sicuramente...

Cmq devo dire che come community, a parte qualcuno, mi avete un pò deluso per quanto riguarda i commenti su G80. Sicuramente è una GPU dalle enormi potenzialità, poi capisco che possa stupire che sia frutto di Nvidia! :D
Però vi siete sbilanciati troppo. Alla fine non abbiamo termini di paragone! Anche la recensione senz'altro ben fatta ha favorito questa tendenza, dipingendo la G80 come una meraviglia tecnologica! :rolleyes: Che poi a guardar bene alla fine ha quell'incremento di prestazioni che si ha sempre nel passaggio da una generazione all'altra, quindi per niente così eclatante. I consumi anche se buoni tutto sommato, non sono poi così bassi!

Inoltre come al solito c'è chi si è fatto fregare e che non ha capito che la differenza reale tra GTS e GTX è minima, tanto meglio per le tasche di Nvidia :D

Ati intanto lavora ed è arrivata da poco la notizia che le prime R600 sono state sfornate, e non dovrebbero esserci ritardi visto che vanno come devono. E forse anche tutte quelle voci su consumi spropositati sono solo voci, come lo erano certe su G80. La gara è ancora aperta ed ATI non si accontenterà del secondo posto! :)

halduemilauno
11-11-2006, 14:22
Ti dico solo che overcloccate, la 8800GTS fa 10200 al 3d mark 2006, la GTX 11500 circa, se per te 1500 punti in + al 3d mark 06 valgono 150-200€, beh allora lascia che ti dica che non te ne intendi molto. Ovviamente il 3d mark è cmq inaffidabile, quindi quella differenza potrebbe valere anche meno nei giochi veri, inoltre da notare che cmq stiamo parlando di punteggi oltre i 10000 punti, quindi una differenza di 1500 è ancora + insignificante...

Cmq se volete spendere assolutamente 1milione e mezzo per una scheda video quando potreste risparmiarne quasi 500.000 e avere le stesse prestazioni...accomodatevi. :D

certo detto da uno che ha la x1800gto2...ovvero il flop(in fascia alta) degli ultimi due anni.
:boh:

halduemilauno
11-11-2006, 14:26
Sbagli sicuramente...

Cmq devo dire che come community, a parte qualcuno, mi avete un pò deluso per quanto riguarda i commenti su G80. Sicuramente è una GPU dalle enormi potenzialità, poi capisco che possa stupire che sia frutto di Nvidia! :D
Però vi siete sbilanciati troppo. Alla fine non abbiamo termini di paragone! Anche la recensione senz'altro ben fatta ha favorito questa tendenza, dipingendo la G80 come una meraviglia tecnologica! :rolleyes: Che poi a guardar bene alla fine ha quell'incremento di prestazioni che si ha sempre nel passaggio da una generazione all'altra, quindi per niente così eclatante. I consumi anche se buoni tutto sommato, non sono poi così bassi!

Inoltre come al solito c'è chi si è fatto fregare e che non ha capito che la differenza reale tra GTS e GTX è minima, tanto meglio per le tasche di Nvidia :D

Ati intanto lavora ed è arrivata da poco la notizia che le prime R600 sono state sfornate, e non dovrebbero esserci ritardi visto che vanno come devono. E forse anche tutte quelle voci su consumi spropositati sono solo voci, come lo erano certe su G80. La gara è ancora aperta ed ATI non si accontenterà del secondo posto! :)


invece si. si sono accorti che sono troppo lunghe e le devono accorciare.
http://www.vr-zone.com/?i=4293
si parla di riprogettazione per accorciarle e raffreddarle meglio. e secondo te non ci dovrebbero essere ritardi. e la news cita anche i consumi.
:Prrr:

halduemilauno
11-11-2006, 14:28
cioè ipotizzi che r600 sostanzialmente avrà risorse di calcolo e +/- anche prstazioni doppie rispetto a g80 ? cmq io domandavo a yoss proprio di "pronosticare" su r600 vs g80, per quando ormai si saprà per certo quasi come è fatto r600, ci saranno anch i primi test, ufficiali o meno, +/- come è successo per g80 credo :D

credo che si riferiva alle x1900xtx/x1950xtx.
;)

DakmorNoland
11-11-2006, 14:31
certo detto da uno che ha la x1800gto2...ovvero il flop(in fascia alta) degli ultimi due anni.
:boh:

Ahahahah Vedo che anche tu ami parlare di cose di cui non sai bene... :rolleyes:

La x1800gto2 è una x1800xt 512MB downcloccata ad XL. A default va come una XL, con il vantaggio di consumare molto meno, visto il voltaggio della gpu a 1.1, anzichè 1.3-1.4 come sulla XT! Inoltre senza bisogno di flasharla per forza ad XT, in overclock con voltaggi a default quindi minori della XT, arriva alle stesse prestazioni! Quindi supera nettamente le varie 7900gs, gt, ecc.! Che erano vendute a prezzi molto + alti! 285 contro soli 230€! Quindi...

halduemilauno
11-11-2006, 14:35
Ahahahah Vedo che anche tu ami parlare di cose di cui non sai bene... :rolleyes:

La x1800gto2 è una x1800xt 512MB downcloccata ad XL. A default va come una XL, con il vantaggio di consumare molto meno, visto il voltaggio della gpu a 1.1, anzichè 1.3-1.4 come sulla XT! Inoltre senza bisogno di flasharla per forza ad XT, in overclock con voltaggi a default quindi minori della XT, arriva alle stesse prestazioni! Quindi supera nettamente le varie 7900gs, gt, ecc.! Che erano vendute a prezzi molto + alti! 285 contro soli 230€! Quindi...

sempre un flop è. perchè una scheda annunciata a settembre, presentata a ottobre, disponibile a novembre, sostituita a gennaio di flop si deve parlare. e questo perchè ati a quel punto ha tardato di un mese la sua uscita perchè i suoi partner gia si stavano incazzando di brutto.
ho fatto un'aggiunta al mio post precedente.

DakmorNoland
11-11-2006, 14:42
sempre un flop è. perchè una scheda annunciata a settembre, presentata a ottobre, disponibile a novembre, sostituita a gennaio di flop si deve parlare. e questo perchè ati a quel punto ha tardato di un mese la sua uscita perchè i suoi partner gia si stavano incazzando di brutto.
ho fatto un'aggiunta al mio post precedente.

Mi sa che sei informato male! La x1800gto2 non è stata voluta da ATI, ma da Sapphire!!!! Infatti ne esistono solo di questo produttore! Inoltre come c'è scritto anche sulla scatola si tratta di un'edizione limitata...Non è stato per niente un flop, appena sono uscite erano già finite!!! Si sono fiondati tutti a comprarle, conoscendone l'enorme potenziale e visto l'ottimo prezzo! Ancora adesso in overclock, stanno davanti alle nuove x1950pro.

MiKeLezZ
11-11-2006, 14:49
Sbagli sicuramente...

Cmq devo dire che come community, a parte qualcuno, mi avete un pò deluso per quanto riguarda i commenti su G80. Sicuramente è una GPU dalle enormi potenzialità, poi capisco che possa stupire che sia frutto di Nvidia! :D
Però vi siete sbilanciati troppo. Alla fine non abbiamo termini di paragone! Anche la recensione senz'altro ben fatta ha favorito questa tendenza, dipingendo la G80 come una meraviglia tecnologica! :rolleyes: Che poi a guardar bene alla fine ha quell'incremento di prestazioni che si ha sempre nel passaggio da una generazione all'altra, quindi per niente così eclatante. I consumi anche se buoni tutto sommato, non sono poi così bassi!

Inoltre come al solito c'è chi si è fatto fregare e che non ha capito che la differenza reale tra GTS e GTX è minima, tanto meglio per le tasche di Nvidia :D

Ati intanto lavora ed è arrivata da poco la notizia che le prime R600 sono state sfornate, e non dovrebbero esserci ritardi visto che vanno come devono. E forse anche tutte quelle voci su consumi spropositati sono solo voci, come lo erano certe su G80. La gara è ancora aperta ed ATI non si accontenterà del secondo posto! :)
Perchè sbaglio? Riesci ad argomentarlo? Io sì.
Ogni reply che scrivi dai contro a qualcuno, adesso te la prendi addirittura con l'intero forum; non è proprio un bel biglietto da visita.
scusa, spiega... :wtf:

la mia domanda è per ovvi motivi nei termini più generici possibili... ;)

poi menziono i "test fatti da hwupgrade" semplicemente per intendere con gli specifici test effettuati nella rece che stiamo commentando (dato anche che al momento ho letto solo questa) e solo per dare un riferimento concreto qualunque nel caso yoss voglia rispondere (affinché non debba rispondere per prima cosa "dipende da cosa esegui", ma non è che che mi aspetti che risponda quantitativamente, chiedevo solo una "opinionm generica", appunto :D)Meglio di no.
Chi ha orecchie.. Ha orecchie!! :D
cioè ipotizzi che r600 sostanzialmente avrà risorse di calcolo e +/- anche prstazioni doppie rispetto a g80 ? cmq io domandavo a yoss proprio di "pronosticare" su r600 vs g80, per quando ormai si saprà per certo quasi come è fatto r600, ci saranno anch i primi test, ufficiali o meno, +/- come è successo per g80 credo :D
No; era un esempio.
Il raddoppio era inteso rispetto alla attuale X1950XTX.

halduemilauno
11-11-2006, 14:51
Mi sa che sei informato male! La x1800gto2 non è stata voluta da ATI, ma da Sapphire!!!! Infatti ne esistono solo di questo produttore! Inoltre come c'è scritto anche sulla scatola si tratta di un'edizione limitata...Non è stato per niente un flop, appena sono uscite erano già finite!!! Si sono fiondati tutti a comprarle, conoscendone l'enorme potenziale e visto l'ottimo prezzo! Ancora adesso in overclock, stanno davanti alle nuove x1950pro.


sempre flop è. anzi sono. tutte. una scheda che per colpa del suo ritardo è nata morta. e solo i religiosi atisti se la potevano comprare. io ve l'avevo detto aspettate le x1900 che stanno per arrivare. invece...
certo finite con quei tempi industriali/commerciali son state prodotte col contagocce.

DakmorNoland
11-11-2006, 15:05
Perchè sbaglio? Riesci ad argomentarlo? Io sì.
Ogni reply che scrivi dai contro a qualcuno, adesso te la prendi addirittura con l'intero forum; non è proprio un bel biglietto da visita.

Guarda non mi interessa risultare simpatico, o come fanno molti adeguarmi perchè magari non hanno il coraggio di mettersi contro le opinioni della maggioranza...;)

Cmq non sto dicendo che la G80 non sia una buona scheda video, ma non è tutta sta cosa come è stata dipinta. E' una normalissima scheda di generazione successiva! All'inizio si sa sembrano tutte cose fantascientifiche e vengono dipinte come tali, ma persone come noi che sono anni che seguono l'hardware pc, dovrebbero commentare con maggior accortezza.

Infatti per ora sappiamo solo che questa scheda va un pò meglio in DX9 e sottolineo un pò! Di come va in DX10 non si sa nulla! E in + non abbiamo termini di paragone!
Poi magari R600 sarà ancora peggio! Non dico il contrario, però bisogna dare tempo al tempo e non buttarsi in commenti entusiasti quando ancora non si ha una "visuale completa".

Cmq per la storia GTS - GTX, è una mia opinione avendo visto diversi test e vedendo come si assottiglia la differenza tra due schede video così vicine con il passare del tempo.
Tuttavia la GTS era consigliata anche da persone che hanno recensito entrambe le schede su altri siti, e che quindi hanno avuto la possibilità di rendersi conto che la differenza è minima e non giustifica il prezzo.

MenageZero
11-11-2006, 15:15
...
I consumi anche se buoni tutto sommato, non sono poi così bassi!
...
non è per darti contro eh, ma, oltre che i consumi in assoluto sono tutt'altro che buoni, non credo che qualcuno potesse/possa aspettarsi diversamente per una top di gamma di nuova generazione (dove quindi la casa è "obbligata" a realizzare incrementi di prestazione molto netti e quindi a darci dentro anche con il num di transistor e/o frequenze)realizzata con lo stesso processo produttivo delle ultime top di gamma della generazione precedente, e soprattutto sei sicuro che nella recensione o nel thread si parli da qualche parte di consumi bassi per g80 ? :wtf:

tieni poi conto anche che spesso la redazione o anche la maggioranza degli utenti viene alternativamente, più o meno implicitamente, "accusata" di essere troppo "pro ati" o "pro nv", quindi non è poi così semplice stabilire quali siano le "badiere collettive" o "aziendali", ammesso che ci siano ;)

MiKeLezZ
11-11-2006, 17:35
Guarda non mi interessa risultare simpatico, o come fanno molti adeguarmi perchè magari non hanno il coraggio di mettersi contro le opinioni della maggioranza...;)

Cmq non sto dicendo che la G80 non sia una buona scheda video, ma non è tutta sta cosa come è stata dipinta. E' una normalissima scheda di generazione successiva! All'inizio si sa sembrano tutte cose fantascientifiche e vengono dipinte come tali, ma persone come noi che sono anni che seguono l'hardware pc, dovrebbero commentare con maggior accortezza.

Infatti per ora sappiamo solo che questa scheda va un pò meglio in DX9 e sottolineo un pò! Di come va in DX10 non si sa nulla! E in + non abbiamo termini di paragone!
Poi magari R600 sarà ancora peggio! Non dico il contrario, però bisogna dare tempo al tempo e non buttarsi in commenti entusiasti quando ancora non si ha una "visuale completa".

Cmq per la storia GTS - GTX, è una mia opinione avendo visto diversi test e vedendo come si assottiglia la differenza tra due schede video così vicine con il passare del tempo.
Tuttavia la GTS era consigliata anche da persone che hanno recensito entrambe le schede su altri siti, e che quindi hanno avuto la possibilità di rendersi conto che la differenza è minima e non giustifica il prezzo.
Veramente queste che hai appena letto, sono solo metà delle recensioni che andrebbero fatte su questa scheda; c'è tutto un comportamento con DX10 che evidemente con altre schede non sarebbe possibile.
Inoltre ci sono parecchie evoluzioni, che gratificano la scheda con qualcosa oltre l'unico appellativo di "giusto migliorata in performance", visto che queste performance in più portano con sé anche un AA 2X/4X GRATIS, un AA 16X PAPABILE, un filtro anisotropico dalla qualità mai vista, un HDR che impatta molto poco sulle prestazioni (e altre meno importanti, come la dual link).
Poi, sono schede video, questo possono fare... So che sarebbe strabiliante se ballassero la macarena oppure cantassero anche una sereneta (per quello sembra però si stiano attrezzando, visto il buzzer integrato :D ) quindi già un "banale" incremento del doppio rispetto alla generazione passata, senza introdurre novità, non sarebbe male. Per i processori, per esempio, si è sempre parlato, a titolo di confronto, di incrementi nell'ordine del 15% / 30% massimo...

psychok9
11-11-2006, 17:53
Sarà ma io queste novità tecniche che fanno gridare al miracolo non le vedo...
Bello il miglioramento con filtro AF, ma credo sia dovuto ad 1 miglioramento software più pesante e più gestibile dal bus a 320-384bit.
Per l'HDR... era ora!!! :rolleyes:

p.s. I consumi sono proprio assurdi... e ATi andrà nella stessa direzione :doh:. Inizio a pensare che troppa concorrenza fa male...!

GigiDagostino
11-11-2006, 17:56
sempre flop è.
vabè ciao allora...

WoOz7598
11-11-2006, 19:36
Scusate vorrei che mi rassicuraste su di un punto...
Ho letto che una 8800 consuma 180 watts in idle. Supponendo di essere online 24/7 vuol dire che devo spendere 60/70 euro di bolletta per il solo PC?

PS Oblivion gira a 32 frame sul 1600x1200, che non è un granchè... BTW credo che la grossa differenza si vedrà con l'arrivo delle DX10.

DakmorNoland
11-11-2006, 19:39
Scusate vorrei che mi rassicuraste su di un punto...
Ho letto che una 8800 consuma 180 watts in idle. Supponendo di essere online 24/7 vuol dire che devo spendere 60/70 euro di bolletta per il solo PC?

No ma è il consumo complessivo di tutto il pc! ;) Non della sola 8800 :p Che dovrebbe stare sui 140W in full.

Dj Antonino
11-11-2006, 19:49
Scusate vorrei che mi rassicuraste su di un punto...
Ho letto che una 8800 consuma 180 watts in idle. Supponendo di essere online 24/7 vuol dire che devo spendere 60/70 euro di bolletta per il solo PC?

PS Oblivion gira a 32 frame sul 1600x1200, che non è un granchè... BTW credo che la grossa differenza si vedrà con l'arrivo delle DX10.
veramente a 1600*1200 con 8x AA e 16 AF con HDR attivato, chiaramente tutto al massimo compreso self shadows e ombre sull'erba, fa quasi 50 fps una 8800 gtx--
http://enthusiast.hardocp.com/article.html?art=MTIxOCwxMCwsaGVudGh1c2lhc3Q=
:read:

ThePunisher
11-11-2006, 20:29
veramente a 1600*1200 con 8x AA e 16 AF con HDR attivato, chiaramente tutto al massimo compreso self shadows e ombre sull'erba, fa quasi 50 fps una 8800 gtx--
http://enthusiast.hardocp.com/article.html?art=MTIxOCwxMCwsaGVudGh1c2lhc3Q=
:read:
Mi pare non si possa ancora abilitare AA+HDR su Oblivion.

Apple80
11-11-2006, 20:31
E' una normalissima scheda di generazione successiva! All'inizio si sa sembrano tutte cose fantascientifiche e vengono dipinte come tali, ma persone come noi che sono anni che seguono l'hardware pc, dovrebbero commentare con maggior accortezza.

Infatti per ora sappiamo solo che questa scheda va un pò meglio in DX9 e sottolineo un pò! Di come va in DX10 non si sa nulla! E in + non abbiamo termini di paragone!
Poi magari R600 sarà ancora peggio! Non dico il contrario, però bisogna dare tempo al tempo e non buttarsi in commenti entusiasti quando ancora non si ha una "visuale completa".







http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_11.html




http://www.hwupgrade.it/articoli/skvideo/1597/fear_3.png



http://www.hwupgrade.it/articoli/skvideo/1597/hl2_ep1_2.png


http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_22.html


è un buon inizio..quello che ci sta facendo vedere ora è una minima parte delle sue potenzialità.
per nvidia è un bel salto. Ha surclassato le Ati nei filtri di ben 4 volte superiore ,dove hanno smpre primeggiato.
Con l'HDR AA e AF tirati , non c'è una grossa perdita nei frame.
Parliamo di una scheda video di nuova generazione con dirver non del tutto ottimizzatti (visto che è da anni che segui hw,dovresti sapere la stoira delle 9700pro appena uscite,2-3 driver al mese ). Infatti la 8800GTX non è supportata dal gioco splinter cell double agent. Dai tempo al tempo. è una scheda video del tutto nuova,che non centra nulla con la tecnologia precedente,e per questo la stiamo testando con giochi che sono stati programmti per le sv precedenti. Qui non esisitono pixel vertex. o pipeline. Orà sarà compito di nvidia lavorare su ogni gioco già uscito e magari con l'aiuto delle sf dei propi giochi.
Anche i dual core,usciti più di un anno fà non davano quel salto di prestazioni... e grazie,non c'erano manco i programmi per l'editing che li sfruttassero.
Dal lato tecnologico è unabelva questa scheda. Ora dobbiamo aspettare che ottimizzino i driver,escano patch apposite e giochi che la sfrutti a pieno. Visto che seguo hw da anni pure io... e ripeto.con la 9700pro.... ogni 10 gg uscivano dirver che ottimizzavano i giochi.

Dj Antonino
11-11-2006, 20:33
Mi pare non si possa ancora abilitare AA+HDR su Oblivion.
..."We then started experimenting with the different antialiasing modes since all of them work in Oblivion with HDR enabled. You do have to set the driver control panel to “override the application setting” though and force the AA level from the control panel, which is perfectly fine since it allows you to try out the CSAA levels of 8X, 16X and 16xQ."...
http://enthusiast.hardocp.com/article.html?art=MTIxOCwxMCwsaGVudGh1c2lhc3Q=
:read: :D

Apple80
11-11-2006, 21:06
veramente a 1600*1200 con 8x AA e 16 AF con HDR attivato, chiaramente tutto al massimo compreso self shadows e ombre sull'erba, fa quasi 50 fps una 8800 gtx--
http://enthusiast.hardocp.com/article.html?art=MTIxOCwxMCwsaGVudGh1c2lhc3Q=
:read:

Oblivion 1600x1200 Tutto manetta HDR+AA4x forzato via driver



Frames, Time (ms), Min, Max, Avg
7920, 120000, 28, 114, 66.000


FPS
60 57 59 50 40 38 51 54 55 60 62 63 64 57 54 59 58 61 62 62 59 62 57 58 3865 74 77 77 79 75 62 81 86 92 78 83 87 84 91 85 88 83 81 81 82 80 88 99 100 98 99 99 100 100 108 111 106 86 84 80 82 88 78 78 75 81 42 52 56 67 65 61 67


Foto


http://img139.imageshack.us/img139/6696/oblivion1qf5.th.jpg (http://img139.imageshack.us/my.php?image=oblivion1qf5.jpg)http://img174.imageshack.us/img174/7548/oblivion2ct7.th.jpg (http://img174.imageshack.us/my.php?image=oblivion2ct7.jpg)http://img85.imageshack.us/img85/3351/oblivion3ej2.th.jpg (http://img85.imageshack.us/my.php?image=oblivion3ej2.jpg)



qui trovi altri test fatti da mè.

http://www.hwupgrade.it/forum/showthread.php?t=1326385&page=1&pp=20



anche tomb raider legend a 1920x1080.

Dj Antonino
11-11-2006, 21:22
li avevo già visti i tuoi test e infatti sono rimasto così :sbavvv:

halduemilauno
11-11-2006, 22:35
vabè ciao allora...

chiariamo il concetto si tratta di flop(e manco piccolo)dal punto di vista commerciale. la sequela temporale che ho postato è eloquente. una scheda che viene sostituita dopo appena due mesi dalla sua uscita commerciale è per definizione un flop.

WoOz7598
11-11-2006, 22:51
No ma è il consumo complessivo di tutto il pc! Non della sola 8800 Che dovrebbe stare sui 140W in full.

Se lascio il PC acceso e vado a dormire, con un quad core e una SLI con 3 G8800GTX, più tutto il ventolame vario quanto consumo all'ora 500 o 140 watts?

Se no magari mi conviene tenere il vecchio PC a fare il muletto...

DakmorNoland
11-11-2006, 22:53
chiariamo il concetto si tratta di flop(e manco piccolo)dal punto di vista commerciale. la sequela temporale che ho postato è eloquente. una scheda che viene sostituita dopo appena due mesi dalla sua uscita commerciale è per definizione un flop.

E' stata volutamente un'edizione limitata, non mi sembra difficile da comprendere! :rolleyes:

halduemilauno
11-11-2006, 23:00
E' stata volutamente un'edizione limitata, non mi sembra difficile da comprendere! :rolleyes:

no. quella è stata una conseguenza dell'enorme ritardo accumulato. flop. io lo avevo detto non ve la comprate che fra un pò escono le x1900. ma quando uno è integralista...o si dice atigralista?

DakmorNoland
11-11-2006, 23:04
no. quella è stata una conseguenza dell'enorme ritardo accumulato. flop. io lo avevo detto non ve la comprate che fra un pò escono le x1900. ma quando uno è integralista...o si dice atigralista?

Ma cosa dici??? :confused: Guarda che le x1900 c'erano già da un pezzo! :D

Mi sa che fai un pò di confusione, forse ti riferisci al ritardo dell'uscita della x1800xt 512MB! :p

Le x1800gto2 sono uscite molto dopo, ed erano le migliori schede video per il rapporto prezzo/prestazioni! Per 230 euro avevi una x1800xt 512!! Che andava meglio della 7900GT che al tempo stava sui 285euro!!! Altro che flop! Poi cmq se vedi bene i test la differenza tra x1900xt e 1800xt non è così marcata, ma questo è un altro discorso ;)

Foglia Morta
11-11-2006, 23:06
no. quella è stata una conseguenza dell'enorme ritardo accumulato. flop. io lo avevo detto non ve la comprate che fra un pò escono le x1900. ma quando uno è integralista...o si dice atigralista?
spero tu stia facendo finta di non capire... la GTO2 quando era venduta costava come la X1800 XT 256MB o poco meno ,quest'ultima superiore alla 7900GT . Perchè paragonarla alla X1900 XT quando erano 2 fasce di prezzo completamente diverse ? Che R520 nel complesso abbia venduto poco è pacifico , ma bisogna comprare una scheda perchè la comprano tutti o perchè ha il miglior rapporto qualità prezzo ? Questo è il punto.

halduemilauno
11-11-2006, 23:13
spero tu stia facendo finta di non capire... la GTO2 quando era venduta costava come la X1800 XT 256MB o poco meno ,quest'ultima superiore alla 7900GT . Perchè paragonarla alla X1900 XT quando erano 2 fasce di prezzo completamente diverse ? Che R520 nel complesso abbia venduto poco è pacifico , ma bisogna comprare una scheda perchè la comprano tutti o perchè ha il miglior rapporto qualità prezzo ? Questo è il punto.

Che R520 nel complesso abbia venduto poco è pacifico
ed è quello che vado sostenendo.

ma bisogna comprare una scheda perchè la comprano tutti o perchè ha il miglior rapporto qualità prezzo ?
se ha venduto poco...sto miglior rapporto qualità/prezzo è andato a farsi benedire.
r520 un flop. se la stessa casa madre l'ha sostituita dopo due mesi che vi volete inventare. volete darvi una ragione per i soldi spesi? datevela.
:mc:

halduemilauno
11-11-2006, 23:19
Ma cosa dici??? :confused: Guarda che le x1900 c'erano già da un pezzo! :D

Mi sa che fai un pò di confusione, forse ti riferisci al ritardo dell'uscita della x1800xt 512MB! :p

Le x1800gto2 sono uscite molto dopo, ed erano le migliori schede video per il rapporto prezzo/prestazioni! Per 230 euro avevi una x1800xt 512!! Che andava meglio della 7900GT che al tempo stava sui 285euro!!! Altro che flop! Poi cmq se vedi bene i test la differenza tra x1900xt e 1800xt non è così marcata, ma questo è un altro discorso ;)

pensa a che punto arrivi. per giustificare la x1800xt sostieni che tra essa e la x1900xt c'è una differenza poco marcata. ma come avete sbomballato los pelotas per la faccenda delle 48 al posto delle 16.
poi ma perchè mi citi le nvidia? io ho detto potevate aspettare per farvi le x1900.
cmq basta ot se vi va parlate della 8800gtx. se vi va.

Foglia Morta
11-11-2006, 23:19
Che R520 nel complesso abbia venduto poco è pacifico
ed è quello che vado sostenendo.

ma bisogna comprare una scheda perchè la comprano tutti o perchè ha il miglior rapporto qualità prezzo ?
se ha venduto poco...sto miglior rapporto qualità/prezzo è andato a farsi benedire.
r520 un flop. se la stessa casa madre l'ha sostituita dopo due mesi che vi volete inventare. volete darvi una ragione per i soldi spesi? datevela.
:mc:
:mbe:

Apple80
12-11-2006, 00:54
chiariamo il concetto si tratta di flop(e manco piccolo)dal punto di vista commerciale. la sequela temporale che ho postato è eloquente. una scheda che viene sostituita dopo appena due mesi dalla sua uscita commerciale è per definizione un flop.


parli della X1800 X1900?

MiKeLezZ
12-11-2006, 01:08
Il flop lo ha fatto ATI più che altro.
Dopo che nVidia gli ha mangiato le vendite, è stata costretta a lanciare innumerevoli schede, tutte tiratissime e dai costi di produzione elevati.
Infatti se il core della Serie 7 è di grandezza circa la metà di quello Serie X1, significa che ATI spende circa il doppio per farlo, aggiungiamoci le GDDR4, aggiungiamoci che vende con margini mooolto ridotti...
Sta inseguendo, insomma

MenageZero
12-11-2006, 02:28
Ma cosa dici??? :confused: Guarda che le x1900 c'erano già da un pezzo! :D

Mi sa che fai un pò di confusione, forse ti riferisci al ritardo dell'uscita della x1800xt 512MB! :p

Le x1800gto2 sono uscite molto dopo, ed erano le migliori schede video per il rapporto prezzo/prestazioni! Per 230 euro avevi una x1800xt 512!! Che andava meglio della 7900GT che al tempo stava sui 285euro!!! Altro che flop! Poi cmq se vedi bene i test la differenza tra x1900xt e 1800xt non è così marcata, ma questo è un altro discorso ;)

pensa a che punto arrivi. per giustificare la x1800xt sostieni che tra essa e la x1900xt c'è una differenza poco marcata. ma come avete sbomballato los pelotas per la faccenda delle 48 al posto delle 16.
poi ma perchè mi citi le nvidia? io ho detto potevate aspettare per farvi le x1900.
cmq basta ot se vi va parlate della 8800gtx. se vi va.

perdonatemi per l'intromissione, ma imho dovreste prima di tutto capirvi e chiarire se state parlando di una specifica scheda, se entrambi della stessa, o se di un chip (r520) in generale, e se della stessa "finestra" temporale; se no la "polemica" da eventualmente inutile diventa sicuramente inutile^2... ;) :D

halduemilauno
12-11-2006, 09:58
parli della X1800 X1900?


x1800. è quella che è durata due mesi.
;)

demos88
12-11-2006, 09:59
Carina la scheda, a parte il prezzo e i consumi. Della serie "contratto ENEL aziendale" :asd:

halduemilauno
12-11-2006, 10:02
perdonatemi per l'intromissione, ma imho dovreste prima di tutto capirvi e chiarire se state parlando di una specifica scheda, se entrambi della stessa, o se di un chip (r520) in generale, e se della stessa "finestra" temporale; se no la "polemica" da eventualmente inutile diventa sicuramente inutile^2... ;) :D

io dell'r520 aka x1800. disponibile a novembre 2005 sostituita dalla r580 aka x1900 a gennaio 2006.
;)

kenjcj2000
12-11-2006, 10:46
Raga tornando in topic.. nessuno sà se i dissi (tipo lo Zalman) sono compatibili con questa VGA?

DakmorNoland
12-11-2006, 10:52
Raga tornando in topic.. nessuno sà se i dissi (tipo lo Zalman) sono compatibili con questa VGA?

Anche se lo fossero, sei sicuro che convenga montare ad esempio il vf900cu? Potrebbe raffreddare meno del dissi originale!

ThePunisher
12-11-2006, 10:53
Anche se lo fossero, sei sicuro che convenga montare ad esempio il vf900cu? Potrebbe raffreddare meno del dissi originale!

Già... lo stock mi sembra bello pompato.

kenjcj2000
12-11-2006, 10:59
Anche se lo fossero, sei sicuro che convenga montare ad esempio il vf900cu? Potrebbe raffreddare meno del dissi originale!

Io questi piastroni che toccano sia gpu che ram insieme non mi sono mai piaciuti..... visto che è la gpu che scalda portando calore alle ram ..non credo che uno zalman sia peggio.... con tutta la bontà che il dissi della 8800 può offrire...


visto che sono con un Atx rovesciato e il dissi della vga mi rimane in alto guardate che spettacolo con :

Zalman fatal-1ty fc-zv9 cu-led..... correlato dei dissi x le ram neri pure loro :eek:

sarebbe un bel vedere (oltre che una grande efficenza)

DakmorNoland
12-11-2006, 11:12
Io questi piastroni che toccano sia gpu che ram insieme non mi sono mai piaciuti..... visto che è la gpu che scalda portando calore alle ram ..non credo che uno zalman sia peggio.... con tutta la bontà che il dissi della 8800 può offrire...


visto che sono con un Atx rovesciato e il dissi della vga mi rimane in alto guardate che spettacolo con :

Zalman fatal-1ty fc-zv9 cu-led..... correlato dei dissi x le ram neri pure loro :eek:

sarebbe un bel vedere (oltre che una grande efficenza)

Sì vabbè estetica a parte, cmq se non sbaglio lo zalman vf900cu faceva già un pò di fatica con le x1900xtx, quindi con questa credo vada anche peggio.
Se lo monti dovresti metterci anche una o due ventole da 12cm per + flusso d'aria sulla scheda. Così si otteresti miglior dissipazione rispetto al dissi originale.

kenjcj2000
12-11-2006, 11:17
Sì vabbè estetica a parte, cmq se non sbaglio lo zalman vf900cu faceva già un pò di fatica con le x1900xtx, quindi con questa credo vada anche peggio.
Se lo monti dovresti metterci anche una o due ventole da 12cm per + flusso d'aria sulla scheda. Così si otteresti miglior dissipazione rispetto al dissi originale.


fà fatica x che le vga oggi sono forni ;) è sù la mia 1900xtx e di 7-8 gradi sono migliorato al dissi origianale.... non credo sinceramente che con le 8800 cambierà sinceramente.... x i flussi non ci sono problemi visto che il mio case è una turbina x il riciclo

poi è tutto in attesa del nuovo liquido che arriverà fra qualche mese

Stig
12-11-2006, 11:58
mi sa che l'unico modo per verificare se va bene è provarlo..
qualche possessore di 8800gtx che abbia un vf900 si faccia avanti... :D

aaasssdddfffggg
12-11-2006, 18:40
Per tutte quelle persone che si lamentano nel forum per le "enormi risorse energetiche"che la 8800gtx richiede in campo ludico posso tranquillamente rassicurare tutti affermando che giocando in configurazione SLI (2 8800gtx) mia madre fa i piatti e la lavatyrice lavora per i cazzi suoi.Certo,come vuole lo standar anche io ho 3000 watt in casa da gestire.Smettiamola di dire cazzate che per tenere acceso il pc o giocare con una 8800gtx (nel mio pc ce ne sono 2 appunto)comporta spegnere questo o quello per non far saltare tutto.

aaasssdddfffggg
12-11-2006, 18:42
per una sola 8800 gtx si bastano 450 watt per tutto il sistema (non per la scheda)e 850 watt per lo SLI su 8800gtx (sempre per tutto il sistema e non per le sole 2 schede video).

leoneazzurro
12-11-2006, 19:11
Il flop lo ha fatto ATI più che altro.
Dopo che nVidia gli ha mangiato le vendite, è stata costretta a lanciare innumerevoli schede, tutte tiratissime e dai costi di produzione elevati.
Infatti se il core della Serie 7 è di grandezza circa la metà di quello Serie X1, significa che ATI spende circa il doppio per farlo, aggiungiamoci le GDDR4, aggiungiamoci che vende con margini mooolto ridotti...
Sta inseguendo, insomma

Hmm... Nvidia ha "mangiato" le vendite ad ATI soprattutto a causa di X1600, scheda di fascia media dalle prestazioni assolutamente inadeguate, e al "buco" prestazionale che ha avuto nelle schede SM3, visto che per troppo tempo sono state presenti solo offerte SM2. Poi può darsi che si siano erosi i margini, ma le vendite (fatturato) sono un'altra cosa, lì le cose sono cambiate di pochissimi punti percentuali. Non credo comunque che i margini siano proprio così scarsi su R580, probabilmente sono sì minori rispetto a G71. Comunque, il die di R580 è circa il 37% più grande di quello di G71 (384 milioni di transistors contro 282) e il buon vantaggio dimensionale di nvidia si è concretizzato con il passaggio al G71 (a 90 nm) mentre G70 era a 110 nm e con una ventina di milioni di transistors in più, ossia le dimensioni del die dovrebbero essere suppergiù identiche a R580. Teniamo poi da conto che R580 (x1900XT/XTX) era superiore sia come features che come prestazioni alla 7900 GTX, così come X1800XT lo era rispetto alla 7800 GTX (tralasciando la versione "ad alto OC" da 512 Mbytes). Ad ogni modo questo G80 segna un vero salto in avanti sia dal punto di vista prestazionale che da quello della qualità visiva, toccherà comunque paragonarlo non tanto a R580, quanto al prossimo R600 che non è poi lontanissimo.

Deschutes
12-11-2006, 20:30
Per tutte quelle persone che si lamentano nel forum per le "enormi risorse energetiche"che la 8800gtx richiede in campo ludico posso tranquillamente rassicurare tutti affermando che giocando in configurazione SLI (2 8800gtx) mia madre fa i piatti e la lavatyrice lavora per i cazzi suoi.Certo,come vuole lo standar anche io ho 3000 watt in casa da gestire.Smettiamola di dire cazzate che per tenere acceso il pc o giocare con una 8800gtx (nel mio pc ce ne sono 2 appunto)comporta spegnere questo o quello per non far saltare tutto.
Ok giusto, infatti io non ho mai detto cose tipo centrale nucleare salti contatore ecc non sono tra quelli :)
Ma concorderai ke le schede attuali hanno consumi neanke paragonabili con quelle x es di 2-3 anni fa, in questo ci aiuta ma solo in parte la diffusione di alimentatori con pfc attivo con un'efficienza sempre maggiore ke in alcuni ali supera l'85% (ma costano una cifra).
Che alimentatore hai? Che modello e quanti watt?
Le vga come vanno a rumore? (sempre se hai un pc + o - silenzioso, perchè nel caso di ventole case ventola cpu ecc hd ecc ke fanno troppo casino e coprono il rumore delle vga questa domanda non avrebbe senso :D )
Ciao

kenjcj2000
12-11-2006, 20:47
Per tutte quelle persone che si lamentano nel forum per le "enormi risorse energetiche"che la 8800gtx richiede in campo ludico posso tranquillamente rassicurare tutti affermando che giocando in configurazione SLI (2 8800gtx) mia madre fa i piatti e la lavatyrice lavora per i cazzi suoi.Certo,come vuole lo standar anche io ho 3000 watt in casa da gestire.Smettiamola di dire cazzate che per tenere acceso il pc o giocare con una 8800gtx (nel mio pc ce ne sono 2 appunto)comporta spegnere questo o quello per non far saltare tutto.

certo ..... ma sai se una configurazione sli richiede 800w quanto sono come spesa sulla bolletta 800w? prova a far girare la lavatrice giorno e notte poi me lo racconti....

aaasssdddfffggg
12-11-2006, 21:19
Come alimentatore avendo uno SLI su 8800gtx ho montato un enermax galaxy 1000 che è fantastico.Per chio monterà le 8800gtx oltre alle prestazioni resterà colpito dalla totale e dico totale assenza di rumorosità delle ventole!!!Davvero impressionante.All'inizio pensavo si fosse bruciata invece stava lavorando tranquillamente.Ma avuto uno scheda così silenziosa.Chi la prenderà mi saprà confermare di questo.nVIDIA ha fatto davvero centro in tutto questa volta.Se si pensda che il g80 è un progetto maturato in 4 anni di sviluppo e 400 milioni di dollari investiti è chiaro che nVIDIA non poteva fallire.

Stig
12-11-2006, 21:28
Come alimentatore avendo uno SLI su 8800gtx ho montato un enermax galaxy 1000 che è fantastico.Per chio monterà le 8800gtx oltre alle prestazioni resterà colpito dalla totale e dico totale assenza di rumorosità delle ventole!!!Davvero impressionante.All'inizio pensavo si fosse bruciata invece stava lavorando tranquillamente.Ma avuto uno scheda così silenziosa.Chi la prenderà mi saprà confermare di questo.nVIDIA ha fatto davvero centro in tutto questa volta.Se si pensda che il g80 è un progetto maturato in 4 anni di sviluppo e 400 milioni di dollari investiti è chiaro che nVIDIA non poteva fallire.
nell'altro thread un tuo amico pare che abbia postato il tuo mostro in foto... :eek: :eek: :eek:

complimenti!!! davvero na bestia! :ave: :ave: :ave: :ave:

aaasssdddfffggg
12-11-2006, 21:29
Grazie.Adesso manca solo la ciliegina sulla torta : il SAMSUNG 305T (30" 2560X1600) che dovrebbe uscire entro questo mese.Senza quello non avrebbe senso un sistema del genere.Ciao.

Apple80
12-11-2006, 22:51
Grazie.Adesso manca solo la ciliegina sulla torta : il SAMSUNG 305T (30" 2560X1600) che dovrebbe uscire entro questo mese.Senza quello non avrebbe senso un sistema del genere.Ciao.

gran bel sistema. SOlo una cosa... ma ti conviente uno schermo lcd senza un ottimo contrasto ? andresti a discapito di una qualità d'immagine contro una risoluzione maggiore ? Che poi 2500 di risoluzione su un 30" sono sprecati.
Magari c'è un monitor a stessa grandezza ma con un cotrasto migliore anceh a 1920x1080. e ne gioverebbe di molto senza perdita da 2500 a 1920.

m_w returns
12-11-2006, 22:54
Grazie.Adesso manca solo la ciliegina sulla torta : il SAMSUNG 305T (30" 2560X1600) che dovrebbe uscire entro questo mese.Senza quello non avrebbe senso un sistema del genere.Ciao.

ti tratti bene! :eek: :eek: :sbavvv: :sbavvv: :sbavvv:

Dexther
12-11-2006, 22:55
nell'altro thread un tuo amico pare che abbia postato il tuo mostro in foto... :eek: :eek: :eek:

complimenti!!! davvero na bestia! :ave: :ave: :ave: :ave:

presente :D
in realtà non sapevo fosse iscritto su hwup :p
le foto mi arrivano da msn :D

m_w returns
12-11-2006, 22:57
presente :D
in realtà non sapevo fosse iscritto su hwup :p
le foto mi arrivano da msn :D


ahh ma sarebbe lui Max.... :read: :read: :Prrr: :Prrr:

Kharonte85
13-11-2006, 00:14
certo ..... ma sai se una configurazione sli richiede 800w quanto sono come spesa sulla bolletta 800w? prova a far girare la lavatrice giorno e notte poi me lo racconti....
:asd:
ahh ma sarebbe lui Max.... :read: :read: :Prrr: :Prrr:


Signature: 3 righe a 1024 solo testo con un massimo di 3 smiles dell'Hardware Upgrade Forum oppure un'immagine 100 X 50 X 5KB e una riga di testo (non deve andare a capo).

:D

m_w returns
13-11-2006, 00:24
Signature: 3 righe a 1024 solo testo con un massimo di 3 smiles dell'Hardware Upgrade Forum oppure un'immagine 100 X 50 X 5KB e una riga di testo (non deve andare a capo).

:D

praticamente uno smile! :rolleyes: :rolleyes: :confused:

davidon
13-11-2006, 00:35
praticamente uno smile!
...già http://img296.imageshack.us/img296/5471/grin1ov0.gif

ciaobye

Kharonte85
13-11-2006, 00:37
praticamente uno smile! :rolleyes: :rolleyes: :confused:
Non le ho fatte io le regole (ma cosi' sono e bisogna rispettarle)...la tua firma si vede a occhio che è fuori regola, quindi prima che passi un moderatore te lo faccio notare io ;)

m_w returns
13-11-2006, 00:52
Non le ho fatte io le regole (ma cosi' sono e bisogna rispettarle)...la tua firma si vede a occhio che è fuori regola, quindi prima che passi un moderatore te lo faccio notare io ;)

vorrà dire ke faremo a meno di Ruby! :( :muro: :muro: :muro:

Kharonte85
13-11-2006, 01:15
vorrà dire ke faremo a meno di Ruby! :( :muro: :muro: :muro:
Peccato... :oink: :D

MexeM
13-11-2006, 01:21
Dico, ma la piantate? Chissenefrega di quello che vi siete comprati o di quello che comprerete! E ancora peggio i lacchè che sbavano per le configurazioni degli altri :doh:
Cerchiamo di rimanere IT, se non avete niente da dire sulla recensione di questa scheda, credo fareste un favore a tutti tacendo.
Anzi, fatevi un favore... rileggete la recensione con un minimo di attenzione, così non tocca ripetere ogni pagina che i consumi sono PER TUTTO il sistema e in redazione non arrivavano a 300watt, e che mettere un alimentatore da 1000watt non significa che consumi costantemente 1000watt...

Fortuna che ogni tanto interviene anche qualcuno con un minimo di competenza e c'è qualcosa di interessante da leggere, invece della solita gara a chi ce l'ha più lungo. Ok che qui si è tutti patiti, ma vediamo di dare il giusto peso alle cose...

Kharonte85
13-11-2006, 01:29
Anzi, fatevi un favore... rileggete la recensione con un minimo di attenzione, così non tocca ripetere ogni pagina che i consumi sono PER TUTTO il sistema e in redazione non arrivavano a 300watt, e che mettere un alimentatore da 1000watt non significa che consumi costantemente 1000watt...

Credo di essermi consumato a forza di dire i valori richiesti da quelle schede (tanto da saperli a memoria)...non posso che quotare questa parte di intervento... ;)

MiKeLezZ
13-11-2006, 02:56
Hmm... Nvidia ha "mangiato" le vendite ad ATI soprattutto a causa di X1600, scheda di fascia media dalle prestazioni assolutamente inadeguate, e al "buco" prestazionale che ha avuto nelle schede SM3, visto che per troppo tempo sono state presenti solo offerte SM2. Poi può darsi che si siano erosi i margini, ma le vendite (fatturato) sono un'altra cosa, lì le cose sono cambiate di pochissimi punti percentuali. Non credo comunque che i margini siano proprio così scarsi su R580, probabilmente sono sì minori rispetto a G71. Comunque, il die di R580 è circa il 37% più grande di quello di G71 (384 milioni di transistors contro 282) e il buon vantaggio dimensionale di nvidia si è concretizzato con il passaggio al G71 (a 90 nm) mentre G70 era a 110 nm e con una ventina di milioni di transistors in più, ossia le dimensioni del die dovrebbero essere suppergiù identiche a R580. Teniamo poi da conto che R580 (x1900XT/XTX) era superiore sia come features che come prestazioni alla 7900 GTX, così come X1800XT lo era rispetto alla 7800 GTX (tralasciando la versione "ad alto OC" da 512 Mbytes). Ad ogni modo questo G80 segna un vero salto in avanti sia dal punto di vista prestazionale che da quello della qualità visiva, toccherà comunque paragonarlo non tanto a R580, quanto al prossimo R600 che non è poi lontanissimo.
Con "vendite mangiate", mi riferivo al debutto della Serie 7, quando vi erano 7800GT e GTX soltanto.
ATI non aveva (come adesso) schede antagoniste, visto che aveva ancora la serie X800 e derivati. Questo periodo temporale è durato parecchio, e le vendite per nVidia non han fatto che maturare sempre più.
Deja-vu
Poi, dopo il lancio della serie X1 fino ad adesso presumo ci sia stata una più o meno marcata parità (anche se i risultati finanziari di nVidia parlano piuttosto chiaro), ma lì sono entrati in gioco i costi vari di cui ho parlato (fabbricazione più costosa -visto che entrambi si appoggiano alla stessa fonderia è facile il confronto-, moduli memoria più costosi -rari gddr4-, progettazione del chip -X1 nuovo, G70 mero refresh-) che evidentemente erano tutti a favore del chip di nVidia.

5c4rn4g3
15-11-2006, 11:22
quando arriveranno i cinesi a fare delle "copie" migliori di tutto questo patatrack informatico a prezzi tipo 50€??????

aaasssdddfffggg
15-11-2006, 15:15
queste schede.........già vengono costruite in China.

deck
15-11-2006, 17:22
per una sola 8800 gtx si bastano 450 watt per tutto il sistema (non per la scheda)e 850 watt per lo SLI su 8800gtx (sempre per tutto il sistema e non per le sole 2 schede video).
2 sli 8800gtx?!? Oh mamma, saranno sprecate per qualunque tipo di monitor!
Forse interessa a un mio amico, che ha preordinato un doppio quad core Xeon con 2 ottimi 30 pollici Apple dall'america :) Gli dico di ordinarne 3!

deck
15-11-2006, 17:34
queste schede.........già vengono costruite in China.
A proposito, dove le hai prese le 8800gtx?

Langley
15-11-2006, 17:45
Dico, ma la piantate? Chissenefrega di quello che vi siete comprati o di quello che comprerete! E ancora peggio i lacchè che sbavano per le configurazioni degli altri :doh:
Cerchiamo di rimanere IT, se non avete niente da dire sulla recensione di questa scheda, credo fareste un favore a tutti tacendo.
Anzi, fatevi un favore... rileggete la recensione con un minimo di attenzione, così non tocca ripetere ogni pagina che i consumi sono PER TUTTO il sistema e in redazione non arrivavano a 300watt, e che mettere un alimentatore da 1000watt non significa che consumi costantemente 1000watt...

Fortuna che ogni tanto interviene anche qualcuno con un minimo di competenza e c'è qualcosa di interessante da leggere, invece della solita gara a chi ce l'ha più lungo. Ok che qui si è tutti patiti, ma vediamo di dare il giusto peso alle cose...
Un 900W con conroe portato a 4400mhz stabile con SLI clokkato con gpu a 660Mhz e ddr3 a 2200Mhz fidati che non basta... :D
Qui si parla di configurazione non clokkata... capisci la differenza? :) :)

aaasssdddfffggg
15-11-2006, 21:01
Le ho fatte arrivare da ROMA.Sono della e-VGA ma non posso pubblicare il sito e-commerce qui dentro.Ciao.

MexeM
16-11-2006, 06:05
Un 900W con conroe portato a 4400mhz stabile con SLI clokkato con gpu a 660Mhz e ddr3 a 2200Mhz fidati che non basta... :D
Qui si parla di configurazione non clokkata... capisci la differenza? :) :)
Io sì...
Anzi, no... non capisco che diavolo c'entri con quello che ho scritto...
Proprio perchè qui si parla di configurazione senza overclock, non ha nessun senso fare certi discorsi.
Secondariamente non credo proprio che un sistema come quello consumi 900w.
Se l'alimentatore non ce la fa, è quasi sicuramente per gli amperaggi, non per i watt.

cionci
16-11-2006, 08:58
Se l'alimentatore non ce la fa, è quasi sicuramente per gli amperaggi, non per i watt.
Che corrisponde a dire la stessa identica cosa: gli ampere su ogni canale indicano anche i Watt massimi supportati dal canale in quanto la tensione è fissa...

MexeM
16-11-2006, 15:38
Non è affatto vero che è la stessa cosa.
Dire che un alimentatore da 900W non ce la fa, fa capire a chi non ci capisce molto, (e in sostanza sottintende palesemente) che il sistema consuma + di 900W.
Cosa FALSA.
Perchè i problemi sono sui singoli voltaggi. Se un sistema ha un eccesso di carico su un certo voltaggio e l'alimentatore non fornisce su quel canale gli ampere necessari, il sistema non va anche se il consumo totale di watt rimane largamente inferiore al valore di targa dell'alimentatore.
Inoltre le tensioni non è per niente vero che sono costanti... DOVREBBERO esserlo, ma se prendi un alimentatore di merda vedi come cominciano a variare appena attacchi qualche nuova componente (a variano sia in eccesso che in difetto).
Quelli che devi avere sono gli amperaggi giusti sui canali giusti. E non è una questione di wattaggio totale, ma di qualità dell'alimentatore e bontà del progetto.
Dire che un 900W non ce la fa, non significa che un 500W fatto meglio (o più adatto al tipo di carico, se vogliamo...), non possa farcela.

cionci
16-11-2006, 15:41
Dire che un alimentatore da 900W non ce la fa, fa capire a chi non ci capisce molto, che il sistema consuma + di 900W.
Certo...hai ragione...
Ma io dicevo semplicemente che "Se l'alimentatore non ce la fa, è quasi sicuramente per gli amperaggi, non per i watt" significa dire la stessa cosa se si fa riferimento ad un canale...

ThePunisher
16-11-2006, 15:45
Il consumo di un Conroe a 4 Ghz con 2 8800GTX in SLI FULL LOAD è:
373Watt misurati dall'Ali. Mi sembra che siamo ben lontani da 900. Basta che gli amperaggi siano buoni.

MexeM
16-11-2006, 15:45
Ok chiarito.
Ma in genere sui singoli canali si fa rimento a volt e ampere (e non ai watt per canale, che data la necessità di mantenere il più possibile costanti i volt, sono meno significativi del dato in volt e ampere), mentre nel complesso, ovviamente, ai watt erogati.
Infatti io avevo anche scritto "Secondariamente non credo proprio che un sistema come quello consumi 900w." Che chiariva il senso dell'affermazione successiva.

EDIT: ecco, come volevasi dimostrare...
Grazie a thepunisher per la precisazione.

ThePunisher
16-11-2006, 15:49
Ok chiarito.
Ma in genere sui singoli canali si fa rimento a volt e ampere, mentre nel complesso, ovviamente, ai watt erogati.
Sì, ma bisogna imparare a capire che i Watt nominali degli alimentatori, PURTROPPO, non sono una misura affidabile per colpa di molte case che li sparano a caso (nel senso che buttano lì quelli di picco e apposto).

Meglio a questi livelli far riferimento ai Watt di Ali cazzuti... e in questo caso basta ampiamente un 500W di ottima marca per tenere tutto il sistema in configurazione SLI con un bel overclock sia di procio che di schede video.

MexeM
16-11-2006, 16:02
Mah, il punto semmai è che si dovrebbe far riferimento agli ampere per canale (cioè ai watt per canale, ma parlare di ampere è meglio perchè dice ancora di più sulel capacità dell'alimentatore) e non ai watt totali.
Perchè non è che dicano scemenze i dati di targa, solo che le differenza tra un buon alimentatore con un buon progetto, e uno più scarso (o anche solo meno adatto al tipo di impiego) sono due:
1) Maggiore capacità di mantenere entro i limiti la variazione delle tensioni per canale
2) Maggiore capacità di erogare watt (cioè maggiori ampere) lì dove serve, cioè sui canali maggiormente usati da un tipico sistema PC.

Questo significa anche che ci possono essere buoni alimentatori adatti ad avere molti HD, ma non processori OC e SLI OC, e viceversa...
Tuttavia visto che in ambito desktop (a differenza dell'ambito server) la maggiorparte del carico è sui voltaggi relativi a schede video e CPU, un buon alimentatore da desktop deve avere un alto numero di ampere su QUEI voltaggi.
Il dato del wattaggio totale erogabile è semplicemente poco indicativo delle reali prestazioni dell'alimentatore.
Come dici giustamente, prendere in considerazione buoni alimentatori adatti ad un uso desktop (cioè alimentatori generalment ericonosciuti come tali, ma già questa definizione fa acqua da tutte le aprti), renderebbe il dato più significativo, ma comunque aleatorio, impreciso. Sarebbe meglio far riferimento ai singoli canali e buonanotte, sarebbe un dato più facilmente confrontabile e significativo, nonchè IL DATO GIUSTO da valutare.

MiKeLezZ
16-11-2006, 20:50
Vedo tanto parlare di fantomatici "canali".
Semplicemente, parliamo di 12V. Ormai gli altri hanno utilità tendente a zero, non a caso il grosso del wattaggio è distrubuito sui primi (che hanno più rail non a caso).
Ma tutti gli alimentatori sono ormai sovrabbondanti, percui meglio guardare la qualità e l'efficienza, non i W.
Ciao

Deschutes
17-11-2006, 00:45
Come alimentatore avendo uno SLI su 8800gtx ho montato un enermax galaxy 1000 che è fantastico.Per chio monterà le 8800gtx oltre alle prestazioni resterà colpito dalla totale e dico totale assenza di rumorosità delle ventole!!!Davvero impressionante.All'inizio pensavo si fosse bruciata invece stava lavorando tranquillamente.Ma avuto uno scheda così silenziosa.Chi la prenderà mi saprà confermare di questo.nVIDIA ha fatto davvero centro in tutto questa volta.Se si pensda che il g80 è un progetto maturato in 4 anni di sviluppo e 400 milioni di dollari investiti è chiaro che nVIDIA non poteva fallire.

Buon a sapersi Elite :winner:
Buone giocate
Ciao

simon71
17-11-2006, 03:57
Scusate le mia parole da ignorante del settore, ma cosa se ne fa un di così tanta potenza quando nn ci sono ancora i "software" per sfruttarla? :confused: E secondo perché ormnai si costruiscono vga solo per i giochi? E per chi usa CAD o il 2d in genere?? Perché la mia ATI (modesta, ma di nuova generazione) ci mette 10 secondi buoni a cambiarmni colore del desktop e poi mi fa giocare ad Oblivion decentemente?? :rolleyes: Bah...

ThePunisher
17-11-2006, 07:18
Scusate le mia parole da ignorante del settore, ma cosa se ne fa un di così tanta potenza quando nn ci sono ancora i "software" per sfruttarla? :confused: E secondo perché ormnai si costruiscono vga solo per i giochi? E per chi usa CAD o il 2d in genere?? Perché la mia ATI (modesta, ma di nuova generazione) ci mette 10 secondi buoni a cambiarmni colore del desktop e poi mi fa giocare ad Oblivion decentemente?? :rolleyes: Bah...
Siamo ancora a questo punto? :muro: :muro: :muro: :muro:

norbertom
18-11-2006, 01:04
Che dire... niente che non sia già stato detto... Ho appreso poche ore fa dell'uscita di questa scheda e mi sono subito precipitato a vedere la recensione... Senza criticare nessuno vi dico cosa ho provato.
All'inizio mi ha dato un pò fastidio, considerando che avevo messo da parte (duramente) dei soldi del lavoro per aggiornare il pc, e sto aspettando che mi arrivi la x1950xtx. Ed è la prima volta che riesco a comprarmi una scheda video di fascia alta, e sono circa 7 anni che seguo questo mondo, ed ho cambiato "solo" 2 volte pc.
Immaginatevi come stavo... come un bambino che vede qualcuno che ha un giocattolo più bello del suo. Ora invece, a distanza di qualche ora, non mi importa, perché mi sono accorto che anch'io sto prendendo la piega di chi deve avere il top. e Subito. Certo, ciò che mi frena, e che mi fa pensare così e la mancanza di soldi. Altrimenti credo che starei a cambiare sk video ogni mese. Fa parte della nostra indole dover avere la supremazia.. e finisco qui per evitare di cominciare a "viaggiare" troppo verso altre dimensioni... :)

simon71
18-11-2006, 21:13
Che dire... niente che non sia già stato detto... Ho appreso poche ore fa dell'uscita di questa scheda e mi sono subito precipitato a vedere la recensione... Senza criticare nessuno vi dico cosa ho provato.
All'inizio mi ha dato un pò fastidio, considerando che avevo messo da parte (duramente) dei soldi del lavoro per aggiornare il pc, e sto aspettando che mi arrivi la x1950xtx. Ed è la prima volta che riesco a comprarmi una scheda video di fascia alta, e sono circa 7 anni che seguo questo mondo, ed ho cambiato "solo" 2 volte pc.
Immaginatevi come stavo... come un bambino che vede qualcuno che ha un giocattolo più bello del suo. Ora invece, a distanza di qualche ora, non mi importa, perché mi sono accorto che anch'io sto prendendo la piega di chi deve avere il top. e Subito. Certo, ciò che mi frena, e che mi fa pensare così e la mancanza di soldi. Altrimenti credo che starei a cambiare sk video ogni mese. Fa parte della nostra indole dover avere la supremazia.. e finisco qui per evitare di cominciare a "viaggiare" troppo verso altre dimensioni... :)


Credo che comprare un componente TOP di gamma (specialmente una scheda video) sia la più grande fesseria che si possa fare.... :D Almenoché poi non si faccia il giochino chi ce l'ha più lungo come i bambini (che si esprime in termini di fps nei contest)...Io con la mia scheda pagata 130 euri posso giocare a livelli più che accettabili a tutti i giochi di nuova generazione ;) al Top con i giochi più vecchiotti come HL2 o Far Cry... E non sono certo un Fanboy di ATI...anzi ho avuto per anni un Geforce con la quale ho vissuto molto bene e se devo essere sincero la mie preferenze (in 6 anni ho switchato da ATI a Nvidia 3 volte) oggi vanno a quest'ultima...Ho comprato la mia 1600 radeon sol operché era l'ultimo modello AGP in commercio e il negoziante non aveva la 7600gs altrimenti avrei preso quella ;) Con questo Chapeau ad ATI , Chapeau a Nvidia.....è il concetto che non apprezzo, non la bontà dei prodotti delle 2 case competitor :)

Ciao

Apple80
18-11-2006, 21:40
beneeeee... contenti voi... contentooo ioooooooo



http://img124.imageshack.us/img124/5620/topmy9.th.jpg (http://img124.imageshack.us/my.php?image=topmy9.jpg)


http://img85.imageshack.us/img85/7199/top2or8.th.jpg (http://img85.imageshack.us/my.php?image=top2or8.jpg)


:sofico: :sofico:

simon71
19-11-2006, 04:47
Scusa ma le foto le hai postate per farci vedere casa tua?? :confused: Non capisco...
Cmq...tutto molto bello ma la tastiera appoggiata sul cartone stona un pò se me lo consenti :O :Prrr:

Naufr4g0
19-11-2006, 05:25
Credo che comprare un componente TOP di gamma (specialmente una scheda video) sia la più grande fesseria che si possa fare.... :D
Quoto appieno!
Anche perchè tempo che si sfrutta a dovere ne passerà di tempo, e con i giochi attuali non c'è tanta differenza di giocare con una vga top gamma rispetto a una un po' più economica.
Quando cominci a usarla a dovere già vale molto di meno... :°D
L'ideale secondo me è aggiornare frequentemente la vga con una di classe medio-alta (tipo 200€) del periodo in cui s'acquista e vendere subito quella precedente prima che svaluti troppo. Direi ogni 6 mesi.
Io nel '98 volli comprare la top gamma (Voodoo2 12MB) a 600.000lire, a febbraio costava tanto, a fine anno costava qualcosa come 200.000lire, immaginate i nervi...

Apple80
19-11-2006, 09:10
Scusa ma le foto le hai postate per farci vedere casa tua?? :confused: Non capisco...
Cmq...tutto molto bello ma la tastiera appoggiata sul cartone stona un pò se me lo consenti :O :Prrr:


nono... è molto minimale.
vedere tutto quel popo' di roba col cartone è molto chick. :D

lucas.
19-11-2006, 09:59
:help: io mi dovrei comprare il monitor e sto scegliendo sansung 225 bw 22polici è più la dovrei fare il pc nuovo che dite faccio bene a prendere questo minitor visto le risoluzioni di queste schede perche quando cambiero pc farò una di queste!
che dite voi?? io con il pc ci gioco :help:

|MAX|
19-11-2006, 11:29
beneeeee... contenti voi... contentooo ioooooooo



http://img124.imageshack.us/img124/5620/topmy9.th.jpg (http://img124.imageshack.us/my.php?image=topmy9.jpg)


http://img85.imageshack.us/img85/7199/top2or8.th.jpg (http://img85.imageshack.us/my.php?image=top2or8.jpg)


:sofico: :sofico:

e io ke mi sentivo figo perke mi sto per prendere un 24 " della dell :doh:

:asd:

Dexther
19-11-2006, 11:33
e io ke mi sentivo figo perke mi sto per prendere un 24 " della dell :doh:

:asd:

bè anche il DELLone ha il suo perchè :sofico:

Stig
19-11-2006, 12:28
beneeeee... contenti voi... contentooo ioooooooo



http://img124.imageshack.us/img124/5620/topmy9.th.jpg (http://img124.imageshack.us/my.php?image=topmy9.jpg)


http://img85.imageshack.us/img85/7199/top2or8.th.jpg (http://img85.imageshack.us/my.php?image=top2or8.jpg)


:sofico: :sofico:
lo sai che mi fa un po schifo vedere quel sistemino che ti sei attrezzato??.... :asd:

porca... :cry: lo voglio pure io..... :cry: :cry:

ma alla fine quanto l'hai pagato quel monitorino....? è un full hd vero?

ps. posta pure altre immagini... :D

Taurus19-T-Rex2
19-11-2006, 15:51
e io ke mi sentivo figo perke mi sto per prendere un 24 " della dell :doh:

:asd:




e sei un figo :D come me, quella tv ha una risoluzione ridicola :sofico:

uazzamerican
20-11-2006, 17:36
La GeForce 8800 GTX è una scheda ingombrante, molto costosa, che consuma parecchio e che sarà presumibilmente difficile da trovare in commercio nelle prime settimane di vendita a motivo della forte domanda

Non ho letto tutti i commenti, ma spero che qualcuno la pensi come me:
Ma siamo impazziti????
tra un pò ci allacceremo direttamente ad una centrale elettrica a carbone per alimentare il PC.

Non vedo nessuna innovazione vera, proprio niente di niente.

Mi vengono in mente i lontani tempi andati, quando una casa chiamata 3Dfx, che fino ad allora era stata avanti con le sue schede, proponeva veri e propri mostri ENORMI e che esprimevano unicamente forza bruta... E' colata a picco.

Di certo né ATI né nVidia faranno la stessa fine, ormai hann monopolizzato ( e lobotomizzato) tutto e tutti.

Ma io mi chiedo come sia possibile che a nessuno venga in mente di costruire un chip grafico NUOVO, non infarcire di anabolizzanti e energia roba gia vista (perchè in fondo quello è, a parte qualche contentino). Forse perchè nessuno la vuole???
Possible che siamo tutti utonti???

Per come la vedo io quella scheda e quelle che verranno (perchè saranno di certo simili E PER SCELTA) sono il simbolo di un fallimento e di una pochezza tecnologica, secondo me voluta e pianificata.


Spero di sbagliarmi.

MenageZero
20-11-2006, 18:37
però se ci fai magari uno schema a blocchi di come deve essere la tua gpu ideale o cmq una gpu "diversa" e "nuova" capiamo meglio ;)
(se g80 è "giusta" o "sbagliata" da profano non lo so, forse non c'è neanche un "metro" assoluto per questo tipo di prodotto per giudicare al 100%, ma più che altro uno relativo costituito da quello che farà ati; è però chiaro che l'architettura di g80 è molto diversa dalle precedenti, su questo non ci piove)

riguardi ai consumi, già tutte le schede video da una certa fascia in su sono componenti che consumano molto rispetto alla media degli altri componenti comuni di un pc, chiaro che questa con una gpu da 700+ milioni di transitor ancora a 90nm fa il record anche nei consumi ...e certo, che questi consumi alti non siano una bella cosa è lapalissiano, su questo siamo tutti d'accordo...
(cmq ci saranno sicuramente in pochi mesi delle versioni shrinkate che consumeranno meno)

grida pure allo scandalo per i consumi come vuoi, ma inutile mischiare nel giudizio quest'aspetto con quello della tecnologia per l'elaborazione grafica sostenendo che siccome è grande e consuma tanto è pure senza "nessuna innovazione vera", "roba gia vista" "simbolo di un fallimento e di una pochezza tecnologica"

inoltre leggere il thread ti può essere utile dato che ci troverai anche interventi di persone piuttosto competenti, su tutti yossarian ( che secondariamente ad essere un utente di hwupg è anche per caso un ingegnere di ati :D) e né dai suoi interventi né da quelli di altri emerge mai che g80 (né il futuro r600) sia una "minestra riscaldata"... (oddio, per essere calda è calda ma probabilmente trattasi di una "minestra" nuova... :sofico: )

drakend
20-11-2006, 20:00
MUOIO DI NVIDIA?

ma lol ragazzi sveglia....cioè siamo arrivati al punto che chi cerca di riportare un po la gente sulla terra viene trattato da sfigato????

Il tuo punto di vista non è sbagliato, nel senso che effettivamente ci sono molte altre priorità nella vita che spendere migliaia di euro dietro ai giochi con il relativo hardware. Detto questo però devi tener ben presente che ciò che per te è una priorità per un altro potrebbe non esserlo e quindi decide di spendere i suoi soldi altrove. Riguardo alla beneficenza magari tu la ritieni un'attività onorevole e doverosa, specie per chi ha le capacità economiche, ma altri potrebbero semplicemente fregarsene. Siamo un'economia capitalistica retta dal principio cardine che ognuno spende i propri soldi come meglio crede senza doversi sorbire moralismi da quattro soldi che già conosce e di cui non gliene frega niente.



io nvidio(INVIDIO) chi magari con 4000 euro si fa una vacanza da sogno o li investe per qualcosa di utile non chi butta soldi per queste cose.
ma mica ho 12 anni...
ASSURDO.

Come sopra: non è affar tuo ciò che gli altri fanno con i propri soldi. Non hai nessun diritto di diventare elevarti a ruolo di giudice e giudicare ciò che fanno terzi. A parte questo tieni anche presente che è grazie alla gente che "butta soldi" che entrano sempre nuove schede nel mercato alzando sempre più la fascia entry-level delle schede video come effetto secondario.


lasciate stare i bench e tornate sulla terra!!!!

E tu lascia stare le prediche moraliste da quattro soldi e guarda in faccia alla realtà capitalistica in cui vivi! :D


c'è gente che questi soldi se li deve guadagnare con mesi di lavoro e li deve spendere per campare...scusate eh.
Cazzi di quella gente... chi ha i soldi da spendere (buttare diresti tu) ha tutti i diritti di spenderli come meglio crede.

PS Ah non ti fare l'idea che sono un nababbo, tanto è vero che per me spendere 100€ per una scheda video mi crea non poche resistenze psicologiche, ed anche economiche dato che non sono pochi per me.

PS 2: non avevo letto il richiamo del moderatore la pagina dopo, chiedo venia.

aaasssdddfffggg
23-11-2006, 15:06
Chi spende 4000 euro per pc stai pur tranquillo che una vacanza alle MALDIVE non se le fa mancare.Possibile essere così....... da non pensarci prima di buttare giù 4 righe qui dentro?Saluti al forum.

deck
24-11-2006, 23:21
e sei un figo :D come me, quella tv ha una risoluzione ridicola :sofico:
Quoto in parte, per me non è la soluzione migliore neanche per giocare, figurarsi per lavorarci...a questo punto non era meglio collegarci una XBOX360?

Hal2001
24-11-2006, 23:42
Per chio monterà le 8800gtx oltre alle prestazioni resterà colpito dalla totale e dico totale assenza di rumorosità delle ventole!!!Davvero impressionante.All'inizio pensavo si fosse bruciata invece stava lavorando tranquillamente.Ma avuto uno scheda così silenziosa.Chi la prenderà mi saprà confermare di questo.

http://www.hwupgrade.it/articoli/skvideo/1597/db.png

Se questo è il tuo metro di giudizio, allora faccio bene ogni volta a dubitare di quello che scrivi. Già la mia 7800 è talmente rumorosa che debbo limitarne i giri della ventola tramite software.

http://www.hwupgrade.it/articoli/skvideo/1504/db.png

http://www.hwupgrade.it/articoli/skvideo/1400/db.png

nVIDIA ha fatto davvero centro in tutto questa volta.Se si pensda che il g80 è un progetto maturato in 4 anni di sviluppo e 400 milioni di dollari investiti è chiaro che nVIDIA non poteva fallire.

Certo, sono quattro anni che ci lavorano, come no.

aaasssdddfffggg
25-11-2006, 00:07
Vorresti dire il contrario?4 anni di sviluppo....ed il vero g80 è alle porte.Uscirà immediatamente dopo R600.

aaasssdddfffggg
25-11-2006, 00:09
Questo g80 è solo un assaggio...

Raven
25-11-2006, 00:21
Vorresti dire il contrario?4 anni di sviluppo....ed il vero g80 è alle porte.Uscirà immediatamente dopo R600.

Questo g80 è solo un assaggio...


beh... ma se è vero allora chi prende il G80 ora è un idiota! :mbe:

MiKeLezZ
25-11-2006, 00:24
Vorresti dire il contrario?4 anni di sviluppo....ed il vero g80 è alle porte.Uscirà immediatamente dopo R600.
non c'è da aspettarsi molto più di gddr4, 65nm, e qualche MHz in più

Hal2001
25-11-2006, 00:28
beh... ma se è vero allora chi prende il G80 ora è un idiota! :mbe:

Segnalato per ironia troppo sottile! :D

Hal2001
25-11-2006, 00:29
non c'è da aspettarsi molto più di gddr4, 65nm, e qualche MHz in più

Guarda a volte credo che è fiato sprecato. Sappiamo tutti che avviene un refresh, ma lui negherà.

aaasssdddfffggg
25-11-2006, 00:39
Dipende cosa intendi per "refresh".Se è come avvenne tra il 7800 gtx ed il 7800gtx 512 ben venga il "refresh"...

Hal2001
25-11-2006, 08:56
E allora se hai capito bene, perché dici che solo un assaggio? E' questo G80, mica è una versione castrata. E se davvero lo fosse, non ti sentiresti preso per le divin chiappe?

Ps: la versione 512mb aveva solo frequenze più pompate di ram e core, e alla fine è stata quasi sempre indisponibile, è stata una mossa per contrastare ATi sul mero piano velocistico, all'utente finale non è cambiato nulla visto che come detto era indisponibile a prezzi da infarto.

Apple80
25-11-2006, 09:34
e io ke mi sentivo figo perke mi sto per prendere un 24 " della dell :doh:

:asd:


susu... chi si accontenta gode.

:friend:


Come quello che prende il BMW e pioi vede una ferrari e pensa.. e io che mi sentivo figo che ho preso il BMW. :asd: ;)

PS. anche io rosiko và..non ti credere... il mercedes non me lo posso permettere. :muro:

Apple80
25-11-2006, 09:44
lo sai che mi fa un po schifo vedere quel sistemino che ti sei attrezzato??.... :asd:

porca... :cry: lo voglio pure io..... :cry: :cry:

ma alla fine quanto l'hai pagato quel monitorino....? è un full hd vero?

ps. posta pure altre immagini... :D

sry per il ritardo del quote.

Non è un full-hd. quello costa 8000 euro.

Questo è un HD-ready. 1280x768. Pagato 4.500 euro a febbraio di quest'anno.
Il primo film che mi sono visto è stato. La mummia. PAURA sul 50 :eek:
Poi mi sono fatto una maratona della parete di dvd che tengo. :coffee:

Cmq il bello è che mi accetta ogni tipo di segnale. Fino a 1920x1080p. Quindi lo setto a 1600x1200. la cosa è molto strana ,cioè.. è un 1280x768 ma a 1600x1200 ridimensiona cmq l'immagine, icone scritte ecc.... il tutto restando ancora leggibile,oltre invece non si legge più niente per via dei pixel del plasma (troppo grandi per 1920x1080).

Come Hz poso impostare 75 o 100Hz. e li si vede di brutto. :sbav:


Cmq ho fatto delle prove... CRT Philips ,LCD Acer , Pioneer.
Testato il contrasto con prey ,in una mappa buia con ombre delle colonne.
Non c'è paragone... lcd subito tagliato fuori. CRT VS Plasma Pioneer è una lotta all'ultimo sangue. Il cotrasto via HDMI lo si percepisce di più migliorando il black than black. pero' come luminostià e colori ha vinto il Pioneer. Colori più brillanti e veri.

Oggi vado a prender un bel tavolino a misura , e poi rifaccio le foto tutto in ordine.

halduemilauno
25-11-2006, 09:50
Vorresti dire il contrario?4 anni di sviluppo....ed il vero g80 è alle porte.Uscirà immediatamente dopo R600.



Questo g80 è solo un assaggio...

no. la 8800gtx rappresenta il meglio che Nvidia è ora in grado di proporre. se stavi pensando alla 7800gtx li si essendo una situazione particolare ovvero totale assenza di concorrenza allora si in quell'occasione Nvidia non fece uscire il meglio riservandoselo per quando ati sarebbe stata in grado di proporre la sua scheda. ma oggi no. il ritardo di ati non è di quelle dimensioni. certo è chiaro che per quando ati potrà presentare la sua scheda(R600)Nvidia dovrebbe essere in grado di presentare un refresh della attuale 8800gtx. dovrebbe. avvalorato dal fatto, che a quel punto essa potrà contare su un vantaggio temporale di alcuni/diversi mesi. perfetti per un refresh. ma questo fa parte della normale concorrenza fra le due case.
;)

Apple80
25-11-2006, 09:52
e sei un figo :D come me, quella tv ha una risoluzione ridicola :sofico:

Si..ma come qualità d'immagine puo' spallre via anche un lcd da 1680x1050.

La potenza non è nulla senza il controllo. :Prrr:

Oggi faccio delle belle foto senza flash davanti al monitor. Sono curioso di vedere come escono sul cavalletto. Pero' non posso andare avanti a parlarne qui.... e non so in che sezione dovrei aprire un thread. :confused:

Apple80
25-11-2006, 09:59
Se questo è il tuo metro di giudizio, allora faccio bene ogni volta a dubitare di quello che scrivi. Già la mia 7800 è talmente rumorosa che debbo limitarne i giri della ventola tramite software.

No cmq è vero. Ho abbassato i giri della ventola del chipset,l'unica che fà veramente rumore... tolto il pannello in plexiglass. Rispetto alla 7800GTX 256MB che avevo non la sento propio, in idle. in fullload la si sente appena. CMq non dobbiamo lamentarci. oggi le sv non fanno più bordello. Già il pannello fà il suo lavoro,polvere romori ventole ecc.... ora le sv non le si sentono più. Resta solo il rumore della campo magnetico che si crea nel pc :sofico:

halduemilauno
25-11-2006, 11:38
http://www.hwupgrade.it/blog/181.html

"Parallelamente a questo ho lavorato, negli ultimi 2 giorni, al secondo articolo sulle architetture video GeForce 8800 di NVIDIA. Nel corso dei test mi sono reso conto di aver commesso un errore nel primo articolo, riportando alla voce "GeForce 7950 GX2" i risultati prestazionali ottenuti con una scheda basata su queste GPU, ma modello XFX 570M XXX che opera a frequenze di clock di 570 MHz e 1.550 MHz per chip e memoria, contro valori di default che devono essere pari a 500 MHz e 1.200 MHz. Questo spiega perché quei valori fossero nel complesso così elevati: ero sicuro di aver verificato le frequenze prima di eseguire i test ma evidentemente non è stato così.

Ho corretto i grafici della recensione differenziando i valori della scheda GeForce 7950 GX2 da quelli della scheda GeForce 7950 GX2 570M XXX onde evitare problemi d'interpretazione, aggiungendo a lato di ogni scheda i valori in MHZ per le frequenze di clock di GPU e memoria video. Mi scuso del problema: i valori riportati inizialmente erano tutti corretti, ma riferiti ad una scheda che per le frequenze overcloccate di default è più veloce delle altre GeForce 7950 GX2 in commercio. Trovate l'articolo a questo indirizzo."



questo stesso articolo corretto.
http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_index.html
;)

MiKeLezZ
25-11-2006, 12:05
Ecco quindi spiegato il perchè i grafici non tornavano rispetto alla concorrenza, e il sottile margine che c'era fra 7950 e 8800, che diventa ancora più appetibile

Kharonte85
25-11-2006, 12:17
meglio tardi che mai... :D

halduemilauno
25-11-2006, 12:31
meglio tardi che mai... :D

perchè hai moddato?
;)

capitan_crasy
25-11-2006, 13:15
Il Sito FiringSquad ha pubblicato una recensione della 8800GTX/8800GTS su piattaforme AMD ( 3800+,4200+,4600+,5000+,FX-62 )
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/aamts1280.gif
Clicca qui... (http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/)

Hal2001
25-11-2006, 13:40
e il sottile margine che c'era fra 7950 e 8800, che diventa ancora più appetibile

Cioè?

Kharonte85
25-11-2006, 13:53
perchè hai moddato?
;)
Perche' credevo di essere nell'altro thread... :stordita:

MiKeLezZ
25-11-2006, 13:58
Cioè?
Frase contorta, volevo dire che se si alza il margine prestazionale fra 7950 (ex top gamma) e 8800, l'acquisto di quest'ultima appare ancora più giustificale di quanto fosse prima, dove sembrava meno la differenza fra le due schede, causa utilizzo di una 7950 non standard

Hal2001
25-11-2006, 14:05
Allora avevo capito bene.. sono corso a guardare i grafici, incredibile, si è capovolta la situazione.

Chicco85
25-11-2006, 14:08
no. la 8800gtx rappresenta il meglio che Nvidia è ora in grado di proporre. se stavi pensando alla 7800gtx li si essendo una situazione particolare ovvero totale assenza di concorrenza allora si in quell'occasione Nvidia non fece uscire il meglio riservandoselo per quando ati sarebbe stata in grado di proporre la sua scheda. ma oggi no. il ritardo di ati non è di quelle dimensioni. certo è chiaro che per quando ati potrà presentare la sua scheda(R600)Nvidia dovrebbe essere in grado di presentare un refresh della attuale 8800gtx. dovrebbe. avvalorato dal fatto, che a quel punto essa potrà contare su un vantaggio temporale di alcuni/diversi mesi. perfetti per un refresh. ma questo fa parte della normale concorrenza fra le due case.
;)

Questo IMHO è parlare con cognizione di causa... ;)

Da non dimenticare, secondo me, che ATi ha una discreta esperienza con processi produttivi più fini (non che nVidia ora non abbia il Know How necessario, sto ragionando in base a quelli presenti sul mercato ora) e che ha anche una buona base di partenza, per chip a shader unificati, rappresentata da R500.

Ora sta ad ATi riuscire a colmare il ritardo temporale con qualcosa di valido, di certo adesso in fascia alta sta subendo un bel contraccolpo, soprattutto a livello di immagine.

MiKeLezZ
25-11-2006, 14:14
Da non dimenticare, secondo me, che ATi ha una discreta esperienza con processi produttivi più fini (non che nVidia ora non abbia il Know How necessario, sto ragionando in base a quelli presenti sul mercato ora)Sia ATI che nVidia sono FABLESS, ovvero si appoggiano a fonderie esterne per la produzione dei loro chip (TSMC e UMC), percui l'esperienza la hanno queste fonderie, e non l'azienda produttrice.
Nella progettazione dei chip, invece, sembra nVidia in realtà avvantaggiata, dimostrato dai chip più parsimoniosi di corrente pur mantenendo un processo produttivo di una generazione indietro

Chicco85
25-11-2006, 14:23
Sia ATI che nVidia sono FABLESS, ovvero si appoggiano a fonderie esterne per la produzione dei loro chip (TSMC e UMC), percui l'esperienza la hanno queste fonderie, e non l'azienda produttrice.
Nella progettazione dei chip, invece, sembra nVidia in realtà avvantaggiata, dimostrato dai chip più parsimoniosi di corrente pur mantenendo un processo produttivo di una generazione indietro

Vero che si appoggiano a fab esterne, però penso che la progettazione di un chip cambi (anche se non in modo radicale s'intende) tra 2 diversi processi produttivi.

Quanto alla seconda parte del tuo post, per ora i confronti rimangono chiaramente confinati a G71 ed R580+ ed, in questo caso, il maggiore consumo da parte della gpu ati penso sia da imputare alla maggiore complessità del chip, specilamente dovuta al memory controller.
In termini di rapporto performance/watt, credo che la distanza si riduca (eccezion fatta per la 7950gx2, su cui nvdia ha tirato fuori il meglio dell'ottimizzazione per quanto riguarda i consumi).

halduemilauno
25-11-2006, 14:42
Allora avevo capito bene.. sono corso a guardare i grafici, incredibile, si è capovolta la situazione.


allineandosi a tutte le altre rece.
;)

mich 66
25-11-2006, 21:09
un mostro di potenza.....pensate solo che la 7800 gtx "faceva" 2 mila miliardi di operazioni di calcolo in virgola mobile......questa ne farà almeno 5 mila miliardi!!!!!

goriath
28-11-2006, 00:53
Molto bella la recensione, complimenti... :)
Due appunti:
1) Nvidia consiglia una configurazione di Hard disk in Raid, mentre nella prova ce solo un un modello...
2) Anche se:

una prova a 1280X1024 ci voleva proprio.
Ok per sfruttare tutta la potenza del G80 ma in pochi si possono permettere un
monitor con risoluzioni che arrivano a 2560x1600...

1) nVidia non consiglia una configurazione RAID:);

http://www.hwupgrade.it/articoli/skvideo/1597/psu_slide_1.jpg

Consiglia di maggiorare i valori di alimentazione dati (del tutto indicativi) per entrambe le versioni delle schede, nel caso il sistema sia RAID, utilizzi un quantitativo di RAM maggiore ai 2GB, monti molteplici drive ottici ecc...

2) Sono perfettamente d' accordo; ora anche il monitor bisogna cambiare, e considerando quanta risoluzione mangiano (e mangeranno sempre più) ste nuove schede, il monitor smetterà di essere l' elemento più longevo di un pc (una volta era così) :asd:....

Schede video giganti, PSU come limousine (l' avete visto l' enermax della rece...), case-grattacielo e monitor panoramici, anzi cinematografici.....

Ma la mia camera sempre quella è, tra poco esco io per far entrare il pc:asd:...

D' accordo con il discorso del consumo. Mi rifiuto categoricamente di sprecare tanta energia... Uno dei problemi più rilevanti del nostro tempo è proprio il consumo energetico e la disponibilità di risorse....mi chiedo quando queste termineranno con cosa spingeremo questi giocattolini; i criceti basteranno? credo di no... e poi vorranno giocare anche loro, cribbio!:D

DakmorNoland
28-11-2006, 11:25
1) nVidia non consiglia una configurazione RAID:);



Consiglia di maggiorare i valori di alimentazione dati (del tutto indicativi) per entrambe le versioni delle schede, nel caso il sistema sia RAID, utilizzi un quantitativo di RAM maggiore ai 2GB, monti molteplici drive ottici ecc...

2) Sono perfettamente d' accordo; ora anche il monitor bisogna cambiare, e considerando quanta risoluzione mangiano (e mangeranno sempre più) ste nuove schede, il monitor smetterà di essere l' elemento più longevo di un pc (una volta era così) :asd:....

Schede video giganti, PSU come limousine (l' avete visto l' enermax della rece...), case-grattacielo e monitor panoramici, anzi cinematografici.....

Ma la mia camera sempre quella è, tra poco esco io per far entrare il pc:asd:...

D' accordo con il discorso del consumo. Mi rifiuto categoricamente di sprecare tanta energia... Uno dei problemi più rilevanti del nostro tempo è proprio il consumo energetico e la disponibilità di risorse....mi chiedo quando queste termineranno con cosa spingeremo questi giocattolini; i criceti basteranno? credo di no... e poi vorranno giocare anche loro, cribbio!:D


Vorrei solo far notare che sono emerse diverse indiscrezioni su R600, pare da fonti relativamente affidabili. E si dice che la nuova top di gamma ATI sarà + corta della 8800GTX, Ati infatti sta propio lavorando per questo, per accorciare il + possibile la scheda. I consumi anche dai dati emersi dovrebbero essere minori della GTX, pare ai livelli della GTS. Quindi direi che per ora il problema di consumi troppo elevati dovrebbe essere scongiurato. Certo anche la GTS consuma parecchio ma sono ancora consumi accettabili e ben lontani dai 250W! :eek: erroneamente pronosticati.
Si parla cmq di schede con consumi sui 130W in full, al livello quindi di una 7950GX2.

ligabuz
28-11-2006, 15:03
ma cribbio !
La stufetta consuma 200 watt a lampada.
Perchè consumano cosi' tantoi ???? SOno fatte di sabbia cavolo, semplice sabbia !!!
Secondo me lo fanno apposta :mbe:

DakmorNoland
28-11-2006, 19:46
ma cribbio !
La stufetta consuma 200 watt a lampada.
Perchè consumano cosi' tantoi ???? SOno fatte di sabbia cavolo, semplice sabbia !!!
Secondo me lo fanno apposta :mbe:

Sì sicuramente potrebbero fare di + per contenere i consumi, ma finchè stanno nei 130W in full è ancora accettabile. Con questo non dico che vada bene anzi! E' cmq troppo! Però è ancora passabile.

simon71
28-11-2006, 20:08
Scusate la domada OT :) Proprio oggi ho visto in un negozietto scrausissimo una Geffo 7600 GS AGP a 130 Euri....Visto che non sono proprio un espertone di VGA secondo voi cambierebbe qualcosa con la mia Radeon 1600 Pro :confused:

Fatemi sapere...gracias :D

Kharonte85
28-11-2006, 20:25
Scusate la domada OT :) Proprio oggi ho visto in un negozietto scrausissimo una Geffo 7600 GS AGP a 130 Euri....Visto che non sono proprio un espertone di VGA secondo voi cambierebbe qualcosa con la mia Radeon 1600 Pro :confused:

Fatemi sapere...gracias :D
Poco poco...nn prenderla ;)

Edit: :mbe: ma questo è un thread della 8800gtx sei decisamente :ot:

aaasssdddfffggg
03-12-2006, 11:30
Nonostante le intenzioni, Amd/Ati sarà costretta a rilasciare R600, la nuova gpu, a febbraio, in luogo di gennaio come originariamente voluto dai vertici dell'azienda di Sunnyvale.

Confermato, per questo processore grafico, il processo produttivo ad 80 nanometri e le piene funzionalità DirectX10; sulla base di quanto detto circa il rilascio, è adesso ipotizzabile che questo avvenga all'incirca nello stesso periodo in cui sarà presentato Windows Vista.

Tutto ciò mentre nVidia non dorme sicuramente sugli allori, dal momento che sta preparando una versione di G80 più veloce dell'attuale e che sarà pronta per il CeBit di Hannover, a marzo.
Questo vuol dire che se R600 dovesse risultare più veloce di G80 avrà scarso un mesetto soltanto di gloria...

The_SaN
03-12-2006, 13:30
Nonostante le intenzioni, Amd/Ati sarà costretta a rilasciare R600, la nuova gpu, a febbraio, in luogo di gennaio come originariamente voluto dai vertici dell'azienda di Sunnyvale.

Confermato, per questo processore grafico, il processo produttivo ad 80 nanometri e le piene funzionalità DirectX10; sulla base di quanto detto circa il rilascio, è adesso ipotizzabile che questo avvenga all'incirca nello stesso periodo in cui sarà presentato Windows Vista.

Tutto ciò mentre nVidia non dorme sicuramente sugli allori, dal momento che sta preparando una versione di G80 più veloce dell'attuale e che sarà pronta per il CeBit di Hannover, a marzo.
Questo vuol dire che se R600 dovesse risultare più veloce di G80 avrà scarso un mesetto soltanto di gloria...
Beh, dipende:
1- da quanto sará potente r600
2- da quanto sará il balzo in avanti con g81

Comunque io preferirei una situazione analoga 7800gtx - 7900gtx, con un bel die-shrink e forte riduzione dei consumi ;)

DakmorNoland
03-12-2006, 14:39
Tutto ciò mentre nVidia non dorme sicuramente sugli allori, dal momento che sta preparando una versione di G80 più veloce dell'attuale e che sarà pronta per il CeBit di Hannover, a marzo.
Questo vuol dire che se R600 dovesse risultare più veloce di G80 avrà scarso un mesetto soltanto di gloria...

No veramente questo vuol dire che Nvidia ha lanciato una ciofeca, prendendosi tempo per elaborare una GPU decente! :rolleyes:

Cmq non è detto che superi R600, anzi non credo propio...vedremo.

Dexther
03-12-2006, 14:42
Credo che quello che farà nvidia sarà :

-una riduzione delle dimensioni della GTX
-un refresh delle frequenze

Non credo che fra le 2 vga ci saranno differenze prestazionali incolmabili sinceramente... :stordita:

MiKeLezZ
03-12-2006, 14:44
No veramente questo vuol dire che Nvidia ha lanciato una ciofeca, prendendosi tempo per elaborare una GPU decente!
Una ciofeca non doppia in prestazioni l'attuale top gamma della concorrenza, aggiungendovi features e avendo consumi quasi paragonabili.
Hanno solo detto che prima o poi lanceranno una versione più potente... Cosa che i produttori di schede video fanno da non so quanti anni (altrimenti saremmo ancora a giocare con le nVidia TNT)
°_°"

aaasssdddfffggg
03-12-2006, 16:02
La versione che presenterà ad Hannover sarà quanto basta per stare davanti ad ATI.E' lo stesso presidente di nVIDIA che afferma "...continueremo nella nostra politica di trovarci sempre al vertice della piramide.Continueremo ad occupare il ruolo di protagonista in questo settore e non una posizione di ripego".
Prepariamoci ad un nuovo mostro quindi.

aaasssdddfffggg
03-12-2006, 16:04
Mi sa che nqui è ATI che ha perso il treno non rispondendo subito l'8 novembre all'uscvita del G80.
Quando uscirà R600 che si parla da un anno intero,,,tale GPU rischia di essere superata dopo solo un mesetto.Praticamente l'emblema di una supremazia tecnologica quale essere nVIDIA al momento.Finanziariamente è più potente.Questo conta anche in questo settore.

aaasssdddfffggg
03-12-2006, 16:09
Comunque anche il ceo di ATI ha affermato che dopo il lancio di R600 faranno un refresh delle loro schede di fascia hi-end ogni 6 mesi.Ne vedremo sicuramente delle belle nel corso del nuovoanno.

aaasssdddfffggg
03-12-2006, 16:13
Affermare che G80 non sia una GPU decente caro DakmorNomad vuol dire essere davvero poco competenti in questo settore.Ti consiglio di andarti a rileggere (semmai l'avessi fatto)la recensione di Paolo Corsini perbenino.

deck
03-12-2006, 16:21
Per Nemesis...ma fai collezione di post?Non c'è niente che puoi fare in 4 post contigui ad 1 minuto uno dall'altro che non puoi fare in uno solo...
Comunque il fatto che abbiano già detto che a marzo usciranno con le nuove versioni, fa sospettare che comunque le 8800gtx siano uscite senza alcune ottimizzazioni che si sarebbero potute aggiungere ritardando l'uscita per natale. D'altronde il vantaggio strategico (economico) di far uscire una versione della scheda 2-3 mesi prima della rivale (ed in tempo per il natale!) è evidente...finché non c'è concorrenza inoltre non vale la pena sbattersi più di tanto...o no?