PDA

View Full Version : [THREAD UFFICIALE] Geforce GTX280


Pagine : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

The_SaN
24-06-2008, 13:46
La temperatura di per sé non è sufficiente a cuocere niente, perché appena poggi la padella sul chip, la padella fa da dissipatore e la temperatura sulla scheda precipita ;) .

E' proprio questo il punto che forse è controintuitivo: il calore (la potenza da dissipare) cuoce, non la temperatura!

p.s. ovviamente, la padella non è un dissipatore buono, quindi la temperatura rischia di non scendere, (e l'uovo di non cuocersi comunque)
In ogni caso, con una padella adatta, le uova si cuociono bene su tutte le schede in commercio mi sa, e la cosa mi entusiasma pochissimo.

Provo a fargli un esempio, se permetti :D

Cosa scalda di piú la stanza? Una fiammella di 2 cm a 1500 gradi o un incencio a 900?

DarkNiko
24-06-2008, 14:22
90° sono assolutamente di norma con la 9800gx2 :O

Dipende. Se intendi 90° a default sì, se intendi 90° sotto overclock medio, potresti iniziare ad avere qualche problema. ;)

^Memphis^
24-06-2008, 17:23
Iscritto! Con 52 pagine di ritardo, ma iscritto! Salve ragazzi come va? :D
Allora, veniamo subito al sodo: non ho cambiato la mi fidata 8800gtx in attesa di questa scheda...vale la pena acquistarla? :D
Prezzi, marche o modelli da consigliare?
Perdonate l'irruenza (sembro un bimbo la mattina di natale:rolleyes: ), ma siccome ho riavuto ieri la connessione internet ero rimasto del tutto senza news! Ora che mi collego ritrovo questa top di gamma e dopo aver letto bench vari sarei curioso di sapere che ne pensate voi esperti! Grassie ragazzi!

appleroof
24-06-2008, 17:45
Iscritto! Con 52 pagine di ritardo, ma iscritto! Salve ragazzi come va? :D
Allora, veniamo subito al sodo: non ho cambiato la mi fidata 8800gtx in attesa di questa scheda...vale la pena acquistarla? :D
Prezzi, marche o modelli da consigliare?
Perdonate l'irruenza (sembro un bimbo la mattina di natale:rolleyes: ), ma siccome ho riavuto ieri la connessione internet ero rimasto del tutto senza news! Ora che mi collego ritrovo questa top di gamma e dopo aver letto bench vari sarei curioso di sapere che ne pensate voi esperti! Grassie ragazzi!

non so se sono esperto :D :p ma ho la 88gtx, gioco a 1920x1200, e al prezzo attuale, (quindi ponderando tutti i costi/benefici e guardando anche la concorrenza e -pare- il vicino refresh di g200 a 55nm) già in caduta libera rispetto al lancio (e credo continuerà a scendere ancora un pò) direi che non vale assolutamente la pena, ora come ora IMHO

Albi80
24-06-2008, 17:45
Se una scheda consuma 200 watt di potenza ,necessariamente dovra dissiparli nell aria,indipendentemente dalle temperature di esercizio.
Se lavora a 60 gradi implica che il dissipatore, considerando il delta termico con l ambiente ,e in grado di dissipare il calore nell aria piu facilmente.Se lavora a 90 vuol dire che il dissipatore necessita di un delta T maggiore rispetto all ambiente per dissipare la stessa potenza ,in quanto il delta termico e una variabile nell equazione , (ad esempio le lamelle sono piu piccole ,non sono in rame etc etc)
In linea teorica se a parita di watt , la gpu potesse lavorare a 1000 gradi non servirebbero dissipatori.
Le ferrari usano uno stratagemma simile per i radiatori.Tengono l acqua del radiatore oltre i 100 gradi in pressione , cosi possono usare superfici radianti piu piccole a vantaggio del cx aerodinamico.
Visto che sono ing elettrotecnico e non e mia materia,magari se un ing meccanico mi conferma cio che ho detto sarei ben lieto

ArCH85
24-06-2008, 18:26
Ah si può arrivare a 1200 con la memoria!?!? TOP!

Scusa ma hai provato ad aumentare i giri della ventola, io dico che se la metti sull'80% quando vai in OC ti raffredda meglio la scheda, magari puoi salire un po' di più.

si la mem regge stabile i 1200 (ci ho rifinito crysis :ciapet: )

dopo cena provo un 1600 di shader con core a 650, vediamo se regge.. il ventilatore è diventato un must, qua dentro si soffoca.. il prossimo stipendio va in condizionatore split.. lol :D

Mercuri0
24-06-2008, 18:38
Le ferrari usano uno stratagemma simile per i radiatori.Tengono l acqua del radiatore oltre i 100 gradi in pressione , cosi possono usare superfici radianti piu piccole a vantaggio del cx aerodinamico.
Visto che sono ing elettrotecnico e non e mia materia,magari se un ing meccanico mi conferma cio che ho detto sarei ben lieto
Almeno nelle macchine la maggior parte della potenza prodotta dal combustibile finisce sulle ruote (muove la macchina).

Sui chip *tutti* i consumi finiscono in calore!


dopo cena provo un 1600 di shader con core a 650, vediamo se regge.. il ventilatore è diventato un must, qua dentro si soffoca.. il prossimo stipendio va in condizionatore split.. lol :D
Anziché i giochi, il produttori dovrebbero mettere in bundle ventilatori con le nuove schede :asd:

Tornando a parlare di termodinamica: per raffreddare tot watt di potenza termica ci vogliono gli stessi watt + le inefficienze (nin zo: 30%? 70%?) del condizionatore.

E questi 2*tot watt + tot% di inefficienza finiscono tutti in bolletta (che non è un gran danno finché non devono razionare la corrente d'estate), e in calore in strada.

p.s. è più forte di me, a me questa "tecnologia" non fa affatto figo.

^Memphis^
24-06-2008, 18:41
non so se sono esperto :D :p ma ho la 88gtx, gioco a 1920x1200, e al prezzo attuale, (quindi ponderando tutti i costi/benefici e guardando anche la concorrenza e -pare- il vicino refresh di g200 a 55nm) già in caduta libera rispetto al lancio (e credo continuerà a scendere ancora un pò) direi che non vale assolutamente la pena, ora come ora IMHO

Tranquillo Appleroof, da quando sono parte di questo forum mi hai sempre dato ottimi consigli quindi per me sei esperto!

Cioè attualmente conviene + acquistare una 88gtx che una nuova gtx280? Le prestazioni sono ancora simili? :mbe:

appleroof
24-06-2008, 19:08
Tranquillo Appleroof, da quando sono parte di questo forum mi hai sempre dato ottimi consigli quindi per me sei esperto!

Cioè attualmente conviene + acquistare una 88gtx che una nuova gtx280? Le prestazioni sono ancora simili? :mbe:

non ho detto questo: la gtx280 è la più veloce scheda in circolazione, e và molto meglio della 8800gtx, ma nel rapporto prezzo/prestazioni non eccelle in confronto ad altre schede

poi siamo in un momento particolare: occorre vedere la 4870 e la 4870x2, e poi la risposta Nvidia (dal semplice abbassamento dei prezzi delle gtx260/280 al refresh di queste a 55nm -che a sua volta non esclude prezzi buoni ma anche ulteriori vantaggi- specificando che si pensa possa avvenire in fretta ma non prima di qualche mese, cmq, IMHO) credo che dopo l'estate si avrà il quadro migliore per valutare il cambio

se a tutto questo aggiungi infine (tutt'altro che un particolare nel mio ragionamento) che ad oggi la stragrande maggioranza dei giochi gira ottimamente su una 8800gtx, tutto sommato il cambio da questa a gtx280 oggi come oggi non lo vedo sensato (escludo dal discorso chi vuole il top punto e basta)

avendo proprio fretta, vedo più sensato il cambio da 8800gtx a gtx260, ora come ora

spero di aver espresso meglio il mio parere :D



p.s.: grazie per la stima :)

ArCH85
24-06-2008, 19:29
dunque.. sempre test su gioco reale in Reckoning (Crysis livello finale sulla portaerei per chi non lo sapesse)

shader a 1600, esploso il driver dopo pochi secondi.. la scheda non sentiva più il 3D, (mi lavorava a 250/100/100 lol) ho dovuto riavviare Win per farla ripartire :p

testata con ventilatore sparato nel case ha retto tutto l'ultimo livello (ormai lo conosco a memoria) stabile senza artefatti o problemi vari ed eventuali a 700/1500/1200. (temperatura sempre con ventilatore 82° di picco)


potrei provare a spingere ancora un po', ma penso di essere vicino al limite senza VMod :) (e non ci penso nemmeno con una scheda di questo costo e nuova di pacca :p )

ArCH85
24-06-2008, 19:40
Riepilogo test di OC:


Default (602/1296/1107):

24/06/2008 20.31.37 - Vista 64
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 1900x1200, AA=No AA, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=1, Time Of Day= 9
Global Game Quality: VeryHigh
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 93.69s, Average FPS: 21.35
Min FPS: 17.45 at frame 1523, Max FPS: 28.24 at frame 90
Average Tri/Sec: -8661125, Tri/Frame: -405721
Recorded/Played Tris ratio: -2.26
TimeDemo Play Ended, (1 Runs Performed)
==============================================================

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

24/06/2008 20.31.37 - Vista 64

Run #1- DX10 1900x1200 AA=No AA, 64 bit test, Quality: VeryHigh ~~ Last Average FPS: 21.35




650/1400/1200:

24/06/2008 20.35.10 - Vista 64
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 1900x1200, AA=No AA, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=1, Time Of Day= 9
Global Game Quality: VeryHigh
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 87.32s, Average FPS: 22.91
Min FPS: 18.39 at frame 1515, Max FPS: 33.12 at frame 67
Average Tri/Sec: -9297875, Tri/Frame: -405923
Recorded/Played Tris ratio: -2.26
TimeDemo Play Ended, (1 Runs Performed)
==============================================================

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

24/06/2008 20.35.10 - Vista 64

Run #1- DX10 1900x1200 AA=No AA, 64 bit test, Quality: VeryHigh ~~ Last Average FPS: 22.91



700/1500/1200:

24/06/2008 20.37.59 - Vista 64
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 1900x1200, AA=No AA, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=1, Time Of Day= 9
Global Game Quality: VeryHigh
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 82.46s, Average FPS: 24.25
Min FPS: 18.36 at frame 1953, Max FPS: 34.95 at frame 68
Average Tri/Sec: -9841867, Tri/Frame: -405787
Recorded/Played Tris ratio: -2.26
TimeDemo Play Ended, (1 Runs Performed)
==============================================================

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

24/06/2008 20.37.59 - Vista 64

Run #1- DX10 1900x1200 AA=No AA, 64 bit test, Quality: VeryHigh ~~ Last Average FPS: 24.25

^Memphis^
24-06-2008, 19:47
non ho detto questo: la gtx280 è la più veloce scheda in circolazione, e và molto meglio della 8800gtx, ma nel rapporto prezzo/prestazioni non eccelle in confronto ad altre schede

poi siamo in un momento particolare: occorre vedere la 4870 e la 4870x2, e poi la risposta Nvidia (dal semplice abbassamento dei prezzi delle gtx260/280 al refresh di queste a 55nm -che a sua volta non esclude prezzi buoni ma anche ulteriori vantaggi- specificando che si pensa possa avvenire in fretta ma non prima di qualche mese, cmq, IMHO) credo che dopo l'estate si avrà il quadro migliore per valutare il cambio

se a tutto questo aggiungi infine (tutt'altro che un particolare nel mio ragionamento) che ad oggi la stragrande maggioranza dei giochi gira ottimamente su una 8800gtx, tutto sommato il cambio da questa a gtx280 oggi come oggi non lo vedo sensato (escludo dal discorso chi vuole il top punto e basta)

avendo proprio fretta, vedo più sensato il cambio da 8800gtx a gtx260, ora come ora

spero di aver espresso meglio il mio parere :D



p.s.: grazie per la stima :)

Grazie per il consiglio, ora ho capito ciò che volevi dire! Per quanto riguarda l'efficenza e la longevità della 88gtx nn si discute in quanto ad oggi l'unico gioco che mi ha dato un po' di problemi è stato GRID con Vista64 (in Xp gira che è una meraviglia:rolleyes: )...escluso Crisys scartato a priori per non deprimermi....
Visti i fatti aspetterò un po' prima di spendere i miei poveri risparmi...

Buona serata a tutti!

P.S.: di nulla, per me è così

mircocatta
24-06-2008, 23:41
se sono stati così veloci a fare una 9800gtx a 55nm (cioè la 9800gtx+),lo saranno anche per quanto riguarda la gtx280?

si sa nulla a riguardo?? io devo acquistare qualcosa, sono senza vga e queste nuove schede mi mettono confusione!! e se uscisse la gtx280 a 55nm...beh...sarebbe la prima mia scelta!!!!!!:(

fr4nc3sco
25-06-2008, 06:45
se sono stati così veloci a fare una 9800gtx a 55nm (cioè la 9800gtx+),lo saranno anche per quanto riguarda la gtx280?

si sa nulla a riguardo?? io devo acquistare qualcosa, sono senza vga e queste nuove schede mi mettono confusione!! e se uscisse la gtx280 a 55nm...beh...sarebbe la prima mia scelta!!!!!!:(

il 55nm dell g92 èra gia pronto il gt200 a 55nm ci sono problemi di altra natura va abbandonato il bus a 512bit quindi necessita di un po di modifiche e test in piu e ddr5 molto performanti, pro uscirà verso natale gennaio

ArCH85
25-06-2008, 07:06
il 55nm dell g92 èra gia pronto il gt200 a 55nm ci sono problemi di altra natura va abbandonato il bus a 512bit quindi necessita di un po di modifiche e test in piu e ddr5 molto performanti, pro uscirà verso natale gennaio

già... non mi ricordo chi aveva detto che 55nm e bus a 512bit non era possibile realizzarlo (anche se non ho capito perchè :stordita: )

Mercuri0
25-06-2008, 15:24
già... non mi ricordo chi aveva detto che 55nm e bus a 512bit non era possibile realizzarlo (anche se non ho capito perchè :stordita: )
E' possibile realizzarlo, solo che i contatti per i piedini comincerebbero a prendere troppo spazio, limitando la dimensione minima del chip.

Ma lo faranno ugualmente se serve

The_max_80
25-06-2008, 15:29
ragazzi come pensate che si attiverà nvidia a livello di prezzo considerando che la 4870 è a metà strada tra 260 e 280 costando 300 euro meno di quest'ultima? c'è secondo voi speranza di un abbattimento del prezzo di almeno 150 euro?

_morghan_1968
25-06-2008, 16:08
a breve non credo ci saranno dei grossi tagli: i fornitori hanno comprato al prezzo imposto e devono prima finire quelle hanno in casa...
visto il rapporto qualità / prezzo delle ati...
qualcosa dovranno comunque fare :mc:

Mercuri0
25-06-2008, 16:16
ragazzi come pensate che si attiverà nvidia a livello di prezzo considerando che la 4870 è a metà strada tra 260 e 280 costando 300 euro meno di quest'ultima? c'è secondo voi speranza di un abbattimento del prezzo di almeno 150 euro?
Non è così semplice da dire. In nVidia adesso staranno contando quando gli costa mantenere ogni punto percentuale di marketshare. Potrebbero decidere di rinunciare a qualche punto di marketshare e produrre poche GTX che magari sbologneranno a prezzo alto, oppure rimetterci soldi per mantenere la loro quota di mercato, svendendo le GTX. Boh.

a breve non credo ci saranno dei grossi tagli: i fornitori hanno comprato al prezzo imposto e devono prima finire quelle hanno in casa...
visto il rapporto qualità / prezzo delle ati...
qualcosa dovranno comunque fare :mc:
Nvidia può fare anche dei rimborsi a produttori e fornitori, volendo. Inoltre la data del lancio della GTX260 è domani, possono ancora sistemare il prezzo credo.

Andrea deluxe
25-06-2008, 16:22
E' possibile realizzarlo, solo che i contatti per i piedini comincerebbero a prendere troppo spazio, limitando la dimensione minima del chip.

Ma lo faranno ugualmente se serve

un bel chip grosso(per ospitare i bga) con die piccolo!

appleroof
25-06-2008, 16:25
Non è così semplice da dire. In nVidia adesso staranno contando quando gli costa mantenere ogni punto percentuale di marketshare. Potrebbero decidere di rinunciare a qualche punto di marketshare e produrre poche GTX che magari sbologneranno a prezzo alto, oppure rimetterci soldi per mantenere la loro quota di mercato, svendendo le GTX. Boh.


Nvidia può fare anche dei rimborsi a produttori e fornitori, volendo. Inoltre la data del lancio della GTX260 è domani, possono ancora sistemare il prezzo credo.

quoto, entrambe le strade non sono indolore assolutamente, ma sono percorribili...

un bel chip grosso(per ospitare i bga) con die piccolo!

io a questo punto ho idea che uscirà prima di quanto si creda...

Andrea deluxe
25-06-2008, 16:32
infatti nessuno impedisce di fare un chip alla athlon xp 3200
http://img102.imageshack.us/img102/5821/bartonvk6.jpg

tempo al tempo!


alla tsmc avranno gia' ricevuto la chiamata dal boss nvidia che gli ha detto: "SENTIT GUAGLIO' LO FACEMMO STO CHIP A 55NANO METRI SHI O NO? CA ACCA LA ATI STA' UN POCO CO U FIATO SUL COLL...."

D4N!3L3
25-06-2008, 16:41
infatti nessuno impedisce di fare un chip alla athlon xp 3200
CUT

tempo al tempo!


alla tsmc avranno gia' ricevuto la chiamata dal boss nvidia che gli ha detto: "SENTIT GUAGLIO' LO FACEMMO STO CHIP A 55NANO METRI SHI O NO? CA ACCA LA ATI STA' UN POCO CO U FIATO SUL COLL...."

A ma pensa, non pensavo che il boss di Nvidia fosse di Napoli. :asd:

Quante cose si scoprono.

Andrea deluxe
25-06-2008, 16:48
A ma pensa, non pensavo che il boss di Nvidia fosse di Napoli. :asd:

Quante cose si scoprono.

:D

Mercuri0
25-06-2008, 17:02
un bel chip grosso(per ospitare i bga) con die piccolo!
Nah, quando si parla di "pad" si parla di contatti sul die ;)

Pare che persino RV770 fosse pad limited*, tanto che ci hanno aggiunto 2SP, visto che gli avanzava spazio. :D
(i pad gli fissavano la dimensione minima!)

io a questo punto ho idea che uscirà prima di quanto si creda...
Di certo prima possibile, ma è molto improbabile prima dell'autunno inoltrato o fine autunno.

Però non saprei dire cosa aspettarmi. Magari esce un "GT202" direttamente, alla G92, per competere sui prezzi.
Il vantaggio delle GDDR5 però è bello grande per Ati, nVidia dovrebbe muoversi a supportarle. E poi bisognerà vedere come si comporta la 4870x2... insomma il futuro è bello incerto.

appleroof
25-06-2008, 17:06
cut

Di certo prima possibile, ma è molto improbabile prima dell'autunno inoltrato o fine autunno.

Però non saprei dire cosa aspettarmi. Magari esce un "GT202" direttamente, alla G92, per competere sui prezzi.
Il vantaggio delle GDDR5 però è bello grande per Ati, nVidia dovrebbe muoversi a supportarle. E poi bisognerà vedere come si comporta la 4870x2... insomma il futuro è bello incerto.

quoto tutto, per i 55nm verso fine anno, è appunto prima di quanto mi aspettassi (io e non solo, ammesso che sarà così): si diceva non prima del 2009....vediamo

holydio
25-06-2008, 17:18
Ciao a tutti! Una domanda, ma il cavo con le due uscite positivo e negativo a che serve?

danazzo
25-06-2008, 19:42
mi conviene per 100 eurozzi fare un upgrade 9800gx2|280gtx?

appleroof
25-06-2008, 19:44
mi conviene per 100 eurozzi fare un upgrade 9800gx2|280gtx?

bella domanda....io cmq direi di no

The_max_80
25-06-2008, 19:48
mi conviene per 100 eurozzi fare un upgrade 9800gx2|280gtx?

no

Andrea deluxe
25-06-2008, 19:56
mi conviene per 100 eurozzi fare un upgrade 9800gx2|280gtx?

io ti consiglio di farlo e di farlo in fretta!!!!!!!!!

paolo.guidx
25-06-2008, 20:29
La temperatura di per sé non è sufficiente a cuocere niente, perché appena poggi la padella sul chip, la padella fa da dissipatore e la temperatura sulla scheda precipita ;) .

E' proprio questo il punto che forse è controintuitivo: il calore (la potenza da dissipare) cuoce, non la temperatura!

p.s. ovviamente, la padella non è un dissipatore buono, quindi la temperatura rischia di non scendere, (e l'uovo di non cuocersi comunque)
In ogni caso, con una padella adatta, le uova si cuociono bene su tutte le schede in commercio mi sa, e la cosa mi entusiasma pochissimo.

Penso che se appoggi una padella sulla scheda fai un corto della madonna.....:D Le uova le cuoci nel microonde.....;)

michelgaetano
25-06-2008, 20:39
io ti consiglio di farlo e di farlo in fretta!!!!!!!!!

Come mai?

Le prestazioni sono quelle.

Io non lo farei mai.

The_max_80
25-06-2008, 20:44
Come mai?

Le prestazioni sono quelle.

Io non lo farei mai.
tra l'altro il prezzo puo andare solo a scendere, quindi di sicuro non va fatto in fretta, anzi....

McGraw
25-06-2008, 20:49
mi conviene per 100 eurozzi fare un upgrade 9800gx2|280gtx?

In che senso per 100E, cioé c'é qualcuno che ti compra la 9800GX2 come nuova? cmq prestazionalmente non ci vedo differenze degne di nota, a patto di avere uno schermo da 30" e nel rapporto prestazioni/prezzo la 9800GX2 risulta sicuramente molto avvantaggiata!

fr4nc3sco
25-06-2008, 20:49
Come mai?

Le prestazioni sono quelle.

Io non lo farei mai.

ma pareri personali la gtx280 ha di meglio i frame minimi anche se poi i medi sono identici in pratica livella piu i frame rispetto alla gx2 dove ha picchi piu alti e bassi

gup133
25-06-2008, 21:01
Ragazzi ho appena preso la bestiolina (una xfx gtx280 XXX), che driver mi consigliate? credete che rivatuner possa andare bene anche su questa scheda?

michelgaetano
25-06-2008, 21:22
ma pareri personali la gtx280 ha di meglio i frame minimi anche se poi i medi sono identici in pratica livella piu i frame rispetto alla gx2 dove ha picchi piu alti e bassi

Vero, ma resta il fatto che spendere allo stato attuale 200 euro (vendita della gx2 e acquisto 280) per una vga che va uguale...beh non lo farei.

x.vegeth.x
25-06-2008, 21:37
Vero, ma resta il fatto che spendere allo stato attuale 200 euro (vendita della gx2 e acquisto 280) per una vga che va uguale...beh non lo farei.

lui ha detto che gli costerebbe solo 100€...io lo farei

cristian-BG
26-06-2008, 00:05
ho montato il pc domenica... ora la video la rispedisco x un rma.. condensatori che fanno un sibilo.. e in certi giochi è costante...! :doh:

fr4nc3sco
26-06-2008, 07:24
ho montato il pc domenica... ora la video la rispedisco x un rma.. condensatori che fanno un sibilo.. e in certi giochi è costante...! :doh:

be allora casci male io ne ho 2 e nei menu dei game specie crysis pare esplodino, da quanto fischiano, ci dovrai fare l'abitudine senno passarai tutti i 2 anni di garanzia in RMA sono tutte cosi fischiano

halduemilauno
26-06-2008, 07:27
mi conviene per 100 eurozzi fare un upgrade 9800gx2|280gtx?

per 100€ si. poi dipende anche da che monitor usi da 24 in su certo che si.


Ragazzi ho appena preso la bestiolina (una xfx gtx280 XXX), che driver mi consigliate? credete che rivatuner possa andare bene anche su questa scheda?

http://www.hwupgrade.it/download/file/3828.html
;)

McGraw
26-06-2008, 07:58
3DMark Vantage e la fisica calcolata dalla GPU

Ripreso testualmente da: http://www.tomshw.it/news.php?newsid=14520

"Secondo il sito TheInquirer, nVidia starebbe per così dire "barando" sui risultati del benchmark 3DMark Vantage realizzato da Futuremark. Il programma in questione si prefigge di testare al meglio le nuove schede DirectX 10 in ambiente Windows Vista, cercando di restituire all'utente un punteggio che permetta di capire come lse la caverebbe a scheda con i videogiochi basati sulle ultime API Microsoft.

Il nocciolo della questione, che potete leggere in lingua inglese qui, riguarda i driver 177.39 che nel corso di luglio (secondo le ultimissime) dovrebbero integrare le API PhysX dell'acquisita AGEIA, e quindi permetterebbero alle GPU supportate di calcolare la fisica, sgravando il processore da questo compito, e soprattutto non richiedendo l'uso di una scheda fisica dedicata. Fin qui,nulla di scandaloso, nVidia è libera di fare ciò che vuole delle proprietà intellettuali acquisite, anche non utilizzarle nel caso non lo ritenesse opportuno.

http://www.tomshw.it/articles/20080626/image010_c.gif

Secondo il sito londinese, però, l'uso di questi driver con il 3DMark Vantage non sarebbe lecito, perché secondo la "3DMark Vantage Driver Approval Policy" la GPU non dovrebbe influenzare un test sviluppato per testare le capacità fisiche di un certo prodotto o, nel caso questo non sia installato nel computer, della CPU. L'uso della GPU per i test sulla fisica, quindi, andrebbe contro alle regole del benchmark.

Un altro problema si presenterebbe all'installazione dei driver, perché le PhysX DLL sono rimpiazzate da un set completamente differente di DLL. Secondo The Inquirer, ciò i driver 177.39 sono troppo diversi dagli altri driver, per stare nella stessa categoria, in quanto effettuando le prove della CPU con la GPU si "trucca" il risultato finale. nVidia consiglierebbe inoltre di eseguire il CPU Test 2 in Performance Preset per ottenere un miglior punteggio, sconsigliando l'uso dell'Extreme Preset, situazione che TheInquirer non definisce corretta, in quanto l'Extreme Preset è l'impostazione che dovrebbe mettere sotto maggior carico la GPU.

Come risultato finale, le schede nVidia otterrebbero un 10% di incremento nel punteggio finale e un vantaggio di 7,5 volte nei sotto-test riservati alla fisica. Insomma un vantaggio ritenuto da TheInquirer del tutto non corretto, dovuto ad un'ottimizzazione che falsa la realtà, anche in virtù del fatto che le schede ATI al momento non possono fare altrettanto con il benchmark di FutureMark.

Ma la risposta di nVidia a queste pesanti accuse non si è fatta attendere, sulle pagine di HotHardware.

Roy Taylor ha affermato innanzitutto che l'azienda non ottimizza i driver per un solo benchmark, spiegando come avvengono i fatti: durante l'installazione del benchmark viene aggiornata una libreria di runtime che permette ai test fisici di essere eseguiti sulla GPU anzichè sulla PPU o la CPU. nVidia ammette (ndr: giustamente) che i risultati sono diversi ma, "i punteggi saranno differenti anche quando si effettua un test su un processore dual-core anziché su un quad-core". Insomma, cambia solo il componente che elabora i dati, non più il PhysX o la CPU, ma la GPU, che essendo più efficiente permette di raggiungere risultati migliori. Non viene ottimizzato null'altro, afferma Taylor, il carico di lavoro imposto dal test rimane invariato.

nVidia, sebbene non sia scritto chiaramente, pensa di portare i driver al giudizio di Futuremark per l'approvazione, perché "se i giochi possono avvantaggiarsi della fisica sulla GPU, anche il 3Dmark Vantage, per dirsi un test reale, dovrà tener conto di questa funzionalità".

Ma cosa ne pensa Futuremark? HotHardware ha sentito anche questa campana. Oliver Baltuch ha dichiarato che i driver 177.39 non sono attualmente in fase di ispezione, tanto che nVidia li sta usando solo per propositi dimostrativi. Attualmente Futuremark si sta occupando di autorizzare i driver 8.6 di ATI e i 177.35 di nVidia. Futuremark si occupa infatti solo di driver WHQL. Tuttavia, Oliver Baltuch conclude ricordando che la fisica sulla GPU sarà un aspetto importante per il futuro, lasciando intendere che Futuremark potrebbe aprire la sua policy in favore proprio di questo aspetto."


In definitiva se con prossimi driver ci saranno guadagni evidenti sui bench dei giochi bene, altrimenti non é che ci strappiamo i capelli per dei bench gonfiati al 3DMark Vantage!!! :D

Wikkle
26-06-2008, 08:02
chiedo qui visto che siete tutti esperti nvidia :D

dopo le gtx cosa deve uscire e quando? (capisco sia impossibile dire la data, ma per capire se si parla di 08, oppure 09)

fr4nc3sco
26-06-2008, 08:14
chiedo qui visto che siete tutti esperti nvidia :D

dopo le gtx cosa deve uscire e quando? (capisco sia impossibile dire la data, ma per capire se si parla di 08, oppure 09)

i piani sarebbero stati un "gt200" a 55nm per gennaio con ddr5 ma mai dire mai tutto dipende da ati

ulukaii
26-06-2008, 08:23
i piani sarebbero stati un "gt200" a 55nm per gennaio con ddr5 ma mai dire mai tutto dipende da ati

A quanto pare, leggendo siti "attendibili" (staremo a vedere se è vero) la 4870 dovrebbe avere le stesse prestazioni del GTX260 (non come la 280GTX come avevo precedentemente scritto, pensavo una cosa e ne ho scritta un'altra... sorry), con i soliti alti e bassi già visti tra quest'ultima e la 9800 GX2...
Questo non impedisce ad AMD/ATI di lavorarci sopra, più memoria, frequenze maggiori, etc... senza contare che faranno certamente uscire una versione "X2" della loro ammiraglia...

Bisogna vedere cosa decideranno alla nVidia, se andare verso i 55nm e ddr5 in anticipo, oppure (secondo me sarebbe la scelta migliore) ritoccare verso il basso i loro prezzi, che al momento sono l'effettivo "gap" che li separa dalla rivale.

gup133
26-06-2008, 08:42
per 100€ si. poi dipende anche da che monitor usi da 24 in su certo che si.




http://www.hwupgrade.it/download/file/3828.html
;)


Grazie, la monto stasera e comincerò con le prove!;)

fr4nc3sco
26-06-2008, 09:04
A quanto pare, leggendo siti "attendibili" (staremo a vedere se è vero) la 4870 dovrebbe avere le stesse prestazioni del GTX280, con i soliti alti e bassi già visti tra quest'ultima e la 9800 GX2...
Questo non impedisce ad AMD/ATI di lavorarci sopra, più memoria, frequenze maggiori, etc... senza contare che faranno certamente uscire una versione "X2" della loro ammiraglia...

Bisogna vedere cosa decideranno alla nVidia, se andare verso i 55nm e ddr5 in anticipo, oppure (secondo me sarebbe la scelta migliore) ritoccare verso il basso i loro prezzi, che al momento sono l'effettivo "gap" che li separa dalla rivale.

la 4870 va come una gtx260 se vedi sul web gia da ieri si sono miglioni di recezioni

_morghan_1968
26-06-2008, 09:10
provato la gtx280....
(da un' amico che ha la mia stessa config)
come prestazioni è superiore allo sli di ultra xxx che aveva prima.
sembra... (non ci sono test a dimostrarlo), che la qualità dell' immagine sia migliorata
x chi odia le config a doppia scheda (e i problemi relativi, specie dei chipset nvidia) questa non mi è sembrata male, anzi........
unica nota (prezzo apparte) il rumore con la ventola a 100 (necessaria x andare a 700 di core)

michelgaetano
26-06-2008, 09:15
la 4870 va come una gtx260 se vedi sul web gia da ieri si sono miglioni di recezioni

Sì, la 4870 va solo poco meglio.

Il vantaggio, è il prezzo.

McGraw
26-06-2008, 09:15
la 4870 va come una gtx260 se vedi sul web gia da ieri si sono miglioni di recezioni

Infatti la GTX260 doveva essere la mia nuova scheda :cry: ma poi aggirato l'ostacolo ho messo la testa a posto e risparmiando 30/40E ho fatto un SLI con prestazioni paragonabili alla 9800GX2 reference... ;)

halduemilauno
26-06-2008, 09:20
3DMark Vantage e la fisica calcolata dalla GPU

Ripreso testualmente da: http://www.tomshw.it/news.php?newsid=14520

"Secondo il sito TheInquirer, nVidia starebbe per così dire "barando" sui risultati del benchmark 3DMark Vantage realizzato da Futuremark. Il programma in questione si prefigge di testare al meglio le nuove schede DirectX 10 in ambiente Windows Vista, cercando di restituire all'utente un punteggio che permetta di capire come lse la caverebbe a scheda con i videogiochi basati sulle ultime API Microsoft.

Il nocciolo della questione, che potete leggere in lingua inglese qui, riguarda i driver 177.39 che nel corso di luglio (secondo le ultimissime) dovrebbero integrare le API PhysX dell'acquisita AGEIA, e quindi permetterebbero alle GPU supportate di calcolare la fisica, sgravando il processore da questo compito, e soprattutto non richiedendo l'uso di una scheda fisica dedicata. Fin qui,nulla di scandaloso, nVidia è libera di fare ciò che vuole delle proprietà intellettuali acquisite, anche non utilizzarle nel caso non lo ritenesse opportuno.

http://www.tomshw.it/articles/20080626/image010_c.gif

Secondo il sito londinese, però, l'uso di questi driver con il 3DMark Vantage non sarebbe lecito, perché secondo la "3DMark Vantage Driver Approval Policy" la GPU non dovrebbe influenzare un test sviluppato per testare le capacità fisiche di un certo prodotto o, nel caso questo non sia installato nel computer, della CPU. L'uso della GPU per i test sulla fisica, quindi, andrebbe contro alle regole del benchmark.

Un altro problema si presenterebbe all'installazione dei driver, perché le PhysX DLL sono rimpiazzate da un set completamente differente di DLL. Secondo The Inquirer, ciò i driver 177.39 sono troppo diversi dagli altri driver, per stare nella stessa categoria, in quanto effettuando le prove della CPU con la GPU si "trucca" il risultato finale. nVidia consiglierebbe inoltre di eseguire il CPU Test 2 in Performance Preset per ottenere un miglior punteggio, sconsigliando l'uso dell'Extreme Preset, situazione che TheInquirer non definisce corretta, in quanto l'Extreme Preset è l'impostazione che dovrebbe mettere sotto maggior carico la GPU.

Come risultato finale, le schede nVidia otterrebbero un 10% di incremento nel punteggio finale e un vantaggio di 7,5 volte nei sotto-test riservati alla fisica. Insomma un vantaggio ritenuto da TheInquirer del tutto non corretto, dovuto ad un'ottimizzazione che falsa la realtà, anche in virtù del fatto che le schede ATI al momento non possono fare altrettanto con il benchmark di FutureMark.

Ma la risposta di nVidia a queste pesanti accuse non si è fatta attendere, sulle pagine di HotHardware.

Roy Taylor ha affermato innanzitutto che l'azienda non ottimizza i driver per un solo benchmark, spiegando come avvengono i fatti: durante l'installazione del benchmark viene aggiornata una libreria di runtime che permette ai test fisici di essere eseguiti sulla GPU anzichè sulla PPU o la CPU. nVidia ammette (ndr: giustamente) che i risultati sono diversi ma, "i punteggi saranno differenti anche quando si effettua un test su un processore dual-core anziché su un quad-core". Insomma, cambia solo il componente che elabora i dati, non più il PhysX o la CPU, ma la GPU, che essendo più efficiente permette di raggiungere risultati migliori. Non viene ottimizzato null'altro, afferma Taylor, il carico di lavoro imposto dal test rimane invariato.

nVidia, sebbene non sia scritto chiaramente, pensa di portare i driver al giudizio di Futuremark per l'approvazione, perché "se i giochi possono avvantaggiarsi della fisica sulla GPU, anche il 3Dmark Vantage, per dirsi un test reale, dovrà tener conto di questa funzionalità".

Ma cosa ne pensa Futuremark? HotHardware ha sentito anche questa campana. Oliver Baltuch ha dichiarato che i driver 177.39 non sono attualmente in fase di ispezione, tanto che nVidia li sta usando solo per propositi dimostrativi. Attualmente Futuremark si sta occupando di autorizzare i driver 8.6 di ATI e i 177.35 di nVidia. Futuremark si occupa infatti solo di driver WHQL. Tuttavia, Oliver Baltuch conclude ricordando che la fisica sulla GPU sarà un aspetto importante per il futuro, lasciando intendere che Futuremark potrebbe aprire la sua policy in favore proprio di questo aspetto."


In definitiva se con prossimi driver ci saranno guadagni evidenti sui bench dei giochi bene, altrimenti non é che ci strappiamo i capelli per dei bench gonfiati al 3DMark Vantage!!! :D


I driver della discordia, i GeForce 177.39 WHQL, sono tra noi. nVidia li ha resi disponibili da pochissimo. Introducono come novità più rilevante la tecnologia nVidia PhysX, che permette alle GPU di eseguire i calcoli dei motori fisici realizzati con le librerie PhysX di AGEIA (acquisita da nVidia). Come vedete i driver portano la dicitura WHQL, quindi sono stati approvati da Microsoft, quindi compatibili con le prove del team di FutureMark, e potenzialmente adatti all'approvazione per la compatibilità con il benchmark 3DMark Vantage.



La tecnologia Nvidia PhysX è supportata al momento solo dalle schede grafiche GeForce 9800 GTX, GeForce GTX 280 e GeForce GTX 260. L'azienda non specifica se la compatibilità sia estesa anche al nuovo modello 9800 GTX+ (qui i dettagli), anche se non vediamo vincoli in merito. Il pacchetto GeForce 177.39 integra anche l'NVIDIA PhysX System Software v8.06.12.

Windows Vista 32-bit
Windows Vista 64-bit
Windows XP 32-bit
Windows XP 64-bit
Secondo voci di corridoio, nVidia dovrebbe rilasciare nella giornata di oggi anche i driver 117.41 WHQL, che non integreranno il support PhysX.

http://www.tomshw.it/news.php?newsid=14523

;)

fr4nc3sco
26-06-2008, 09:24
provato la gtx280....
(da un' amico che ha la mia stessa config)
come prestazioni è superiore allo sli di ultra xxx che aveva prima.
sembra... (non ci sono test a dimostrarlo), che la qualità dell' immagine sia migliorata
x chi odia le config a doppia scheda (e i problemi relativi, specie dei chipset nvidia) questa non mi è sembrata male, anzi........
unica nota (prezzo apparte) il rumore con la ventola a 100 (necessaria x andare a 700 di core)

io per ora con ventola al 100% riesco a fare il vantage cosi:
http://img57.imageshack.us/img57/7607/screen017qa5.th.jpg (http://img57.imageshack.us/my.php?image=screen017qa5.jpg)
lo 06 cosi:
http://img57.imageshack.us/img57/4577/screen013bp5.th.jpg (http://img57.imageshack.us/my.php?image=screen013bp5.jpg)


quello che mi kiedo è come fanno a far andare la zotac AMP a 700 di core, le cose sono 2 o via bios o via pbc danno piu volt alla gpu oppure nn ho proprio idea sono super selezionate

fr4nc3sco
26-06-2008, 09:31
I driver della discordia, i GeForce 177.39 WHQL, sono tra noi. nVidia li ha resi disponibili da pochissimo. Introducono come novità più rilevante la tecnologia nVidia PhysX, che permette alle GPU di eseguire i calcoli dei motori fisici realizzati con le librerie PhysX di AGEIA (acquisita da nVidia). Come vedete i driver portano la dicitura WHQL, quindi sono stati approvati da Microsoft, quindi compatibili con le prove del team di FutureMark, e potenzialmente adatti all'approvazione per la compatibilità con il benchmark 3DMark Vantage.



La tecnologia Nvidia PhysX è supportata al momento solo dalle schede grafiche GeForce 9800 GTX, GeForce GTX 280 e GeForce GTX 260. L'azienda non specifica se la compatibilità sia estesa anche al nuovo modello 9800 GTX+ (qui i dettagli), anche se non vediamo vincoli in merito. Il pacchetto GeForce 177.39 integra anche l'NVIDIA PhysX System Software v8.06.12.

Windows Vista 32-bit
Windows Vista 64-bit
Windows XP 32-bit
Windows XP 64-bit
Secondo voci di corridoio, nVidia dovrebbe rilasciare nella giornata di oggi anche i driver 117.41 WHQL, che non integreranno il support PhysX.

http://www.tomshw.it/news.php?newsid=14523

;)


sono beta per ora nn sono WHQL

_morghan_1968
26-06-2008, 09:55
io per ora con ventola al 100% riesco a fare il vantage cosi:
http://img57.imageshack.us/img57/7607/screen017qa5.th.jpg (http://img57.imageshack.us/my.php?image=screen017qa5.jpg)
lo 06 cosi:
http://img57.imageshack.us/img57/4577/screen013bp5.th.jpg (http://img57.imageshack.us/my.php?image=screen013bp5.jpg)


quello che mi kiedo è come fanno a far andare la zotac AMP a 700 di core, le cose sono 2 o via bios o via pbc danno piu volt alla gpu oppure nn ho proprio idea sono super selezionate

tu sei arrivato a 734...
l' 8500 lo tieni a liquido ?
che mainboard hai ?

fr4nc3sco
26-06-2008, 09:58
tu sei arrivato a 734...
l' 8500 lo tieni a liquido ?
che mainboard hai ?

ti ho addato su msn comunque
8500 a liquido
zotac 790i ultra

ulukaii
26-06-2008, 10:16
la 4870 va come una gtx260 se vedi sul web gia da ieri si sono miglioni di recezioni

Sì, infatti volevo scrivere 260 e ho scritto 280, che imbecille :doh: vado su a correggere

halduemilauno
26-06-2008, 10:19
sono beta per ora nn sono WHQL

http://www.nvidia.com/object/physx_8.06.12_whql.html

fr4nc3sco
26-06-2008, 10:24
http://www.nvidia.com/object/physx_8.06.12_whql.html

si ma si parlava dei 177.39 che sono beta e al loro interno integrano gia i 8.06 almeno da quello che si legge nelle note


Note: GeForce v177.39 driver package includes NVIDIA PhysX System Software v8.06.12.

GeForce GTX 280 GPUs
GeForce GTX 260 GPUs
GeForce 9800 GTX GPUs
AGEIA PhysX Processor (All)

fr4nc3sco
26-06-2008, 11:54
qualcuno ha provato Nvidia Medusa vi da corruzioni quando si inizia a pietrificare?

cristian-BG
26-06-2008, 12:14
be allora casci male io ne ho 2 e nei menu dei game specie crysis pare esplodino, da quanto fischiano, ci dovrai fare l'abitudine senno passarai tutti i 2 anni di garanzia in RMA sono tutte cosi fischiano

ciao... ho sentito il supporto tecnico dove l'ho acquistata e mi hanno detto che non devono fischiare i condensatori e che ne hanno provate diverse e non devono fischiare... quindi l'ho riportata.. e mi daranno una che non fischia la faccio testare da loro!

fr4nc3sco
26-06-2008, 12:15
ciao... ho sentito il supporto tecnico dove l'ho acquistata e mi hanno detto che non devono fischiare i condensatori e che ne hanno provate diverse e non devono fischiare... quindi l'ho riportata.. e mi daranno una che non fischia la faccio testare da loro!

ah bene a sapersi :D le mie fischiano specie in crysis ma visto come salgono le tengo fischianti :D

cristian-BG
26-06-2008, 12:17
ah bene a sapersi :D le mie fischiano specie in crysis ma visto come salgono le tengo fischianti :D

io la ho della evga... il core l'ho portato a 640 cm niente :)

fr4nc3sco
26-06-2008, 12:23
io la ho della evga... il core l'ho portato a 640 cm niente :)

be le mie ventola auto 675/1450/1200 reggono sesioni lunge di gioco

_morghan_1968
26-06-2008, 12:25
ah bene a sapersi :D le mie fischiano specie in crysis ma visto come salgono le tengo fischianti :D

se il fischio dei condensatori ti " fastidia "
fai in modo che non vibrino...
io avevo il problema sulla ultra...
risolto con alcune " punti " di silicone applicato con uno stuzzicadenti :D
alla tua personale fantasia l' impiego di al3 soluzioni...

Milotto
26-06-2008, 12:29
mi conviene per 100 eurozzi fare un upgrade 9800gx2|280gtx?

Se avessi letto le recensioni avresti la risposta...:NO!

_morghan_1968
26-06-2008, 12:31
@ francesco...
ma il risultato del 3dm06 e del vantage è in config sli di 2 gtx280...
ho capito bene ?

x.vegeth.x
26-06-2008, 12:32
I driver della discordia, i GeForce 177.39 WHQL, sono tra noi. nVidia li ha resi disponibili da pochissimo. Introducono come novità più rilevante la tecnologia nVidia PhysX, che permette alle GPU di eseguire i calcoli dei motori fisici realizzati con le librerie PhysX di AGEIA (acquisita da nVidia). Come vedete i driver portano la dicitura WHQL, quindi sono stati approvati da Microsoft, quindi compatibili con le prove del team di FutureMark, e potenzialmente adatti all'approvazione per la compatibilità con il benchmark 3DMark Vantage.



La tecnologia Nvidia PhysX è supportata al momento solo dalle schede grafiche GeForce 9800 GTX, GeForce GTX 280 e GeForce GTX 260. L'azienda non specifica se la compatibilità sia estesa anche al nuovo modello 9800 GTX+ (qui i dettagli), anche se non vediamo vincoli in merito. Il pacchetto GeForce 177.39 integra anche l'NVIDIA PhysX System Software v8.06.12.

Windows Vista 32-bit
Windows Vista 64-bit
Windows XP 32-bit
Windows XP 64-bit
Secondo voci di corridoio, nVidia dovrebbe rilasciare nella giornata di oggi anche i driver 117.41 WHQL, che non integreranno il support PhysX.

http://www.tomshw.it/news.php?newsid=14523

;)



vorrebbero venirmi a dire che per il supporto physx con la 9800gx2 non si può fare niente?!? :muro: :muro:

Iceman69
26-06-2008, 12:35
quello che mi kiedo è come fanno a far andare la zotac AMP a 700 di core, le cose sono 2 o via bios o via pbc danno piu volt alla gpu oppure nn ho proprio idea sono super selezionate

Oltretutto costano solo 30 euro più di quelle normali dal prossimo, direi che questa volta convenga prendere quelle pre-overcloccate, anche se temo che più di 700 non possano salire, ma per 30 euro chi se ne frega.

michelgaetano
26-06-2008, 12:59
Oltretutto costano solo 30 euro più di quelle normali dal prossimo, direi che questa volta convenga prendere quelle pre-overcloccate, anche se temo che più di 700 non possano salire, ma per 30 euro chi se ne frega.

Beh non avete tutti i torti.

Arrivati a spendere 500 euro, ne spendo davvero 530 e ho il core cazzuto :P

fr4nc3sco
26-06-2008, 13:15
@ francesco...
ma il risultato del 3dm06 e del vantage è in config sli di 2 gtx280...
ho capito bene ?

esatto

ulukaii
26-06-2008, 13:20
vorrebbero venirmi a dire che per il supporto physx con la 9800gx2 non si può fare niente?!? :muro: :muro:

Dai tempo al tempo, estenderanno il supporto anche ad altre schede (si parla anche della famiglia 8800), figurati se si lasciano scappare la 9800GX2...

x.vegeth.x
26-06-2008, 13:23
Dai tempo al tempo, estenderanno il supporto anche ad altre schede (si parla anche della famiglia 8800), figurati se si lasciano scappare la 9800GX2...

il fatto è che la 9800gx2 fa concorrenza a gtx 280, nvidia potrebbe cercare di aumentarne il gap non dandogli il supporto physx :sofico:

mircocatta
26-06-2008, 13:29
il fatto è che la 9800gx2 fa concorrenza a gtx 280, nvidia potrebbe cercare di aumentarne il gap non dandogli il supporto physx :sofico:

imho il supporto al physic con le attuali vga abbasserebbero le prestazioni delle vga nel campo 3d perchè hanno meno potenza di calcolo, per questo non lo danno alla serie 9...

appleroof
26-06-2008, 14:59
qualcuno ha provato Nvidia Medusa vi da corruzioni quando si inizia a pietrificare?

nessuna corruzione (uso i 175.16)

fr4nc3sco
26-06-2008, 15:20
nessuna corruzione (uso i 175.16)

bo io in sli coi 175.35 mi sfarfalla pero ora che ci penzo forze i driver erano settati su performance

Giustaf
26-06-2008, 15:44
imho il supporto al physic con le attuali vga abbasserebbero le prestazioni delle vga nel campo 3d perchè hanno meno potenza di calcolo, per questo non lo danno alla serie 9...

e beta con il supporto alla fisica per la 9800gtx sono già usciti però...:boh:

fr4nc3sco
26-06-2008, 15:44
nuovi driver fuori 177.41 whql

gup133
26-06-2008, 15:48
nuovi driver fuori 177.41 whql

funzionano con rivatuner?

breakz
26-06-2008, 15:50
Ciao gente!!!...Mi iscrivo anke io a questo thread!!!...:)!

fr4nc3sco
26-06-2008, 16:03
funzionano con rivatuner?

evga precision funziona messi subito sotto torchio con crysis e la mia conf di comparazione vediamo intanto posso dire 177.35 fa 43frame 177.39 40 frame 175.41 43frame sempre nn male siamo sul livello degli altri

breakz
26-06-2008, 16:18
Ciao gente!

Ma questi 177.41....hanno il supporto per nVidia PhysX?....e poi i 177.39...sono beta o whql?

shamata
26-06-2008, 16:45
Ma la 280 è limitata dal PCI express 1? Perché ormai ste schede video sono tutte PCI express 2.0. Io non intendo fare SLI, ma eventualmente montarla su una P35. :)

D4N!3L3
26-06-2008, 16:52
nuovi driver fuori 177.41 whql

E dove li avresti visti? Su sito di Nvidia non ci sono assolutamente, ci sono solo i 177.39. :confused:

halduemilauno
26-06-2008, 16:54
E dove li avresti visti? Su sito di Nvidia non ci sono assolutamente, ci sono solo i 177.39. :confused:

http://www.computerbase.de/downloads/treiber/grafikkarten/nvidia/nvidia_forceware/
;)

_morghan_1968
26-06-2008, 17:24
di poco....
ma rendono meglio i 177.35 (?)

D4N!3L3
26-06-2008, 17:32
http://www.computerbase.de/downloads/treiber/grafikkarten/nvidia/nvidia_forceware/
;)

E perchè se sono WHQL non li mettono sul sito di Nvidia? :confused:

okorop
26-06-2008, 17:36
è uscita la gtx280 iper overcloccata dall'evga: si chiama supersuperoverclocked

appleroof
26-06-2008, 17:39
è uscita la gtx280 iper overcloccata dall'evga: si chiama supersuperoverclocked

:spam:

halduemilauno
26-06-2008, 17:42
E perchè se sono WHQL non li mettono sul sito di Nvidia? :confused:

comandi...
http://www.nvidia.it/object/winvista_x86_177.41_whql_it.html
;)

okorop
26-06-2008, 17:43
:spam:

no non è spam è a titolo informativo ed è in vendita......non ho messo il link del negozio perche è vietato :)
http://www.evga.com/products/moreInfo.asp?pn=01G-P3-1284-AR&family=GeForce%20GTX%20200%20Series%20Family
ssc sta per super super clocked

Mister Tarpone
26-06-2008, 17:43
:spam:

oppure "alla ricerca del flame perduto" :asd:

zorco
26-06-2008, 17:45
oppure "alla ricerca del flame perduto" :asd:
:asd: ....:rolleyes:

appleroof
26-06-2008, 17:45
no non è spam è a titolo informativo ed è in vendita......non ho messo il link del negozio perche è vietato :)
http://www.evga.com/products/moreInfo.asp?pn=01G-P3-1284-AR&family=GeForce%20GTX%20200%20Series%20Family
ssc sta per super super clocked

:rolleyes:

ah okorop sù....

http://www.hwupgrade.it/forum/showpost.php?p=23062057&postcount=9896

oppure "alla ricerca del flame perduto" :asd:

:asd: :asd: :asd:

okorop
26-06-2008, 17:48
:rolleyes:

ah okorop sù....

http://www.hwupgrade.it/forum/showpost.php?p=23062057&postcount=9896



:asd: :asd: :asd:

ho spammato di la non qui :)
non mi permetterei mai di spammare qui era a titolo informativo.....comunque devo dire che se costasse meno sarebbe stata un ottima scheda video e invece costa troppo per le mie tasche.......

D4N!3L3
26-06-2008, 17:50
comandi...
http://www.nvidia.it/object/winvista_x86_177.41_whql_it.html
;)

Accidenti fino a poco fa non c'erano, ma questi includono il supporto PhysX o no? Nelle note non c'è scritto nulla al riguardo. :confused:

halduemilauno
26-06-2008, 18:04
Accidenti fino a poco fa non c'erano, ma questi includono il supporto PhysX o no? Nelle note non c'è scritto nulla al riguardo. :confused:

questi no. se lo desideri devi mettere i 177.39.
http://www.nvidia.it/object/winvista_x86_177.39_beta_it.html
oppure...
http://www.nvidia.com/object/physx_8.06.12_whql.html
;)

fr4nc3sco
26-06-2008, 18:05
Accidenti fino a poco fa non c'erano, ma questi includono il supporto PhysX o no? Nelle note non c'è scritto nulla al riguardo. :confused:

si ma devi istallare a parte i driver physx nn sono compresi nei driver ma una volta messi a parte pare vederli

Albi80
26-06-2008, 19:27
Ma la 280 è limitata dal PCI express 1? Perché ormai ste schede video sono tutte PCI express 2.0. Io non intendo fare SLI, ma eventualmente montarla su una P35. :)


Dai un'occhiata qua e fatti un idea http://www.tomshw.it/graphic.php?guide=20080421

Iantikas
26-06-2008, 19:49
mi conviene per 100 eurozzi fare un upgrade 9800gx2|280gtx?

assolutamente NO!!!...



...ciao;)

breakz
26-06-2008, 21:25
Ciao gente!!!...Qualkuno ke ha cominciato a flashare bios modificati o originali di modelli ovrcloccati su modelli con frequenze (core,ram,shader) a default???..;)!

DarkNiko
26-06-2008, 21:41
Ciao gente!!!...Qualkuno ke ha cominciato a flashare bios modificati o originali di modelli ovrcloccati su modelli con frequenze (core,ram,shader) a default???..;)!

Penso che ti convenga prima vedere tramite RivaTuner (o AtiTool) quale sia il limite della VGA o se almeno la VGA, alle frequenze dei bios overcloccati di fabbrica, regga tali frequenze. ;)

_morghan_1968
26-06-2008, 22:16
è capitato anche a voi di avere artefatti con i .39 ???
messo i .41 e sono spariti :confused:

x.vegeth.x
27-06-2008, 00:21
qualcuno ha provato Nvidia Medusa vi da corruzioni quando si inizia a pietrificare?


io l'ho scaricato, ma che è? ho visto solo l'inizio ma faccio pochissimi fps, tra i 10 e i 30 :confused:

NOOB4EVER
27-06-2008, 06:27
si ma devi istallare a parte i driver physx nn sono compresi nei driver ma una volta messi a parte pare vederli


CIAO FR4NC3SCO volevo chiederti se per lo sli di gtx280 ci sono i due sli bridge come per le ultra o solo uno?? :)

fr4nc3sco
27-06-2008, 06:57
CIAO FR4NC3SCO volevo chiederti se per lo sli di gtx280 ci sono i due sli bridge come per le ultra o solo uno?? :)

ovviamente 2 per poter fare lo sli a 3 vie! Sono usciti i WB della EK se qualcuno è interessato mi mandi pm sto facendo l'ordine

NOOB4EVER
27-06-2008, 08:58
ovviamente 2 per poter fare lo sli a 3 vie! Sono usciti i WB della EK se qualcuno è interessato mi mandi pm sto facendo l'ordine

nono aspetta ,ricordi con le ultra?? ci volevano 2 slibridges per lo sli non per il 3way,volevo sapere se in condizione di sli (no 3 way) cioe 2 vga bisogna,come nel caso delle 8800ultra ,connetterle tramite 2 bridge!!

NOOB4EVER
27-06-2008, 08:59
ps:hai per caso i link dei wb che magari ci faccio un pensierino?:)

fr4nc3sco
27-06-2008, 09:31
nono aspetta ,ricordi con le ultra?? ci volevano 2 slibridges per lo sli non per il 3way,volevo sapere se in condizione di sli (no 3 way) cioe 2 vga bisogna,come nel caso delle 8800ultra ,connetterle tramite 2 bridge!!

io le mie 2 le ho connesse col doppio bridge e vanno quanto pare :D
vai sui sito EK

NOOB4EVER
27-06-2008, 09:34
io le mie 2 le ho connesse col doppio bridge e vanno quanto pare :D
vai sui sito EK

e dove lo hai reperito? io nella mobo ne ho trovato uno solo !!!

baila
27-06-2008, 09:36
Leggevo sui post indetro che ci sono schede che fanno rumore elettronico,ma lo fanno a tutte?

fr4nc3sco
27-06-2008, 09:40
e dove lo hai reperito? io nella mobo ne ho trovato uno solo !!!

lolll ho usato quello del 3 vie semplice :D ti mando pm per il wb

gup133
27-06-2008, 09:43
lolll ho usato quello del 3 vie semplice :D ti mando pm per il wb

manderesti il pm anche a me?:)

A.L.M.
27-06-2008, 10:20
Quindi dovrei essere felice che la scheda raggiunge i 90C°, oppure magari... dovrei esserlo perchè al 100% di regime la ventola segna 47C° in idle? :asd:

Ma se la 8800GT era pure peggio, con le schede OC di fabbrica che andavano in protezione dopo un oretta di gioco e quindi andavano downclockate... :rolleyes:
Eppure veniva comunque osannata come scheda eccezionale (il che è vero).
Programmini tipo rivatuner esistono per questo. ;)

-noxius-
27-06-2008, 10:21
CONFERMATE ????
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=194&Itemid=1&limit=1&limitstart=3

NOOB4EVER
27-06-2008, 10:31
lolll ho usato quello del 3 vie semplice :D ti mando pm per il wb

si ma lo hai acquistato a parte perche non c'e' nella confezione della mobo :confused: :confused:

fr4nc3sco
27-06-2008, 10:47
si ma lo hai acquistato a parte perche non c'e' nella confezione della mobo :confused: :confused:

no no ci stanno entrambi sia il normale a 2 vie che il 3 vie

McGraw
27-06-2008, 10:54
CONFERMATE ????
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=194&Itemid=1&limit=1&limitstart=3

Un fatto insolito, ma i 175.19 non supportano mica la fisica o si?
se é cosi io non li istallo é chiaro! :D
Soltanto i 177.41 per le GT200 dovrebbero supportare la fisica o no?
bho non si capisce piu niente! :confused:

Defragg
27-06-2008, 12:53
http://images.anandtech.com/reviews/video/ATI/4800/rv770vsgtxvspenryn.png
Che bestione :sofico:

-noxius-
27-06-2008, 12:58
Mi verrebbe da dire ''GGeF'' :ciapet: (non la stò a spiegare sennò riparte il flame )

Defragg
27-06-2008, 13:24
Mi verrebbe da dire ''GGeF'' :ciapet: (non la stò a spiegare sennò riparte il flame )

Good Game e Fuck? :stordita:

appleroof
27-06-2008, 13:33
http://images.anandtech.com/reviews/video/ATI/4800/rv770vsgtxvspenryn.png
Che bestione :sofico:

già, chiisa che qui non ci siano avvisaglie di 55nm

http://forum.beyond3d.com/showpost.php?p=1181761&postcount=172

Defragg
27-06-2008, 13:37
già, chiisa che qui non ci siano avvisaglie di 55nm

http://forum.beyond3d.com/showpost.php?p=1181761&postcount=172
Mmh, sono scettico che arrivino in fretta sul mercato, a mio avviso devono prima finire tutti i chip a 65nm che hanno prodotto (non molti), per agosto/settembre se ne parlerà.
Comunque non è stata una mossa saggia presentare GT200 a 65nm a mio modesto avviso, sembra (sembra, eh, non sia mai! :asd: ) di rivedere un po' ATi costretta a presentare R600 a 80nm invece che a 65nm.

appleroof
27-06-2008, 13:42
Mmh, sono scettico che arrivino in fretta sul mercato, a mio avviso devono prima finire tutti i chip a 65nm che hanno prodotto (non molti), per agosto/settembre se ne parlerà.
Comunque non è stata una mossa saggia presentare GT200 a 65nm a mio modesto avviso, sembra (sembra, eh, non sia mai! :asd: ) di rivedere un po' ATi costretta a presentare R600 a 80nm invece che a 65nm.

certo, agosto/settembre sarebbe già oltre le più rosee previsioni (io mi aspetto minimo 6 mesi) però il fatto che nei driver ci sia la scheda non può che far sperare bene nei tempi

cmq anche a 55nm gt200 sarà verosimilmente più grosso di rv770,ma io mi aspetto che i 55nm portino benefici nei prezzi, se scendesse faccio per dire sui 300 euro migliorando di un altro 10% le prestazioni rispetto a gtx280, sarebbe una vga eccellente

aspettiamo (mai come ora son contento di aspettare :asd: ) e vediamo ;)

McGraw
27-06-2008, 14:01
Certo é che con il GT200 a 55nm dovranno lavorare molto per tirarci fuori incrementi di MHz su core e s.p. non indifferenti, coadiuvati a mio avviso da almeno 2400MHz per la memoria.... sicuramente i MHz degli s.p. si alzeranno di molto visti gli scarsi 1296MHz di ora, per il G92 che vabbé é un altra cosa gli s.p per la revisione a 55nm lavorano a 1836MHz!!!

Poi é tutto da vedere ma credo che Nvidia in qualche modo reagisca, se iniziava a reagire con i prezzi era un bell'iniziare :D

halduemilauno
27-06-2008, 14:12
Certo é che con il GT200 a 55nm dovranno lavorare molto per tirarci fuori incrementi di MHz su core e s.p. non indifferenti, coadiuvati a mio avviso da almeno 2400MHz per la memoria.... sicuramente i MHz degli s.p. si alzeranno di molto visti gli scarsi 1296MHz di ora, per il G92 che vabbé é un altra cosa gli s.p per la revisione a 55nm lavorano a 1836MHz!!!

Poi é tutto da vedere ma credo che Nvidia in qualche modo reagisca, se iniziava a reagire con i prezzi era un bell'iniziare :D

sono d'accordo. infatti è stata una brutta sorpresa vedere cambiato il rapporto core shader da 1/2.5 a 1/2.15.

appleroof
27-06-2008, 14:20
qualche possessore di gtx280, potrebbe se ha voglia fare alcuni test con giochi che supportano phisix 8magari abilitando e disabilitando la fisica) e potrebbe postarli qui?

http://www.hwupgrade.it/forum/showthread.php?t=1772022

McGraw
27-06-2008, 14:37
sono d'accordo. infatti è stata una brutta sorpresa vedere cambiato il rapporto core shader da 1/2.5 a 1/2.15.

Secondo me é frutto delle dimensioni della gpu e quindi volutamente impostati a lavorare cosi in basso per non alzare ulteriormente i consumi della vga e soprattutto il calore generato... speriamo che i 55nm risolvano questo problema in modo da far incrementare ulteriormente le prestazioni piu di quanto non abbia saputo fare il G92 da 65 a 55nm... :)

halduemilauno
27-06-2008, 15:01
Secondo me é frutto delle dimensioni della gpu e quindi volutamente impostati a lavorare cosi in basso per non alzare ulteriormente i consumi della vga e soprattutto il calore generato... speriamo che i 55nm risolvano questo problema in modo da far incrementare ulteriormente le prestazioni piu di quanto non abbia saputo fare il G92 da 65 a 55nm... :)

ma se i consumi e il calore sono inferiori(e mi pare manco di poco)a quanto andavano dicendo rumors e similia?
si certo i 55nm in questo saranno determinanti.

McGraw
27-06-2008, 15:35
ma se i consumi e il calore sono inferiori(e mi pare manco di poco)a quanto andavano dicendo rumors e similia?
si certo i 55nm in questo saranno determinanti.

mi sono espresso male, non volevo dire che é un problema, ma che i MHz degli s.p. siano bassi per non far alzare troppo i consumi e le temperature, poi cosi comé tanto di cappello a consumi e temperature, intesi! ;)

halduemilauno
27-06-2008, 15:41
mi sono espresso male, non volevo dire che é un problema, ma che i MHz degli s.p. siano bassi per non far alzare troppo i consumi e le temperature, poi cosi comé tanto di cappello a consumi e temperature, intesi! ;)

io invece sto dicendo che dato i consumi e calore inferiori a quanto ci si attendeva le frequenze(specie degli shader)son troppo basse.

Mister Tarpone
27-06-2008, 15:52
già, chiisa che qui non ci siano avvisaglie di 55nm

http://forum.beyond3d.com/showpost.php?p=1181761&postcount=172

:eek: :sborone:


a sto giro shader a 1800mhz ovviamente... :sborone:

-noxius-
27-06-2008, 15:53
Good Game e Fuck? :stordita:

Grande Grossa e Fregnona, quello che aveva detto halduemilauno, da chiaroveggente che ci becca a priori (infatti ... :rolleyes: ) , un merito agli sp delle r700 .

berry83
27-06-2008, 16:02
alla fine allora è meglio la 280gtx della 4870?

FreeMan
27-06-2008, 16:03
Grande Grossa e Fregnona, quello che aveva detto halduemilauno, da chiaroveggente che ci becca a priori (infatti ... :rolleyes: ) , un merito agli sp delle r700 .

ennesimo richiamo a tener bassi i toni...

e avviso che i richiami finiranno... presto

>bYeZ<

-noxius-
27-06-2008, 16:18
ennesimo richiamo a tener bassi i toni...

e avviso che i richiami finiranno... presto

>bYeZ<

Se posso, ho solo riportato quello che HA DETTO LUI IN PASSATO (PAROLE TESTUALI) quindi al massimo devi (avresti dovuto..) richiamare lui .. :read: (sono forse stato segnalato in privato ? Hehe .. bene )

The_SaN
27-06-2008, 16:43
ma se i consumi e il calore sono inferiori(e mi pare manco di poco)a quanto andavano dicendo rumors e similia?
si certo i 55nm in questo saranno determinanti.

Non so quanto possano influire i 55nm sui consumi...guarda cosa é successo alle 9800gtx+. Hanno pochi mhz in piú della 9800gtx e consumano di piú.
Per le dimensioni del die (e costi di produzione), invece, saranno determinanti secondo me.

Mercuri0
27-06-2008, 16:48
io invece sto dicendo che dato i consumi e calore inferiori a quanto ci si attendeva le frequenze(specie degli shader)son troppo basse.
Separando il costo del GT200 tra la GTX260 e la GTX280, coi dati dai rumor ho calcolato che il solo GT200 sulla GTX280 costa a nVidia 200$, mentre quello sulla GTX260 costa 66$
Ovviamente il costo viene poi "spalmato" tra i due chip.

Premesso questo, pensa che succede se aumentando anche di poco la frequenza, per garantire il corretto funzionamento agli utenti nVidia vede ridursi ancora gli yeld.

In queste condizioni alzando la frequenza, il rapporto prestazioni/costo non sale , ma scende! La GTX280 andrebbe di più, ma costerebbe ancora di più (e chissà quanto), in maniera più che proporzionale!

Di certo nVidia ha scelto le frequenze che massimizzano tutti i conti. ;)

gaturla
27-06-2008, 22:15
Ma riva tuner 2.09 non supporta i driver 177.35.Bisognera' aspettare una nuova versione?COMUNQUE HO letto nel forum che qualcuno l'ha portata a 650/1400/1200.Non e' rischioso senza regolazione della ventola?

Crysis90
27-06-2008, 22:17
Interessantissimo questo video:

http://it.youtube.com/watch?v=3GHyE9xJZJE

mircocatta
27-06-2008, 22:41
Interessantissimo questo video:

http://it.youtube.com/watch?v=3GHyE9xJZJE

veramente belle...

ma non capisco, in call of duty va quasi il doppio!! nelle review non sembrava così :mbe:

neanche negli altri game... perchè così tanta differenza dalle review??

che non sia veramente un'altro mondo questa gtx280????? no perchè altrimenti aspetto cher si abbassa il prezzo e non compro la 4870..

alienStock
27-06-2008, 23:23
veramente belle...

ma non capisco, in call of duty va quasi il doppio!! nelle review non sembrava così :mbe:

neanche negli altri game... perchè così tanta differenza dalle review??

che non sia veramente un'altro mondo questa gtx280????? no perchè altrimenti aspetto cher si abbassa il prezzo e non compro la 4870..



bhè nelle review non avevano gli ultmi driver può essere che siano migliorate le prestazioni, e magari miglioreranno ancora:D

mircocatta
27-06-2008, 23:41
bhè nelle review non avevano gli ultmi driver può essere che siano migliorate le prestazioni, e magari miglioreranno ancora:D

la vedo dubbia

geminibruni
28-06-2008, 00:26
L'unica cosa che ancora non possiamo prevedere è come il supporto delle applicazioni AGEIA possa influire in futuro nelle prestazioni delle applicazzioni che ne faranno uso.... Comunque che piano piano le prestazioni delle nuove bestiole guadagnino margine sulle "vecchie" generazioni è normale, visto che dubito fortemente che verranno ancora compiuti sforzi da parte di Nvidia per ottimizzare le prestazioni per la GX2, a differenza di quanto accadrà per le nuove appunto, anche se non è lecito aspettarsi margini "miracolosi"....

fr4nc3sco
28-06-2008, 07:18
veramente belle...

ma non capisco, in call of duty va quasi il doppio!! nelle review non sembrava così :mbe:

neanche negli altri game... perchè così tanta differenza dalle review??

che non sia veramente un'altro mondo questa gtx280????? no perchè altrimenti aspetto cher si abbassa il prezzo e non compro la 4870..

be le considerazioni da fare sono molte alcune sono :
1 risoluzioni molto alte dove la gx2 va in buffer limit
2 le review solitamente lanciano benchmark in game prefatti, dove si sa che le ottimizzazioni dei driver sono ben fatti, poi quando uno gioca si trova su un altro mondo! un esempio lampante che mi ricordo a mente, vi ricordavate la presentazione del crossfireX 3780x2 con C.O.D.4 davano un 3x in piu messe in crossfire roba da oltre 200 frame,messi in game be una volta che giocavi piu andavi su con i livelli e peggio era in media meno di 60!

gaturla
28-06-2008, 08:41
Nessuno risponde forse ho sbagliato discussione o e' riservata ai senior member!:D

_morghan_1968
28-06-2008, 08:50
Nessuno risponde forse ho sbagliato discussione o e' riservata ai senior member!:D

ciao ...
nessun problema, puoi regolare la velocità della ventola con riva :)

D4N!3L3
28-06-2008, 08:51
Ma riva tuner 2.09 non supporta i driver 177.35.Bisognera' aspettare una nuova versione?COMUNQUE HO letto nel forum che qualcuno l'ha portata a 650/1400/1200.Non e' rischioso senza regolazione della ventola?

Io attualmente ho i beta 177.39 e funziona perfettamente. ;)


Per quanto riguarda l'accelerazione fisica ieri ho provato la PhysX mod di UT3 usando l'accelerazione fisica della GPU e devo dire che va a framerate abbastanza bassi, un gioco come UT3 diventa ingiocabile, sicuramente dovranno fare ancora un bel lavoro di ottimizzazione per rendere fluido il tutto.

fr4nc3sco
28-06-2008, 08:52
Ma riva tuner 2.09 non supporta i driver 177.35.Bisognera' aspettare una nuova versione?COMUNQUE HO letto nel forum che qualcuno l'ha portata a 650/1400/1200.Non e' rischioso senza regolazione della ventola?

riva nn lo so evga precision va con tutte le 280 di qualunque marca e va anche coi 177.41.
per le freguenze se esageri la vga va in protezione crashando i driver oppure abbassando alle freguenze 2d in genere ventola stock "40/45%" fa 660/680 senza problemi mentre gli shared pare che a 1500 inizi il muro le ram vanno anche a 1300 tranquille

fr4nc3sco
28-06-2008, 08:55
Io attualmente ho i beta 177.39 e funziona perfettamente. ;)


Per quanto riguarda l'accelerazione fisica ieri ho provato la PhysX mod di UT3 usando l'accelerazione fisica della GPU e devo dire che va a framerate abbastanza bassi, un gioco come UT3 diventa ingiocabile, sicuramente dovranno fare ancora un bel lavoro di ottimizzazione per rendere fluido il tutto.

ti ho addato su msn mi puoi spiegare come giocare con la mod physx a ut3 che nn ho capito come fare sai nn gioco molto a quel game

gaturla
28-06-2008, 08:55
ciao ...
nessun problema, puoi regolare la velocità della ventola con riva :)Ciao grazie per aver risposto,la regolazione della ventola si fa salvando i vari regimi in percentuale (40-60 ecc.)ma su HW il regime ventola rimane 0.Non ti fa regolare il plugin 473 dedicato alla ventola boh:rolleyes:

gaturla
28-06-2008, 09:00
Io attualmente ho i beta 177.39 e funziona perfettamente. ;


Per quanto riguarda l'accelerazione fisica ieri ho provato la PhysX mod di UT3 usando l'accelerazione fisica della GPU e devo dire che va a framerate abbastanza bassi, un gioco come UT3 diventa ingiocabile, sicuramente dovranno fare ancora un bel lavoro di ottimizzazione per rendere fluido il tutto.Dici che debbo cambiare i driver 177.35 in 177.39,me lo consigli,ho letto che qualcuno poi e' ritornato ai 177.35.:rolleyes:

_morghan_1968
28-06-2008, 09:07
Dici che debbo cambiare i driver 177.35 in 177.39,me lo consigli,ho letto che qualcuno poi e' ritornato ai 177.35.:rolleyes:

con i .35 ho notato la max resa
con i .39 un casino e artefatti anche a default
bene con i . 41

gup133
28-06-2008, 09:07
riva nn lo so evga precision va con tutte le 280 di qualunque marca e va anche coi 177.41.
per le freguenze se esageri la vga va in protezione crashando i driver oppure abbassando alle freguenze 2d in genere ventola stock "40/45%" fa 660/680 senza problemi mentre gli shared pare che a 1500 inizi il muro le ram vanno anche a 1300 tranquille


Scusa ma che versione hai di evga precision? a me la 1.1.1 non funziona con la mia gtx280 xfx....:confused: :confused:
Mi dice not supported hardware.....

gaturla
28-06-2008, 09:23
con i .35 ho notato la max resa
con i .39 un casino e artefatti anche a default
bene con i . 41Ho installato i 177.41 ma HW monitor mi da core 300 shader 100 memoria 100 pero' ora riesco a vedere la temperatura ed il regime ventola

fr4nc3sco
28-06-2008, 09:24
Scusa ma che versione hai di evga precision? a me la 1.1.1 non funziona con la mia gtx280 xfx....:confused: :confused:
Mi dice not supported hardware.....

1.2 nn si trova o meglio sta nel cd della 280

Kharonte85
28-06-2008, 09:24
veramente belle...

ma non capisco, in call of duty va quasi il doppio!! nelle review non sembrava così :mbe:

neanche negli altri game... perchè così tanta differenza dalle review??

che non sia veramente un'altro mondo questa gtx280????? no perchè altrimenti aspetto cher si abbassa il prezzo e non compro la 4870..
non è improbabile, prima di tutto è la versione xxx e secondariamente hanno testato a 2560 (crysis @ 1600) che sono proprio le risoluzioni dove c'è piu' differenza, comunque vederla in azione in real time è davvero uno spettacolo...

gup133
28-06-2008, 09:30
1.2 nn si trova o meglio sta nel cd della 280

non è che me lo manderesti via mail? in pvt ti do il mio contatto, grazie!;)

gup133
28-06-2008, 09:54
1.2 nn si trova o meglio sta nel cd della 280

Grazie, installato e funziona!:)

D4N!3L3
28-06-2008, 10:56
ti ho addato su msn mi puoi spiegare come giocare con la mod physx a ut3 che nn ho capito come fare sai nn gioco molto a quel game

Ok, ti ho accettato, quando ci becchiamo mi dici, al momento sono online comunque ma non penso di starci molto.

Dici che debbo cambiare i driver 177.35 in 177.39,me lo consigli,ho letto che qualcuno poi e' ritornato ai 177.35.:rolleyes:

Mah, personalmente ho installato i 177.39 anche se non ho fatto molte prove, per ora però non ho avuto problemi. Se dovessi averne vi farò sapere.

Amon 83
28-06-2008, 12:25
rivatuner gestisce la ventola o non ancora?

_morghan_1968
28-06-2008, 13:13
test crysis:
e8500 @ 4050 (fà caldo...)
gtx280 @ 650 x 1250
1920 x 1200
tutto impostato al max (dx 9)
driver nvidia su qualità + triple bufferig ON

minimo 35
medio 45
max 62

temp max della vga 73°
x quanto mi riguarda... và bene così !!!

geminibruni
28-06-2008, 13:43
be le considerazioni da fare sono molte alcune sono :
1 risoluzioni molto alte dove la gx2 va in buffer limit
2 le review solitamente lanciano benchmark in game prefatti, dove si sa che le ottimizzazioni dei driver sono ben fatti, poi quando uno gioca si trova su un altro mondo! un esempio lampante che mi ricordo a mente, vi ricordavate la presentazione del crossfireX 3780x2 con C.O.D.4 davano un 3x in piu messe in crossfire roba da oltre 200 frame,messi in game be una volta che giocavi piu andavi su con i livelli e peggio era in media meno di 60!

Si, questa è l'impressione che mi sono fatto anche io leggendo praticamente ogni recensone sulla rete, da una parte le soluzioni dual chip che anche a fronte di intense ottimizzazzioni riescono a dare sfogo alla loro cruda potenza soltanto in alcuni giochi (STALKER, Bioshok e poco altro) e in solo in alcune situazioni (risoluzioni non altissime e filtri medio-bassi), mentre dall'altra ci sono le nuove soluzioni single chip (GT200 e anche le HD 4800) che anche se senza stravolgere la passata tecnologia hanno portato profonde innovazioni che potranno essere sfruttate a fondo sopratutto fra alcuni mesi con i nuovi driver, senza dimenticare che ad esclusione di quei giochi ottimizzati in modo ottimale per il calcolo in parallelo già oggi le nuove GTX280 stanno praticamente sempre sopra la GX2 e il boost prestazionale diventa molto interessante sopratutto dalle risoluzioni HD con filtri attivati......

Aspettando sempre di vedere come si comporteranno le GTX280 con il supporto del calcolo Pisix, che sinceramente è la novità di maggiore interesse....

geminibruni
28-06-2008, 13:46
PS: vorrei sapere dagli attuali propietari di una GTX 280, come si comportano in overclok queste bestiole e di che marca l'hanno presa....:help:

Io sarei orientato a prendermi una BFG o una XFX, sono quelle che mi danno più garanzie per la qualità delle propie soluzioni...

_morghan_1968
28-06-2008, 14:02
PS: vorrei sapere dagli attuali propietari di una GTX 280, come si comportano in overclok queste bestiole e di che marca l'hanno presa....:help:

Io sarei orientato a prendermi una BFG o una XFX, sono quelle che mi danno più garanzie per la qualità delle propie soluzioni...

sono tutte reference: prendi quella che costa meno ed eventualmente
la okki tu
core e mem a 700 x1300
anche se con il caldo di adesso conviene stare un pochino + bassi
evidente il muro degli shader a circa 1600

berry83
28-06-2008, 14:04
be le considerazioni da fare sono molte alcune sono :
1 risoluzioni molto alte dove la gx2 va in buffer limit
2 le review solitamente lanciano benchmark in game prefatti, dove si sa che le ottimizzazioni dei driver sono ben fatti, poi quando uno gioca si trova su un altro mondo! un esempio lampante che mi ricordo a mente, vi ricordavate la presentazione del crossfireX 3780x2 con C.O.D.4 davano un 3x in piu messe in crossfire roba da oltre 200 frame,messi in game be una volta che giocavi piu andavi su con i livelli e peggio era in media meno di 60!

il punto 2 è quello che ho sempre sostenuto anche io ma mi hanno dato del spara c......e

steverance1987
28-06-2008, 15:02
cacchio oltre i 500 euro qui in italia, mi sa che aspetto un pochino eh

Amph
28-06-2008, 15:10
http://www.trovaprezzi.it/prezzo_schede-grafiche_gtx280.aspx ;)

vediamo se devo ribadirlo ogni volta..ormai la gtx280 è scesa sotto i 500.

eXeS
28-06-2008, 15:17
Aggiungiamo anche eBay dove c'è un negozio che le vende a 445

Drakon99
28-06-2008, 16:03
Come vanno i nuovi driver 177.39?
Si nota la differenza nei giochi o si nota solo nel vantage?
Ecco la differenza tra i 177.34 e 177.39 nel 3dmark ;)
http://www.pcprofessionale.it/2008/06/26/nvidia-physx-la-fisica-gestita-dalla-gpu/

danazzo
28-06-2008, 21:29
xche' quando attivo i filtri la scheda rallenta in maniera vertiginosa anche a ris molto basse mentre se li disattivo posso giocare a praticamente qualsiasi gioco(crysis permettendo) a 2048 x 1536? c'e' forse da settare qualcosa nel pannello di controllo o e' dovuto a driver poco maturi?

Defragg
29-06-2008, 01:39
certo, agosto/settembre sarebbe già oltre le più rosee previsioni (io mi aspetto minimo 6 mesi) però il fatto che nei driver ci sia la scheda non può che far sperare bene nei tempi

cmq anche a 55nm gt200 sarà verosimilmente più grosso di rv770,ma io mi aspetto che i 55nm portino benefici nei prezzi, se scendesse faccio per dire sui 300 euro migliorando di un altro 10% le prestazioni rispetto a gtx280, sarebbe una vga eccellente

aspettiamo (mai come ora son contento di aspettare :asd: ) e vediamo ;)

Lo shrink lineare dovrebbe essere di circa il 15.4%, quindi un GT200b (ossia solo shrink ottico ma architettura invariata) dovrebbe occupare circa 487mm^2.
Poco meno del doppio di RV770.
Grande Grossa e Fregnona, quello che aveva detto halduemilauno, da chiaroveggente che ci becca a priori (infatti ... :rolleyes: ) , un merito agli sp delle r700 .

Ah ok :asd:

fr4nc3sco
29-06-2008, 08:57
a ki puo interessare vi dico che con le gtx280 in sli si riesce ad usare 2 monitor cosa che con le gx2 nn era possibile nn so se per via di driver o altro

fabryx73
29-06-2008, 09:09
ciao a tutti....
scusate il piccolo OT.....ma ho un problema con una gtx260(so che questo è il thread della 280 ma i chip sono gli stessi e purtroppo nel topic della 260 la scheda non l'ha ancora comprata nessuno :( )
questo è il post che ho messo nell'altro thread..se non volete rispondere qui(giustamente x non sporcare il thread) se avete qulache aiuto postatelo in quello della 260,grazie ;) :

ragazzuoli....
vedo che la scheda non l'ha ancora nessuno....
però io posto lo stesso....
ho un problemone(o meglio dire...un amico HA un problemone ;) )

allora ieri gli è arrivata la scheda,zotac gtx260,....in una famosa catena infromatica presente qui in lombardia(nex..s.it)
siamo andati a prederla....tutto ok...la si monta...
smontando la sua zotac 8800gts 640mb (il primo modello...quello che era stato superato pochissimo tempo dopo dalla versione con 512mb ma con + pipeline,facendo inca**are di brutto tutti quelli che avevano speso un sacco di soldi... ;) )
finito l'installazione si verifica il problemone....
lui il pc l'ha collegato ad un samsung 40pollici m87 full hd tramite cavo hdmi ed adattatore hdmi-dvi incluso nella confezione della scheda(uguale ovviamente a quello che aveva prima incluso nella gts)
allora il video funziona tutto ma durante la normale visione si sentono di continuo tipo dei botti,scariche elttriche sembrerebbe(non sono un esperto),tendendo l'orecchio arrivano sicuramente dal tv e non dal pc....e sembrano sicuramente delle scariche elettriche...
x farvi un'idea avete presente anni fa quando giocavate sui vecchi televisori crt con i primi computer e vostra madre faceva andare il ferro da stiro....ogni volta che premeva il pulsante del vapore si sentiva un botto(ed una piccola interferenza) anche sul vostro tv?
ecco è la stessa cosa....solo che si sentono questi "botti" ma nessuna interferenza video....
tra l'altro sono casuali,e non continui...ma sono tanti...
(esempio in 10 secondi si "sentono" almeno una 12 di questi "botti")....
ovvio che dopo pochi secondi di funzionamento abbiamo scollegato il tv....mica che questi continui cali o sovvracarichi di tensione rovinino il tv...
abbiamo provato a collegare il mio monitor lcd samsung 2032 da 20 pollici tramite dvi sia tv che pc e il problema non si presenta....?!!?!?!??!

rimettendo la sua vecchia 8800 gts nessun problema....quindi x forza è un problema di scheda!!!
ho provato anche a scollegare tutti i cavi inutili nel case....magari qualche interferenza....ma niente!!
l'alimentatore dell'amico è un enermax infinity 720watt....quindi nessun problema x quello...

che fare?
mi date qualche consiglio?
...chiedo io perchè lui è scollegato dal forum....visto che sta provando di tutto x cercare di risolvere il problema ;)

ciao e grazie

quaker
29-06-2008, 09:30
PS: vorrei sapere dagli attuali propietari di una GTX 280, come si comportano in overclok queste bestiole e di che marca l'hanno presa....:help:

Io sarei orientato a prendermi una BFG o una XFX, sono quelle che mi danno più garanzie per la qualità delle propie soluzioni...

Dunque mi sono arrivate ieri due bestiole Gtx 280 della BFG in versione OC e ti posso dire che sono due fucili caricati a pallettoni.Vengo da un quad sli e ho montato da poco le bestioline assieme a una striker 2 extreme quad core 9770 e un raid 0 di velociraptor.Ho testato per ora solo crysis e mi sembra di andare sul velluto anche a differenza del quad,qui' non ho piu' microscatti e i frames smbrano stabili ,nel senso che il fill rate piu' alto si fa sentire,non vedo piu' quel decadimento prestazionale che si aveva dopo nemmeno 15 minuti ingame.

http://img410.imageshack.us/img410/756/p2806081039qw7.jpg (http://imageshack.us)
[IMG]http://img410.imageshack.us/img410/1449/p280608143101yi5.jpg (http://g.imageshack.us/g.php?h=410&i=p2806081039qw7.jpg)
[IMG]http://img387.imageshack.us/img387/3246/p2806081051zm3.jpg (http://g.imageshack.us/g.php?h=410&i=p280608143101yi5.jpg)
[URL=http://g.imageshack.us/g.php?h=387&i=p2806081051zm3.jpg

Appena ho tempo posto un po di test,per ora aggiorno la firma...........

danazzo
29-06-2008, 09:38
Dunque mi sono arrivate ieri due bestiole Gtx 280 della BFG in versione OC e ti posso dire che sono due fucili caricati a pallettoni.Vengo da un quad sli e ho montato da poco le bestioline assieme a una striker 2 extreme quad core 9770 e un raid 0 di velociraptor.Ho testato per ora solo crysis e mi sembra di andare sul velluto anche a differenza del quad,qui' non ho piu' microscatti e i frames smbrano stabili ,nel senso che il fill rate piu' alto si fa sentire,non vedo piu' quel decadimento prestazionale che si aveva dopo nemmeno 15 minuti ingame.

http://img339.imageshack.us/img339/7724/p2806081039za1.jpg (http://imageshack.us)
[IMG]http://img339.imageshack.us/img339/4021/p280608143101ks0.jpg (http://g.imageshack.us/g.php?h=339&i=p2806081039za1.jpg)



Il primo accorgimento per via del caldo e' stato quello di montare il tutto in nuovo case che fosse leggero ma con una gran circolazione di aria.E la scelta e' ricaduta sul thermaltake Sworm che ad oggi reputo il miglior case esistente .Vengo da uno stacker 832 nvidia edition ma l osworm e' tutt oun altro mondo,sembra un porto di mare :sofico: talmente delle correnti d'aria che produce.Nonostante 8 ventole tachimetriche montate e' silenzioso quanto basta.
[URL=http://imageshack.us][IMG]http://img387.imageshack.us/img387/6156/p2806081051oj6.jpg (http://g.imageshack.us/g.php?h=339&i=p280608143101ks0.jpg)
[URL=http://g.imageshack.us/g.php?h=387&i=p2806081051oj6.jpg][IMG]


Appena ho tempo posto un po di test,per ora aggiorno la firma...........
ci vuole il porto d'armi per usare il tuo pc:eek:

pierluigi86
29-06-2008, 09:47
ci vuole il porto d'armi per usare il tuo pc:eek:

piuttosto ci vogliono un bel pò di soldini

skizzo99999999
29-06-2008, 09:50
Lo shrink lineare dovrebbe essere di circa il 15.4%, quindi un GT200b (ossia solo shrink ottico ma architettura invariata) dovrebbe occupare circa 487mm^2.
Poco meno del doppio di RV770.


Non è proprio così. Il passaggio da 65 a 55 comporta una riduzione lineare della "lunghezza" dei lati, che diventa quadratica rispetto all'area del die. Infatti ipotizzando una forma perfettamente quadrata (difficile dirlo, almeno per le info che conosco) 576 mmq sono 24mm di lato. Facendo una proporzioe tra 65 nanometri e 55, dovrebbe esserci una riduzione del 15% circa, quindi da 24 si passa a 20.4, che porta il die ad avere una area di 416mmq. Non è poi così estremamente più grande di rv770 (che ha cmq un milardo di transistor, mica poca roba). C'è da dire che i nanometri (65, 55 o 45 che siano), se la faccenda è come per le cpu (ma penso di si), si riferiscono alla lunghezza del canale tra source e gain in un transistor, per cui è difficile dire se questo comporta un effettiva riduzione della lunghezza del lato del 15% (potrebbe essere anche di più (difficile) o di meno.
C'è da aggiungere che magari, vista la oggettiva competitività di rv770, possano tentare di ripetere quanto fatto tra la 7800 e 7900, in cui il passaggio da 110 nm a 90 nm ha comportato una leggera riprogettazione che ha fatto diminuire leggermente il numero dei transistor.
Se poi si contano le speculazioni che vedono con i 55nm un abbandono dei 512bit+gdd3 a favore dei 256bit+gddr5 (secondo me, se riducono opteranno per i 384+gddr5), il numero dei transistor si ridurrebbe ulteriormente, con relativa riduzione del die.

EDIT
tra l'altro se verra effettivamente anche solo leggermente riprogettato, è difficile stimare il migliore/peggiore "impacchettamento" dei transistor. Mi spego meglio: il penryn è così più piccolo delle GPU perchè è composto da una enorme fetta di transistor che fanno da cache, che sono più facili da impacchettare, per cui il chip viene più facilmente piccolo. Nelle GPU, vista la scarsa percentuale di cache rispetto al resto, le cose si fanno più complicate, ed è difficile stimare a priori senza conoscere il progetto nei dettagli, cosa si possa fare in questo senso (sia peggiorare che migliorare).

danazzo
29-06-2008, 10:29
xche' quando attivo i filtri la scheda rallenta in maniera vertiginosa anche a ris molto basse mentre se li disattivo posso giocare a praticamente qualsiasi gioco(crysis permettendo) a 2048 x 1536? c'e' forse da settare qualcosa nel pannello di controllo o e' dovuto a driver poco maturi?

qualche suggerimento?

Mercuri0
29-06-2008, 11:52
Faccio delle precisazioni inutili tanto perché il discorso mi diverte :D
Non è proprio così. Il passaggio da 65 a 55 comporta una riduzione lineare della "lunghezza" dei lati, che diventa quadratica rispetto all'area del die. Infatti ipotizzando una forma perfettamente quadrata (difficile dirlo, almeno per le info che conosco) 576 mmq sono 24mm di lato. Facendo una proporzioe tra 65 nanometri e 55, dovrebbe esserci una riduzione del 15% circa, quindi da 24 si passa a 20.4, che porta il die ad avere una area di 416mmq.

Lo scaling non è lineare perché robe come i transistor di potenza per le connessioni esterne, e sopratutto i pad (cioè i contatti con l'esterno, che nel GT200 abbondano a causa del bus a 512bit) non scalano con il nodo tecnologico.

La dimensione minima del GT200 a 55nm sarà probabilmente fissata dai pad (pad limited) ho letto rumor che danno il GT200B a 470mm²

Non è poi così estremamente più grande di rv770 (che ha cmq un milardo di transistor, mica poca roba). C'è da dire che i nanometri (65, 55 o 45 che siano), se la faccenda è come per le cpu (ma penso di si), si riferiscono alla lunghezza del canale tra source e gain in un transistor, per cui è difficile dire se questo comporta un effettiva riduzione della lunghezza del lato del 15% (potrebbe essere anche di più (difficile) o di meno.
A dire il vero, per "feature size" ora si intende la distanza minima tra due celle di DRAM che si può realizzare con quella tecnologia. Questo vale per tutti i dispositivi perché è un discorso di processo, però per sapere come scalano i transistor bisogna leggere altri dati, magari sul sito di TMSC.


C'è da aggiungere che magari, vista la oggettiva competitività di rv770, possano tentare di ripetere quanto fatto tra la 7800 e 7900, in cui il passaggio da 110 nm a 90 nm ha comportato una leggera riprogettazione che ha fatto diminuire leggermente il numero dei transistor.
Se poi si contano le speculazioni che vedono con i 55nm un abbandono dei 512bit+gdd3 a favore dei 256bit+gddr5 (secondo me, se riducono opteranno per i 384+gddr5), il numero dei transistor si ridurrebbe ulteriormente, con relativa riduzione del die.

I transistor potrebbero anche aumentare se il chip risulta pad-limited :)

E' successo a RV770 che è risultato pad-limited a 55nm, nonostante abbia il bus a 256bit.
Un pezzo grosso di AMD ci ha detto che siccome si sono trovati le geometrie minime fissate dai PAD, hanno aggiunto 2 SP in più del previsto nei "buchi" che avevano sul die :asd:

Potrebbe anche capitare per il "GT200b", che trovandosi pad-limited decidano di mettere transistor in più anziché di meno!!*

A dire il vero però RV770 ha tutti le strutture interne ottimizzate per i costi (=stare in poca area), perciò i PAD magari hanno pesato di più, mentre il GT200 probabilmente è ottimizzato per il consumo**, e non è facile dire dall'esterno quanto peserà la dimensione dei PAD in proporzione.

Insomma, gli Ing. nVidia hanno tanti margini di libertà (ottimizzare prestazioni, cioè il rapporto prestazioni/consumi, o i costi, cioè yeld*prestazioni/area) con il vincolo pesantissimo del bus a 512bit se non usano le GDDR5.

Io penso che mireranno a contenere i costi (=area, yeld), ma anche il GT200B rischia di venir fuori bello grosso rispetto a RV770, che se non sbaglio è poco più piccolo persino del G92B!

*ma questa manovra potrebbe servire per aumentare gli yeld usando la ridondanza, più che per aggiungere SP al chip in negozio.
**penso si sia capito che per chip da oltre 100Watt ottimizzare per i consumi è equivalente ad ottimizzare per le prestazioni.

baila
29-06-2008, 12:24
Presa usata questa scheduccia,un bel mostricciatolo.
Il mio Rs in overclock sono di 684-1400-1160.Non vi sembrano un po scarsi i risultati per le memorie?

skizzo99999999
29-06-2008, 13:21
x Mercuri0

Non voilevo entare così nel dettaglio perchè primo non sono così informato sui rumors e indiscrezioni varie e secondo sono più ferrato sulle cpu che sulle gpu (infatti la faccenda del pad non la sapevo). Avevo solo visto il 470mmq e pensavo che avessi calcolato il 15% sull'area invece che sui lati. Tutto qui. Siccome so che se si mette mano al progetto (anche solo di poco) si può fare tutto e il contrario di tutto, ho voluto solo ribadire che ipotizzare il die size dalla riduzione del processo produttivo non è come sparare a caso ma poco ci manca, visto le variabili che abbiamo indicato.
Visto però che il numero di transistor in rapporto alla dimensione del die di gt200 è meno favorevole che in rv770 (non ho fatto il conto ma mi sembra evidente), bisogna rendere merito ad amd che ha fatto una maschera ottima, ma questo voul dire che NVIDIA partendo da una maschera peggiore ha più margine per migliorare. Poi magari è solo questione di architettura, che magari in rv770 è più facilmente impacchettabile, oppure che semplicemente in AMD son più bravi.
Però sono abbastanza sicuro che i nm nelle cpu indicano la lunghezza del canale tra il source e il drain. Poi se non è così amen ;)

fr4nc3sco
29-06-2008, 13:21
Presa usata questa scheduccia,un bel mostricciatolo.
Il mio Rs in overclock sono di 684-1400-1160.Non vi sembrano un po scarsi i risultati per le memorie?

si solitamente 1250/1300 senza problemi

ArCH85
29-06-2008, 13:42
Presa usata questa scheduccia,un bel mostricciatolo.
Il mio Rs in overclock sono di 684-1400-1160.Non vi sembrano un po scarsi i risultati per le memorie?

io oltre i 1200 non le ho spinte ma son stabilissime..

Defragg
29-06-2008, 13:43
Non è proprio così. Il passaggio da 65 a 55 comporta una riduzione lineare della "lunghezza" dei lati, che diventa quadratica rispetto all'area del die. Infatti ipotizzando una forma perfettamente quadrata (difficile dirlo, almeno per le info che conosco) 576 mmq sono 24mm di lato. Facendo una proporzioe tra 65 nanometri e 55, dovrebbe esserci una riduzione del 15% circa, quindi da 24 si passa a 20.4, che porta il die ad avere una area di 416mmq. Non è poi così estremamente più grande di rv770 (che ha cmq un milardo di transistor, mica poca roba). C'è da dire che i nanometri (65, 55 o 45 che siano), se la faccenda è come per le cpu (ma penso di si), si riferiscono alla lunghezza del canale tra source e gain in un transistor, per cui è difficile dire se questo comporta un effettiva riduzione della lunghezza del lato del 15% (potrebbe essere anche di più (difficile) o di meno.
C'è da aggiungere che magari, vista la oggettiva competitività di rv770, possano tentare di ripetere quanto fatto tra la 7800 e 7900, in cui il passaggio da 110 nm a 90 nm ha comportato una leggera riprogettazione che ha fatto diminuire leggermente il numero dei transistor.
Se poi si contano le speculazioni che vedono con i 55nm un abbandono dei 512bit+gdd3 a favore dei 256bit+gddr5 (secondo me, se riducono opteranno per i 384+gddr5), il numero dei transistor si ridurrebbe ulteriormente, con relativa riduzione del die.

EDIT
tra l'altro se verra effettivamente anche solo leggermente riprogettato, è difficile stimare il migliore/peggiore "impacchettamento" dei transistor. Mi spego meglio: il penryn è così più piccolo delle GPU perchè è composto da una enorme fetta di transistor che fanno da cache, che sono più facili da impacchettare, per cui il chip viene più facilmente piccolo. Nelle GPU, vista la scarsa percentuale di cache rispetto al resto, le cose si fanno più complicate, ed è difficile stimare a priori senza conoscere il progetto nei dettagli, cosa si possa fare in questo senso (sia peggiorare che migliorare).

La mia era una stima approssimativa. :)

skizzo99999999
29-06-2008, 13:51
La mia era una stima approssimativa. :)
infatti, lungi da me fare il precisino. Volevo solo far notare che scalando processo produttivo l'area diminuisce con il quadrato, quindi a grandi linee dimezzando il processo produttivo l'area del die si riduce di un quarto, tralasciando i già citati ostacoli. E' una cosa che se uno non ci è avvezzo può sfuggire

Aeon19
29-06-2008, 14:05
infatti, lungi da me fare il precisino.


OT:

Che palle!! ultimamente sui forum leggo solamente di gente che scrive Lungi di qui Lungi di là...che palle! Avete imparato una parolina nuova? Ok, ma non abusatene! Un po come le K messe ovunque...Che palle! :muro:

Senza nulla toglere a skizzo che ha fatto uso corretto della lingua italiana...

bollicina31
29-06-2008, 15:04
Buon dì a tutti, dato che stimo molto nvidia, ho solo due lamentele da muoverle, ovvero mi sembra sempre un passo dietro Ati per quel che riguarda il processo produttivo (nm), daltro canto i prezzi alti, ma la cosa più importante sono le cavolate come il passaggio da 8800 a 9800, ( nel senso che era solo 1 revisione del tutto e nulla più)

Ora ci si aspettava molto con questa nuova gtx280 che almeno sulla carta doveva essere una vera ventata di potenza, ma non mi sembra poi lo sia stato.
Quello che non capisco è come mai nella configurazione "Tesla" i risultati di potenza siano il doppio della vrsione con 9800, dato che indica che la potenza elaborativa c'è......aspettando nuovi driver, secondo voi la cosa può migliorare nell'ambito videoludico.

altra domandina, come fà Ati con 800 stream processor ( un'esagerazione), la metà di rop's e la metà di Texture filtering unit, costare così poco ed andare così tanto più della gtx280????

grazie a tutti e gogo NVIDIA ( e non dite che sono di parte)

DarkNiko
29-06-2008, 15:19
Buon dì a tutti, dato che stimo molto nvidia, ho solo due lamentele da muoverle, ovvero mi sembra sempre un passo dietro Ati per quel che riguarda il processo produttivo (nm), daltro canto i prezzi alti, ma la cosa più importante sono le cavolate come il passaggio da 8800 a 9800, ( nel senso che era solo 1 revisione del tutto e nulla più)

Ora ci si aspettava molto con questa nuova gtx280 che almeno sulla carta doveva essere una vera ventata di potenza, ma non mi sembra poi lo sia stato.
Quello che non capisco è come mai nella configurazione "Tesla" i risultati di potenza siano il doppio della vrsione con 9800, dato che indica che la potenza elaborativa c'è......aspettando nuovi driver, secondo voi la cosa può migliorare nell'ambito videoludico.

altra domandina, come fà Ati con 800 stream processor ( un'esagerazione), la metà di rop's e la metà di Texture filtering unit, costare così poco ed andare così tanto più della gtx280????

grazie a tutti e gogo NVIDIA ( e non dite che sono di parte)

Ti rispondo io sperando che nessuno mi fucili prima.
Innanzitutto facciamo un pò di ordine, visto che nel tuo intervento hai toccato temi "abbastanza caldi".

NVidia non mi sembra indietro ad ATi, cioè non si possono leggere solamente i numeri quando le architetture utilizzate sono totalmente diverse. In linea di principio è ovvio che 55 nanometri sono migliori di 65, ma solo a livello teorico. Se l'architettura interna del chip a 65 nm (NVidia) è meglio scritta ed ottimizzata rispetto a quella a 55 (ATi), la prima avrà sempre la meglio sulla seconda IMHO.

Quanto al passaggio da 8800 alla serie 9, non è una cavolata. Le scelte possono essere molteplici. E' normale e risaputo che la GX2 fosse un restyling del G92, a sua volta derivato del G80, però io da buon ex possessore della 8800 prima e della 9800GX2, non mi lamento della scelta fatta visto che ho avuto un considerevole boost prestazionale.

Inoltre parliamo di schede di fascia enthusiast, chi è mosso dalle passioni per queste VGA non si pone tanti problemi, cambia e amen.

Riguardo la GTX280 la ventata di potenza ti assicuro che c'è, specie con i nuovi drivers. In tutti i giochi che ho provato la differenza con la 9800GX2 è a volte netta, a volte meno, ma in ogni caso c'è, specialmente quando si intende lavorare ad alte risoluzioni e con i fitlri attivi la GX2 soffre di frame buffering, dovuto anche all'ampiezza di banda del controller di memoria, che è bene ribadirlo è a 256 bit e non a 512 come molti sono portati erroneamente a pensare, complice il giochetto algebrico dello SLI.
Ad ogni buon conto con i PhysX e i forceware 177.41 la GTX280 si è avvantaggiata non poco, frame rate più alto e soprattutto più costante, a dispetto della GX2 e di buona parte delle config SLI in cui il framerate è più ballerino, complici i drivers da una parte e una non sempre perfetta scalabilità delle prestazioni con le soluzioni multigpu.

Per la tua ultima questione sui costi/prestazioni di ATi, c'è da dire che i numeri, stesso discorso di sopra, non bastano a fare la differenza. Innanzitutto una 4850 se la batte con una 9800GTX+ ma non impensierisce minimamente una GTX280. Magari mi dirai "Sì ma se faccio il crossfire mi ci avvicino" e anche in questo caso ti risponderei "Sì ma non sempre", e in ogni caso si confronterebbe una scheda singola (la GTX) con un sistema crossfire, con tutti i problemi derivanti dalla gestione del multigpu (in analogia con lo SLI).

Quindi la 4850 attuale (aspettiamo tutti la 4870 e i test pratici per stilare una valutazione oggettiva) non va più di una GTX280 e il fatto che costi meno sicuramente premia ATi nell'aver ottimizzato i costi (i 55 nm servono pure a questo) ma non nell'aver cercato il record di prestazioni.
Tra l'altro gli 800 SP di cui molti vanno fieri all'atto pratico equivalgono a 160 SP reali, non ricordo dove ma c'era una dimostrazione pratica di ciò.

Detto questo spero di aver risposto esaurientemente alle tue domande. ;)

Aeon19
29-06-2008, 15:41
Ti rispondo io sperando che nessuno mi fucili prima.
Innanzitutto facciamo un pò di ordine, visto che nel tuo intervento hai toccato temi "abbastanza caldi".

NVidia non mi sembra indietro ad ATi, cioè non si possono leggere solamente i numeri quando le architetture utilizzate sono totalmente diverse. In linea di principio è ovvio che 55 nanometri sono migliori di 65, ma solo a livello teorico. Se l'architettura interna del chip a 65 nm (NVidia) è meglio scritta ed ottimizzata rispetto a quella a 55 (ATi), la prima avrà sempre la meglio sulla seconda IMHO.

Quanto al passaggio da 8800 alla serie 9, non è una cavolata. Le scelte possono essere molteplici. E' normale e risaputo che la GX2 fosse un restyling del G92, a sua volta derivato del G80, però io da buon ex possessore della 8800 prima e della 9800GX2, non mi lamento della scelta fatta visto che ho avuto un considerevole boost prestazionale.

Inoltre parliamo di schede di fascia enthusiast, chi è mosso dalle passioni per queste VGA non si pone tanti problemi, cambia e amen.

Riguardo la GTX280 la ventata di potenza ti assicuro che c'è, specie con i nuovi drivers. In tutti i giochi che ho provato la differenza con la 9800GX2 è a volte netta, a volte meno, ma in ogni caso c'è, specialmente quando si intende lavorare ad alte risoluzioni e con i fitlri attivi la GX2 soffre di frame buffering, dovuto anche all'ampiezza di banda del controller di memoria, che è bene ribadirlo è a 256 bit e non a 512 come molti sono portati erroneamente a pensare, complice il giochetto algebrico dello SLI.
Ad ogni buon conto con i PhysX e i forceware 177.41 la GTX280 si è avvantaggiata non poco, frame rate più alto e soprattutto più costante, a dispetto della GX2 e di buona parte delle config SLI in cui il framerate è più ballerino, complici i drivers da una parte e una non sempre perfetta scalabilità delle prestazioni con le soluzioni multigpu.

Per la tua ultima questione sui costi/prestazioni di ATi, c'è da dire che i numeri, stesso discorso di sopra, non bastano a fare la differenza. Innanzitutto una 4850 se la batte con una 9800GTX+ ma non impensierisce minimamente una GTX280. Magari mi dirai "Sì ma se faccio il crossfire mi ci avvicino" e anche in questo caso ti risponderei "Sì ma non sempre", e in ogni caso si confronterebbe una scheda singola (la GTX) con un sistema crossfire, con tutti i problemi derivanti dalla gestione del multigpu (in analogia con lo SLI).

Quindi la 4850 attuale (aspettiamo tutti la 4870 e i test pratici per stilare una valutazione oggettiva) non va più di una GTX280 e il fatto che costi meno sicuramente premia ATi nell'aver ottimizzato i costi (i 55 nm servono pure a questo) ma non nell'aver cercato il record di prestazioni.
Tra l'altro gli 800 SP di cui molti vanno fieri all'atto pratico equivalgono a 160 SP reali, non ricordo dove ma c'era una dimostrazione pratica di ciò.

Detto questo spero di aver risposto esaurientemente alle tue domande. ;)

Bravissimo, ottima spiegazione... (tral'altro senza lungi di sorta... :rotfl: )

DarkNiko
29-06-2008, 15:44
Bravissimo, ottima spiegazione... (tral'altro senza lungi di sorta... :rotfl: )

:mbe: mi stai prendendo in giro ?? Non capisco il tuo intervento. Se ho detto qualche fesseria dimmelo che imparare non fa mai male. ;)

halduemilauno
29-06-2008, 15:44
Ti rispondo io sperando che nessuno mi fucili prima.
Innanzitutto facciamo un pò di ordine, visto che nel tuo intervento hai toccato temi "abbastanza caldi".

NVidia non mi sembra indietro ad ATi, cioè non si possono leggere solamente i numeri quando le architetture utilizzate sono totalmente diverse. In linea di principio è ovvio che 55 nanometri sono migliori di 65, ma solo a livello teorico. Se l'architettura interna del chip a 65 nm (NVidia) è meglio scritta ed ottimizzata rispetto a quella a 55 (ATi), la prima avrà sempre la meglio sulla seconda IMHO.

Quanto al passaggio da 8800 alla serie 9, non è una cavolata. Le scelte possono essere molteplici. E' normale e risaputo che la GX2 fosse un restyling del G92, a sua volta derivato del G80, però io da buon ex possessore della 8800 prima e della 9800GX2, non mi lamento della scelta fatta visto che ho avuto un considerevole boost prestazionale.

Inoltre parliamo di schede di fascia enthusiast, chi è mosso dalle passioni per queste VGA non si pone tanti problemi, cambia e amen.

Riguardo la GTX280 la ventata di potenza ti assicuro che c'è, specie con i nuovi drivers. In tutti i giochi che ho provato la differenza con la 9800GX2 è a volte netta, a volte meno, ma in ogni caso c'è, specialmente quando si intende lavorare ad alte risoluzioni e con i fitlri attivi la GX2 soffre di frame buffering, dovuto anche all'ampiezza di banda del controller di memoria, che è bene ribadirlo è a 256 bit e non a 512 come molti sono portati erroneamente a pensare, complice il giochetto algebrico dello SLI.
Ad ogni buon conto con i PhysX e i forceware 177.41 la GTX280 si è avvantaggiata non poco, frame rate più alto e soprattutto più costante, a dispetto della GX2 e di buona parte delle config SLI in cui il framerate è più ballerino, complici i drivers da una parte e una non sempre perfetta scalabilità delle prestazioni con le soluzioni multigpu.

Per la tua ultima questione sui costi/prestazioni di ATi, c'è da dire che i numeri, stesso discorso di sopra, non bastano a fare la differenza. Innanzitutto una 4850 se la batte con una 9800GTX+ ma non impensierisce minimamente una GTX280. Magari mi dirai "Sì ma se faccio il crossfire mi ci avvicino" e anche in questo caso ti risponderei "Sì ma non sempre", e in ogni caso si confronterebbe una scheda singola (la GTX) con un sistema crossfire, con tutti i problemi derivanti dalla gestione del multigpu (in analogia con lo SLI).

Quindi la 4850 attuale (aspettiamo tutti la 4870 e i test pratici per stilare una valutazione oggettiva) non va più di una GTX280 e il fatto che costi meno sicuramente premia ATi nell'aver ottimizzato i costi (i 55 nm servono pure a questo) ma non nell'aver cercato il record di prestazioni.
Tra l'altro gli 800 SP di cui molti vanno fieri all'atto pratico equivalgono a 160 SP reali, non ricordo dove ma c'era una dimostrazione pratica di ciò.

Detto questo spero di aver risposto esaurientemente alle tue domande. ;)


quoto.
;)

The_SaN
29-06-2008, 16:19
Buon dì a tutti, dato che stimo molto nvidia, ho solo due lamentele da muoverle, ovvero mi sembra sempre un passo dietro Ati per quel che riguarda il processo produttivo (nm), daltro canto i prezzi alti, ma la cosa più importante sono le cavolate come il passaggio da 8800 a 9800, ( nel senso che era solo 1 revisione del tutto e nulla più)

Ora ci si aspettava molto con questa nuova gtx280 che almeno sulla carta doveva essere una vera ventata di potenza, ma non mi sembra poi lo sia stato.
Quello che non capisco è come mai nella configurazione "Tesla" i risultati di potenza siano il doppio della vrsione con 9800, dato che indica che la potenza elaborativa c'è......aspettando nuovi driver, secondo voi la cosa può migliorare nell'ambito videoludico.

altra domandina, come fà Ati con 800 stream processor ( un'esagerazione), la metà di rop's e la metà di Texture filtering unit, costare così poco ed andare così tanto più della gtx280????

grazie a tutti e gogo NVIDIA ( e non dite che sono di parte)

Ti rispondo io sperando che nessuno mi fucili prima.
Innanzitutto facciamo un pò di ordine, visto che nel tuo intervento hai toccato temi "abbastanza caldi".

NVidia non mi sembra indietro ad ATi, cioè non si possono leggere solamente i numeri quando le architetture utilizzate sono totalmente diverse. In linea di principio è ovvio che 55 nanometri sono migliori di 65, ma solo a livello teorico. Se l'architettura interna del chip a 65 nm (NVidia) è meglio scritta ed ottimizzata rispetto a quella a 55 (ATi), la prima avrà sempre la meglio sulla seconda IMHO.

Quanto al passaggio da 8800 alla serie 9, non è una cavolata. Le scelte possono essere molteplici. E' normale e risaputo che la GX2 fosse un restyling del G92, a sua volta derivato del G80, però io da buon ex possessore della 8800 prima e della 9800GX2, non mi lamento della scelta fatta visto che ho avuto un considerevole boost prestazionale.

Inoltre parliamo di schede di fascia enthusiast, chi è mosso dalle passioni per queste VGA non si pone tanti problemi, cambia e amen.

Riguardo la GTX280 la ventata di potenza ti assicuro che c'è, specie con i nuovi drivers. In tutti i giochi che ho provato la differenza con la 9800GX2 è a volte netta, a volte meno, ma in ogni caso c'è, specialmente quando si intende lavorare ad alte risoluzioni e con i fitlri attivi la GX2 soffre di frame buffering, dovuto anche all'ampiezza di banda del controller di memoria, che è bene ribadirlo è a 256 bit e non a 512 come molti sono portati erroneamente a pensare, complice il giochetto algebrico dello SLI.
Ad ogni buon conto con i PhysX e i forceware 177.41 la GTX280 si è avvantaggiata non poco, frame rate più alto e soprattutto più costante, a dispetto della GX2 e di buona parte delle config SLI in cui il framerate è più ballerino, complici i drivers da una parte e una non sempre perfetta scalabilità delle prestazioni con le soluzioni multigpu.

Per la tua ultima questione sui costi/prestazioni di ATi, c'è da dire che i numeri, stesso discorso di sopra, non bastano a fare la differenza. Innanzitutto una 4850 se la batte con una 9800GTX+ ma non impensierisce minimamente una GTX280. Magari mi dirai "Sì ma se faccio il crossfire mi ci avvicino" e anche in questo caso ti risponderei "Sì ma non sempre", e in ogni caso si confronterebbe una scheda singola (la GTX) con un sistema crossfire, con tutti i problemi derivanti dalla gestione del multigpu (in analogia con lo SLI).

Quindi la 4850 attuale (aspettiamo tutti la 4870 e i test pratici per stilare una valutazione oggettiva) non va più di una GTX280 e il fatto che costi meno sicuramente premia ATi nell'aver ottimizzato i costi (i 55 nm servono pure a questo) ma non nell'aver cercato il record di prestazioni.
Tra l'altro gli 800 SP di cui molti vanno fieri all'atto pratico equivalgono a 160 SP reali, non ricordo dove ma c'era una dimostrazione pratica di ciò.

Detto questo spero di aver risposto esaurientemente alle tue domande. ;)

I temi toccati nell' argomento sono bollenti :D
Ma hai spiegato bene e senza stare da nessuna delle 2 parti.

L'unico vero problema delle nuove nVidia non sono le prestazioni, bensí il prezzo (e se si vuole, i consumi in full, ma almeno io li ritengo secondari visto che in idle consumano poco). Fare comparazioni tra le 2 architetture alla fine serve a ben poco, bisogna sempre guardare dal lato prezzo/performance/consumi/features.
E oggi nVidia pecca dal lato prezzo/peformance.

Come abbiamo visto per le 9800gtx+ i 55nm non fanno miracoli per i consumi. Sono utili invece per diminuire i costi di produzione.
Comparare gli SP poi é ancora peggio, visto che le 2 architetture sono totalmente diverse.

michelgaetano
29-06-2008, 16:19
OT:

Che palle!! ultimamente sui forum leggo solamente di gente che scrive Lungi di qui Lungi di là...che palle! Avete imparato una parolina nuova? Ok, ma non abusatene! Un po come le K messe ovunque...Che palle! :muro:



OT

Quale è il problema dell'utilizzare il termine lungi?

Posta come ipotesi che se ne conosca il significato, è ben altra cosa rispetto alle schifide k o abbreviazioni di sorta.

Non capisco questo accanimento, se non conosci la parola ne impari una nuova, altrimenti uno si esprime come gli pare, purchè comprensibile. Di fatto, il lungi lo è.

A.L.M.
29-06-2008, 16:46
Non è proprio così. Il passaggio da 65 a 55 comporta una riduzione lineare della "lunghezza" dei lati, che diventa quadratica rispetto all'area del die. Infatti ipotizzando una forma perfettamente quadrata (difficile dirlo, almeno per le info che conosco) 576 mmq sono 24mm di lato. Facendo una proporzioe tra 65 nanometri e 55, dovrebbe esserci una riduzione del 15% circa, quindi da 24 si passa a 20.4, che porta il die ad avere una area di 416mmq. Non è poi così estremamente più grande di rv770 (che ha cmq un milardo di transistor, mica poca roba). C'è da dire che i nanometri (65, 55 o 45 che siano), se la faccenda è come per le cpu (ma penso di si), si riferiscono alla lunghezza del canale tra source e gain in un transistor, per cui è difficile dire se questo comporta un effettiva riduzione della lunghezza del lato del 15% (potrebbe essere anche di più (difficile) o di meno.
C'è da aggiungere che magari, vista la oggettiva competitività di rv770, possano tentare di ripetere quanto fatto tra la 7800 e 7900, in cui il passaggio da 110 nm a 90 nm ha comportato una leggera riprogettazione che ha fatto diminuire leggermente il numero dei transistor.
Se poi si contano le speculazioni che vedono con i 55nm un abbandono dei 512bit+gdd3 a favore dei 256bit+gddr5 (secondo me, se riducono opteranno per i 384+gddr5), il numero dei transistor si ridurrebbe ulteriormente, con relativa riduzione del die.

EDIT
tra l'altro se verra effettivamente anche solo leggermente riprogettato, è difficile stimare il migliore/peggiore "impacchettamento" dei transistor. Mi spego meglio: il penryn è così più piccolo delle GPU perchè è composto da una enorme fetta di transistor che fanno da cache, che sono più facili da impacchettare, per cui il chip viene più facilmente piccolo. Nelle GPU, vista la scarsa percentuale di cache rispetto al resto, le cose si fanno più complicate, ed è difficile stimare a priori senza conoscere il progetto nei dettagli, cosa si possa fare in questo senso (sia peggiorare che migliorare).

Per passare alle GDDR5 devono modificare, e non di poco, il memory controller (per renderlo adatto a funzionare a frequenze quasi doppie rispetto alle attuali), il che è una roba non proprio semplicissima, e che quindi potrebbe andare oltre la leggera riprogettazione stile G80->G92 o G70->G71. Inoltre nel computo del die size andrebbe inserito anche il probabile reinserimento interno del chip NVIO. ;)


Ad ogni buon conto con i PhysX e i forceware 177.41 la GTX280 si è avvantaggiata non poco, frame rate più alto e soprattutto più costante, a dispetto della GX2 e di buona parte delle config SLI in cui il framerate è più ballerino, complici i drivers da una parte e una non sempre perfetta scalabilità delle prestazioni con le soluzioni multigpu.

In quale gioco reale? :)

Aeon19
29-06-2008, 16:48
:mbe: mi stai prendendo in giro ?? Non capisco il tuo intervento. Se ho detto qualche fesseria dimmelo che imparare non fa mai male. ;)

Oddio no, ti pare?! Sei stato molto esauriente.


OT

Quale è il problema dell'utilizzare il termine lungi?

Posta come ipotesi che se ne conosca il significato, è ben altra cosa rispetto alle schifide k o abbreviazioni di sorta.

Non capisco questo accanimento, se non conosci la parola ne impari una nuova, altrimenti uno si esprime come gli pare, purchè comprensibile. Di fatto, il lungi lo è.

si ok. il fatto che ultimamente nei forum se ne fa un abuso :stordita:

/OT

DarkNiko
29-06-2008, 17:38
In quale gioco reale? :)

Gears of War per citarne uno, oppure Unreal Tournament III. Ovviamente sono titoli in cui una VGA dalla 8800 in su basta e avanza (e della fisica se ne può fare a meno), però la differenza c'è, non a caso per UT3 è uscita una mod per abilitare tale peculiarità. ;)

A.L.M.
29-06-2008, 17:51
Gears of War per citarne uno, oppure Unreal Tournament III. Ovviamente sono titoli in cui una VGA dalla 8800 in su basta e avanza (e della fisica se ne può fare a meno), però la differenza c'è, non a caso per UT3 è uscita una mod per abilitare tale peculiarità. ;)

Ma in GoW funziona o potrebbe funzionare? Perchè io sapevo che finora il supporto PhysX delle GeForce funziona solo sul Vantage e sulla Mod di UT (che in pratica non è un gioco). Nemmeno CellFactor funziona, a quanto ho letto. :)

fabryx73
29-06-2008, 17:57
ciao a tutti....
scusate il piccolo OT.....ma ho un problema con una gtx260(so che questo è il thread della 280 ma i chip sono gli stessi e purtroppo nel topic della 260 la scheda non l'ha ancora comprata nessuno :( )
questo è il post che ho messo nell'altro thread..se non volete rispondere qui(giustamente x non sporcare il thread) se avete qulache aiuto postatelo in quello della 260,grazie ;)

Originariamente inviato da fabryx73 Guarda i messaggi
ragazzuoli....
vedo che la scheda non l'ha ancora nessuno....
però io posto lo stesso....
ho un problemone(o meglio dire...un amico HA un problemone )

allora ieri gli è arrivata la scheda,zotac gtx260,....in una famosa catena infromatica presente qui in lombardia(nex..s.it)
siamo andati a prederla....tutto ok...la si monta...
smontando la sua zotac 8800gts 640mb (il primo modello...quello che era stato superato pochissimo tempo dopo dalla versione con 512mb ma con + pipeline,facendo inca**are di brutto tutti quelli che avevano speso un sacco di soldi... )
finito l'installazione si verifica il problemone....
lui il pc l'ha collegato ad un samsung 40pollici m87 full hd tramite cavo hdmi ed adattatore hdmi-dvi incluso nella confezione della scheda(uguale ovviamente a quello che aveva prima incluso nella gts)
allora il video funziona tutto ma durante la normale visione si sentono di continuo tipo dei botti,scariche elttriche sembrerebbe(non sono un esperto),tendendo l'orecchio arrivano sicuramente dal tv e non dal pc....e sembrano sicuramente delle scariche elettriche...
x farvi un'idea avete presente anni fa quando giocavate sui vecchi televisori crt con i primi computer e vostra madre faceva andare il ferro da stiro....ogni volta che premeva il pulsante del vapore si sentiva un botto(ed una piccola interferenza) anche sul vostro tv?
ecco è la stessa cosa....solo che si sentono questi "botti" ma nessuna interferenza video....
tra l'altro sono casuali,e non continui...ma sono tanti...
(esempio in 10 secondi si "sentono" almeno una 12 di questi "botti")....
ovvio che dopo pochi secondi di funzionamento abbiamo scollegato il tv....mica che questi continui cali o sovvracarichi di tensione rovinino il tv...
abbiamo provato a collegare il mio monitor lcd samsung 2032 da 20 pollici tramite dvi sia tv che pc e il problema non si presenta....?!!?!?!??!

rimettendo la sua vecchia 8800 gts nessun problema....quindi x forza è un problema di scheda!!!
ho provato anche a scollegare tutti i cavi inutili nel case....magari qualche interferenza....ma niente!!
l'alimentatore dell'amico è un enermax infinity 720watt....quindi nessun problema x quello...

che fare?
mi date qualche consiglio?
...chiedo io perchè lui è scollegato dal forum....visto che sta provando di tutto x cercare di risolvere il problema

ciao e grazie:

ragazzi....scusate se quoto una mia richiesta di stamane....
se potreste dare un'occhiata.....è abb. urgente,visto che non ho risolto ancora...

Iantikas
29-06-2008, 18:33
ragazzi....scusate se quoto una mia richiesta di stamane....
se potreste dare un'occhiata.....è abb. urgente,visto che non ho risolto ancora...


imho il problema deriva solo dall'adattatore...hai provato adusare quello ke usava prima o (se quello nn lo ha +) ad usarne un altro?...ciao

Iantikas
29-06-2008, 18:37
Ma in GoW funziona o potrebbe funzionare? Perchè io sapevo che finora il supporto PhysX delle GeForce funziona solo sul Vantage e sulla Mod di UT (che in pratica non è un gioco). Nemmeno CellFactor funziona, a quanto ho letto. :)

quoto...


...imho x adesso physx è una funzionalità su cui si deve fare poco affidamento o cmq ke nn deve avere un grande peso nella decisione su quale gpu acquistare...


...un pò come le dx10.1 con le gpu ati (anke se a mio modo di vedere le dx10.1 son ben + importanti del physx)...


...ciao

fr4nc3sco
29-06-2008, 18:39
attualmente physx sono carini gli effetti ma poco praticabili visto i frame che mangiano

athlon xp 2400
29-06-2008, 19:15
alla fine anche io del club...martedi mi arriva la pov gtx 280 ...speriamo che nn sono troppo cpu limited con la cpu q6600 a 3ghz...:O

Mister Tarpone
29-06-2008, 19:20
Interessantissimo questo video:

http://it.youtube.com/watch?v=3GHyE9xJZJE

AZZ ma in quel video la GTX 280 va come una sassata :confused: :eek:
veramente belle...

ma non capisco, in call of duty va quasi il doppio!! nelle review non sembrava così :mbe:

neanche negli altri game... perchè così tanta differenza dalle review??

che non sia veramente un'altro mondo questa gtx280????? no perchè altrimenti aspetto cher si abbassa il prezzo e non compro la 4870..

:boh:

Andrea deluxe
29-06-2008, 19:22
alla fine anche io del club...martedi mi arriva la pov gtx 280 ...speriamo che nn sono troppo cpu limited con la cpu q6600 a 3ghz...:O

forse un 3200-3400 non sarebbero affatto limitanti....

Mister Tarpone
29-06-2008, 19:28
forse un 3200-3400 non sarebbero affatto limitanti....

andrebbe bene pure con il mio 4400+ Toledo (:Perfido:) @ 2.7ghz :sborone:



magari... :asd:

athlon xp 2400
29-06-2008, 19:29
forse un 3200-3400 non sarebbero affatto limitanti....



gioco a 1920 *1200 filtri a palla...comq il mio e' un b3 e' gia' tanto se sta a 3ghz con vcore umani!

Andrea deluxe
29-06-2008, 19:35
gioco a 1920 *1200 filtri a palla...comq il mio e' un b3 e' gia' tanto se sta a 3ghz con vcore umani!

anche se ti devo dire che il mio q9450 a 2660mhz rispetto agli attuali 3200mhz in grid la differenza in alcune situazioni era visibile....

e gioco a 1920x1200 AA2x AF16x tutto al MAX

athlon xp 2400
29-06-2008, 19:37
anche se ti devo dire che il mio q9450 a 2660mhz rispetto agli attuali 3200mhz in grid la differenza in alcune situazioni era visibile....

e gioco a 1920x1200 AA2x AF16x tutto al MAX



ci credo ha anche 12 mb di cache...:fagiano:

Andrea deluxe
29-06-2008, 19:40
ci credo ha anche 12 mb di cache...:fagiano:

no, nel senso che a 2660mhz a volte i picchi di utilizzo della cpu mi raggiungevano il 100% e notavo qualche rallentamento...

athlon xp 2400
29-06-2008, 19:44
no, nel senso che a 2660mhz a volte i picchi di utilizzo della cpu mi raggiungevano il 100% e notavo qualche rallentamento...



comq la cache nei game un po conta...:O ;)

Andrea deluxe
29-06-2008, 19:48
comq la cache nei game un po conta...:O ;)

nel senso che a 2660 anche se giocavo a 1920x1200 con la mia 9800gx2 ero "minimamete" in situazioni cpu limited.

cmq a 3000 penso vada bene...

DarkNiko
29-06-2008, 21:25
comq la cache nei game un po conta...:O ;)

Forse sì, forse no. Non credo che a parità di quad core i 4 mega in più dei Penryn diano risultati macroscopicamente apprezzabili. Non sono 1 o 2 fps che fanno la differenza. ;)

NOOB4EVER
29-06-2008, 22:21
nel senso che a 2660 anche se giocavo a 1920x1200 con la mia 9800gx2 ero "minimamete" in situazioni cpu limited.

cmq a 3000 penso vada bene...

beh penso che questa vga sia meno sofferente rispetto alla gx2 in situazioni di cpu limit,certo che con procio over 3800 -4 gigi ho notato che le prestazioni migliorano di molto,questa essendo invece un single chip lavora di sicuro meglio a parita' di frequenza di gpu,o almeno credo funzioni cosi'..

berry83
30-06-2008, 09:22
sono dei vostri anche io, domani dovrebbe arrivare

JulioHw
30-06-2008, 13:12
Quanto è lunga la skeda? Devo vedere se entra nel case:O

Amph
30-06-2008, 13:15
27cm

Errik89
30-06-2008, 13:34
Ti rispondo io sperando che nessuno mi fucili prima.
Innanzitutto facciamo un pò di ordine, visto che nel tuo intervento hai toccato temi "abbastanza caldi".

NVidia non mi sembra indietro ad ATi, cioè non si possono leggere solamente i numeri quando le architetture utilizzate sono totalmente diverse. In linea di principio è ovvio che 55 nanometri sono migliori di 65, ma solo a livello teorico. Se l'architettura interna del chip a 65 nm (NVidia) è meglio scritta ed ottimizzata rispetto a quella a 55 (ATi), la prima avrà sempre la meglio sulla seconda IMHO.

Quanto al passaggio da 8800 alla serie 9, non è una cavolata. Le scelte possono essere molteplici. E' normale e risaputo che la GX2 fosse un restyling del G92, a sua volta derivato del G80, però io da buon ex possessore della 8800 prima e della 9800GX2, non mi lamento della scelta fatta visto che ho avuto un considerevole boost prestazionale.

Inoltre parliamo di schede di fascia enthusiast, chi è mosso dalle passioni per queste VGA non si pone tanti problemi, cambia e amen.

Riguardo la GTX280 la ventata di potenza ti assicuro che c'è, specie con i nuovi drivers. In tutti i giochi che ho provato la differenza con la 9800GX2 è a volte netta, a volte meno, ma in ogni caso c'è, specialmente quando si intende lavorare ad alte risoluzioni e con i fitlri attivi la GX2 soffre di frame buffering, dovuto anche all'ampiezza di banda del controller di memoria, che è bene ribadirlo è a 256 bit e non a 512 come molti sono portati erroneamente a pensare, complice il giochetto algebrico dello SLI.
Ad ogni buon conto con i PhysX e i forceware 177.41 la GTX280 si è avvantaggiata non poco, frame rate più alto e soprattutto più costante, a dispetto della GX2 e di buona parte delle config SLI in cui il framerate è più ballerino, complici i drivers da una parte e una non sempre perfetta scalabilità delle prestazioni con le soluzioni multigpu.

Per la tua ultima questione sui costi/prestazioni di ATi, c'è da dire che i numeri, stesso discorso di sopra, non bastano a fare la differenza. Innanzitutto una 4850 se la batte con una 9800GTX+ ma non impensierisce minimamente una GTX280. Magari mi dirai "Sì ma se faccio il crossfire mi ci avvicino" e anche in questo caso ti risponderei "Sì ma non sempre", e in ogni caso si confronterebbe una scheda singola (la GTX) con un sistema crossfire, con tutti i problemi derivanti dalla gestione del multigpu (in analogia con lo SLI).

Quindi la 4850 attuale (aspettiamo tutti la 4870 e i test pratici per stilare una valutazione oggettiva) non va più di una GTX280 e il fatto che costi meno sicuramente premia ATi nell'aver ottimizzato i costi (i 55 nm servono pure a questo) ma non nell'aver cercato il record di prestazioni.
Tra l'altro gli 800 SP di cui molti vanno fieri all'atto pratico equivalgono a 160 SP reali, non ricordo dove ma c'era una dimostrazione pratica di ciò.

Detto questo spero di aver risposto esaurientemente alle tue domande. ;)
non concordo assolutamente con quello che dici, che a differenza di quanto hanno detto altri mi sembra un po' di parte...

Per quanto riguarda il processo produttivo effettivamente NVIDIA è dietro ad ATI di uno step da un po' di anni e questo è un problema che si è visto tanto come mai fino ad ora proprio adesso con GT200. GT200 è IMHO un chip TROPPO GROSSO e anche sempre IMHO molto poco ottimizzato in termini sia di spazio che di specifiche. È quasi il doppio di G92 e va più veloce di un 60/70% (quando è tanto). ATi invece pur essendo avanti di uno step nel processo produttivo con RV770 ha fatto un miracolo di ottimizzazione perchè ha moltiplicato RV670 per 2,5 e c'ha fatto stare il tutto in 70mm^2 di spazio in più ( :eek: ). Inoltre la riduzione del processo produttivo non è vantaggiosa solo teoricamente ma è vantaggiosa REALMENTE SEMPRE almeno per quanto riguarda le dimensioni del DIE, cioè il costo del singolo CHIP al produttore (che poi si riversa sul costo finale della VGA). Grazie a questo ATI riesce a far pagare la HD4870 circa 220€ contro la GTX260 che va uguale ma costa 300€ e mentre ATI vende con un buon margine di guadagno e può ancora far scendere molto il prezzo, NVIDIA a causa delle dimensioni sovraumane di GT200 se scende ancora vende praticamente in perdita o comunque a margine zero. Poi in genere con la riduzione del pp calano quasi sempre i consumi (seppur non di molto) e di conseguenza la potenza dissipata (TDP) che si riflette su dissipatori più piccoli e meno costosi che incidono ancora sul prezzo più basso della scheda. :)

Per quanto riguarda il passaggio dalla serie 8 alla serie 9 è stato solo un fatto di MARKETING e BASTA, lo stesso fatto da ATI dalla serie 2000 alla serie 3000 (seppure le differenze tra la 2000 e la 3000 di ATI sono più marcate delle differenze tra 8000 e 9000 di nvidia). Infatti hai parlato della 9800GX2, la 9800GX2 non sono altro che 2 8800GTS 512 messe in SLI nella stessa scheda, tanto vale chiamarla 8800GX2. La 9800GT di prossima uscita è identica alla 8800GT. La 9800GTX è una 8800GTS overclockata. La serie 9 di nvidia è stata fatta solo per gli utenti NIUBBI che vedono il 9 e dicono "oh, è la serie nuova, io ho la 8800 e devo prendere per forza la 9800" :rolleyes:

Parliamo della fascia enthusiast, la GTX280 è una VGA completamente fuori dal mondo per quanto riguarda il prezzo. Costa 500€ e va come la 9800GX2 (poco più solo nei giochi che non scalano bene con lo SLI).
Per quanto riguarda i driver... GT200 è un evoluzione di G80 quindi non aspettarti driver miracolosi, non ci sono stati nemmeno per R600. Al massimo driver che ottimizzano si, ma fidati che non creano il GAP rispetto alla GX2 che tutti ci aspettavamo.
Inoltre hai detto che la 4850 è inferiore alla GTX280, io aggiungo: e ci mancherebbe! Stai paragonando MELE con PERE perchè da SEMPRE le VGA si paragonano per fasce di prezzo e la HD4850 costa 1/3 rispetto alla GTX280!!!
E comunque con un CROSSFIRE di 4850 si raggiungono tranquillamente le performance di una singola GTX280, anzi, a volte anche superiori, spendendo quasi la metà (280€ contro 480€).

Per quanto riguarda PHYSIX... non commento per non gerare flame, ma non c'è 1 gioco decente che supporti phisix come si deve...

;)

Valdis
30-06-2008, 14:20
P.S. e cercherei anche di documentarmi meglio, la 9800 GX2 non è composta da 2 88000 GTS bensi da 2 8800 GT e anche se la definisci un architettura superata posso assicurarti che riesce a dare soddisfazioni. ;)

Penso proprio che fra i due sei tu a sbagliare ;) (mi limito al solo discorso delle specifiche della vga :) )
La 9800gx2 è composta da 2 GTS da 512Mb ma con clok minori sulle gpu :)
http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_2.html

bye

DarkNiko
30-06-2008, 14:24
non concordo assolutamente con quello che dici, che a differenza di quanto hanno detto altri mi sembra un po' di parte...

Per quanto riguarda il processo produttivo effettivamente NVIDIA è dietro ad ATI di uno step da un po' di anni e questo è un problema che si è visto tanto come mai fino ad ora proprio adesso con GT200. GT200 è IMHO un chip TROPPO GROSSO e anche sempre IMHO molto poco ottimizzato in termini sia di spazio che di specifiche. È quasi il doppio di G92 e va più veloce di un 60/70% (quando è tanto). ATi invece pur essendo avanti di uno step nel processo produttivo con RV770 ha fatto un miracolo di ottimizzazione perchè ha moltiplicato RV670 per 2,5 e c'ha fatto stare il tutto in 70mm^2 di spazio in più ( :eek: ). Inoltre la riduzione del processo produttivo non è vantaggiosa solo teoricamente ma è vantaggiosa REALMENTE SEMPRE almeno per quanto riguarda le dimensioni del DIE, cioè il costo del singolo CHIP al produttore (che poi si riversa sul costo finale della VGA). Grazie a questo ATI riesce a far pagare la HD4870 circa 220€ contro la GTX260 che va uguale ma costa 300€ e mentre ATI vende con un buon margine di guadagno e può ancora far scendere molto il prezzo, NVIDIA a causa delle dimensioni sovraumane di GT200 se scende ancora vende praticamente in perdita o comunque a margine zero. Poi in genere con la riduzione del pp calano quasi sempre i consumi (seppur non di molto) e di conseguenza la potenza dissipata (TDP) che si riflette su dissipatori più piccoli e meno costosi che incidono ancora sul prezzo più basso della scheda. :)

Per quanto riguarda il passaggio dalla serie 8 alla serie 9 è stato solo un fatto di MARKETING e BASTA, lo stesso fatto da ATI dalla serie 2000 alla serie 3000 (seppure le differenze tra la 2000 e la 3000 di ATI sono più marcate delle differenze tra 8000 e 9000 di nvidia). Infatti hai parlato della 9800GX2, la 9800GX2 non sono altro che 2 8800GTS 512 messe in SLI nella stessa scheda, tanto vale chiamarla 8800GX2. La 9800GT di prossima uscita è identica alla 8800GT. La 9800GTX è una 8800GTS overclockata. La serie 9 di nvidia è stata fatta solo per gli utenti NIUBBI che vedono il 9 e dicono "oh, è la serie nuova, io ho la 8800 e devo prendere per forza la 9800" :rolleyes:

Parliamo della fascia enthusiast, la GTX280 è una VGA completamente fuori dal mondo per quanto riguarda il prezzo. Costa 500€ e va come la 9800GX2 (poco più solo nei giochi che non scalano bene con lo SLI).
Per quanto riguarda i driver... GT200 è un evoluzione di G80 quindi non aspettarti driver miracolosi, non ci sono stati nemmeno per R600. Al massimo driver che ottimizzano si, ma fidati che non creano il GAP rispetto alla GX2 che tutti ci aspettavamo.
Inoltre hai detto che la 4850 è inferiore alla GTX280, io aggiungo: e ci mancherebbe! Stai paragonando MELE con PERE perchè da SEMPRE le VGA si paragonano per fasce di prezzo e la HD4850 costa 1/3 rispetto alla GTX280!!!
E comunque con un CROSSFIRE di 4850 si raggiungono tranquillamente le performance di una singola GTX280, anzi, a volte anche superiori, spendendo quasi la metà (280€ contro 480€).

Per quanto riguarda PHYSIX... non commento per non gerare flame, ma non c'è 1 gioco decente che supporti phisix come si deve...

;)

Innanzitutto non c'è bisogno di scaldarsi tanto, visto che ho risposto molto pacatamente, a differenza tua che hai esordito come un fiume in piena solo perchè la pensi diversamente, ma veniamo subito al dunque.

Mi accusi di partigianeria quando di te si potrebbe dire la stessa identica cosa, per cui predichi bene ma razzoli male. :D

Veniamo ora a ciò che hai scritto. Al di là dei numeri e delle cifre di cui, come ho già scritto precedentemente, bisogna dare atto ad ATi, ribadisco che non sempre sono i numeri a fare la differenza. ATi è avanti tecnologicamente, questo non ci piove, ma all'atto pratico le sue schede (da R600 in poi) sono sempre dietro a NVidia, nel senso che non hanno mai impensierito la fascia enthusiast di NVidia e d'altro canto costano meno anche per quello, a dimostrazione che nessuno ti regala nulla, nè ATi, nè NVidia.

Sicuramente i prezzi di NVidia, ma non è una novità, delle schede video di fascia enthusiast, in partenza sono sempre esagerati e questo lo riconosco (anche se è davanti agli occhi di tutti), però se lo può permettere, nel senso che avendo la VGA più potente sul mercato fa il bello e cattivo tempo. Sta a noi utenti decidere se cadere nella rete dei "polli" (in senso buono) oppure aspettare che si generi il classico livellamento dei prezzi (anche se per rinfrescarti la memoria ci tengo a sottolineare che con la 8800 GTX non è stato così, nel senso che ha mantenuto alto il prezzo per mesi, visto che non c'era concorrenza allora).

Quanto al discorso che la serie 9 è una presa in giro ed è un solo fattore di marketing, sarà anche come dici tu, però da ex possessore della GX2 e prima ancora della 8800 GTX, ritengo la GX2 un'ottima scheda. Se poi mi vieni a dire, come ho anche detto prima di te, che il G92 è un derivato del G80 e che anche il GT200 alla fine ricalchi il vecchio progetto, potrei risponderti che anche ATi è sulla stessa lunghezza d'onda, considerando il fallimentare progetto di R600 che ha portato avanti per chissà quanto tempo e, benchè riconosca l'RV770 come un ottimo chipset, siamo proprio sicuri che l'hanno riscritto da 0 ? Io ho qualche dubbio e anzi secondo me hanno ereditato qualcosa dell'R600, comunque sarò lieto di essere smentito da prove oggettivamente attendibili a tal proposito.

Che poi, sia per niubbi la serie 9 o che la gente si lasci abbindolare dalle cifre, ti assicuro che ciò avviene sia nel campo NVidia che in quello ATi, se pensi che c'è gente che va in estasi quando legge di 800 Stream Processor di ATi, quando poi tale numero non dà il boost di prestazioni che chiunque si aspetterebbe, data l'enorme cifra, per via di drivers che non sempre sono al top, per non parlare del fatto che sono essi stessi castrati per via dell'architettura interna, allora cosa si dovrebbe dire ???

Se sono di parte io, figuriamoci tu.

Io sono dell'idea che NVidia ed ATi viaggino su binari paralleli. La prima tende di più a privilegiare la fascia enthusiast e poi quella media, ATi invece cerca di guadagnare le quote di mercato che NVidia le toglie puntualmente con le schede top di gamma, proponendo sul mercato prodotti cmq competitivi, che si collocano sulla fascia medio-alta, ad un prezzo sicuramente più appetibile, però come torno a ripeterti, paghi per quello che hai, non ti regalano nulla.

Riguardo l'ultimo punto, e poi chiudo, la GTX280 all'inizio andava come una GX2, se non peggio o meglio a seconda dei casi, ora però le cose sono cambiate radicalmente, e non lo dico, lo dicono i fatti. Inoltre aggiungici (e qui ATi e NVidia non fanno distinzione) che un conto è avere una scheda multigpu (SLi e CrossfireX sono identici da questo punto di vista), un altro paio di maniche è avere una VGA singola, meno fronzoli, meno smanettamenti e più stabilità nei giochi e soprattutto nel framerate che è ciò che fa la differenza, almeno per me e per tanti altri.

Che poi sia un derivato del G80, leggi sopra cosa ho scritto riguardo R600 e i suoi derivati, non ultimo RV770. D'altro canto, come si dice dalle mie parti, squadra che vince non si cambia. Spiegami quindi perchè mai, un'architettura vincente come il G80 e i suoi derivati debba venire buttata via solo perchè ATi ha fatto meglio "sulla carta" e peggio all'atto pratico.

Il paragone che ho fatto tra la 4850 e la GTX280 è stato necessario in quanto l'utente che ha postato prima del mio e del tuo intervento, ha dichiarato che la 4850 costasse meno (ed è vero) e andasse più di una GTX280 (assolutamente falso), per cui prima di fare le battutine ridicole delle PERE o delle MELE, almeno impara a leggere tutto un articolo e a non limitarti a ciò che ti fa più comodo.

Riguardo al crossfire, leggiti (ma forse non lo hai fatto) il mio precedente intervento, in cui ho sottolineato, e lo ribadisco, che il crossfire e lo SLI sono di gran lunga più rognosi (per via dei giochi che non sempre scalano bene e di drivers non sempre all'altezza) di una VGA singola. Quanto al fatto che vadano meglio, ripeto dipende, non è sempre una regola.

Detto ciò chiudo, invitandoti però la prox volta ad essere un pò più obiettivo e a saper leggere meglio gli interventi altrui, oltre a postare in forma un pò meno irruenta.

Con stima,
DarkNiko.

DarkNiko
30-06-2008, 14:26
Penso proprio che fra i due sei tu a sbagliare ;) (mi limito al solo discorso delle specifiche della vga :) )
La 9800gx2 è composta da 2 GTS da 512Mb ma con clok minori sulle gpu :)
http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_2.html

bye

:D Ti contraddici da solo, perchè sul link da te postato dice esplicitamente che sono 2 8800 GT. Non c'è peggior sordo di chi non vuol sentire. :sofico:

Mister Tarpone
30-06-2008, 14:28
:D Ti contraddici da solo, perchè sul link da te postato dice esplicitamente che sono 2 8800 GT. Non c'è peggior sordo di chi non vuol sentire. :sofico:

no... la 9800GX2 a 2x 128sp... quindi come 2x 88GTS 512..

la GT ha "solo" 112sp..

The_SaN
30-06-2008, 14:29
Mi spiace deluderti Valdis ma è come dico io...la scheda è composta da due 8800 GT lavoranti in parallelo. Ho letto questa informazione su GMC e posso assicurarti che sono sempre bene informati a differenza della fonte da te postata che più di una volta ha dato prova di postare nozione non veritiere. ;)

Se fossero 2x8800gt come spieghi i 2x128SP?
Sono 2 8800gts downcloccate ;)

DarkNiko
30-06-2008, 14:37
no... la 9800GX2 a 2x 128sp... quindi come 2x 88GTS 512..

la GT ha "solo" 112sp..

Mi sa che hai ragione tu. Però è davvero singolare che un sito autorevole e abbastanza attendibile come HWUpgrade e tom's hardware parlino, con totale sicurezza, del fatto che siano 2 8800 GT e non 2 8800 GTS, anche se in effetti i numeri da te postati parlano chiaro.

Se tali siti, che in fatto a puntualità d'interventi e di informazioni, dovrebbero essere all'avanguardia, scrivono fischi per fiaschi, allora si creerebbe il paradosso che noi utenti possiamo saperne di più rispetto a chi, per antonomasia, dovrebbe come dire "illuminarci".

Cmq grazie per la tua puntualizzazione. ;)

DarkNiko
30-06-2008, 14:39
Roba da non credere...ragazzi ma sapete leggere? La fonte postata da valdis esprime chiaramente che sono due 8800 GT.
Ora riporto le testuali parole cosi almeno imparate qualcosa.

"La nuova GeForce 9800GX2 è realizzata affiancando di fatto due schede 8800 GT all'interno di uno chassis, anche se esistono differenze in termini di caratteristiche a parità di chip fisico"

Sono state fatte delle modifiche alle stesse GT, ma il chip dal quale è nata la GX2 è quello della GT. :D

Questa ulteriore puntualizzazione direi che fuga ogni dubbio. ;)

The_SaN
30-06-2008, 15:07
Roba da non credere...ragazzi ma sapete leggere? La fonte postata da valdis esprime chiaramente che sono due 8800 GT.
Ora riporto le testuali parole cosi almeno imparate qualcosa.

"La nuova GeForce 9800GX2 è realizzata affiancando di fatto due schede 8800 GT all'interno di uno chassis, anche se esistono differenze in termini di caratteristiche a parità di chip fisico"

Sono state fatte delle modifiche alle stesse GT, ma il chip dal quale è nata la GX2 è quello della GT. :D

Ma il chip della 8800gt É LO STESSO della 8800gts, con 16Sp tagliati fuori a laser.
Quindi alla fine non é che cambia molto eh...
Dipende poi di che revisione sono (e questo non te lo so dire)

Peró se il chip mantiene i 128SP originali, é molto piú corretto parlare di 8800gts, anche per non creare confusione con le prestazioni.

PS: Non é che voglio aver ragione a tutti i costi.
Ma pensaci bene. La 8800gt é un 8800gts tagliato. Quindi secondo te nel caso della gx2 hanno preso il chip tagliato con 112SP e poi hanno riabilitato gli altri 16?
O é piú facile che abbiano mantenuto il chip originale (8800gts)?

The_max_80
30-06-2008, 15:09
ma sono uscite comparazioni con i 177.41 , per vedere se ci sono stati boost prestazionali ?

berry83
30-06-2008, 15:16
i 177.41 sono i driver migliori x questo mostro di potenza?

geminibruni
30-06-2008, 15:19
Innanzitutto non c'è bisogno di scaldarsi tanto, visto che ho risposto molto pacatamente, a differenza tua che hai esordito come un fiume in piena solo perchè la pensi diversamente, ma veniamo subito al dunque.

....... ATi è avanti tecnologicamente, questo non ci piove, ma all'atto pratico le sue schede (da R600 in poi) sono sempre dietro a NVidia, nel senso che non hanno mai impensierito la fascia enthusiast di NVidia e d'altro canto costano meno anche per quello, a dimostrazione che nessuno ti regala nulla, nè ATi, nè NVidia.

........
Io sono dell'idea che NVidia ed ATi viaggino su binari paralleli. La prima tende di più a privilegiare la fascia enthusiast e poi quella media, ATi invece cerca di guadagnare le quote di mercato che NVidia le toglie puntualmente con le schede top di gamma, proponendo sul mercato prodotti cmq competitivi, che si collocano sulla fascia medio-alta, ad un prezzo sicuramente più appetibile, però come torno a ripeterti, paghi per quello che hai, non ti regalano nulla.
......
Che poi sia un derivato del G80, leggi sopra cosa ho scritto riguardo R600 e i suoi derivati, non ultimo RV770. D'altro canto, come si dice dalle mie parti, squadra che vince non si cambia. Spiegami quindi perchè mai, un'architettura vincente come il G80 e i suoi derivati debba venire buttata via solo perchè ATi ha fatto meglio "sulla carta" e peggio all'atto pratico.
........
Riguardo al crossfire, leggiti (ma forse non lo hai fatto) il mio precedente intervento, in cui ho sottolineato, e lo ribadisco, che il crossfire e lo SLI sono di gran lunga più rognosi (per via dei giochi che non sempre scalano bene e di drivers non sempre all'altezza) di una VGA singola. Quanto al fatto che vadano meglio, ripeto dipende, non è sempre una regola.
.......


Quoto tutto il tuo intervento e sopratutto le parti sopra riportate, è chiaro che questa annosa storia ATIvsNVIDIA la si può rigirare come una frittata ogni volta che si vuole, è così da anni e spero lo sarà sempre perchè significa che c'è battaglia vera sia sotto il punto di vista delle prestazioni sia su quello del prezzo, che in parole povere significa alimentare il progresso tecnologico senza dissanguare gli appassionati.....
Però devo confessare che quando capita di andare sui forum ATI spesso mi viene da sorridere vedendo molti degli utenti definire l'Nvidia come "ladri" e l'ATI come "benefattori", nel mondo di oggi nessuno regala niente, tantomeno una azienda che ha passato gli ultimi anni in enormi difficoltà....
Poi questo non cambia che ad oggi come rapporto prestazioni prezzo siano forse migliori le 48x0, ma questo non toglie che il top che c'è in giro in questo momento si chiama GTX280, e non mi sembra una novità che una scheda HigEnd abbia un costo decisamente sfavorevole in confronto alle soluzioni più a portata.......

geminibruni
30-06-2008, 15:21
PS: anche io stò per entrare nel club "GTX280 users", acquistata su ebay a poco più di 450€, in arrivo a fine settimana...:sofico:

:oink:

NOOB4EVER
30-06-2008, 15:21
ma sono uscite comparazioni con i 177.41 , per vedere se ci sono stati boost prestazionali ?

si ragazzi infatti se qualcuno trova info in giro le posti per favore,chissa se sti drivers migliorano le cose ulteriormente :)

Errik89
30-06-2008, 15:25
Innanzitutto non c'è bisogno di scaldarsi tanto, visto che ho risposto molto pacatamente, a differenza tua che hai esordito come un fiume in piena solo perchè la pensi diversamente, ma veniamo subito al dunque.

Mi accusi di partigianeria quando di te si potrebbe dire la stessa identica cosa, per cui predichi bene ma razzoli male. :D

Veniamo ora a ciò che hai scritto. Al di là dei numeri e delle cifre di cui, come ho già scritto precedentemente, bisogna dare atto ad ATi, ribadisco che non sempre sono i numeri a fare la differenza. ATi è avanti tecnologicamente, questo non ci piove, ma all'atto pratico le sue schede (da R600 in poi) sono sempre dietro a NVidia, nel senso che non hanno mai impensierito la fascia enthusiast di NVidia e d'altro canto costano meno anche per quello, a dimostrazione che nessuno ti regala nulla, nè ATi, nè NVidia.

Sicuramente i prezzi di NVidia, ma non è una novità, delle schede video di fascia enthusiast, in partenza sono sempre esagerati e questo lo riconosco (anche se è davanti agli occhi di tutti), però se lo può permettere, nel senso che avendo la VGA più potente sul mercato fa il bello e cattivo tempo. Sta a noi utenti decidere se cadere nella rete dei "polli" (in senso buono) oppure aspettare che si generi il classico livellamento dei prezzi (anche se per rinfrescarti la memoria ci tengo a sottolineare che con la 8800 GTX non è stato così, nel senso che ha mantenuto alto il prezzo per mesi, visto che non c'era concorrenza allora).

Quanto al discorso che la serie 9 è una presa in giro ed è un solo fattore di marketing, sarà anche come dici tu, però da ex possessore della GX2 e prima ancora della 8800 GTX, ritengo la GX2 un'ottima scheda. Se poi mi vieni a dire, come ho anche detto prima di te, che il G92 è un derivato del G80 e che anche il GT200 alla fine ricalchi il vecchio progetto, potrei risponderti che anche ATi è sulla stessa lunghezza d'onda, considerando il fallimentare progetto di R600 che ha portato avanti per chissà quanto tempo e, benchè riconosca l'RV770 come un ottimo chipset, siamo proprio sicuri che l'hanno riscritto da 0 ? Io ho qualche dubbio e anzi secondo me hanno ereditato qualcosa dell'R600, comunque sarò lieto di essere smentito da prove oggettivamente attendibili a tal proposito.

Che poi, sia per niubbi la serie 9 o che la gente si lasci abbindolare dalle cifre, ti assicuro che ciò avviene sia nel campo NVidia che in quello ATi, se pensi che c'è gente che va in estasi quando legge di 800 Stream Processor di ATi, quando poi tale numero non dà il boost di prestazioni che chiunque si aspetterebbe, data l'enorme cifra, per via di drivers che non sempre sono al top, per non parlare del fatto che sono essi stessi castrati per via dell'architettura interna, allora cosa si dovrebbe dire ???

Se sono di parte io, figuriamoci tu.

Io sono dell'idea che NVidia ed ATi viaggino su binari paralleli. La prima tende di più a privilegiare la fascia enthusiast e poi quella media, ATi invece cerca di guadagnare le quote di mercato che NVidia le toglie puntualmente con le schede top di gamma, proponendo sul mercato prodotti cmq competitivi, che si collocano sulla fascia medio-alta, ad un prezzo sicuramente più appetibile, però come torno a ripeterti, paghi per quello che hai, non ti regalano nulla.

Riguardo l'ultimo punto, e poi chiudo, la GTX280 all'inizio andava come una GX2, se non peggio o meglio a seconda dei casi, ora però le cose sono cambiate radicalmente, e non lo dico, lo dicono i fatti. Inoltre aggiungici (e qui ATi e NVidia non fanno distinzione) che un conto è avere una scheda multigpu (SLi e CrossfireX sono identici da questo punto di vista), un altro paio di maniche è avere una VGA singola, meno fronzoli, meno smanettamenti e più stabilità nei giochi e soprattutto nel framerate che è ciò che fa la differenza, almeno per me e per tanti altri.

Che poi sia un derivato del G80, leggi sopra cosa ho scritto riguardo R600 e i suoi derivati, non ultimo RV770. D'altro canto, come si dice dalle mie parti, squadra che vince non si cambia. Spiegami quindi perchè mai, un'architettura vincente come il G80 e i suoi derivati debba venire buttata via solo perchè ATi ha fatto meglio "sulla carta" e peggio all'atto pratico.

Il paragone che ho fatto tra la 4850 e la GTX280 è stato necessario in quanto l'utente che ha postato prima del mio e del tuo intervento, ha dichiarato che la 4850 costasse meno (ed è vero) e andasse più di una GTX280 (assolutamente falso), per cui prima di fare le battutine ridicole delle PERE o delle MELE, almeno impara a leggere tutto un articolo e a non limitarti a ciò che ti fa più comodo.

Riguardo al crossfire, leggiti (ma forse non lo hai fatto) il mio precedente intervento, in cui ho sottolineato, e lo ribadisco, che il crossfire e lo SLI sono di gran lunga più rognosi (per via dei giochi che non sempre scalano bene e di drivers non sempre all'altezza) di una VGA singola. Quanto al fatto che vadano meglio, ripeto dipende, non è sempre una regola.

Detto ciò chiudo, invitandoti però la prox volta ad essere un pò più obiettivo e a saper leggere meglio gli interventi altrui, oltre a postare in forma un pò meno irruenta.

Con stima,
DarkNiko.
ciao, non mi ero scaldato ma pensavo di discutere con toni normali e non ti ho accusato di "partigianeria" ( :D ) ma volevo solo discutere su alcune cose che avevi detto e che non mi sembravano giuste.

Comunque sei te che alla fine ti sei scaldato. :fagiano:

Per quanto riguarda il processo produttivo... le vga ATI NON è VERO che sono sempre dietro alle vga nvidia. Bisogna guardare il rapporto performance/area (da cui ne deriva performance/prezzo) e performance/watt e mi pare che ATI sia nettamente avanti ad nvidia (soprattutto rispetto a GT200, un po' meno rispetto a G92) in entrambi i rapporti. Pensi che ATI non poteva fare un RV770 doppio? Ci metteva 1600SP, 80ALU e 32TMU e aveva già fatto la VGA di fascia alta contro la GTX280... Semplicemente le due aziende hanno intrapreso vie diverse e se nella generazione precedente la via di NVIDIA è risultata migliore, in questa generazione quella scelta da ATI sembra la migliore.


Per quanto riguarda la battuttina delle PERE e delle MELE, lo so che hai risposto ad un utente che ha detto ciò (cosa assolutamente falsa e lo scrivo anche io almeno non mi dite più che sono di parte, forse), ma comunque ciò non toglie che la GTX280 ha un PESSIMO rapporto prezzo/prestazioni e non è vero che essendo una TOP allora è naturale il prezzo di 500€ perchè di solito le TOP hanno sempre dato un bello scarto alle VGA della generazione precedente, cosa non successa con la GTX280.

Per quanto riguarda crossfire e SLI... IMHO saranno il futuro e quindi seppur con evidenti difetti bisogna considerarli ed attualmente un crossfire di HD4850 va come la GTX280 (facendo la media di tutti bench, sia di quelli in cui va che di quelli in cui il CF non va, infatti dove il CF va supera la GTX280 dove non va è sotto).

Poi non ho capito perchè sono stato accusato così, volevo solo discutere su cosa avevi detto, se non sono d'accordo con quello che dici penso di avere tutto il diritto per esprimerlo. Per far vedere che non volevo essere di parte e che non volevo attaccare nessuno ho messo anche le faccine nel mio precedente intervento. :) ;)

The_SaN
30-06-2008, 15:26
Vedi io non è che voglia aggredire ed il tuo discorso è corretto, ci mancherebbe, l unico problema è che non sarebbe del tuo corretto parlare direttamente di GTS anche perchè è la stessa nvidia che riporta GT (con qualche modifica), ma visto che la GTS non è che una GT con qualche piccola modifichetta forse potremmo chiamarle come ognuno preferisce. :D

P.S. tu hai esperienza di flashing di bios? Se si potresti darmi un mano a flashare il mio? thx ;)

Le ultime esperienze che ho avuto nel flashing bios non sono state molto esaltanti :stordita:
Sono riuscito a non far partire piú una vetusta Abit NF7 e ho dovuto mandarla in un negozio a farmi flashare il bios via macchinetta apposita :(

Comunque, nel caso volessi farlo, MAI farlo da windows, ma sempre da DOS. Ci dovrebbero essere un po' di guide a riguardo, e non é nulla di troppo complicato. Se non ne trovi, fammi un fischio che stasera le cerco ;)

Errik89
30-06-2008, 15:28
Io fossi in te prima di emettere sentenze su discorsi tutto sommato molto attinenti a quella che era stata la domanda mi assicurerei di aver bene compreso a che scopo sono state fatte tale precisazioni.

P.S. e cercherei anche di documentarmi meglio, la 9800 GX2 non è composta da 2 88000 GTS bensi da 2 8800 GT e anche se la definisci un architettura superata posso assicurarti che riesce a dare soddisfazioni. ;)
Non volevo dire che G80 fa schifo o che è una architettura superata, anzi!! La mia critica era solo riguardo alla serie 9 come "nome"... :)

Errik89
30-06-2008, 15:30
Roba da non credere...ragazzi ma sapete leggere? La fonte postata da valdis esprime chiaramente che sono due 8800 GT.
Ora riporto le testuali parole cosi almeno imparate qualcosa.

"La nuova GeForce 9800GX2 è realizzata affiancando di fatto due schede 8800 GT all'interno di uno chassis, anche se esistono differenze in termini di caratteristiche a parità di chip fisico"

Sono state fatte delle modifiche alle stesse GT, ma il chip dal quale è nata la GX2 è quello della GT. :D
comunque come avevo scritto sono 2 8800GTS 512 infatti ha 2*128sp (la 8800GT ne ha solo 112sp) ma con frequenze inferiori rispetto alla GTS per limitare i consumi. :)

DarkNiko
30-06-2008, 17:25
PS: anche io stò per entrare nel club "GTX280 users", acquistata su ebay a poco più di 450€, in arrivo a fine settimana...:sofico:

:oink:

Bravo fratello, così mi piaci. Benvenuto tra noi. ;)

_morghan_1968
30-06-2008, 17:31
ciao a tutti...
con crysis ho uno strano effetto:
la vegetazione lampeggia....
mi era capitata una cosa simile con la 8800 ultra solo con S O F payback
capita anche a voi ?
sono i driver ?

berry83
30-06-2008, 17:34
Non volevo dire che G80 fa schifo o che è una architettura superata, anzi!! La mia critica era solo riguardo alla serie 9 come "nome"... :)

Infatti g80 è stata una delle migliori architetture degli ultimi anni

appleroof
30-06-2008, 17:36
Infatti g80 è stata una delle migliori architetture degli ultimi anni

è ormai pacifico (con un grado di obiettività che in una scala da 1 a 10 sia almeno 1/2) dire che la 8800gtx sia la migliore scheda degli ultmi anni, senza dubbio ;)

Errik89
30-06-2008, 17:37
Bravo fratello, così mi piaci. Benvenuto tra noi. ;)
a 450€ già diventa comprabile, se scendesse a 400€ sarebbe un prezzo "giusto" per una TOP al momento attuale. ;)

Errik89
30-06-2008, 17:38
è ormai pacifico (con un grado di obiettività che in una scala da 1 a 10 sia almeno 1/2) dire che la 8800gtx sia la migliore scheda degli ultmi anni, senza dubbio ;)
beh... è quello che ho sempre detto anche io. Chi la presa all'uscita e l'ha pagata meno di 600€ ha fatto un affarone, IMHO. La 9800GTX è come la 9700PRO. :D

berry83
30-06-2008, 17:38
a 450€ già diventa comprabile, se scendesse a 400€ sarebbe un prezzo "giusto" per una TOP al momento attuale. ;)

e lo so considera che c'è un gioco nuovo che alza il prezzo. assassin's creed originale ha il suo prezzo, anche io l'ho pagata 459

berry83
30-06-2008, 17:39
beh... è quello che ho sempre detto anche io. Chi la presa all'uscita e l'ha pagata meno di 600€ ha fatto un affarone, IMHO. La 9800GTX è come la 9700PRO. :D

io avevo la 9800xt, gran bella scheda

Errik89
30-06-2008, 17:43
e lo so considera che c'è un gioco nuovo che alza il prezzo. assassin's creed originale ha il suo prezzo, anche io l'ho pagata 459
si ho visto che in tante gtx280 mettono assassin's creed... penso che sia un favore dovuto da nvidia a ubisoft per la nota storia delle dx10.1 :asd: :asd:
Comunque se la GTX280 scendesse a 400€ sarebbe un'ottima VGA. Col prezzo attuale IMHO è un po' fuori mercato, anche se NVIDIA il suo mercato c'è l'ha sempre e questo lo si vede bene in questo thread. Nvidia può permettersi di sparare una GTX280 a 500€ con quel rapporto prezzo / prestazioni e questo IMHO è sicuramente merito di nvidia stessa.

DarkNiko
30-06-2008, 17:52
ciao, non mi ero scaldato ma pensavo di discutere con toni normali e non ti ho accusato di "partigianeria" ( :D ) ma volevo solo discutere su alcune cose che avevi detto e che non mi sembravano giuste.

Comunque sei te che alla fine ti sei scaldato. :fagiano:

Per quanto riguarda il processo produttivo... le vga ATI NON è VERO che sono sempre dietro alle vga nvidia. Bisogna guardare il rapporto performance/area (da cui ne deriva performance/prezzo) e performance/watt e mi pare che ATI sia nettamente avanti ad nvidia (soprattutto rispetto a GT200, un po' meno rispetto a G92) in entrambi i rapporti. Pensi che ATI non poteva fare un RV770 doppio? Ci metteva 1600SP, 80ALU e 32TMU e aveva già fatto la VGA di fascia alta contro la GTX280... Semplicemente le due aziende hanno intrapreso vie diverse e se nella generazione precedente la via di NVIDIA è risultata migliore, in questa generazione quella scelta da ATI sembra la migliore.


Per quanto riguarda la battuttina delle PERE e delle MELE, lo so che hai risposto ad un utente che ha detto ciò (cosa assolutamente falsa e lo scrivo anche io almeno non mi dite più che sono di parte, forse), ma comunque ciò non toglie che la GTX280 ha un PESSIMO rapporto prezzo/prestazioni e non è vero che essendo una TOP allora è naturale il prezzo di 500€ perchè di solito le TOP hanno sempre dato un bello scarto alle VGA della generazione precedente, cosa non successa con la GTX280.

Per quanto riguarda crossfire e SLI... IMHO saranno il futuro e quindi seppur con evidenti difetti bisogna considerarli ed attualmente un crossfire di HD4850 va come la GTX280 (facendo la media di tutti bench, sia di quelli in cui va che di quelli in cui il CF non va, infatti dove il CF va supera la GTX280 dove non va è sotto).

Poi non ho capito perchè sono stato accusato così, volevo solo discutere su cosa avevi detto, se non sono d'accordo con quello che dici penso di avere tutto il diritto per esprimerlo. Per far vedere che non volevo essere di parte e che non volevo attaccare nessuno ho messo anche le faccine nel mio precedente intervento. :) ;)

Ok, ti porgo espressamente le mie scuse, non volevo aggredirti, come so che non volevi nemmeno tu, l'importante è che ci siamo capiti.

Come ti ripeto però, nessuno mette in dubbio che ATi, tecnologicamente parlando, sia avanti, però c'è una premessa che ti è sfuggita. Io ho parlato di fascia enthusiast. Mi spieghi perchè mai ATi non ha più messo sul commercio una top di gamma degna di essere definita tale e di rivaleggiare con la controparte (NVidia) presente sul mercato ???
Che poi mi tiri fuori delle VGA dal migliore rapporto prezzo/prestazioni non ci piove, ma valgono anche quello che valgono.

Quello che dovrebbe far pensare un pò tutti quelli che, come me, si entusiasmano di tecnologia e di hardware di fascia alta o enthusiast che dir si voglia, è che mentre NVidia riesce a tirare fuori, sia pur a scapito di un maggior costo che non sempre ne giustifica l'acquisto (e su questo ti dò ragione), una VGA con i controca**i, ATi per rivaleggiare con la top di gamma NVidia deve usare almeno 2 delle sue GPU, però amico mio i paragoni, come certamente saprai, si fanno su quantità omogenee e non eterogenee.

Che senso ha che uno mi dica "Se faccio 1 crossfire vado meglio di una GTX280 ???" quando si sa che il crossfire impiega obbligatoriamente 2 VGA, mentre la GTX280 è una scheda singola ????

Sai allora le risate che si farebbe uno mettendo 2 GTX280 in SLI, non ce ne sarebbe per nessuno (e ti assicuro che le prestazioni di 2 GTX280 in SLI sono paurose, altro che crossfire di ATi). Quindi a livello di VGA singola, NVidia ha quanto di meglio esista.

Quanto poi al prezzo e al discorso che non sta scritto da nessuna parte che essendo una TOP di gamma debba costare tanto, sono d'accordo, ma è altrettanto vero che il prezzo lo fa il mercato e soprattutto la concorrenza (che piano piano si va facendo strada, per il beneplacito di buona parte di noi utenti), quindi NVidia, da questo punto di vista, fa quel che vuole e la scelta se comprare la scheda, pur con le dovute critiche, o meno, spetta solo al consumatore.

Riguardo al discorso che lo SLI e/o il Crossfire rappresentino il futuro, beh se ne potrebbe parlare per ore se non per giorni. Di sicuro la direzione dello sviluppo tecnologico delle VGA è quella, anche se vedo molto più plausibile adottare una struttura simile a quella utilizzata nei dual e quad core, cioè di avere un solo nucleo (a livello di GPU) contenente all'interno 1 die shrink (come per il dual core) oppure 2 die accoppiati tramite apposito bridge interno operanti in parallelo. Così facendo la VGA verrebbe vista come una scheda singola a tutti gli effetti ma con una GPU avente una potenza, teoricamente, doppia (o quadrupla) ma svincolata dall'architettura attuale che vede le soluzioni SLi e Crossfire penalizzate dal bridge di comunicazione dati oltre al fatto che il rendering parallelo non riesce, come invece dovrebbe, a garantire il raddoppio (o quasi) delle prestazioni.

Per l'ultimo punto ti rinnovo le mie scuse, nessuno voleva trattarti male, meno che mai io. Sei liberissimo di pensarla diversamente da me, ci mancherebbe !!!

Rinnovo i saluti e la mia stima.

DarkNiko.

massimovasche
30-06-2008, 17:57
Ciao raga un consiglio; ho 2 8800 gtx sli. Che faccio aspetto o passo a questa scheda?:eek:

Errik89
30-06-2008, 18:01
Ok, ti porgo espressamente le mie scuse, non volevo aggredirti, come so che non volevi nemmeno tu, l'importante è che ci siamo capiti.

Come ti ripeto però, nessuno mette in dubbio che ATi, tecnologicamente parlando, sia avanti, però c'è una premessa che ti è sfuggita. Io ho parlato di fascia enthusiast. Mi spieghi perchè mai ATi non ha più messo sul commercio una top di gamma degna di essere definita tale e di rivaleggiare con la controparte (NVidia) presente sul mercato ???
Che poi mi tiri fuori delle VGA dal migliore rapporto prezzo/prestazioni non ci piove, ma valgono anche quello che valgono.

Quello che dovrebbe far pensare un pò tutti quelli che, come me, si entusiasmano di tecnologia e di hardware di fascia alta o enthusiast che dir si voglia, è che mentre NVidia riesce a tirare fuori, sia pur a scapito di un maggior costo che non sempre ne giustifica l'acquisto (e su questo ti dò ragione), una VGA con i controca**i, ATi per rivaleggiare con la top di gamma NVidia deve usare almeno 2 delle sue GPU, però amico mio i paragoni, come certamente saprai, si fanno su quantità omogenee e non eterogenee.

Che senso ha che uno mi dica "Se faccio 1 crossfire vado meglio di una GTX280 ???" quando si sa che il crossfire impiega obbligatoriamente 2 VGA, mentre la GTX280 è una scheda singola ????

Sai allora le risate che si farebbe uno mettendo 2 GTX280 in SLI, non ce ne sarebbe per nessuno (e ti assicuro che le prestazioni di 2 GTX280 in SLI sono paurose, altro che crossfire di ATi). Quindi a livello di VGA singola, NVidia ha quanto di meglio esista.

Quanto poi al prezzo e al discorso che non sta scritto da nessuna parte che essendo una TOP di gamma debba costare tanto, sono d'accordo, ma è altrettanto vero che il prezzo lo fa il mercato e soprattutto la concorrenza (che piano piano si va facendo strada, per il beneplacito di buona parte di noi utenti), quindi NVidia, da questo punto di vista, fa quel che vuole e la scelta se comprare la scheda, pur con le dovute critiche, o meno, spetta solo al consumatore.

Riguardo al discorso che lo SLI e/o il Crossfire rappresentino il futuro, beh se ne potrebbe parlare per ore se non per giorni. Di sicuro la direzione dello sviluppo tecnologico delle VGA è quella, anche se vedo molto più plausibile adottare una struttura simile a quella utilizzata nei dual e quad core, cioè di avere un solo nucleo (a livello di GPU) contenente all'interno 1 die shrink (come per il dual core) oppure 2 die accoppiati tramite apposito bridge interno operanti in parallelo. Così facendo la VGA verrebbe vista come una scheda singola a tutti gli effetti ma con una GPU avente una potenza, teoricamente, doppia (o quadrupla) ma svincolata dall'architettura attuale che vede le soluzioni SLi e Crossfire penalizzate dal bridge di comunicazione dati oltre al fatto che il rendering parallelo non riesce, come invece dovrebbe, a garantire il raddoppio (o quasi) delle prestazioni.

Per l'ultimo punto ti rinnovo le mie scuse, nessuno voleva trattarti male, meno che mai io. Sei liberissimo di pensarla diversamente da me, ci mancherebbe !!!

Rinnovo i saluti e la mia stima.

DarkNiko.
tranquillo non mi devi fare le scuse, c'è stata solo 1 incomprensione... :cincin:

Per quanto riguarda il discorso della fascia enthusiast semplicemente ATI dopo il flop di R600 ha deciso di non produrre più il classico chippone magalitico alla GT200 ma ha deciso di produrre un chip di fascia media come RV770 e poi fare la VGA ENTHUSIAST con 2 di questi sullo stesso PCB (R700). Forse non sai che è già confermato dalla stessa ATI che R700 non sarà un semplice crossfire di 2 HD4870 sullo stesso PCB ma avrà innanzitutto memoria condivisa e inoltre avrà un bus di collegamento di "nuova generazione" non ancora specificato. Penso che il prossimo passo sia proprio quello di inserire 2 gpu core nello stesso package (in stile core2quad :D ). È vero che se ne può discutere per ore e giorni su questo, ma IMHO è ovvio che prima o poi le GPU saranno così, ATI ha pensato prima, NVIDIA ha pensato poi. I risultati sono sotto gli occhi di tutti (cioè che è vero che nvidia ha la VGA TOP ma è vero che con 300€ si raggiungono le stesse prestazioni. C'è a chi piace il multigpu e a chi non piace). :)

Poi per quanto riguarda il prezzo nvidia avrà sempre mercato con la sua megavga enthusiast e questo è un merito che bisogna riconoscerle sicuramente perchè è riuscita a crearsi il nome di marchio leader nel mercato GPU nonostante il flop della serie NV30. :)

Errik89
30-06-2008, 18:03
Ciao raga un consiglio; ho 2 8800 gtx sli. Che faccio aspetto o passo a questa scheda?:eek:
dovresti avere più o meno le stesse prestazioni dello SLI, se ti sei stufato dello SLI e riesci a vendere bene le tue 8800GTX passa (anche perchè 1 GTX280 consuma meno di 2 8800GTX in SLI), altrimenti non c'è motivo. :)

massimovasche
30-06-2008, 18:08
Ora coi driver più maturi lo SLI va meglio; il fatto è che se aspetto le 8800 si svalutano troppo.... boh nn so che fare. Certo però che pensare allo SLI di 280 gtx attizza parecchio:cool:

Errik89
30-06-2008, 18:10
Ora coi driver più maturi lo SLI va meglio; il fatto è che se aspetto le 8800 si svalutano troppo.... boh nn so che fare. Certo però che pensare allo SLI di 280 gtx attizza parecchio:cool:
beh se hai soldi da buttare fallo :D (magari regalamene una anche a me :asd: )

P.s.: ormai le 8800GTX si sono già svalutate vista l'uscita delle 4850, avresti dovuto venderle 2 settimane fa