PDA

View Full Version : [Thread ufficiale] nVidia 7800GTX


Pagine : 1 2 [3] 4 5

Simon82
22-06-2005, 19:36
Oggi per mancanza tempo ho letto troppo velocemente la rece. Mi ci metto stasera con calma e poi posto le mie impressioni. :)

Athlon 64 3000+
22-06-2005, 19:41
Potrete dire che non ne vale la pena,ma fino a ieri ci ho pensato molto di passare da una 6800GT a una 7800GTX e che confrontando il fill rate delle 2 schede ci dovrebbe essere uno scarto di prestazioni circa del 60-70%.
Invece le prestazioni non sono così tanto maggiori.
Però ho visto in una recensione che in Batteflied 2 alle alte risoluzioni con i filtri attivi andava il doppio secco della mia 6800GT.
:confused:
Vai a capirci qualcosa.

halduemilauno
22-06-2005, 19:59
Potrete dire che non ne vale la pena,ma fino a ieri ci ho pensato molto di passare da una 6800GT a una 7800GTX e che confrontando il fill rate delle 2 schede ci dovrebbe essere uno scarto di prestazioni circa del 60-70%.
Invece le prestazioni non sono così tanto maggiori.
Però ho visto in una recensione che in Batteflied 2 alle alte risoluzioni con i filtri attivi andava il doppio secco della mia 6800GT.
:confused:
Vai a capirci qualcosa.

ma tu normalmente a che ris. e imp. giochi?
;)

pon 87
22-06-2005, 20:06
ma tu normalmente a che ris. e imp. giochi?
;)
ottima domanda, perchè l'acquisto ha senso se poi si giocherà sempre a 1600x1200 con aa4x e af 16x li si che la 7800 GTX bastona tanto la 6800GT, non che alle altre ris nn sia velocissima ;) :)

Dark Schneider
22-06-2005, 20:11
Cavolo a quante pagine siete arrivati già.

Ripeto quello che ho scritto sul topic dell'articolo.

Personalmente non mi aspettavo molto da questa GPU. Scheda cmq più perfomante dalle attuali top. Con delle migliorie carine, però alla fine non la trovo interessantissima.
Cioè vabbè bisogna dire che ho una 6800GT quindi già guardavo questa scheda con ben poco interesse.

Cmq un buon potenziamento di NV40. :)

Marko Ramius
22-06-2005, 20:13
Ora mi è sorta una domanda... come saranno le 7800 e 7800gt?
Vista questa qui penso che saranno simili rispettivamente a 6800gt e ultra

ATi7500
22-06-2005, 20:16
Potrete dire che non ne vale la pena,ma fino a ieri ci ho pensato molto di passare da una 6800GT a una 7800GTX e che confrontando il fill rate delle 2 schede ci dovrebbe essere uno scarto di prestazioni circa del 60-70%.
Invece le prestazioni non sono così tanto maggiori.
Però ho visto in una recensione che in Batteflied 2 alle alte risoluzioni con i filtri attivi andava il doppio secco della mia 6800GT.
:confused:
Vai a capirci qualcosa.
c'è una cosa ke state trascurando in parecchi: il test del fill rate non tiene conto assolutamente del fattore CPU limited..questa scheda magari SARA' (in futuro) molto veloce rispetto le 6800, ma attualmente..e con processori che non sono diffusi PER NIENTE e sono i più potenti nell'ambito consumer (Athlon 64 Fx-57, mica bau bau micio micio) sono ancora cpu limited le 6800, figuriamoci le 7800..utilità praticamente nulla :)

bYeZ!

Alberto Falchi
22-06-2005, 20:20
c'è una cosa ke state trascurando in parecchi: il test del fill rate non tiene conto assolutamente del fattore CPU limited..questa scheda magari SARA' (in futuro) molto veloce rispetto le 6800, ma attualmente..e con processori che non sono diffusi PER NIENTE e sono i più potenti nell'ambito consumer (Athlon 64 Fx-57, mica bau bau micio micio) sono ancora cpu limited le 6800, figuriamoci le 7800..utilità praticamente nulla :)


Come tutte le VGA hi-end, del resto. A meno di voler giocare a tutto a 16x12+AA+AF, una scheda mainstream va più che bene. Ovvio che si tratta di giocattoli per appassionati, più che di necessità reali di gioco.

Pape

OvErClOck82
22-06-2005, 20:20
ma della 7800ultra si sa ancora nulla ? :confused:

OvErClOck82
22-06-2005, 20:29
up

ATi7500
22-06-2005, 20:39
Come tutte le VGA hi-end, del resto. A meno di voler giocare a tutto a 16x12+AA+AF, una scheda mainstream va più che bene. Ovvio che si tratta di giocattoli per appassionati, più che di necessità reali di gioco.

Pape
si ma questo concetto si è amplificato in maniera disgustosa con l'SLi.. cioè io a vedere meno di 100 frame con una configurazione a doppia scheda inorridisco..non so voi..

bYeZ!

ATi7500
22-06-2005, 20:42
ma della 7800ultra si sa ancora nulla ? :confused:
no, perchè?

bYeZ!

Athlon 64 3000+
22-06-2005, 20:53
ma tu normalmente a che ris. e imp. giochi?
;)

HL2 lo ho giocato a 1280x1024x32 con AF 16x e Far Cry a 1024x768x32 con AF 16x però non a 1280 perchè seno rallentava parecchio.
Ho anche provato Doom3 a 1280x1024x32 con AF 16x e non faceva una piega.
A Parte PES4 e Colin 2005 gli altri giochi mi sono abituato a giocarlo a 1280x1024x32 con AF 16x.
Diciamo che mi stò abituando a giocare oltre il 1024.
Tutti i giochi li gioco dettagli a palla.
Mi è anche venuto in mente che anche UT2004 lo gioco a 1280x1024x32 con AF 16x senza mai scendere sotto i 60 fps.

yossarian
22-06-2005, 20:53
38,4

37,7

35,2

:read:

Athlon 64 3000+
22-06-2005, 20:57
38,4

37,7

35,2

:read:

Ti faccio questa domanda?
Nella Geforce 7800 GTX le ALU e le TMU le hanno resi independenti cosa che non è in NV40?

athlon xp 2400
22-06-2005, 22:09
raga con la mia schedozza quanto ci potro' andare avanti secondo voi a 1280*1024 dettagli alti e qualche filtro diciamo anisotropico 4x?

zorco
22-06-2005, 22:14
la Leadtek PX7800-TDH 7800GTX si può acquistare ad un prezzo di 549 euro su nexths pensavo costasse di più.









Athlon XP 2400+@2175 vcore 1.76 Mobo Asus A7v8X, 1024 MB RAM DDR 333, asus v9999le@12/6 380/800 , 2 hd maxtor 160mb ata-133, win xp pro sp2 dx 9.0c,alimentatore Q-tec 650 watt 3dmark 03:9268

conan_75
22-06-2005, 22:15
Bah, mi aspettavo molto di più.
Quando era uscita la 6800Ultra andava quasi il doppio di una 9800XT che allora era il top.
Questa va un 20-30% in più della X850XT PE e nemmeno su tutti i titoli; in alcuni va alla pari :rolleyes:
Sono un pò deluso, speriamo che la concorrenza sforni un 32pipe come si deve anzichè questi aggiornamenti a 24pipe.

sgrisol@verklok
22-06-2005, 22:21
mi inserisco sul discorso risoluzioni utilizzate.
io 1280 x 1024 con i filtri 4x/8x aniso di base.
alcuni anche a 1600x1200 coi filtri, tipo tron 2.0 top spin scrapland e fs2004
1024 x768 la evito xche è notevole la differenza con 1280 x 1024
al max accetto la 1152 x 864

project00
22-06-2005, 22:25
Dai raga qualcuno che l ha ordinata me la spedisce cosi la provo con l' FX55 a 3.2ghz sotto vapochill e vediamo se è cpu-limited :D

zorco
22-06-2005, 22:27
Parliamo invece di consumi, la 7800 ci fà risparmiare energia rispetto alle ati X850XT PE e 6800 ultra o no?










Athlon XP 2400+@2175 vcore 1.76 Mobo Asus A7v8X, 1024 MB RAM DDR 333, asus v9999le@12/6 380/800 , 2 hd maxtor 160mb ata-133, win xp pro sp2 dx 9.0c,alimentatore Q-tec 650 watt 3dmark 03:9268

project00
22-06-2005, 22:43
Parliamo invece di consumi, la 7800 ci fà risparmiare energia rispetto alle ati X850XT PE e 6800 ultra o no?

Da quello che dicono sulle rece consuma/scalda meno di una 6800ultra ma non ho ancora visto un grafico chiaro che dica quanto....

massimomarc
22-06-2005, 23:16
38,4

37,7

35,2

:read:


quel :read: significa che sai qualcosa che non puoi dire vero :asd:?

e noi dobbiamo interpretare quei 3 numeri ? :asd.

Kola_Gurra
22-06-2005, 23:48
raga, un mio amico vorrebbe comprarsi la skeda nuova...ma nn so se con l'avvento di questa si abbasseranno i prezzi

dite che se la compra ora ci rimane inculato ke fra un mese scendono? :confused:

voleva comprare una 6800gt...o qualcosa cmq su quel genere

Arruffato
23-06-2005, 00:17
raga, un mio amico vorrebbe comprarsi la skeda nuova...ma nn so se con l'avvento di questa si abbasseranno i prezzi

dite che se la compra ora ci rimane inculato ke fra un mese scendono? :confused:

voleva comprare una 6800gt...o qualcosa cmq su quel genere
I prezzi delle GT sono già scesi io non mi aspetterei ulteriori discese a breve. Piuttosto può darsi che si trovino delle offerte speciali in shop che hanno il magazzino pesante.
Un'altra buona alternativa è l'usato, a questo punto nel mercatino ci sarà il giro di tutti quelli che comprano la nuova e vendono la vecchia.

yossarian
23-06-2005, 00:19
Ti faccio questa domanda?
Nella Geforce 7800 GTX le ALU e le TMU le hanno resi independenti cosa che non è in NV40?


no; perchè ciò avvenga si deve riprogettare l'architettura della prima delle due alu fp32: anche in G70 il compito di assegnare gli indirizi alle texture spetta a quest'ultima.
Si è ovviato all'inconveniente aumentando il numero delle unità logiche rispetto a NV40. Infatti nei giochi in cui i calcoli matematici rivestono una notevole importanza (ad esempio HL2) G70 dimostra un'efficienza superiore rispetto a NV40 (indipendentemente dal numero di pipeline).

Grosso modo si può dire che G70 abbia 24 pipeline ma 48 unità di calcolo (senza tener conto delle minialu).

Questo potrebbe lasciar intuire che il confronto con R520 non sia rigorosamente interpretabile come un 24 vs 32)

yossarian
23-06-2005, 00:21
quel :read: significa che sai qualcosa che non puoi dire vero :asd:?

e noi dobbiamo interpretare quei 3 numeri ? :asd.


no, molto più modestamente significa che in alcuni test (ad esempio dove G70 le busca sonoramente da due 6800 SLI) la situazione è bandwidth limited per la 7800

Quei numeri sono le ampiezze di banda di G70, R480 e NV40 rispettivamente (e come puoi vedere sono molto vicini tra loro)

Vifani
23-06-2005, 00:30
no; perchè ciò avvenga si deve riprogettare l'architettura della prima delle due alu fp32: anche in G70 il compito di assegnare gli indirizi alle texture spetta a quest'ultima.
Si è ovviato all'inconveniente aumentando il numero delle unità logiche rispetto a NV40. Infatti nei giochi in cui i calcoli matematici rivestono una notevole importanza (ad esempio HL2) G70 dimostra un'efficienza superiore rispetto a NV40 (indipendentemente dal numero di pipeline).

Grosso modo si può dire che G70 abbia 24 pipeline ma 48 unità di calcolo (senza tener conto delle minialu).


Io non parlerei di 48 ALU, ma di 48 unità di pixel shading disposte a due a due nelle 24 pipeline. In ogni caso confermo la dipendenza di una delle due unità dall'unità di texture mapping, l'ho anche scritto: http://www.hwupgrade.it/articoli/skvideo/1311/4.html

G70 rispetto a NV40 riesce ad eseguire il doppio delle MADs perché adesso entrambe le unità di shading per pipeline possono eseguirne 4 per pixel per ciclo di clock, a meno che una delle due non sia impegnata con una texture.

Vifani
23-06-2005, 00:32
Scusate se magari pongo un quesito da niubbo... uno che si ritrova tutta sta potenza giocherà strabene, ma se la notte vuole lasciare a scaricare... non c'è la possibilità di diminuire frequenze/voltaggi dai driver? Sarò un fanatico ma una scheda video che consuma sull'ordine dei 100 watt a monitor spento mi fa strano :)

Abilitando i Coolbits puoi selezionare la frequenza di lavoro della scheda nel 2D. Di default il core di G70 nel 2D lavora a circa 250 Mhz. Non ricordo con esattezza la frequenza, se vuoi posso fartela sapere.

Vifani
23-06-2005, 00:32
Da quello che dicono sulle rece consuma/scalda meno di una 6800ultra ma non ho ancora visto un grafico chiaro che dica quanto....

Puoi vedere qui un grafico chiaro: http://www.hwupgrade.it/articoli/skvideo/1311/34.html

;)

yossarian
23-06-2005, 00:34
Io non parlerei di 48 ALU, ma di 48 unità di pixel shading disposte a due a due nelle 24 pipeline. In ogni caso confermo la dipendenza di una delle due unità dall'unità di texture mapping, l'ho anche scritto: http://www.hwupgrade.it/articoli/skvideo/1311/4.html

G70 rispetto a NV40 riesce ad eseguire il doppio delle MADs perché adesso entrambe le unità di shading per pipeline possono eseguirne 4 per pixel per ciclo di clock, a meno che una delle due non sia impegnata con una texture.


in effetti parlare di alu è un po' restrittivo, poichè ogni unità compie più operazioni per ciclo. Anche se, comunque, comunemente si tende ad indicare ancora con tale termine anche unità di calcolo più complesse.

Complimenti per la recensione.

:)

Vifani
23-06-2005, 00:35
Vi quoto anche due mie risposte nel topic dei commenti all'articolo che rientrano in tema con alcuni post fatti qui.

Il motivo per cui ci sono persone che sono rimaste deluse dalle prestazioni è che queste persone hanno dato troppo ascolto ai rumours ed alle informazioni non ufficiali che circolano nei forum. Personalmente non ho mai creduto a chi diceva "prestazioni doppie rispetto alla GeForce 6800 Ultra" (e questo prima di venire a conoscenza delle informazioni sotto NDA) e avrebbero dovuto farlo anche queste persone.


Faccio una mia considerazione riguardo il discorso "CPU limited". Invito la maggioranza delle persone che si sono cervellate su quali processori bisogna possedere per sfruttare G70 a vederla sotto una prospettiva completamente differente. Il problema non è trovare CPU in grado di sfruttare G70. Questo tipo di ricerca è fallimentare perché avere una CPU che alzi il limite di UT2004 dagli attuali 400 fps a 700 fps non serve assolutamente a niente. Il discorso è un altro: è necessario che lo sviluppo dei videogames sia al passo con i tempi e che la complessità della loro grafica aumenti con l'aumentare della potenza di calcolo disponibile con l'hardware. Se scrivo un pixel shader con 10 istruzioni o scrivo uno shader con 1000 istruzioni, alla CPU non gliene frega assolutamente niente, però nel secondo caso avrò un effetto più realistico ed una grafica più pesante e, conseguentemente, meno dipendenza dalla CPU. Non è un caso che i titoli più recenti e complessi come The Chronicles Of Riddick e Splinter Cell Chaos Theory siano risultati quelli meno dipendenti dalla CPU, mentre UT2004 (che praticamente non ha shader), è il più dipendente.

La GeForce 7800 GTX non ha bisogno di un processore potentissimo per essere sfruttata. Ha solo bisogno del software che le sfrutti. Per la precedente generazione c'erano Far Cry, Half-Life 2 e Doom 3. Usciranno i titoli anche per G70 e che non saranno CPU limited anche con le CPU di oggi.

Vifani
23-06-2005, 00:36
in effetti parlare di alu è un po' restrittivo, poichè ogni unità compie più operazioni per ciclo. Anche se, comunque, comunemente si tende ad indicare ancora con tale termine anche unità di calcolo più complesse.

Complimenti per la recensione.

:)

Beh considera che NVIDIA nei suoi tech paper indica appunto 24 ALU di pixel shading e 8 di vertex shading ;)

Vifani
23-06-2005, 00:37
Sicuramente un ottima scheda, ma ci sono un pò di cose che non mi tornano... :eek:

Qui:
http://www.hwupgrade.it/articoli/skvideo/1311/26.html

Mi piacerebbe vedere test comparativi 6800U-X850XT-7800GTX con AA a 4X e AF a 8 (o 16), per avere un quadro più completo.



La recensione è disseminata di benchmark che confronta quelle schede con AA 4x e AF 8x.

yossarian
23-06-2005, 00:45
Beh considera che NVIDIA nei suoi tech paper indica appunto 24 ALU di pixel shading e 8 di vertex shading ;)


è una deformazione di ingegneri e tecnici quella di riferirsi a qualunque cosa utilizzando acronimi; si risparmia tempo sia nello scrivere che nel dare spiegazioni. Così un'unità di calcolo è una "alu" indipendentemente dalla complessità e dal numero di operazioni singole che riesce a svolgere per ciclo (il massimo della concessione può essere "minialu" o l'altrettanto generico "combiner" tanto caro ai tecnici NV)

:D

Ricky78
23-06-2005, 01:32
Vi quoto anche due mie risposte nel topic dei commenti all'articolo che rientrano in tema con alcuni post fatti qui.

Il motivo per cui ci sono persone che sono rimaste deluse dalle prestazioni è che queste persone hanno dato troppo ascolto ai rumours ed alle informazioni non ufficiali che circolano nei forum. Personalmente non ho mai creduto a chi diceva "prestazioni doppie rispetto alla GeForce 6800 Ultra" (e questo prima di venire a conoscenza delle informazioni sotto NDA) e avrebbero dovuto farlo anche queste persone..
Assolutamente vero... mi trovi della tua stessa idea.
Tu stesso un 2-3 mesi fa mi ricordo che lo avevi detto dicendo che ci sarebbe stato un boost prestazionale intorno al 50-60%...
Ad essere obiettivi però nVidia si è tirata la zappa sui piedi non fornendo indiscrezioni a riguardo e facendo perciò immaginare un nuovo raddoppio prestazionale.
Comunque IMHO questa "insoddisfazione" reintrerà nel giro di pochi giorni e fino a quando non ci sarà la contropartita ATi nessuno ci farà più caso.
La regina è lei al momento.




La GeForce 7800 GTX non ha bisogno di un processore potentissimo per essere sfruttata. Ha solo bisogno del software che le sfrutti. Per la precedente generazione c'erano Far Cry, Half-Life 2 e Doom 3. Usciranno i titoli anche per G70 e che non saranno CPU limited anche con le CPU di oggi.
Tra quanto si dirà addio alle 6800 Ultra a 1280x1024 (appena comprata e che non ho ancora a casa)? :cry: :muro: :muro:

Vifani
23-06-2005, 01:39
Tra quanto si dirà addio alle 6800 Ultra a 1280x1024 (appena comprata e che non ho ancora a casa)? :cry: :muro: :muro:

Penso che tu possa stare tranquillo per un bel po di tempo. Io direi almeno 12 mesi.

Kola_Gurra
23-06-2005, 02:08
I prezzi delle GT sono già scesi io non mi aspetterei ulteriori discese a breve. Piuttosto può darsi che si trovino delle offerte speciali in shop che hanno il magazzino pesante.
Un'altra buona alternativa è l'usato, a questo punto nel mercatino ci sarà il giro di tutti quelli che comprano la nuova e vendono la vecchia.
mm, grazie

e qual'è il prezzo consigliato x una 6800 nuova?

Simon82
23-06-2005, 07:31
Ho finito di leggere ora l'articolo. Prima di tutto complimenti a Raffaele per il duro lavoro svolto (come si fa pero' a non invidiare un lavoro simile? :D).
Per quanto riguarda la scheda non sono affatto rimasto deluso come i molti che vedo lamentarsi qua e la. Le prestazioni sono aumentate, magari non come ci si aspettava dalle informazioni false che giravano in rete, ma concordo sul fatto che per essere una evoluzione Nvidia ha introdotto molte ottimizzazioni alla gia' ottima architettura di NV40 sia dal punto di vista prestazionale che qualitativo. Forse al momento non e' ancora possibile visti i titoli e visti i drivers, sfruttarne a pieno le potenzialita', ma e' sempre stato cosi' con la maggior parte delle schede di nuova generazione(evoluzione) che abbiamo visto.
Inoltre ho visto ottimi incrementi anche dal punto di vista overclock il che ci fa' presupporre che il processo produttivo di G70 a 0,11u lascia spazio anche ad altre soluzioni "estreme" per contrastare la diretta concorrente anche perche' da questo punto di vista e vedendo la frequenza del core mi fa pensare che Nvidia abbia preso la linea "morbida" senza dover buttare fuori un prodotto che abbia (un po' come successo per NV30) frequenze spaventose per poter sopperire alle carenze tecniche della propria soluzione per poi ritrovarsi gia' al limite (e in quel caso direi anche "fuori dal limite") hardware dei componenti.
Non so perche' ma senza avere informazioni sotto NDA o altro, mi aspettavo un qualcosa che non fosse rivoluzionario. Forse la rivoluzione sara' alla base della VPU della Playstation3 per Nvidia e chissa' se non prendera' spunto da quella per un futuro chip.
Ottima features il transparency antialiasing anche se onestamente volevo chiedervi se sono l'unico a non aver visto un grosso cambiamento negli screenshots qualitativi ove mi aspettavo di vedere chiaramente la differenza sulle textures in trasparenza. :confused:
Sul discorso della revisione della vpu e' chiaro che questa volta Nvidia ha anticipato tutto (o posticipato la presentazione) proprio per poter avere un package A2 o +, per poter essere allo stesso tempo pronti per l'immediata vendita.
Indubbiamente un'ottima scheda e come per tutte le high end, visto il prezzo, c'e' da chiedersi quanti oseranno subito l'acquisto. ;)

nirvanboy81
23-06-2005, 07:32
La nuova 7800GTX conferma lo strepitoso lavoro che Nvidia ha saputo fare con NV40 più di un anno fa. Insomma è passato un anno e siamo a più 30-40%, il che significa che la mia 6800GT durerà almeno fino alla prossima generazione ;)

Ricky78
23-06-2005, 07:35
Penso che tu possa stare tranquillo per un bel po di tempo. Io direi almeno 12 mesi.
Per fortuna... :)
Ho fatto due calcoli e non potevo certo dire di no...

Ricky78
23-06-2005, 07:42
mm, grazie

e qual'è il prezzo consigliato x una 6800 nuova?
Purtroppo qua in Italia i prezzi incominceranno a scendere solo in questi giorni.
Il problema è che sono troppo alti, IMHO, e sotto i 400 €, per quel breve periodo che staranno ancora sul mercato, non andranno.
D'altra parte penso, giustamente, che i rivenditori che la hanno acquistate ad un certo prezzo non possano rimetterci...
In Germania invece si fanno degli ottimi affari ma ai rivenditori costano già meno per un sistema distributivo maggiormente competitivo, ipotizzo.
Non penso assolutamente si tratti solo del 4% di iva di differenza (16 contro il 20) italiano altrimenti i conti non tornano.

halduemilauno
23-06-2005, 08:01
HL2 lo ho giocato a 1280x1024x32 con AF 16x e Far Cry a 1024x768x32 con AF 16x però non a 1280 perchè seno rallentava parecchio.
Ho anche provato Doom3 a 1280x1024x32 con AF 16x e non faceva una piega.
A Parte PES4 e Colin 2005 gli altri giochi mi sono abituato a giocarlo a 1280x1024x32 con AF 16x.
Diciamo che mi stò abituando a giocare oltre il 1024.
Tutti i giochi li gioco dettagli a palla.
Mi è anche venuto in mente che anche UT2004 lo gioco a 1280x1024x32 con AF 16x senza mai scendere sotto i 60 fps.

allora se tu ti "accontenti" di quella ris. e quelle imp. puoi anche far a meno di comprarla. se invece hai un monitor che ti può permettere ris. superiori e tu vuoi goderne a pieno allora l'acquisto te lo consiglio.
come saprai la scheda è offerta ad un prezzo quasi umano quindi se tu riuscirai a vendere la tua a un buon prezzo, credo cosa molto facile, fallo altrimenti non farti troppi rinpianti la tua scheda è gia ottima, oc a ultra e stai a posto e soprattutto goditela.
ciao.
;)

PS a un giorno ma soprattutto notte di distanza rileggiti le rece(quelle in prima pagina)e in particolare le conclusioni.

Athlon 64 3000+
23-06-2005, 08:49
Vi quoto anche due mie risposte nel topic dei commenti all'articolo che rientrano in tema con alcuni post fatti qui.

Il motivo per cui ci sono persone che sono rimaste deluse dalle prestazioni è che queste persone hanno dato troppo ascolto ai rumours ed alle informazioni non ufficiali che circolano nei forum. Personalmente non ho mai creduto a chi diceva "prestazioni doppie rispetto alla GeForce 6800 Ultra" (e questo prima di venire a conoscenza delle informazioni sotto NDA) e avrebbero dovuto farlo anche queste persone.


Faccio una mia considerazione riguardo il discorso "CPU limited". Invito la maggioranza delle persone che si sono cervellate su quali processori bisogna possedere per sfruttare G70 a vederla sotto una prospettiva completamente differente. Il problema non è trovare CPU in grado di sfruttare G70. Questo tipo di ricerca è fallimentare perché avere una CPU che alzi il limite di UT2004 dagli attuali 400 fps a 700 fps non serve assolutamente a niente. Il discorso è un altro: è necessario che lo sviluppo dei videogames sia al passo con i tempi e che la complessità della loro grafica aumenti con l'aumentare della potenza di calcolo disponibile con l'hardware. Se scrivo un pixel shader con 10 istruzioni o scrivo uno shader con 1000 istruzioni, alla CPU non gliene frega assolutamente niente, però nel secondo caso avrò un effetto più realistico ed una grafica più pesante e, conseguentemente, meno dipendenza dalla CPU. Non è un caso che i titoli più recenti e complessi come The Chronicles Of Riddick e Splinter Cell Chaos Theory siano risultati quelli meno dipendenti dalla CPU, mentre UT2004 (che praticamente non ha shader), è il più dipendente.

La GeForce 7800 GTX non ha bisogno di un processore potentissimo per essere sfruttata. Ha solo bisogno del software che le sfrutti. Per la precedente generazione c'erano Far Cry, Half-Life 2 e Doom 3. Usciranno i titoli anche per G70 e che non saranno CPU limited anche con le CPU di oggi.

Il tuo discorso non fa una grinza.
Era proprio quello che volevo sentire dire.
Secondo me la Geforce 7800GTX per far mostrare veramente i muscoli rispetto
ad una 6800Ultra o 6800GT ha bisogno oltre che di driver più ottimizzati anche di giochi con motori grafici più "pesanti" di quelli che ci sono attualmente.
Tu e Fek siete stati sempre gli unici 2 che mi dicevano che con la mia cpu Athlon 64 3000+ posso metterci la vga che voglio(anche una futura scheda WGF 2.0) quando tutti mi dicevano che sarò pesantemente cpu limited.

DjLode
23-06-2005, 08:53
Ad essere obiettivi però nVidia si è tirata la zappa sui piedi non fornendo indiscrezioni a riguardo e facendo perciò immaginare un nuovo raddoppio prestazionale.


Nvidia non ha fatto immaginare proprio niente. Non c'è stato un solo tecnico/pr/dipendente/segretario di Nvidia che abbia mai anche solo accennato ad una cosa del genere. E' stato The Inquirer (sempre e solo lui) e magari qualche altro sitarello che aveva spacciato le prestazioni della 7800 paragonabili a quelle di due 6800 Ultra in configurazione Sli. Più qualche altro che da dei "secondo me" ci ha fatto delle notizie, girava qualche punteggio del 3d mark inventato da non so chi e il tutto ha creato delle aspettative su chi si ASPETTAVA tale incremento. Mettici pure il cambio di nome e il fatto che qualcuno credeva che G70 fosse una gpu tutta nuova (e sì che Nvidia e soci ci sbattono in faccia marketing tutto il giorno e ancora c'è gente che abbocca all'amo) e via di storie e immaginazioni.
Nvidia non si è tirata nessuna zappa sui piedi, non ha fatto immaginare niente. Sono alcune persone che si immaginavano tale aumento relegando la 6800 Ultra ad un ferro vecchio. La realtà è sempre stata un'altra e una volta che si è preso contatto con quello che realmente è G70 (un refresh di un'architettura con qualche cambiamento atto a correggere o tamponare i problemi, più qualche inserimento utile o meno utile) questa gente si è dichiarata delusa.
Continuate a credere a certi siti e a certa gente che mette in giro voci assolutamente infondate, poi non lamentatevi con Nvidia :asd:

Athlon 64 3000+
23-06-2005, 08:56
Nvidia non ha fatto immaginare proprio niente. Non c'è stato un solo tecnico/pr/dipendente/segretario di Nvidia che abbia mai anche solo accennato ad una cosa del genere. E' stato The Inquirer (sempre e solo lui) e magari qualche altro sitarello che aveva spacciato le prestazioni della 7800 paragonabili a quelle di due 6800 Ultra in configurazione Sli. Più qualche altro che da dei "secondo me" ci ha fatto delle notizie, girava qualche punteggio del 3d mark inventato da non so chi e il tutto ha creato delle aspettative su chi si ASPETTAVA tale incremento. Mettici pure il cambio di nome e il fatto che qualcuno credeva che G70 fosse una gpu tutta nuova (e sì che Nvidia e soci ci sbattono in faccia marketing tutto il giorno e ancora c'è gente che abbocca all'amo) e via di storie e immaginazioni.
Nvidia non si è tirata nessuna zappa sui piedi, non ha fatto immaginare niente. Sono alcune persone che si immaginavano tale aumento relegando la 6800 Ultra ad un ferro vecchio. La realtà è sempre stata un'altra e una volta che si è preso contatto con quello che realmente è G70 (un refresh di un'architettura con qualche cambiamento atto a correggere o tamponare i problemi, più qualche inserimento utile o meno utile) questa gente si è dichiarata delusa.
Continuate a credere a certi siti e a certa gente che mette in giro voci assolutamente infondate, poi non lamentatevi con Nvidia :asd:


Quoto!
E i discorsi che faccio non li uso per cercare una giustificazione per pensionare
una scheda pagata 427 euro a novembre 2004 e che mi durerà sicuro tutto quest'anno.
Tanto per me se ne riparlerà nel 2006.

xpiuma
23-06-2005, 09:04
Sicuramente un ottima scheda, ma ci sono un pò di cose che non mi tornano... :eek:

Qui:
http://www.hwupgrade.it/articoli/skvideo/1311/26.html

Su 6 test per 4 volte la X850XT va meglio della 7800GTX abilitando i filtri, una va peggio e l'altra pari... :mc:
E dato che chi prende una scheda del genere non credo che rinunci facilmente ai filtri AA penso che servano altri test per valutare bene l'impatto dei filtri sulle prestazioni.

Mi piacerebbe vedere test comparativi 6800U-X850XT-7800GTX con AA a 4X e AF a 8 (o 16), per avere un quadro più completo.

Certo che fare peggio di una X850XT per una scheda di una generazione successiva...

La recensione è disseminata di benchmark che confronta quelle schede con AA 4x e AF 8x.


Uhm, credo di essermi spiegato male; ho visto tutti i grafici della rece, che ho letto con estrema attenzione, come tutte le tue altre del resto.
Il: "Mi piacerebbe vedere test...." era da intendersi con un: "Mi piacerebbe FARE dei test". ;)

halduemilauno
23-06-2005, 09:19
Nvidia non ha fatto immaginare proprio niente. Non c'è stato un solo tecnico/pr/dipendente/segretario di Nvidia che abbia mai anche solo accennato ad una cosa del genere. E' stato The Inquirer (sempre e solo lui) e magari qualche altro sitarello che aveva spacciato le prestazioni della 7800 paragonabili a quelle di due 6800 Ultra in configurazione Sli. Più qualche altro che da dei "secondo me" ci ha fatto delle notizie, girava qualche punteggio del 3d mark inventato da non so chi e il tutto ha creato delle aspettative su chi si ASPETTAVA tale incremento. Mettici pure il cambio di nome e il fatto che qualcuno credeva che G70 fosse una gpu tutta nuova (e sì che Nvidia e soci ci sbattono in faccia marketing tutto il giorno e ancora c'è gente che abbocca all'amo) e via di storie e immaginazioni.
Nvidia non si è tirata nessuna zappa sui piedi, non ha fatto immaginare niente. Sono alcune persone che si immaginavano tale aumento relegando la 6800 Ultra ad un ferro vecchio. La realtà è sempre stata un'altra e una volta che si è preso contatto con quello che realmente è G70 (un refresh di un'architettura con qualche cambiamento atto a correggere o tamponare i problemi, più qualche inserimento utile o meno utile) questa gente si è dichiarata delusa.
Continuate a credere a certi siti e a certa gente che mette in giro voci assolutamente infondate, poi non lamentatevi con Nvidia :asd:

sostanzialmente d'accordo. sostanzialmente e non completamente perchè mi sento di dissentire per quel che riguarda The Inquirer. che segue la sua linea editoriale con la quale si può essere più o meno d'accordo.
da non dimenticare poi che a causa della non nuova strategia commerciale di nVidia, essa non ha volutamente presentato la versione top della G70 riservandosela per il futuro.
questa è la mia opinione.

DjLode
23-06-2005, 09:27
La mia opinione su The Inquirer la conosci. Sul resto non capisco, parli di "non ha volutamente" poi la metti come tua opinione, ti stai Fuddizzando o hai qualche link in merito? Perchè se hai notizie sul fatto che Nvidia lancerà una Ultra a 550Mhz e non ho capito se a 24 o 32 pipelines come hai detto altrove, perchè non condiverle? ;)
Stai creando aspettative, se poi qualcuno ci crede e Nvidia non manda fuori niente altro chi glielo spiega agli altri che Nvidia non c'entra? ;)

halduemilauno
23-06-2005, 09:39
La mia opinione su The Inquirer la conosci. Sul resto non capisco, parli di "non ha volutamente" poi la metti come tua opinione, ti stai Fuddizzando o hai qualche link in merito? Perchè se hai notizie sul fatto che Nvidia lancerà una Ultra a 550Mhz e non ho capito se a 24 o 32 pipelines come hai detto altrove, perchè non condiverle? ;)
Stai creando aspettative, se poi qualcuno ci crede e Nvidia non manda fuori niente altro chi glielo spiega agli altri che Nvidia non c'entra? ;)

il "la mia opinione" era rivolto a The Inquirer. si conosco la tua. è molto diversa.
per il resto credo di aver gia detto abbastanza.

CS25
23-06-2005, 09:53
Segnalo, se non e' gia' stato fatto, anche questa recensione, molto valida :

http://www.hardocp.com/article.html?art=Nzg0

Ricky78
23-06-2005, 09:59
Nvidia non ha fatto immaginare proprio niente. Non c'è stato un solo tecnico/pr/dipendente/segretario di Nvidia che abbia mai anche solo accennato ad una cosa del genere. E' stato The Inquirer (sempre e solo lui) e magari qualche altro sitarello che aveva spacciato le prestazioni della 7800 paragonabili a quelle di due 6800 Ultra in configurazione Sli. Più qualche altro che da dei "secondo me" ci ha fatto delle notizie, girava qualche punteggio del 3d mark inventato da non so chi e il tutto ha creato delle aspettative su chi si ASPETTAVA tale incremento. Mettici pure il cambio di nome e il fatto che qualcuno credeva che G70 fosse una gpu tutta nuova (e sì che Nvidia e soci ci sbattono in faccia marketing tutto il giorno e ancora c'è gente che abbocca all'amo) e via di storie e immaginazioni.
Nvidia non si è tirata nessuna zappa sui piedi, non ha fatto immaginare niente. Sono alcune persone che si immaginavano tale aumento relegando la 6800 Ultra ad un ferro vecchio. La realtà è sempre stata un'altra e una volta che si è preso contatto con quello che realmente è G70 (un refresh di un'architettura con qualche cambiamento atto a correggere o tamponare i problemi, più qualche inserimento utile o meno utile) questa gente si è dichiarata delusa.
Continuate a credere a certi siti e a certa gente che mette in giro voci assolutamente infondate, poi non lamentatevi con Nvidia :asd:
Invece nVidia ha sbagliato a non zittire i rumors.
Pag.2 del manuale di Relazioni Pubbliche.
Perchè si creano delle aspettative che modificano la percezione del prodotto. Pag.1

halduemilauno
23-06-2005, 10:08
Segnalo, se non e' gia' stato fatto, anche questa recensione, molto valida :

http://www.hardocp.com/article.html?art=Nzg0

segnalo questa.
http://www.xbitlabs.com/articles/video/display/g70-indepth.html
in attesa della sua seconda parte.
;)

lantony
23-06-2005, 10:14
Mica tanto... poi i robi con quelle mani gigantesche sono orribili :eekk:

guardate il filmato prima di parlare

Marko Ramius
23-06-2005, 10:20
guardate il filmato prima di parlare

E dov'è il filmato?
Poi ognuno non può avere le sue idee? :rolleyes:

pistolino
23-06-2005, 10:21
guardate il filmato prima di parlare

dove si trova il filmato?

Trovato ;)
Sono 96MB in WMV High Definition Purevideo.
Per riprodurlo è necessario il supporto Nvidia PureVideo quindi almeno una GeForce 6 ;)

http://www.nzone.com/object/nzone_luna_videos.html

I server sono intasati. sto scaricando a 20KB/s :cry:

Marko Ramius
23-06-2005, 10:22
Invece nVidia ha sbagliato a non zittire i rumors.
Pag.2 del manuale di Relazioni Pubbliche.
Perchè si creano delle aspettative che modificano la percezione del prodotto. Pag.1

Sono d'accordo.
Comunque non è solo colpa dei rumors. Quando viene fatta un'ottima cosa (vedi nv40) la gente tende a illudersi che la cosa si ripeta sempre

Marko Ramius
23-06-2005, 10:25
Poi qualcuno mi spiegherebbe tutta sta delusione?
Le 6800 permettono di giocare ottimamente a qualsiasi gioco in commercio e questa qui è ancora più potente.
Non ditemi perchè non fa abbastanza punti al 3dmark :p

halduemilauno
23-06-2005, 10:25
Sono d'accordo.
Comunque non è solo colpa dei rumors. Quando viene fatta un'ottima cosa (vedi nv40) la gente tende a illudersi che la cosa si ripeta sempre

Marko tu sai quanto io ti apprezzi come comandante ma credo che il buon Ricky78 usasse un pizzico di ironia.
ciao.
;)

Marko Ramius
23-06-2005, 10:29
Marko tu sai quanto io ti apprezzi come comandante ma credo che il buon Ricky78 usasse un pizzico di ironia.
ciao.
;)

:confused:
perchè non è vero che i rumors creano spesso false aspettative???
Anche se fosse stata una battuta (così non l'ho interpretata) mi trovo d'accordo comunque ;)

LCol84
23-06-2005, 10:29
Marko tu sai quanto io ti apprezzi come comandante ma credo che il buon Ricky78 usasse un pizzico di ironia.
ciao.
;)

Raga ma è vero che devono introdurre anche la versione liscia e gt della 7800?Si sa quando?No, perchè devo cambiare scheda e non so cosa prendere...
Magari una 6800gt?

Marko Ramius
23-06-2005, 10:31
Raga ma è vero che devono introdurre anche la versione liscia e gt della 7800?Si sa quando?No, perchè devo cambiare scheda e non so cosa prendere...
Magari una 6800gt?

Normalmente sì, anche se non so quando.
Dipende a quanto la trovi la 6800gt ;)

andreamarra
23-06-2005, 10:32
Raga ma è vero che devono introdurre anche la versione liscia e gt della 7800?Si sa quando?No, perchè devo cambiare scheda e non so cosa prendere...
Magari una 6800gt?


la 7800GTx è una scheda GT, fra un pò uscirà la versione Ultra e poi ovviamente quelle lisce.

Domanda: se hai una X850XT... che te ne fai di cambiare scheda con una 6800GT???

DjLode
23-06-2005, 10:33
Invece nVidia ha sbagliato a non zittire i rumors.
Pag.2 del manuale di Relazioni Pubbliche.
Perchè si creano delle aspettative che modificano la percezione del prodotto. Pag.1

Zittendo i rumors avrebbe dovuto fornire notizie in merito. Perchè non puoi dire la nostra scheda non fa X fps al tal gioco senza dire quanti ne fa :)
Quando si creano delle aspettative senza spendere una lira è un tornaconto per l'industria su cui si creano le aspettative. Voi ne date la conferma. Leggi: pubblicità gratuita :) Metti caso che qualcuno ci creda e bum si crea aspettative per una cosa che altrimenti sarebbe passata più in sordina (sempre relativamente parlando). C'è molta più aspettativa per R520, viste le novità che deve introdurre, mentre Nv40 bene o male si sapeva cosa comprendeva e il tutto è stato confermato. Hanno pure dovuto cambiare nome :)

LCol84
23-06-2005, 10:34
la 7800GTx è una scheda GT, fra un pò uscirà la versione Ultra e poi ovviamente quelle lisce.

Domanda: se hai una X850XT... che te ne fai di cambiare scheda con una 6800GT???

Nono, non leggere nella sign, la x850xt non la ho più da lunedì prox...Devo prendere una scheda video nuova ma non volevo spendere troppo e non sapevo cosa prendere.Nel senso se usciva magari una 7800 liscia a breve termine che costava poco sarebbe stata una buona cosa.
Tuttavia anche una 6800gt usata potrebbe essere una buona scelta no?

Marko Ramius
23-06-2005, 10:36
Quando si creano delle aspettative senza spendere una lira è un tornaconto per l'industria su cui si creano le aspettative. Voi ne date la conferma.
Come la metti con coloro che si aspettavano un raddoppio e hanno ottenuto nel migliore dei casi un 30%?
Di sicuro non li ho visti molto soddisfatti.

Ciao :)

halduemilauno
23-06-2005, 10:36
:confused:
perchè non è vero che i rumors creano spesso false aspettative???
Anche se fosse stata una battuta (così non l'ho interpretata) mi trovo d'accordo comunque ;)

si potrebbero creare false aspettative. ma credo che basta riflettere sul fatto che appunto, sono rumors.
si cosi l'ho interpretrata e cmq non mi trovava d'accordo proprio per i motivi suddetti.
ciao.
;)

Marko Ramius
23-06-2005, 10:37
la 7800GTx è una scheda GT, fra un pò uscirà la versione Ultra e poi ovviamente quelle lisce.

Mica doveva essere 7800, 7800gt, 7800gtx, (forse 7800ultra)?

lantony
23-06-2005, 10:38
E dov'è il filmato?
Poi ognuno non può avere le sue idee? :rolleyes:

Ovviamente sul sito nvidia ;) Io li ho gi' visti da circa 1 giorno
Trovi i filmati (hires e lowres) di entrambe le demo della Geforce7.
C'è chi dice che è + complessa Nalu di Luna, ma questa è una grandissima caxxata, xchè intorno a Nalu non c'era niente, invece questa "Luna" è molto + complessa, con dettagli maggiori e i capelli sono resi molto meglio rispetto a Nalu. Cmq per giudicare bene, sarebbe necessario provare le demo sul pc e non basarsi su un filmato, fermo restando il fatto che ognuno ha le proprie impressioni (cmq credo sia sbagliato giudicare basandosi su una sola immagine :rolleyes: ).

Marko Ramius
23-06-2005, 10:39
si potrebbero creare false aspettative. ma credo che basta riflettere sul fatto che appunto, sono rumors.
si cosi l'ho interpretrata e cmq non mi trovava d'accordo proprio per i motivi suddetti.
ciao.
;)

A me tutto sommato è piaciuta come scheda, ma rimango del parere che se avesse divulgato qualche info prima la gente sarebbe rimasta meno delusa.
Poi i pareri son parei :D

Ciao :)

bartolino3200
23-06-2005, 10:40
Raga ma è vero che devono introdurre anche la versione liscia e gt della 7800?Si sa quando?No, perchè devo cambiare scheda e non so cosa prendere...
Magari una 6800gt?

La 7800 attuale è già GT. Forse la liscia? Forse la LE?
mmm la LE non mi dispiacerebbe affatto, speriamo bene...

lantony
23-06-2005, 10:42
si potrebbero creare false aspettative. ma credo che basta riflettere sul fatto che appunto, sono rumors.
si cosi l'ho interpretrata e cmq non mi trovava d'accordo proprio per i motivi suddetti.
ciao.
;)

sarebbe utile aggiungere i link ai filmati delle demo in prima pagina, che ne pensi ? ;)

lantony
23-06-2005, 10:44
era più bella e complessa Nalu :mbe:

bYeZ!


anche tu, guardati il filmatino ;)

halduemilauno
23-06-2005, 10:45
sarebbe utile aggiungere i link ai filmati delle demo in prima pagina, che ne pensi ? ;)

penso che sia veramente cosa buona e giusta.
una cortesia puoi linkarli tu qui poi penso io.
grazie.
ciao.
;)

Marko Ramius
23-06-2005, 10:46
Ovviamente sul sito nvidia ;)
Trovi i filmati (hires e lowres) di entrambe le demo della Geforce7.
C'è chi dice che è + complessa Nalu di Luna, ma questa è una grandissima caxxata, xchè intorno a Nalu non c'era niente, invece questa "Luna" è molto + complessa, con dettagli maggiori e i capelli sono resi molto meglio rispetto a Nalu. Cmq per giudicare bene, sarebbe necessario provare le demo sul pc e non basarsi su un filmato, fermo restando il fatto che ognuno ha le proprie impressioni (cmq credo sia sbagliato giudicare basandosi su una sola immagine :rolleyes: ).

Sto scaricando..
Comunque non stavamo parlando di complessità, ma di aspetto fisico ;)
Nvidia potrebbe fare il ragno più complesso e realistico al mondo, ma se mi fa schifo il ragno che ti devo dire? :D

Marko Ramius
23-06-2005, 10:47
penso che sia veramente cosa buona e giusta.
una cortesia puoi linkarli tu qui poi penso io.
grazie.
ciao.
;)

http://www.nzone.com/object/nzone_luna_videos.html

Ciao :)

lantony
23-06-2005, 10:48
penso che sia veramente cosa buona e giusta.
una cortesia puoi linkarli tu qui poi penso io.
grazie.
ciao.
;)


certo, eccoteli ...... e` veramente cosa buona e giusta :D

LUNA LOW
http://download.nvidia.com/downloads/nZone/videos/nvidia/640-1mbits-NVIDIA-Luna.wmv

LUNA HIGH
http://download.nvidia.com/downloads/nZone/videos/nvidia/Luna_720p_8mbits.wmv


MAD MOD LOW
http://download.nvidia.com/downloads/nZone/videos/nvidia/640-1mbits-NVIDIA-MadModMike.wmv

MAD MOD HIGH
http://download.nvidia.com/downloads/nZone/videos/nvidia/MadModMike_720p_8Mbits.wmv

;)

DjLode
23-06-2005, 10:50
Come la metti con coloro che si aspettavano un raddoppio e hanno ottenuto nel migliore dei casi un 30%?
Di sicuro non li ho visti molto soddisfatti.

Ciao :)

Nvidia non deve rendere conto di ciò che la gente pensa/crede/immagina. Deve proporre una gpu, cosa che ha fatto, la gente insoddisfatta non la comprerà, gli altri probabilmente sì, alcuni boh chi lo sa. A me francamente, se fossi uno dei progettisti Nvidia, di ciò che pensa un utente sperduto su un forum interesserebbe poco o nulla. La gpu è lì davanti a tutti, ha prestazioni superiori alla serie precedente, miglioramenti sotto alcuni aspetti... se volevate di più del 30% in più, con solo 30mhz in più, consumi paragonabili e temparature ridotte... bhè, devo ripetere di chi è la colpa? :)

DjLode
23-06-2005, 10:50
La 7800 attuale è già GT. Forse la liscia? Forse la LE?
mmm la LE non mi dispiacerebbe affatto, speriamo bene...

Forse la SE, la Ultra avrà 48 pipelines e 800mhz di core. Sai, si sono tenuti un pò di margine :asd:

Marko Ramius
23-06-2005, 10:53
Nvidia non deve rendere conto di ciò che la gente pensa/crede/immagina. Deve proporre una gpu, cosa che ha fatto, la gente insoddisfatta non la comprerà, gli altri probabilmente sì, alcuni boh chi lo sa. A me francamente, se fossi uno dei progettisti Nvidia, di ciò che pensa un utente sperduto su un forum interesserebbe poco o nulla. La gpu è lì davanti a tutti, ha prestazioni superiori alla serie precedente, miglioramenti sotto alcuni aspetti... se volevate di più del 30% in più, con solo 30mhz in più, consumi paragonabili e temparature ridotte... bhè, devo ripetere di chi è la colpa? :)

Sì, ma invidia le deve vendere le schede, mica far piacere ai suoi progettisti :D
Più sono gli insoddisfatti, meno schede venderà
Poi, ripeto, a me la scheda è piaciuta, ma non bisogna pensare solo a noi. Uno che spende 550€ per una vga penso debba essere + che convinto dell'acquisto, mica deluso ;)

Ciao :)

halduemilauno
23-06-2005, 11:07
certo, eccoteli ...... e` veramente cosa buona e giusta :D

LUNA LOW
http://download.nvidia.com/downloads/nZone/videos/nvidia/640-1mbits-NVIDIA-Luna.wmv

LUNA HIGH
http://download.nvidia.com/downloads/nZone/videos/nvidia/Luna_720p_8mbits.wmv


MAD MOD LOW
http://download.nvidia.com/downloads/nZone/videos/nvidia/640-1mbits-NVIDIA-MadModMike.wmv

MAD MOD HIGH
http://download.nvidia.com/downloads/nZone/videos/nvidia/MadModMike_720p_8Mbits.wmv

;)


fatto. grazie.
ciao.
;)

StIwY
23-06-2005, 11:21
Oggi a Ghostrider non dovrebbe arrivare la 7800GTX ? :eek:

DjLode
23-06-2005, 11:24
Sì, ma invidia le deve vendere le schede, mica far piacere ai suoi progettisti :D
Più sono gli insoddisfatti, meno schede venderà
Poi, ripeto, a me la scheda è piaciuta, ma non bisogna pensare solo a noi. Uno che spende 550€ per una vga penso debba essere + che convinto dell'acquisto, mica deluso ;)

Ciao :)

Si torna quindi al discorso iniziale. Ti aspettavi un raddoppio di prestazioni? Nessuno te lo aveva promesso. Sei deluso? Non compri. La colpa è solo tua :)
Perchè altrimenti non fornire una scheda con prestazioni 8 volte superiori? Cliente soddisfatto, cliente compra. Che poi fosse impossibile... vabbhè. Su è un discorso che non ha senso :)

JENA PLISSKEN
23-06-2005, 11:52
Nn capisco bene cosa pretendevata da stà benedetta scheda :confused:
E' un perfezionamento della scheda precedente...niente di totalmente nuovo :fagiano:

Vifani
23-06-2005, 12:23
Forse la rivoluzione sara' alla base della VPU della Playstation3 per Nvidia e chissa' se non prendera' spunto da quella per un futuro chip.


A quanto ne so l'architettura di G70 ed il processore della PS3 sono bene o male la stessa cosa. Cambierà il processo produttivo (0.09 micron per quest'ultimo) e le frequenze, ma non sarà una soluzione come lo Xenos di ATI.

Kola_Gurra
23-06-2005, 12:24
e non dimenticate ke siamo ai primi driver....hai voglia l'aumento di prestazioni con nuovi driver!!!

fek
23-06-2005, 12:43
se volevate di più del 30% in più, con solo 30mhz in più, consumi paragonabili e temparature ridotte... bhè, devo ripetere di chi è la colpa? :)

E' verissimo, secondo me l'obiettivo ottimo raggiunto da questa architettura non e' la velocita' pura, ma ottenere quelle prestazioni con consumi e temperature ridotte.

Non ci vuole "molto" a mettere 32 o 64 pipeline in un chip, il problema e' solo che una tale configurazione costerebbe uno sproposito e consumerebbe anche di piu', quindi non sarebbe commercializzabile perche' non utile all'utente finale.

OvErClOck82
23-06-2005, 12:56
Nn capisco bene cosa pretendevata da stà benedetta scheda :confused:
E' un perfezionamento della scheda precedente...niente di totalmente nuovo :fagiano:
caxxo è quello che dico anche io :D

pistolino
23-06-2005, 12:58
caxxo è quello che dico anche io :D

e pure io :D

hackboyz
23-06-2005, 13:02
Io forse sono quello che si aspettava meno da questo G70 forse perchè semplicemente invece di pensare ai nomi G70 e 7800GTX pensavo a NV47 cioè una semplice (si fa per dire) evoluzione di NV40. E, nulla da dire, le prestazioni di questa scheda sono eccezionali, le nuove features molto interessanti, ancor più la riduzione dei consumi e della temperatura, nonchè le capacità di OC. E inoltre, a differenza di Ati, nVidia ha fatto un grande lancio mediatico contemporaneamente a quello sul mercato.

Però? Però a 13 mesi di distanza da NV40 e soprattutto, imho, data l'esistenza dell'SLI proprio di nVidia è chiaro che la maggior parte delle persone si aspettasse di più. Ripeto, aspettiamo i nuovi giochi ma attualmente credo che anche gli user più esigenti - a meno che non vogliano battere i record al 3D Mark ... come sta facendo in modo spaventoso OPP di XS :D - di certo non sentano la benchè minima necessita di passare al G70, e i "nuovi acquirenti" probabilmente sarebbero nell'atroce dubbio se acquistare ora il G70 o aspettare R520 o futuri aggiornamenti nVidia (non credo che questa volta l'ipotetica Ultra si una semplice GT occata di qualche manciata di mhz).

Diciamo che utilizzando i nomi G70 e 7800GTX nVidia ha gettato un po' di fumo negli occhi e ha in un certo senso creato aspettative troppo grandi. Tutto qui.

Per il resto complimenti a nVidia. :mano: :D

andreamarra
23-06-2005, 13:05
innanzitutto un plauso per la esauriente recensione dello staff di HWUPGRADE!

Completa, minuziosa, tecnica, ma anche semplice per coloro che non masticano molto il linguaggio tecnico.

Complimenti!

Spiego quello che avevo detto: io non sono "deluso", questa scheda è sinceramente un mostro tecnologico da far paura e da sognarsi la notte. Potenza e classe, direi. Sinceramente mi aspettavo qualcosina in più rispetto a una 6800Ultra, ma se un gioco con la 6800ultra mi fa 120 e con questa ne faccio 160... :oink:

in più, ovviamente aspetto test con i nuovi giochi che sfruttano ancora di più la GPU, lì i valori saranno ancora più impressioanti ;)

-=Krynn=-
23-06-2005, 13:08
a mio modesto avviso poco significative in quanto nel confronto o non hanno schede ati, o poca chiarezza nei grafici, o usano esclusivamente risoluzioni molto elevate.
ripeto a mio modesto avviso. ma se alcuni son di parere contrario...
ciao.
;)

ciao!

Io quelle rece le metterei, se non altro per completezza. Meglio abbondare con le info.

Daytona
23-06-2005, 15:00
ATI Technologies Earnings Call scheduled for 8:30 am ET today

risultato : -10% in apetura :(

...basta pensare che ora è sui 11.5$...un anno fa era a 20$ :doh:

...mi sa che prima o poi queste ATI le compro :D ...in previsione della Xbox360....

1100000110100000
;)

G-DannY
23-06-2005, 15:13
La 7800 attuale è già GT. Forse la liscia? Forse la LE?
mmm la LE non mi dispiacerebbe affatto, speriamo bene...

Eh ma mica è detto che si possa poi moddare come la 6800LE ;)

LCol84
23-06-2005, 17:21
Eh ma mica è detto che si possa poi moddare come la 6800LE ;)


Raga, ho bisogno di una informazione veloce.
Si può fare un bonifico bancario in posta?
So che non c'entra niente ma è urgente...
Grazie

mantes
23-06-2005, 17:59
Ammazza quanto avete scritto:D
Mi ero anche dimenticato d toglire la notifica istantanea al 3d :mc: :D

Comunque imho l'unico punto debole di questa scheda è la mancanza di giochi con cui sfruttarla.
Ora come ora è po sprecata,chi si andrebbe a spendere 570 euri per questa scheda,se già con una 6800gt ci si gioca a tutto al top?
Visto che i titoli con cui sfruttarla difficilmente si vedranno prima dell'uscita della nuova scheda Ati,chi scegliesse di acquistare ora una 7800gtx finirebbe per non sfruttarla fino a quando non saranno uscite queste schede,e rischia anche che quest'ultime risultin più potenti.

Insomma un buon chip,ma secondo me dovevano far coincidere il lancio con l'uscita di qualche gioco che permettese di sfruttare il nuovo gingillo.

Stando così le cose la scheda finirà i mano di pochi amanti dell'overclock,ma gli utenti meno assetati di benchmark saranno molto più prudenti nell'acquistarla ora.

Daytona
23-06-2005, 19:22
raga, un mio amico vorrebbe comprarsi la skeda nuova...ma nn so se con l'avvento di questa si abbasseranno i prezzi

dite che se la compra ora ci rimane inculato ke fra un mese scendono? :confused:

voleva comprare una 6800gt...o qualcosa cmq su quel genere

Visto il prezzo della 7800GTX e le sue prestazione :cool: ...una 6800Ultra a questo punto dovrebbe costare intorno a 400€ ma dubito che se ne vedano qua a quel prezzo!!!!...anzi è piu' probabile che escano di scena.... :( mentre invece una 6800GT si dovrebbe aggirare intorno ai 340€ anche perchè così si piazzerebbe all'incirca nella fascia di prezzo delle X800XL ....

forse a settembre 6800GT a 340-330€ si troveranno :sperem:


1100000110100000
;)

redbaron
23-06-2005, 19:40
Raga, ho bisogno di una informazione veloce.
Si può fare un bonifico bancario in posta?
So che non c'entra niente ma è urgente...
Grazie

No,pero' puoi farlo dai bancomat abilitati. :)

Bow.it
23-06-2005, 20:02
Ciao a tutti

scusate l'intrusione, ma vedendo che la tensione per l'attesa si taglia con il coltello :) e che alcuni di voi hanno già ordinato, volevo avvisare che a causa di un errore del produttore nelle spedizioni :mad: avremo le schede nel nostro magazzino da lunedì mattina ( sono partite e confermate ) quindi spediremo a partire da lunedì.
Mi spiace molto per chi sperava di dedicarci il we....ma vi assicuro che anche qui c'è parecchia gente che segnala i primi svenimenti per lo choc del prolungamento dell'attesa :)

Wizard77
23-06-2005, 20:06
Visto il prezzo della 7800GTX e le sue prestazione :cool: ...una 6800Ultra a questo punto dovrebbe costare intorno a 400€ ma dubito che se ne vedano qua a quel prezzo!!!!...anzi è piu' probabile che escano di scena.... :( mentre invece una 6800GT si dovrebbe aggirare intorno ai 340€ anche perchè così si piazzerebbe all'incirca nella fascia di prezzo delle X800XL ....

forse a settembre 6800GT a 340-330€ si troveranno :sperem:


1100000110100000
;)

io spero che il calo della 6800GT sia maggiore, visto che adesso si trovano a meno di 282€ PCIe, più che da adesso dal 28giugno :D

Simon82
23-06-2005, 20:20
A quanto ne so l'architettura di G70 ed il processore della PS3 sono bene o male la stessa cosa. Cambierà il processo produttivo (0.09 micron per quest'ultimo) e le frequenze, ma non sarà una soluzione come lo Xenos di ATI.
Mhhh...speravo in una cosa custom anche per PS3.. ;)

Daytona
23-06-2005, 20:22
io spero che il calo della 6800GT sia maggiore, visto che adesso si trovano a meno di 282€ PCIe, più che da adesso dal 28giugno :D

Non sò se le AGP arriveranno a quel prezzo!!!!...che oserei dire un'ottimo prezzo :eek: ....

...a quel prezzo la 6800GT è indubbiamente lòa scheda da comprare :sofico:

1100000110100000
:)

sgrisol@verklok
23-06-2005, 21:25
innanzitutto un plauso per la esauriente recensione dello staff di HWUPGRADE!

Completa, minuziosa, tecnica, ma anche semplice per coloro che non masticano molto il linguaggio tecnico.

Complimenti!

Spiego quello che avevo detto: io non sono "deluso", questa scheda è sinceramente un mostro tecnologico da far paura e da sognarsi la notte. Potenza e classe, direi. Sinceramente mi aspettavo qualcosina in più rispetto a una 6800Ultra, ma se un gioco con la 6800ultra mi fa 120 e con questa ne faccio 160... :oink:

in più, ovviamente aspetto test con i nuovi giochi che sfruttano ancora di più la GPU, lì i valori saranno ancora più impressioanti ;)

mi va di quotare questo grande utente :ave:

OvErClOck82
23-06-2005, 22:29
e comunque io non capisco tutta questa delusione. al pari di altri utenti io non mi aspettavo un raddoppio del 100 % delle prestazioni ma un aumento e basta. questo aumento c'è stato, la scheda costa poco ( :asd: :asd: :asd: ), i giochi e i driver attuali non permettono di sfruttarla a fondo, e poi sbaglio o questa 7800gtx sarebbe l' equivalente ( :D ) della 6800gt ? no, perchè in questo caso sarebbe stupido pretendere il doppio delle prestazioni di una 6800ultra, perchè la 6800ultra in questo caso andrebbe confrontata con una fantomatica 7800ultra a 32 pipes(quando e se uscirà), o no ?
se mi sono spiegato male cosa mooolto probabile :D chiedete pure.
ciao :)

OvErClOck82
23-06-2005, 22:43
c'è nessuuuuuno ?????????? :ronf: :coffee:

aldogailla
23-06-2005, 22:59
Da quanto ho capito si tratta di un ottima scheda ma il prezzo mi sembra caro e credo che quelli dell'nvidia abbiamo fatto un'ottima strategia di marketing se è vero che usacira una 7800ultra attualmente stanno vendendo il prezzo della 7800gtx a quello della ultra poichè in generale è quello il costo 500-600€ cosi quando uscira e se uscira la 7800 ultra la gtx passerà a livello di prezzo inferiore 400-500.

Grezzo
24-06-2005, 01:42
Per favoro come si fa a dire che hanno fatto un buon lavoro, hanno messo 8 pipeline in più un paio di Vertex shader che per di più non si vedono nemmeno in prestazioni, clock aumentati e via. Insomma questo è il prodotto meno innovativo della storia di nVidia. Fermo restando che Nv40 era talmente buono che non era necessariouno stravolgimento, si sono resti conto che potevano benissimo prolungarne la vita anche con la serie 7 pompando un po le cose.

Anche se questa è una Gt(x) come prestazioni non è niente di sfavillante, se il prezzo si abbasserà potrebbe essere un ottima scheda e se sarà possibile overlcoccare decisamente core e memorie...

Rimandiamo alla 7800Ultra e ad r520 le nostre apsettative....

Paolo Corsini
24-06-2005, 06:10
Per favoro come si fa a dire che hanno fatto un buon lavoro, hanno messo 8 pipeline in più un paio di Vertex shader che per di più non si vedono nemmeno in prestazioni, clock aumentati e via. Insomma questo è il prodotto meno innovativo della storia di nVidia. Fermo restando che Nv40 era talmente buono che non era necessariouno stravolgimento, si sono resti conto che potevano benissimo prolungarne la vita anche con la serie 7 pompando un po le cose.
se rileggi la storia passata di NVIDIA, è quello che è stato sempre fatto:

Geforce 256 - GeForce 2 GTX

GeForce 3 - GeForce 4 Ti

GeForce FX 5800 - GeForce FX 5900

GeForce 6800 - GeForce 7800

Se la memoria non m'inganna, questo però è l'unico caso nel quale ad un mantenimento sostanziale dell'architettura (che è sempre quella SM3 di NV40) si è passati ad incrementi sostanziali del numero delle pipeline, aumentate con G70 del 50% rispetto a NV40.

Considerando che si tratta NON di una nuova architettura nel senso più ampio del termine, a me G70 pare tutt'altro che il prodotto meno rivoluzionario di NVIDIA. Considerando che questo si unisce ad un contenimento di consumi, dimensioni e temperature, a me personalmente il tuo giudizio pare quantomeno un po' affrettato. Questo, beninteso, a prescindere da quello che farà ATI con la propria prossima generazione di chip video.

halduemilauno
24-06-2005, 06:18
se rileggi la storia passata di NVIDIA, è quello che è stato sempre fatto:

Geforce 256 - GeForce 2 GTX

GeForce 3 - GeForce 4 Ti

GeForce FX 5800 - GeForce FX 5900

GeForce 6800 - GeForce 7800

Se la memoria non m'inganna, questo però è l'unico caso nel quale ad un mantenimento sostanziale dell'architettura (che è sempre quella SM3 di NV40) si è passati ad incrementi sostanziali del numero delle pipeline, aumentate con G70 del 50% rispetto a NV40.

Considerando che si tratta NON di una nuova architettura nel senso più ampio del termine, a me G70 pare tutt'altro che il prodotto meno rivoluzionario di NVIDIA. Considerando che questo si unisce ad un contenimento di consumi, dimensioni e temperature, a me personalmente il tuo giudizio pare quantomeno un po' affrettato. Questo, beninteso, a prescindere da quello che farà ATI con la propria prossima generazione di chip video.

come non essere d'accordo.
e complimenti per la rece.
ciao.
;)

halduemilauno
24-06-2005, 06:21
http://www.xbitlabs.com/articles/video/display/g70-indepth.html
http://www.xbitlabs.com/articles/video/display/geforce-7800.html
prima e seconda parte.
;)

lantony
24-06-2005, 06:36
se rileggi la storia passata di NVIDIA, è quello che è stato sempre fatto:

Geforce 256 - GeForce 2 GTX

GeForce 3 - GeForce 4 Ti

GeForce FX 5800 - GeForce FX 5900

GeForce 6800 - GeForce 7800

Se la memoria non m'inganna, questo però è l'unico caso nel quale ad un mantenimento sostanziale dell'architettura (che è sempre quella SM3 di NV40) si è passati ad incrementi sostanziali del numero delle pipeline, aumentate con G70 del 50% rispetto a NV40.

Considerando che si tratta NON di una nuova architettura nel senso più ampio del termine, a me G70 pare tutt'altro che il prodotto meno rivoluzionario di NVIDIA. Considerando che questo si unisce ad un contenimento di consumi, dimensioni e temperature, a me personalmente il tuo giudizio pare quantomeno un po' affrettato. Questo, beninteso, a prescindere da quello che farà ATI con la propria prossima generazione di chip video.

Esatto, lo stavo x scrivere io. Poichè vedo che c'è molta ignoranza da parte di molti utenti a riguardo, chiariamo un po' le idee: Nvidia ha sempre sfruttato un chip x 2 generazioni successive, quindi chi si aspettava un chip completamente nuovo ed innovativo si sbaglia di grosso.
Questa 7800GTX apporta varie migliorie all'NV40, ma è solo una evoluzione di quest'ultimo, come dal 1998(dalla nascita) nvidia ha sempre fatto.
Solo il prossimo avrà una struttura innovativa come ad es è stato nel passaggio Geforce4---->Geforce5------>geforce6.

P.S: Hai dimenticato il riva128 che poi è stato sostituito da un chip allora molto innovativo: la RivaTNT affiancata poi dalla TNT2 che era solo un'evoluzione, ora il quadro è completo.

halduemilauno
24-06-2005, 06:48
Esatto, lo stavo x scrivere io. Poichè vedo che c'è molta ignoranza da parte di molti utenti a riguardo, chiariamo un po' le idee: Nvidia ha sempre sfruttato un chip x 2 generazioni successive, quindi chi si aspettava un chip completamente nuovo ed innovativo si sbaglia di grosso.
Questa 7800GTX apporta varie migliorie all'NV40, ma è solo una evoluzione di quest'ultimo, come dal 1998(dalla nascita) nvidia ha sempre fatto.
Solo il prossimo avrà una struttura innovativa come ad es è stato nel passaggio Geforce4---->Geforce5------>geforce6.

P.S: Hai dimenticato il riva128 che poi è stato sostituito da un chip allora molto innovativo: la RivaTNT affiancata poi dalla TNT2 che era solo un'evoluzione, ora il quadro è completo.


non ha dimenticato. ha voluto citare solo le GeForce.
;)

sonnet
24-06-2005, 07:15
e comunque io non capisco tutta questa delusione. al pari di altri utenti io non mi aspettavo un raddoppio del 100 % delle prestazioni ma un aumento e basta. questo aumento c'è stato, la scheda costa poco ( :asd: :asd: :asd: ), i giochi e i driver attuali non permettono di sfruttarla a fondo, e poi sbaglio o questa 7800gtx sarebbe l' equivalente ( :D ) della 6800gt ? no, perchè in questo caso sarebbe stupido pretendere il doppio delle prestazioni di una 6800ultra, perchè la 6800ultra in questo caso andrebbe confrontata con una fantomatica 7800ultra a 32 pipes(quando e se uscirà), o no ?
se mi sono spiegato male cosa mooolto probabile :D chiedete pure.
ciao :)

continuate a dire che la geforce 7800gtx e' l'equivalente della 6800gt?La 7800gtx e' semplicemente l'attuale prodotto di punta di nvidia punto e basta.Sul futuro a parte varie speculazioni(che potranno rivelarsi vere o infondate)non c'e' niente di sicuro.Secondo me alla fine a meno di informazioni certe per fare i propri acquisti si puo' solo basare sul quello che attualmente offre il mercato.Non dimentichiamoci che le stesse persone che fanno profezie sui futuri prodotti nvidia sono le stesse che fino a qualche giorno prima dicevano che la 7800gtx avrebbe avuto il 60-70% di prestazioni in +..

halduemilauno
24-06-2005, 07:29
continuate a dire che la geforce 7800gtx e' l'equivalente della 6800gt?La 7800gtx e' semplicemente l'attuale prodotto di punta di nvidia punto e basta.Sul futuro a parte varie speculazioni(che potranno rivelarsi vere o infondate)non c'e' niente di sicuro.Secondo me alla fine a meno di informazioni certe per fare i propri acquisti si puo' solo basare sul quello che attualmente offre il mercato.Non dimentichiamoci che le stesse persone che fanno profezie sui futuri prodotti nvidia sono le stesse che fino a qualche giorno prima dicevano che la 7800gtx avrebbe avuto il 60-70% di prestazioni in +..

rispetto alla 6800gt in linea generale.
questo almeno era il mio pensiero. ma sostanzialmente lo è ancora tenendo conto del fatto che questa scheda andrebbe confrontata soprattutto da determinate ris. e imp. esempio 1280x1024 4/8. perchè queste sono le impostazioni tipiche del gamer. cmq questa è solo la mia opinione.
cmq hai ragione anche tu quando dici che è di questa scheda che si deve parlare perchè è questa scheda che attualmente rappresenta il top di casa nVidia.
ciao.
;)

hackboyz
24-06-2005, 08:14
e comunque io non capisco tutta questa delusione. al pari di altri utenti io non mi aspettavo un raddoppio del 100 % delle prestazioni ma un aumento e basta. questo aumento c'è stato, la scheda costa poco ( :asd: :asd: :asd: ), i giochi e i driver attuali non permettono di sfruttarla a fondo, e poi sbaglio o questa 7800gtx sarebbe l' equivalente ( :D ) della 6800gt ? no, perchè in questo caso sarebbe stupido pretendere il doppio delle prestazioni di una 6800ultra, perchè la 6800ultra in questo caso andrebbe confrontata con una fantomatica 7800ultra a 32 pipes(quando e se uscirà), o no ?
se mi sono spiegato male cosa mooolto probabile :D chiedete pure.
ciao :)
Hai in parte ragione sui drivers, ma questa volta non ci sono grossi margini di miglioramento come magari con la 6800 appena uscita visto che appunto la 7800 è sostanzialmente un'evoluzione della precedente e può già utilizzare drivers maturi. Questo imho, poi potrò essere sbugiardato dai fatti ;)

Sono passati 13 mesi dalla serie precedente ed esiste l'SLi che raddoppia o quasi le prestrazioni da più di sei mesi, qualcosina di più era lecito aspettarselo, sempre imho. Come ti è stato detto la GTX rapprenta il top delle schede nVidia oggi, quindi va confrontata con la Ultra.

Per il resto io - ripeto - in generale sono comunque rimasto piacevolmente sorpreso dalle novità introdotte e dalla qualità in generale di questo G70, proprio perchè mi aspettavo un'evoluzione/aggiornamento, anzi forse un po' meno.

Quincy_it
24-06-2005, 08:19
Per come la vedo io questa 7800GTX è un'ottima scheda. :)
Prestazionalmente parlando in diversi benchmark 1 singola di queste schede risulta molto vicina come prestazioni a 2 6800 ULTRA @SLI, ed è un risultato decisamente impressionante.
In più consuma qualcosina in meno, scalda meno, e le sue prestazioni possono solo che migliorare grazie a futuri drivers. :)

Sono curioso di vedere quale sarà la risposta di Ati.

lowenz
24-06-2005, 08:27
La cosa veramente importante - e spero sia anche il trend per il futuro - non sono gli fps in più quanto i watt in meno.

Considerando il processo produttivo altamente critico per le correnti parassite e considerando quanti transistor ne sono appunto interessati (>300.000.000), questa scheda è un gioiello elettronicamente parlando.

P.S.: li avete visti i demo? Mad Mod Mike è troppo tamarro :D

xpiuma
24-06-2005, 08:37
Dato il discorso fatto da Paolo e Hal in precedenza non si può non essere daccordo, così come sul commento finale di Raffaele: Evoluzione, non Rivoluzione.

La cosa che però non mi è piaciuta è il fatto che per questa "evoluzione" nVidia abbia cambiato completamente il nome della scheda.
Chip G70 (per la continuità sarebbe dovuto essere NV4x); ed il nome: 7xxx ha solitamente indicato un nuovo prodotto da parte di nVidia, sarebbe stato meglio chiamarla 6900GT(x).

Per le prestazioni della scheda nulla da eccepire, guadagna in ogni condizione una buona percentuale sulle già ottime prestazioni della 6800ULTRA.
Mi delude però raffrontandola alla X850XT di ATI, che in più di un test gli è davanti con i filtri attivati.

Escludendo D3 e HL2, da sempre baluardi delle due architetture ho notato come la 7800GTX stia dietro alla X850XT in Far-Cry, Colin 2005 e Painkiller tanto per fare un esempio.
In altri titoli invece il vantaggio è nettissimo, certe volte anche un 50% superiore alla scheda di punta ATI, come in IL-2.

In conclusione IO ritengo la 7800GTX un'ottima scheda, praticamente la migliore in assoluto dal punto di vista prestazionale, con un costo accettabile e molto superiore alla 6800U.

Ora resta da valutare la mossa di ATI, che con R520 introdurrà una nuova architettura, adesso che le evoluzioni di R300 sono finite.
Allora vedremo in che condizioni saremo, anche se penso che come al solito la lotta sarà dura. ;)


P.S. Sono un felice possessore sia di VGA ATI che nVidia, e non parlo per "tifo"...

DjLode
24-06-2005, 08:54
R520 è un evoluzione di R300 :)
Dispiace deluderti :)

xpiuma
24-06-2005, 09:00
R520 è un evoluzione di R300 :)
Dispiace deluderti :)

Bè, già per il fatto degli S.M 3, e le altre caratteristiche allora bisogna pensare ad una architettura nuova, altrimenti anche NV40 è l'evoluzione di NV30...

Paolo Corsini
24-06-2005, 09:04
R520 è un evoluzione di R300 :)
Dispiace deluderti :)
Ciao,
dove l'hai letto questo, sul "giornalino della Pimpa"?

DjLode
24-06-2005, 09:07
Ciao,
dove l'hai letto questo, sul "giornalino della Pimpa"?

Lo si dice da un pò :)
A meno che non abbia cambiato i piani qualche mese fa, R520 deriva dallo stessa architettura di R300. L'altra architettura a cui Ati stava lavorando è R400->R500>Xenon.

Paolo Corsini
24-06-2005, 09:10
Lo si dice da un pò :)
OK, la tua fonte è veramente il "giornalino della Pimpa"; no problem, basta saperlo

DjLode
24-06-2005, 09:12
OK, la tua fonte è veramente il "giornalino della Pimpa"; no problem, basta saperlo

A parte il fatto che, di solito, se uno ha notizie diverse è lecito aspettarsi qualche link o qualche altra argomentazione, se devi prendere per il culo liberissimo di farlo, io i link li ho postati tante volte sul forum, le notizie che girano sono quelle, le tue fonti saranno sicuramente più accurate delle mie, solo che non le vedo ;)

xpiuma
24-06-2005, 09:17
A parte il fatto che, di solito, se uno ha notizie diverse è lecito aspettarsi qualche link o qualche altra argomentazione, se devi prendere per il culo liberissimo di farlo, io i link li ho postati tante volte sul forum, le notizie che girano sono quelle, le tue fonti saranno sicuramente più accurate delle mie, solo che non le vedo ;)

Ci sono cose che non possono essere rivelate, come per esempio le prestazioni dell'FX-57 di prossima uscita, Paolo sa sicuramente benissimo come e quanto va, ma semplicemente non può (ancora) dircelo.
Ovviamente anche per R520 Fudo è così. ;)

DjLode
24-06-2005, 09:21
Che non le possa rivelare non ci piove, che prenda per il culo, ripeto, per me rimane una grossa caduta di stile ;)
Non pretendo di sapere tutto, ma se ha notizie in merito, anche un "ti sbagli" fa sicuramente più bella figura del "giornalino della Pimpa". Ma si sa, non è la prima volta ;)

xpiuma
24-06-2005, 09:27
Che non le possa rivelare non ci piove, che prenda per il culo, ripeto, per me rimane una grossa caduta di stile ;)
Non pretendo di sapere tutto, ma se ha notizie in merito, anche un "ti sbagli" fa sicuramente più bella figura del "giornalino della Pimpa". Ma si sa, non è la prima volta ;)

Ma che c'è? QUi tutti possono essere spiritosi e fare battute (non mi riferisco a te) sdrammatizzando poi con 2 faccine tranne Paolo?
E al massimo non stava canzonando te, ma il cosiddetto "giornalino della Pimpa".


Comunque torniamo in topic please, 7800GTX. :)

DjLode
24-06-2005, 09:29
Ma che c'è? QUi tutti possono essere spiritosi e fare battute (non mi riferisco a te) sdrammatizzando poi con 2 faccine tranne Paolo?


Vedi faccine tu nei post del Corsini? Devo avere problemi nel browser, perchè le vedo tutte tranne che nei suoi post ;)


Comunque torniamo in topic please, 7800GTX. :)

Hai ragione :)

Paolo Corsini
24-06-2005, 09:40
Che non le possa rivelare non ci piove, che prenda per il culo, ripeto, per me rimane una grossa caduta di stile ;)
Non pretendo di sapere tutto, ma se ha notizie in merito, anche un "ti sbagli" fa sicuramente più bella figura del "giornalino della Pimpa". Ma si sa, non è la prima volta ;)
Se ti senti preso in giro me ne dispiace; volevo buttarla sul ridere ma evidentemente non sono stato bravo in questo.
Comunque, a prescindere da quelle che sono le "informazioni" in circolazione, basta un po di buon senso. R300 e derivati nascono 3 anni fa come prodotto lanciato sul mercato; R520 è per sua natura un'architettura nuova per via anche solo dell'integrazione dello Shader Model 3.0, esattamente alla stessa stregua del passaggio NV3x - NV4x per NVIDIA.

Circa le faccine, con la scusa di metterle sempre tutti non si capisce mai cosa uno voglia scrivere. Quando ti ho chiesto dove avevi letto quelle "informazioni", chiedevo implicitamente dei link; non me li hai dati, e per questo motivo ho risposto a tono. Ma a prescindere dai link, che in questo momento non servono, basta solo un po' di buon senso per capire che quanto riporti non sarà così.

Se vuoi un dato sicuro, è quello che ATI non ha fatto uscire la benché minima informazione sull'architettura di R520, volontariamente o meno. Magari si conoscono alcuni dati, ma la struttura dell'architettura proprio no.
Per dirla in altro modo, il buon Fudo non ha idea di come sia il suo chip omonimo.

Grezzo
24-06-2005, 09:45
se rileggi la storia passata di NVIDIA, è quello che è stato sempre fatto:

Geforce 256 - GeForce 2 GTX

GeForce 3 - GeForce 4 Ti

GeForce FX 5800 - GeForce FX 5900

GeForce 6800 - GeForce 7800

Se la memoria non m'inganna, questo però è l'unico caso nel quale ad un mantenimento sostanziale dell'architettura (che è sempre quella SM3 di NV40) si è passati ad incrementi sostanziali del numero delle pipeline, aumentate con G70 del 50% rispetto a NV40.

Considerando che si tratta NON di una nuova architettura nel senso più ampio del termine, a me G70 pare tutt'altro che il prodotto meno rivoluzionario di NVIDIA. Considerando che questo si unisce ad un contenimento di consumi, dimensioni e temperature, a me personalmente il tuo giudizio pare quantomeno un po' affrettato. Questo, beninteso, a prescindere da quello che farà ATI con la propria prossima generazione di chip video.

A si sul fatto che nVidia faccia una generazione innovativa ed una sostanzialmente identica siamo daccordo. Il fatto di passare da 16 a 24 è come passare da 200 a 300Mhz per fare un esempio, tipo da Geforce 3 a Geforce 4, aumenta il fill rate insomma o con un bel po in più di Mhz o di pipe, o di entrambi, idem per le Vertex shader, due in più, idem per le tecnologie solo affinate, anche se l' AA trasparente è una buona cosa. Sinceramente il passaggio Geffo 3 a Geffo 4 Ti e soprattutto fra 5800 ella serie 5900 l' ho visto molto più marcato.

Oltre a presentare una architettura uguale sta volta il passaggio non introduce una versione ultra ma una Gt, siamo daccordo che la mossa è astuta, per via dei 0,9 e per via dei problemi ad usare 32pipe con lo 0,11 ma che non si poteva fare di più non ci credo. Insomma non ci vedo niente da elogiare in una semplice evoluzione tecnologica, ci mancherebbe che dopo un anno facciano uscire un prodotto che vada solo il 5% più veloce...

La cosa strana è che Geffo 2 Gts, Geffo4, e Geffo 5900 sono sempre stati criticati, ah la solita minestra riscaldata sempre la stessa roba e via dicendo, ora sto G70 è la solita roba, minestra riscaldata da Nv40 io non ci devo innovazioni, le evoluzioni mi paiono decisamente troppo poche. Mi pare un overclock, come quando si passò dalla Geforce3 alla Geforce 3 ti 500 io lo vedo alla stessa stregua. Ciao

JENA PLISSKEN
24-06-2005, 09:50
Mi aspetto grandi news da ATI...ma nn tanto in termini di prestazioni...tanto quelle già sono diponibili da una vita...ma come > qualità dei filtri e della resa finale in genere...tutto qui.
X il resto il 7800 qualcosa x l' AA ce l' ha dato...accontentiamoci di questo :D...oltre ad una giusta EVO del precedente chip ;)

Paolo Corsini
24-06-2005, 09:50
A si sul fatto che nVidia faccia una generazione innovativa ed una sostanzialmente identica siamo daccordo. Il fatto di passare da 16 a 24 è come passare da 200 a 300Mhz per fare un esempio
Ciao,
esempio non proprio corretto. Aumento della frequenza di clock: stesso chip, migliore resa alla frequenza maggiorata.
Aumento delle pipeline: "qualche" milione di transistor in più. Il cambiamento è sostanziale, non trovi?

5800 vs 5900: stessa architettura di base uanto a pipeline; controller memoria cambiato (da 128bit a 256bit); varie ottimizzazioni nella gestione degli shader. A parte il controller memoria, ma quello era figlio di una scelta errata a monte con il progetto NV30, non vedo incredibili stravolgimenti nell'architettura.

Non ho mai scritto che quetso è il prodotto più rivoluzionario di NVIDIA, tutt'altro; contesto, con i dati, la tua affermazione per la quale questo è quello meno innovativo di NVIDIA. Poi, se sei convinto di quello che affermi no problem, non è mia intenzione cambiare idea a nessuno; ti faccio però notare che quello che tu affermi non è supportato dai fatti.

DjLode
24-06-2005, 09:52
Se ti senti preso in giro me ne dispiace; volevo buttarla sul ridere ma evidentemente non sono stato bravo in questo.
Comunque, a prescindere da quelle che sono le "informazioni" in circolazione, basta un po di buon senso. R300 e derivati nascono 3 anni fa come prodotto lanciato sul mercato; R520 è per sua natura un'architettura nuova per via anche solo dell'integrazione dello Shader Model 3.0, esattamente alla stessa stregua del passaggio NV3x - NV4x per NVIDIA.

Circa le faccine, con la scusa di metterle sempre tutti non si capisce mai cosa uno voglia scrivere. Quando ti ho chiesto dove avevi letto quelle "informazioni", chiedevo implicitamente dei link; non me li hai dati, e per questo motivo ho risposto a tono. Ma a prescindere dai link, che in questo momento non servono, basta solo un po' di buon senso per capire che quanto riporti non sarà così.

Se vuoi un dato sicuro, è quello che ATI non ha fatto uscire la benché minima informazione sull'architettura di R520, volontariamente o meno. Magari si conoscono alcuni dati, ma la struttura dell'architettura proprio no.
Per dirla in altro modo, il buon Fudo non ha idea di come sia il suo chip omonimo.

Se la tua reale intenzione era buttarla sul ridere, mi scuso di averti male interpretato. Riguardo ai link trovo solo roba abbastanza vecchia ma si parla di 2004 e se i rumors fossero confermati dubito che un'architettura nuova possa essere sviluppata in così breve tempo anche perchè so che qualcuno R520 l'ha visto in funzione a circa Marzo (se non ricordo male) quindi la gpu è conclusa e dubito che possano portare modifiche reali a parte le frequenze.
La mia fonte è Dave Baumann che per quanto non sia una fonte ufficiale ha diramato in un intervista tempo fa alcune notizie che si sono rivelate vere (vedi R500->Xenon che altro non è che R400 a cui è stato dato un altro nome di progetto ed è stato customizzato, anche se parlare di customizzazione e modifiche su una cosa che non esisteva veramente se non su carta non ha molto senso, per entrare nell'Xbox2). Tale persona diceva che R520 era l'ultimo step produttivo ed ultima evoluzione di R300, è vero che per introdurre fp32 e tante altra belle cosine bisogna modificare le pipelines, ma non mi sento di parlare di architettura nuova in quanto R300 è già Dx9 e qualche modifica lo può rendere SM3. Ora girano rumors (ovviamente) sul fatto che R520 sia una sorta di ibrido (sempre stessa fonte) tra R300 e R500, cosa che però mi pare alquanto strana. E' invece sicuro che R520 deriva dagli stessi progettisti che hanno creato R300 e R420, l'altra equipe era impegnata con la gpu dell'xbox e da un'intervista di una fonte Ati (non ricordo il nome purtroppo) veniva rivelato che le due equipe non erano in contatto diretto. Strano quindi pensare in un ibrido tra due architetture che vengono sviluppate su coste diverse tra gruppi a compartimenti stagni.
Per quello che il buon senso di cui parli mi porta a pensare che l'architettura di base sia la stessa di R300 con qualche modifica per renderla Sm3 (quindi fp32 e altri ammenicoli). Anche qui si parlava di evoluzione, non di rivoluzione, poi dipende uno come la vede, per me saranno parenti molto stretti :)

Paolo Corsini
24-06-2005, 09:57
... poi dipende uno come la vede, per me saranno parenti molto stretti :)
Dici bene, questione di punti di vista. Stando a quello che si può immaginare, le similitudini tra R300 e R520 ci saranno e questo è naturale; in ogni caso mi sembra più corretto vederla come un'architettura nuova, non stile r300 - r420 sempre restando in casa ATI che avevano molti punti in comune in buona sostanza e una architettura di base molto simile.

pistolino
24-06-2005, 09:58
Mi aspetto grandi news da ATI...ma nn tanto in termini di prestazioni...tanto quelle già sono diponibili da una vita...ma come > qualità dei filtri e della resa finale in genere...tutto qui.
X il resto il 7800 qualcosa x l' AA ce l' ha dato...accontentiamoci di questo :D...oltre ad una giusta EVO del precedente chip ;)

IMHO R520 non lo vedremo mai :rolleyes:

Guardate qui:

http://www.tomshw.it/news.php?newsid=4186

Athlon 64 3000+
24-06-2005, 10:03
addirittura si parlerebbe di settembre per la presentazione?
:cry:

Non è che forse vorranno presentarlo a settembre quando R520 nelle sue varie forme sarà subito disponibile per il commercio come ha fatto Nvidia con la sua 7800GTX così da non farà un brutta figura?

DjLode
24-06-2005, 10:04
Dici bene, questione di punti di vista. Stando a quello che si può immaginare, le similitudini tra R300 e R520 ci saranno e questo è naturale; in ogni caso mi sembra più corretto vederla come un'architettura nuova, non stile r300 - r420 sempre restando in casa ATI che avevano molti punti in comune in buona sostanza e una architettura di base molto simile.

Ok, l'importante è essersi chiariti e mi scuso di nuovo di averti male interpretato, ma aggiungici una cacchio di faccina ogni tanto :)

Grezzo
24-06-2005, 10:04
Ciao,
esempio non proprio corretto. Aumento della frequenza di clock: stesso chip, migliore resa alla frequenza maggiorata.
Aumento delle pipeline: "qualche" milione di transistor in più. Il cambiamento è sostanziale, non trovi?

5800 vs 5900: stessa architettura di base uanto a pipeline; controller memoria cambiato (da 128bit a 256bit); varie ottimizzazioni nella gestione degli shader. A parte il controller memoria, ma quello era figlio di una scelta errata a monte con il progetto NV30, non vedo incredibili stravolgimenti nell'architettura.

Non ho mai scritto che quetso è il prodotto più rivoluzionario di NVIDIA, tutt'altro; contesto, con i dati, la tua affermazione per la quale questo è quello meno innovativo di NVIDIA. Poi, se sei convinto di quello che affermi no problem, non è mia intenzione cambiare idea a nessuno; ti faccio però notare che quello che tu affermi non è supportato dai fatti.

Ok, continuo a non vedere innovazioni in questo g70 e quel poco di evoluzioni che molti si accontentano di avere, per carità non pretendevo le stelle ma...

ciao

zerothehero
24-06-2005, 10:24
Ok, continuo a non vedere innovazioni in questo g70 e quel poco di evoluzioni che molti si accontentano di avere, per carità non pretendevo le stelle ma...

ciao


il fatto è che la norma "normale" era quella di avere dei refresh di frequenze (9700-9800pro), adesso addirittura ti aumentano le pipeline da un anno all'altro e al prossimo anno nuova e completa architettura..
quindi
-ogni anno aumento del 50-100% di pipeline
-ogni 2 anni cambio architettura. (4200-fx-nv40-shader unificati)
Caspita un così forte innovatività è un modello "perfetto".. più di così sarebbe insostenibile....
poi si capisce se avessero fatto 32 pipe sarebbe stato meglio..ma noi consumatori abbiamo desideri infiniti.. :ciapet: :D
Non so fino a quanto manterranno questo passo..ma una cosa così non è "normale"

Arruffato
24-06-2005, 10:31
Ok, continuo a non vedere innovazioni in questo g70 e quel poco di evoluzioni che molti si accontentano di avere, per carità non pretendevo le stelle ma...

ciao
Ma è una scheda video! Cosa deve fare una scheda video, più che far girare velocemente i giochi?
Si sa già che questa si posizionerà nella fascia media del mercato e all'uscita già si posiziona ben al di sopra della più veloce scheda precedente.
Quando uscirà in versione 32 pipeline e core a 500 e oltre cosa sarà!?

fek
24-06-2005, 10:40
Ok, continuo a non vedere innovazioni in questo g70 e quel poco di evoluzioni che molti si accontentano di avere, per carità non pretendevo le stelle ma...

ciao

Non vedi innovazioni perche' non servono, perche' l'NV40 gia' implementa tutto il necessario specificato dalle DX9.

Implementare novita' avrebbe necessitato un'API per poterle sfruttare che non esiste e non esistera' per ancora un anno abbondante.

Se, ad esempio, avesse implementato le specifiche dell'SM4.0, non ci sarebbe stato alcun modo per poter scrivere uno shader in versione 4.0, perche' le DX9 non lo espongono, non c'e' il compilatore, non esiste un'assembler. Sarebbe stato perfettamente inutile, non trovi?

fek
24-06-2005, 10:48
Chip G70 (per la continuità sarebbe dovuto essere NV4x); ed il nome: 7xxx ha solitamente indicato un nuovo prodotto da parte di nVidia, sarebbe stato meglio chiamarla 6900GT(x).

Ho fatto questa domanda a NVIDIA un paio di settimane fa e la risposta e' stata divertente: "Volevamo confondere le acque, e ci siamo riusciti" :)

I nomi dati ai chip di qualunque genere sono solo una questione di marketing, gli danno il nome che nella loro ottica vende meglio il prodotto, non che lo descrive dal punto di vista architetturale.

hackboyz
24-06-2005, 11:07
Tra l'altro non eri stato proprio tu a farci capire che G70 non era altro che NV47? :D

Comunque c'è da dire che G70 forse è un nome troppo "rivoluzionario" per la 7800, ma dall'altra parte anche chiamarla 6900 sarebbe stato un po' riduttivo ...

Bisogna ammettere che con la storiella del nome nuovo e con il lancio mediatico contemporaneo all'uscita sul mercato, il reparto marketing di nVidia sa il fatto suo ... :asd:

Vifani
24-06-2005, 11:07
R520 è un evoluzione di R300 :)
Dispiace deluderti :)

Io a dire la verità non capisco perché nel passaggio da NV3x a NV40 si è parlato di rivoluzione, architettura nuova, ecc... e nel passaggio da R300 a R520 si dice che è una "semplice" evoluzione. R520 avrà un'architettura completamente diversa: il numero di pipeline sarà diverso, le unità di vertex shading saranno diverse e le unità di pixel shading sarano diverse. Pensi che il supporto al calcolo FP32 sia una banalità da aggiungere? Dillo ad NVIDIA che non è di certo l'ultima arrivata e che con il suo NV3x ha fallito in questa features. Bisogna rivedere completamente la struttura di caching, il numero e le dimensioni dei registri, ecc... Verrà implementato il Dynamic Flow Control e verrà implementato il supporto al FP blending (quindi anche unità ROPs nuove) per la gioia di fek come programmatore e di tutti quelli che vorrano usare l'High Dynamic Range. Questa architettura rispetto a R300-R4x0 non ha assolutamente nulla in comune, se non il fatto di avere unità di vertex e pixel shading separate (come tutti i processori grafici dall'epoca di 3dfx). Se poi tu per rivoluzione tu intendi il passaggio ad una pipeline di rendering completamente diversa nel modo di funzionare (come sarà l'architettura unificata che vedremo in futuro o come è stato il TBDR di PowerVR), allora vuole dire che per te praticamente non c'è mai stata una rivoluzione fino ad ora.

Vifani
24-06-2005, 11:09
Ok, continuo a non vedere innovazioni in questo g70 e quel poco di evoluzioni che molti si accontentano di avere, per carità non pretendevo le stelle ma...

ciao

G70 è un'evoluzione di NV40, ma non un'evoluzione di tipo banale. Non è lo stesso chip con + unità di vertex e pixel shading. Le unità sono state riviste, l'efficienza è stata aumentata e sono state implementate nuove tecniche di antialiasing. Per essere un'evoluzione, è una bella e significativa evoluzione.

the_dark_shadow
24-06-2005, 11:11
G70 è un'evoluzione di NV40, ma non un'evoluzione di tipo banale. Non è lo stesso chip con + unità di vertex e pixel shading. Le unità sono state riviste, l'efficienza è stata aumentata e sono state implementate nuove tecniche di antialiasing. Per essere un'evoluzione, è una bella e significativa evoluzione.


quoto in pieno ;) , un evoluzione mica da poco

OvErClOck82
24-06-2005, 11:16
G70 è un'evoluzione di NV40, ma non un'evoluzione di tipo banale. Non è lo stesso chip con + unità di vertex e pixel shading. Le unità sono state riviste, l'efficienza è stata aumentata e sono state implementate nuove tecniche di antialiasing. Per essere un'evoluzione, è una bella e significativa evoluzione.
quoto pure io :D

Athlon 64 3000+
24-06-2005, 11:28
Io a dire la verità non capisco perché nel passaggio da NV3x a NV40 si è parlato di rivoluzione, architettura nuova, ecc... e nel passaggio da R300 a R520 si dice che è una "semplice" evoluzione. R520 avrà un'architettura completamente diversa: il numero di pipeline sarà diverso, le unità di vertex shading saranno diverse e le unità di pixel shading sarano diverse. Pensi che il supporto al calcolo FP32 sia una banalità da aggiungere? Dillo ad NVIDIA che non è di certo l'ultima arrivata e che con il suo NV3x ha fallito in questa features. Bisogna rivedere completamente la struttura di caching, il numero e le dimensioni dei registri, ecc... Verrà implementato il Dynamic Flow Control e verrà implementato il supporto al FP blending (quindi anche unità ROPs nuove) per la gioia di fek come programmatore e di tutti quelli che vorrano usare l'High Dynamic Range. Questa architettura rispetto a R300-R4x0 non ha assolutamente nulla in comune, se non il fatto di avere unità di vertex e pixel shading separate (come tutti i processori grafici dall'epoca di 3dfx). Se poi tu per rivoluzione tu intendi il passaggio ad una pipeline di rendering completamente diversa nel modo di funzionare (come sarà l'architettura unificata che vedremo in futuro o come è stato il TBDR di PowerVR), allora vuole dire che per te praticamente non c'è mai stata una rivoluzione fino ad ora.

Quoto.
Nvidia per il passaggio da NV3x a NV4x a rifatto quasi da 0 l'architettura.

Senator
24-06-2005, 11:39
secondo me fino a quando ati non presenterà la sua nuova scheda il mercato rimarrà un pò "bloccato".
questo g70 è veramente potente,ma non penso minimamente di rivoluzionare il mio sistema per una scheda che tra qualche mese potrebbe essere letteralmente "schiacciata"dalla soluzione ati...
meglio aspettare. ;)

lantony
24-06-2005, 11:48
Nvidia ha fatto un colpo grosso con questo G70. Un'evoluzione completa dell' NV40 secondo me si sarebbe rilevata alquanto inutile visto che ad oggi i giochi che usino i Pixel Shader 3 si contano ancora sulla punta delle dita quindi l'introduzione di un nuovo chip rivoluzionario che supporti ad es. i Pixel Shader 4 si sarebbe rilevata alquanto stupida come mossa. Invece ha introdotto delle "piccole" migliorie dal chip NV40 ed è uscita un'acceleratore che oltre ad essere in molti casi (e con drivers beta) vicino a delle 6800U SLI ha introdotto anche migliorie visive nei PS3 e features importantisssime come il supporto ai video H.264 (fatevi un giro qui (http://www.apple.com/quicktime/hdgallery/) e capirete di cosa sto parlando.....è il futuro dei DVD assolutamente spettacolare :sbavvv: ) se poi pensiamo che scalda meno, consuma meno e fa meno rumore del modello di punta precedente, il quadro è perfetto. In definitiva non poteva fare di meglio ;)
Ora dobbiamo solo sperare che Ati sia in grado di competere e soprattutto aspetto le nuove soluzioni mainstream sia di ATI che NVIDIA :D

halduemilauno
24-06-2005, 11:57
secondo me fino a quando ati non presenterà la sua nuova scheda il mercato rimarrà un pò "bloccato".
questo g70 è veramente potente,ma non penso minimamente di rivoluzionare il mio sistema per una scheda che tra qualche mese potrebbe essere letteralmente "schiacciata"dalla soluzione ati...
meglio aspettare. ;)

belle tett..ehm si parla di settembre/ottobre per la disponibilità.
;)

andreamarra
24-06-2005, 11:58
per chi diceva che Luna era bruttarella...

ho visto il filmato del demo, in movimento è eccezionale! In più ha un viso ultradettagliato, ed è anche bona, capelli realistici, tuta molto bella, e i mostroni con le manone sono fanastici in prossimità della fonte di luce che si forma nel mezzo dello schermo!

vedere per credere :D

zerothehero
24-06-2005, 12:04
per chi diceva che Luna era bruttarella...

ho visto il filmato del demo, in movimento è eccezionale! In più ha un viso ultradettagliato, ed è anche bona, capelli realistici, tuta molto bella, e i mostroni con le manone sono fanastici in prossimità della fonte di luce che si forma nel mezzo dello schermo!

vedere per credere :D


è più carismatico il panzone..
la luna che fluttua che mi comunica? :read:

OvErClOck82
24-06-2005, 12:04
secondo me fino a quando ati non presenterà la sua nuova scheda il mercato rimarrà un pò "bloccato".
questo g70 è veramente potente,ma non penso minimamente di rivoluzionare il mio sistema per una scheda che tra qualche mese potrebbe essere letteralmente "schiacciata"dalla soluzione ati...
meglio aspettare. ;)
perchè, pensi che la sk di ati possa schiacciare la 7800gtx ? non credo. perchè attualmente la 7800gtx è il top di gamma di nVidia, ma non penso che sia di fascia alta al massimo medio-alta, e ho letto su alcuni siti che la sk di ati dovrebbe essere + o - uguale. poi quando usciranno la 7800ultra e la sk di fascia alta di ati (tutte due con 32 pipes,si presume), vedremo chi schiaccierà chi.Io non sono un ''fan'' di nVidia anche se la mia 6800gt mi sta dando molte soddisfazioni, ma penso che a questo giro Ati non avrà vita facile inanzitutto perchè sembra stia riscontrando problemi con il prossimo chip
http://www.tomshw.it/news.php?newsid=4186 e poi perchè se non ci saranno tante schede disponibili sul mercato come è avvenuto per le X850 credo che la gente non esiti a buttarsi su nVidia e questo mi dispiacerebbe un pò xchè mi sembra stupido rovinare una possibile ottima scheda per stupidi problemi di distribuzione. comunque è ancora presto per parlare. E come dici tu è meglio aspettare.
ciao :)

halduemilauno
24-06-2005, 12:44
http://www.xtremeresources.com/forums/showthread.php?t=37262
xtreme come il sito. più che altro per curiosità.
;)

OvErClOck82
24-06-2005, 13:18
http://www.xtremeresources.com/forums/showthread.php?t=37262
xtreme come il sito. più che altro per curiosità.
;)
bello quel sistema di raffreddamento :tapiro:

andreamarra
24-06-2005, 13:29
perchè, pensi che la sk di ati possa schiacciare la 7800gtx ? non credo. perchè attualmente la 7800gtx è il top di gamma di nVidia, ma non penso che sia di fascia alta al massimo medio-alta, e ho letto su alcuni siti che la sk di ati dovrebbe essere + o - uguale. poi quando usciranno la 7800ultra e la sk di fascia alta di ati (tutte due con 32 pipes,si presume), vedremo chi schiaccierà chi.Io non sono un ''fan'' di nVidia anche se la mia 6800gt mi sta dando molte soddisfazioni, ma penso che a questo giro Ati non avrà vita facile inanzitutto perchè sembra stia riscontrando problemi con il prossimo chip
http://www.tomshw.it/news.php?newsid=4186 e poi perchè se non ci saranno tante schede disponibili sul mercato come è avvenuto per le X850 credo che la gente non esiti a buttarsi su nVidia e questo mi dispiacerebbe un pò xchè mi sembra stupido rovinare una possibile ottima scheda per stupidi problemi di distribuzione. comunque è ancora presto per parlare. E come dici tu è meglio aspettare.
ciao :)


fondamentalmente molti ritengono che sulla carta (ovviamente sempre tutto da vedere) avere 4 pipeline in più e frequenze maggiori (anche se in proporzione ad esempio la V40 aveva un rendimento migliore ad aumento di MHz), oltre il fatto che gestirà anche i shader 3,0, dal punto di vista pratico potrebbero darle una potenza superiore.

Considera che una X800XT pressappoco è simile a una 6800Ultra, in alcuni casi meglio l'una e in altri meglio l'altra. Ma alla fine della fiera sono pressochè identiche. Ovviamente la NV40 ha lo shader 3.0 in più. La X800XT/X850XT hanno 16 pipeline, l'R520 a quanto pare dovrebbe averne 32 (anche se, ripeto, non è detto... magari ne avrà 24 e 32 le avranno le super ultra mega platinum che neanche vedremo). E tutto fa presagire a un teorico raddoppio (se non più) di prestazioni rispetto a un R420 e di conseguenza di un Nv40.

Potrebbe, dico potrebbe, questo R520 essere pari a due 6800GT/Ultra in SLI. E quindi, superiore rispetto a una 7800GTX.

Ripeto, questo in linea teorica. Alcuni ipotizzano anche più che un raddoppio di prestazioni rispetto alle "vecchie" R420, cosa possibile ma non credo più di tanto. In più sarà un chip decisamente più evoluto tecnologicamente rispetto all'R420. Ma a me, più che alle prestazioni in più o in meno preoccupa la reperibilità di tali schede... 32 pipeline (se saranno 32, of course!) da creare è un casino assurdo in produzione...

In ogni caso: meglio che la ati vada di più della nvidia a questo gitro (il precedente vinto dalla nvidia, sicuramente), in modo che al prossimo round la nvidia poi farà ancora più sforzi per migliorare e tirerà fuori mostri sempre più assurdi, e la ati per rincorrerla dovrà fare altrettanto :)

OvErClOck82
24-06-2005, 13:47
fondamentalmente molti ritengono che sulla carta (ovviamente sempre tutto da vedere) avere 4 pipeline in più e frequenze maggiori (anche se in proporzione ad esempio la V40 aveva un rendimento migliore ad aumento di MHz), oltre il fatto che gestirà anche i shader 3,0, dal punto di vista pratico potrebbero darle una potenza superiore.

Considera che una X800XT pressappoco è simile a una 6800Ultra, in alcuni casi meglio l'una e in altri meglio l'altra. Ma alla fine della fiera sono pressochè identiche. Ovviamente la NV40 ha lo shader 3.0 in più. La X800XT/X850XT hanno 16 pipeline, l'R520 a quanto pare dovrebbe averne 32 (anche se, ripeto, non è detto... magari ne avrà 24 e 32 le avranno le super ultra mega platinum che neanche vedremo). E tutto fa presagire a un teorico raddoppio (se non più) di prestazioni rispetto a un R420 e di conseguenza di un Nv40.

Potrebbe, dico potrebbe, questo R520 essere pari a due 6800GT/Ultra in SLI. E quindi, superiore rispetto a una 7800GTX.

Ripeto, questo in linea teorica. Alcuni ipotizzano anche più che un raddoppio di prestazioni rispetto alle "vecchie" R420, cosa possibile ma non credo più di tanto. In più sarà un chip decisamente più evoluto tecnologicamente rispetto all'R420. Ma a me, più che alle prestazioni in più o in meno preoccupa la reperibilità di tali schede... 32 pipeline (se saranno 32, of course!) da creare è un casino assurdo in produzione...

In ogni caso: meglio che la ati vada di più della nvidia a questo gitro (il precedente vinto dalla nvidia, sicuramente), in modo che al prossimo round la nvidia poi farà ancora più sforzi per migliorare e tirerà fuori mostri sempre più assurdi, e la ati per rincorrerla dovrà fare altrettanto :)
hai ragione, ma l' 520 non sarà solo la sk di fascia alta ma anche di fascia bassa e media, te le immagini le X900 (?) liscie con 32 pipes e con la frequenza del core di 700 Mhz ? sarebbero superiori alla 7800gtx :asd: e il fatto che la versione + potente dell' r520 probabilmente vada di + di 2 6800ultra e quindi dell 7800gtx potrebbe essere vero perchè la 7800gtx non è la scheda + potente delle 7800 benchè ora sia il top di gamma.
ciao
;)

AnonimoVeneziano
24-06-2005, 13:55
hai ragione, ma l' 520 non sarà solo la sk di fascia alta ma anche di fascia bassa e media, te le immagini le X900 (?) liscie con 32 pipes e con la frequenza del core di 700 Mhz ? sarebbero superiori alla 7800gtx :asd: e il fatto che la versione + potente dell' r520 probabilmente vada di + di 2 6800ultra e quindi dell 7800gtx potrebbe essere vero perchè la 7800gtx non è la scheda + potente delle 7800 benchè ora sia il top di gamma.
ciao
;)

Lol, schede di fascia bassa da 32 pipes :)

Non credo ati farà mai una mossa del genere :P

DjLode
24-06-2005, 13:58
Bhè se vuoi vedere una fascia bassa a 400€ può anche farlo :asd:

andreamarra
24-06-2005, 13:59
hai ragione, ma l' 520 non sarà solo la sk di fascia alta ma anche di fascia bassa e media, te le immagini le X900 (?) liscie con 32 pipes e con la frequenza del core di 700 Mhz ? sarebbero superiori alla 7800gtx :asd: e il fatto che la versione + potente dell' r520 probabilmente vada di + di 2 6800ultra e quindi dell 7800gtx potrebbe essere vero perchè la 7800gtx non è la scheda + potente delle 7800 benchè ora sia il top di gamma.
ciao
;)

bhè, ovvio :D!

potrebbero fare così, ricordandosi l'errore fatto con l'uscita di R420. L'anno scorso hanno cannato alla grande perchè c'era la Pro con 12 pipeline e la XT a 16 pipe (con differenze spesso altissime...). E la nvidia con la GT aveva fatto la scheda perfetta prestazioni/prezzo/tecnologia, poco meno potente di una Ultra che in più aveva maggiori frequenze enon pipeline o vertex.
Poi, anche se in ritardo, hanno introdotto la X800XL. Un pò si sono salvati.

Forse sta volta la ati potrebbe fare così: un R520 con 24 pipeline, un R520 con 32 pippe e una versione con 32 pippe con frequenze maggiori. O magari due schede (quelle di fascia mediao-alta-altissima) a 24 pippe e una a 32 (ma introvabile :D).

Oppure le 32 pippe non le si vedrà per nulla da parte di ati. In fondo sapendo già molto del G70 può valutare se immettere schede video a 24 o 32 pippe. Magari gli bastano 24 pipe per essere superiori di poco.

E quindi mi aspetto il colpo di scena della nvidia, con una Ultra a 32 pippe e frequenze mostruose :oink:

Cfranco
24-06-2005, 14:26
...
questo g70 è veramente potente,ma non penso minimamente di rivoluzionare il mio sistema per una scheda che tra qualche mese potrebbe essere letteralmente "schiacciata"dalla soluzione ati...
meglio aspettare. ;)
Qualche anno fa si é vista una situazione simile ... quando é uscita la 9700 e Nvidia era in ritardo ... poi abbiamo visto tutti com' é finita :stordita:
Non é che voglio gufare , ma solo ricordare che sulle prestazioni di schede ancora da vedere é meglio andarci molto cauti , al momento G70 é il meglio che offre il mercato , il 520 é solo un miraggio lontano .

xpiuma
24-06-2005, 14:49
Io a dire la verità non capisco perché nel passaggio da NV3x a NV40 si è parlato di rivoluzione, architettura nuova, ecc... e nel passaggio da R300 a R520 si dice che è una "semplice" evoluzione. R520 avrà un'architettura completamente diversa: il numero di pipeline sarà diverso, le unità di vertex shading saranno diverse e le unità di pixel shading sarano diverse. Pensi che il supporto al calcolo FP32 sia una banalità da aggiungere? Dillo ad NVIDIA che non è di certo l'ultima arrivata e che con il suo NV3x ha fallito in questa features. Bisogna rivedere completamente la struttura di caching, il numero e le dimensioni dei registri, ecc... Verrà implementato il Dynamic Flow Control e verrà implementato il supporto al FP blending (quindi anche unità ROPs nuove) per la gioia di fek come programmatore e di tutti quelli che vorrano usare l'High Dynamic Range. Questa architettura rispetto a R300-R4x0 non ha assolutamente nulla in comune, se non il fatto di avere unità di vertex e pixel shading separate (come tutti i processori grafici dall'epoca di 3dfx). Se poi tu per rivoluzione tu intendi il passaggio ad una pipeline di rendering completamente diversa nel modo di funzionare (come sarà l'architettura unificata che vedremo in futuro o come è stato il TBDR di PowerVR), allora vuole dire che per te praticamente non c'è mai stata una rivoluzione fino ad ora.


Grazie dell'intervento Raffaele...
Se dico io le cose niente, ma per fortuna un "carismatico" come te mi appoggia. ;)

DjLode
24-06-2005, 15:26
Io a dire la verità non capisco perché nel passaggio da NV3x a NV40 si è parlato di rivoluzione, architettura nuova, ecc... e nel passaggio da R300 a R520 si dice che è una "semplice" evoluzione. R520 avrà un'architettura completamente diversa: il numero di pipeline sarà diverso, le unità di vertex shading saranno diverse e le unità di pixel shading sarano diverse. Pensi che il supporto al calcolo FP32 sia una banalità da aggiungere? Dillo ad NVIDIA che non è di certo l'ultima arrivata e che con il suo NV3x ha fallito in questa features. Bisogna rivedere completamente la struttura di caching, il numero e le dimensioni dei registri, ecc... Verrà implementato il Dynamic Flow Control e verrà implementato il supporto al FP blending (quindi anche unità ROPs nuove) per la gioia di fek come programmatore e di tutti quelli che vorrano usare l'High Dynamic Range. Questa architettura rispetto a R300-R4x0 non ha assolutamente nulla in comune, se non il fatto di avere unità di vertex e pixel shading separate (come tutti i processori grafici dall'epoca di 3dfx). Se poi tu per rivoluzione tu intendi il passaggio ad una pipeline di rendering completamente diversa nel modo di funzionare (come sarà l'architettura unificata che vedremo in futuro o come è stato il TBDR di PowerVR), allora vuole dire che per te praticamente non c'è mai stata una rivoluzione fino ad ora.


Che ti devo dire sarò esigente io.
Nv3x era una cpu Dx9 per modo di dire, supportava in modo ottimo solo le 8 e infatti si vedeva che prestazioni aveva con le 9.
R520 per il mio modo di vedere essendo una gpu dx9 condivide molte cose con R300 (sto parlando a livello di logica) quindi non la vedo come nuova architettura. Tutto qua. Poi il tempo mi darà ragione o torto. Dopo tutto anche i P4 sono degli X86 e l'architettura è comune, non ci vedo una così gran differenza di uso dei termini :)
L'architettura per me è cambiata da R200 a R300, poi è ovvio che ci siano differenze tra le seguenti. Secondo il tuo ragionamento anche R420 è una nuova architettura (pipelines raddoppiate, modifiche alle pipelines eccetera).
Scusa il ritardo ma non avevo visto il tuo post poi ho visto gente che quotava e non capivo da dove veniva perchè non lo avevo letto :)

fek
24-06-2005, 15:28
Grazie dell'intervento Raffaele...
Se dico io le cose niente, ma per fortuna un "carismatico" come te mi appoggia. ;)

Pero' io in questo caso non sono d'accordo con Raffaele, ma le differenze credo derivino da un significato differente che si attribuisce al concetto di "nuova archtiettura".

E' vero il discorso sulle pipeline presumibilmente massicciamente modificate per implementare SM3.0 e le nuove ROP, ma a mio avviso questo non e' abbastanza per definirla un'architettura completamente nuova rispetto all'R3X0.

Ma tutto il resto dell'architettura credo sia rimasto sostanzialmente invariato. Nel caso dell'NV40 ci fu una quasi totale riprogettazione per passare da un'architettura essenzialmente DX8 ad una finalmente DX9.

xpiuma
24-06-2005, 15:34
Pero' io in questo caso non sono d'accordo con Raffaele, ma le differenze credo derivino da un significato differente che si attribuisce al concetto di "nuova archtiettura".

E' vero il discorso sulle pipeline presumibilmente massicciamente modificate per implementare SM3.0 e le nuove ROP, ma a mio avviso questo non e' abbastanza per definirla un'architettura completamente nuova rispetto all'R3X0.

Ma tutto il resto dell'architettura credo sia rimasto sostanzialmente invariato. Nel caso dell'NV40 ci fu una quasi totale riprogettazione per passare da un'architettura essenzialmente DX8 ad una finalmente DX9.

Su questo sono daccordo.

Il problema che ci troviamo ad affrontare è quello di trovare un significato materiale alla definizione di "nuova architettura".
Mi sa che andrà a finire come le annose discussioni sui minimi FPS per definire un gioco fluido, non ne veniamo più a capo.

Su una cosa però credo che non ci siano dubbi, R520 avrà più differenze con R420 che G70 con NV40.

Tutto il resto... E' opinabile. :)


P.S. Sempre con la convinzione che se non sei daccordo possiamo parlarne ed esporre i fatti come vengono percepiti da ciascuno di noi, un forum serve anche a questo. :)

Dark Schneider
24-06-2005, 15:47
IMHO con R520 Ati ha abbandonato l'FP24, per avere un approccio simile a nVidia: FP16-FP32. Ovviamente son soltanto mie supposizioni. :) IMHO un FP24-FP32 è un po' una cosa inutile.


Riguardo il G70: in effetti ragà non dovete mica gridare allo scandalo. Per anni abbiamo "subito" chip video evolutivi con frequenza maggiorata e nulla più.
Almeno questa volta son aumentate le pipeline, vertex unit e qlc miglioria qua e là.

Mi sa che vi siete abituati un po' male: non potete pretendere il raddoppio di prestazioni ogni anno.

Personalmente non trovo G70 un chip video particolarmente interessante. Ma perchè io posseggo NV40. G70 è un buon potenziamento di quest'ultimo. Ma chi deve comprarsi una top attuale non penso che debba considerarsi "deluso".

Che poi non capisco alcuni possessori di GeForce 6800GT o Ultra. Sembra quasi come se nVidia doveva immettere un chip video doppiamente più potente per dare un "senso" al passaggio da 6800GT/Ultra a 7800GTX. Ma dove sta scritto? Ma sopratutto: perchè? Siete delusi perchè non ha senso cambiarsi la scheda video top che avevate preso mesi fa(o un anno fa)?

Oggi è il 24 Giugno. Un anno fa in questo giorno ho montato la mia 6800GT. Sono orgoglioso di averla presa e di avere il NV40 e non la sua evoluzione.
Non ho la minima fretta di mandarla in pensione, perchè si tratta di un chip video che un anno dopo è ancora "troppo potente". ;)
Al giorno d'oggi si gioca bene ancora con le varie 9800 e 6600gt, figuriamoci se bisogna mettere in discussione una 6800.
Se ogni tanto c'è una fase di "stallo" non fa male a nessuno....o forse solo a chi ha fretta di spendere altri soldi.

fek
24-06-2005, 15:48
Su una cosa però credo che non ci siano dubbi, R520 avrà più differenze con R420 che G70 con NV40.


Direi che questa e' un'ovvieta' per il fatto che ATI con R520 ha da recuperare, dal punto di vista tecnologico e non prestazionale, quasi un anno di ritardo rispetto all'NV40.

LCol84
24-06-2005, 15:52
IMHO con R520 Ati ha abbandonato l'FP24, per avere un approccio simile a nVidia: FP16-FP32. Ovviamente son soltanto mie supposizioni. :) IMHO un FP24-FP32 è un po' una cosa inutile.


Riguardo il G70: in effetti ragà non dovete mica gridare allo scandalo. Per anni abbiamo "subito" chip video evolutivi con frequenza maggiorata e nulla più.
Almeno questa volta son aumentate le pipeline, vertex unit e qlc miglioria qua e là.

Mi sa che vi siete abituati un po' male: non potete pretendere il raddoppio di prestazioni ogni anno.

Personalmente non trovo G70 un chip video particolarmente interessante. Ma perchè io posseggo NV40. G70 è un buon potenziamento di quest'ultimo. Ma chi deve comprarsi una top attuale non penso che debba considerarsi "deluso".

Che poi non capisco alcuni possessori di GeForce 6800GT o Ultra. Sembra quasi come se nVidia doveva immettere un chip video doppiamente più potente per dare un "senso" al passaggio da 6800GT/Ultra a 7800GTX. Ma dove sta scritto? Ma sopratutto: perchè? Siete delusi perchè non ha senso cambiarsi la scheda video top che avevate preso mesi fa(o un anno fa)?

Oggi è il 24 Giugno. Un anno fa in questo giorno ho montato la mia 6800GT. Sono orgoglioso di averla presa e di avere il NV40 e non la sua evoluzione.
Non ho la minima fretta di mandarla in pensione, perchè si tratta di un chip video che un anno dopo è ancora "troppo potente". ;)
Al giorno d'oggi si gioca bene ancora con le varie 9800 e 6600gt, figuriamoci se bisogna mettere in discussione una 6800.
Se ogni tanto c'è una fase di "stallo" non fa male a nessuno....o forse solo a chi ha fretta di spendere altri soldi.

Parole sante...vendi a me la tua 6800gt?
:asd:

Dovunque leggo tuoi interventi sembra che tu sia innamorato della tua 6800gt...heheh
io pensavo di prendermene una ma non ho ancora voglia di spendere una capitale, soprattutto considerando che tra 1 anno c'è la vera rivoluzione...

xpiuma
24-06-2005, 15:58
Una considerazione:

Quando escono schede molto potenti ogni poco gli utenti si lamentano perchè chi ha acquistato la top di gamma nei mesi precedenti adesso si ritrova con una scheda già vecchia, dato che la nuova va il doppio.

Quando come in questo caso la 7800 va si più della 6800 ma non tantissimo, gli utenti si lamentano perchè si aspettavano di più.

Azz, povere ATI e nVidia, che rompi di clienti che hanno. :D

Dark Schneider
24-06-2005, 16:05
Parole sante...vendi a me la tua 6800gt?
:asd:


:tie: :ciapet:

scherzo..:D


Dovunque leggo tuoi interventi sembra che tu sia innamorato della tua 6800gt...heheh



Naturalmente. :flower:


io pensavo di prendermene una ma non ho ancora voglia di spendere una capitale, soprattutto considerando che tra 1 anno c'è la vera rivoluzione...

beh magari aspetta più in qua..qlc ritocco di sicuro lo subirà.

halduemilauno
24-06-2005, 16:11
http://www.hwupgrade.it/news/skvideo/14875.html
"Alla stessa stregua, è ipotizzabile che NVIDIA possa presentare una versione "Ultra" di scheda GeForce 7800, soprattutto nel momento in cui la concorrente ATI avrà finalmente svelato le caratteristiche della propria soluzione nota con il nome in codice di R520.

Di questa fantomatica versione "Ultra" sono on line infinite indiscrezioni, la prima delle quali è che integrebbe ben 32 pipeline di rendering contro le 24 del modello GeForce 7800 GTX. Questa sembra un'ipotesi non concretamente realizzabile almeno con il processo produttivo a 0.11 micron attualmente utilizzato con le schede GeForce 7800 GTX. Inoltre, un aumento delle pipeline rispetto all'architettura attuale implicherebbe un profondo redisign del chip, cosa quantomeno strana considerando che G70 è appena stato presentato.

E' pertanto più logico attendersi il lancio di una versione Ultra che sia contraddistinta da frequenze di clock più elevate sia per chip che per memoria video."
;)

Paolo Corsini
24-06-2005, 16:22
http://www.hwupgrade.it/news/skvideo/14875.html
"Alla stessa stregua, è ipotizzabile che NVIDIA possa presentare una versione "Ultra" di scheda GeForce 7800, soprattutto nel momento in cui la concorrente ATI avrà finalmente svelato le caratteristiche della propria soluzione nota con il nome in codice di R520.

Di questa fantomatica versione "Ultra" sono on line infinite indiscrezioni, la prima delle quali è che integrebbe ben 32 pipeline di rendering contro le 24 del modello GeForce 7800 GTX. Questa sembra un'ipotesi non concretamente realizzabile almeno con il processo produttivo a 0.11 micron attualmente utilizzato con le schede GeForce 7800 GTX. Inoltre, un aumento delle pipeline rispetto all'architettura attuale implicherebbe un profondo redisign del chip, cosa quantomeno strana considerando che G70 è appena stato presentato.

E' pertanto più logico attendersi il lancio di una versione Ultra che sia contraddistinta da frequenze di clock più elevate sia per chip che per memoria video."
550/1400.
;)
Che lamma, lasciatelo dire. Faccio una news dove non riporto volutamente nessun dato, perché non esiste niente a parte quello che è frutto della fantasia, e tu non solo mi quoti, ma metti cifre che ti sei sognato.
Il buon senso no, eh?

halduemilauno
24-06-2005, 16:25
Che lamma, lasciatelo dire. Faccio una news dove non riporto volutamente nessun dato, perché non esiste niente a parte quello che è frutto della fantasia, e tu non solo mi quoti, ma metti cifre che ti sei sognato.
Il buon senso no, eh?

non mi sono sognato niente. il buon senso lo posseggo.
ok levale dal quote. farò lo stesso.

hackboyz
24-06-2005, 16:27
Hal sei fissato con questa Ultra a 550 mhz, manco avessi avuto una profezia da San Gennaro :asd:

LCol84
24-06-2005, 16:30
Hal sei fissato con questa Ultra a 550 mhz, manco avessi avuto una profezia da San Gennaro :asd:

Si beh anche io sogno una 9900 ultra extreme platinum edition crossfire SLI con 128 pipeline e 1 ghz di core ecc ecc
Per ora accontentiamoci di quello che c'è che mi sembra pure troppo.
Io infatti sono curioso di una versione 7800 liscia piu ridimensionata della 7800gtx che è troppo potente :asd:

mantes
24-06-2005, 16:41
Hal sei fissato con questa Ultra a 550 mhz, manco avessi avuto una profezia da San Gennaro :asd:
A me quelle cifre non sembrano così irrealistiche comuque,visto che in oc stock cooling hanno portato la gtx a 525/1380.
Con un dissi più efficente,magari a doppio slot,e una modifica al voltaggio della gpu,ci si potrebbe arrivare.

hackboyz
24-06-2005, 16:51
A me quelle cifre non sembrano così irrealistiche comuque,visto che in oc stock cooling hanno portato la gtx a 525/1380.
Con un dissi più efficente,magari a doppio slot,e una modifica al voltaggio della gpu,ci si potrebbe arrivare.
Forse sono stato frainteso.

Non dico che quelle cifre sono irrealistiche. Tutt'altro. Anzi, se andiamo a vedere 550 mhz per il core potrebbe essere "poco" per una scheda che dovrebbe "giocarsela" con un R520 da - presumibilmente - 32 pipelines. OPP ci ha fatto vedere che ad aria già col 7800GTX ci si riesce ad avvicinare a quella frequenza (facendo, se non erro 9k al 3d mark 05).

Dico solo, visto che si trattano di rumors spacciamoli come tali o teniamoceli per noi. ;)

Oggi su un forum ho letto che l'X900XT avrà 32 pipeline, 500 mhz di core e 1400 mhz per le memorie, ma senza un benchè minimo riscontro ufficiale o senza una fonte autorevole per me restano semplicemente fantasie.

xpiuma
24-06-2005, 16:53
Raffaele, permetti un'altra domanda?

In molte recensioni estere ho notato uno stranisimo comportamento della 7800; per esempio (su tutti) xbitlabs ha pubblicato questo:

http://www.xbitlabs.com/images/video/g70-architecture/research_candy.gif

FarCry, AA4X e AF16X.
La 7800 risulta più lenta anche della 6800, sia in singola scheda che in SLI.
Questo in entrambe i test effettuati da loro.

Voi nei vostri test avete usato altre due mappe, Training e Volcano, che di solito uso anch'io.

Cosa pensi di ciò? Driver acerbi?

(Se hai ancora la scheda, sta cosa ti risulta?)

zerothehero
24-06-2005, 16:54
sbaglio o qualcuno è un pò acidino? :confused:
hal non ha detto nulla di così trascendentale..ha detto che all'uscita dell'r520 probabilmente uscirà una versione con frequenze maggiorate..tutto qua.
La cosa è logica, perchè se ati dovesse uscire con una 32 pipe, probabilmente apparirà una 7800ultra con frequenze maggiorate, in grado di limitare i "danni".

xpiuma
24-06-2005, 16:57
Ho fatto questa domanda a NVIDIA un paio di settimane fa e la risposta e' stata divertente: "Volevamo confondere le acque, e ci siamo riusciti" :)

I nomi dati ai chip di qualunque genere sono solo una questione di marketing, gli danno il nome che nella loro ottica vende meglio il prodotto, non che lo descrive dal punto di vista architetturale.

Almeno a te hanno risposto...
Con me erano stati decisamente più vaghi. ;)

zerothehero
24-06-2005, 16:59
Forse sono stato frainteso.



Oggi su un forum ho letto che l'X900XT avrà 32 pipeline, 500 mhz di core e 1400 mhz per le memorie, ma senza un benchè minimo riscontro ufficiale o senza una fonte autorevole per me restano semplicemente fantasie.

Certo, hack...sono rumor e quindi vanno presi con il beneficio dell'inventario..ma altrimenti di che si parla? l'hanno scorso si è discusso 2mesi prima dell'NV40 basandosi solo su rumor e fonti non ben specificate e poi ci hanno azzecato..IMHO il lettore può dire quello che vuole specificando che sono sempre rumor, tocca al giornalista verificare le fonti...non è un mio lavoro..

mantes
24-06-2005, 17:01
Forse sono stato frainteso.

Non dico che quelle cifre sono irrealistiche. Tutt'altro. Anzi, se andiamo a vedere 550 mhz per il core potrebbe essere "poco" per una scheda che dovrebbe "giocarsela" con un R520 da - presumibilmente - 32 pipelines. OPP ci ha fatto vedere che ad aria già col 7800GTX ci si riesce ad avvicinare a quella frequenza (facendo, se non erro 9k al 3d mark 05).

Dico solo, visto che si trattano di rumors spacciamoli come tali o teniamoceli per noi. ;)

Oggi su un forum ho letto che l'X900XT avrà 32 pipeline, 500 mhz di core e 1400 mhz per le memorie, ma senza un benchè minimo riscontro ufficiale o senza una fonte autorevole per me restano semplicemente fantasie.
Si ho capito quello che intendi dire.
Ma alla fine bisogna riportare anche i rumors e sta a chi legge avere un minimo di buon senso per non prendere come oro colato tutto quello che gli dicono.
Questo per dire che Hal ha messo quelle frequenze per esprimere una sua idea o supposizione,ed era ovvio che non avesse in mano dati certi,che si trattasse di romors
Se no si dovrebbe scrivere prima dell'eventuale notizia un bel Romors sopra e magari camuffarla con testo bianco come si fa con gli spoiler :D

Certo, hack...sono rumor e quindi vanno presi con il beneficio dell'inventario..ma altrimenti di che si parla? l'hanno scorso si è discusso 2mesi prima dell'NV40 basandosi solo su rumor e fonti non ben specificate e poi ci hanno azzecato..IMHO il lettore può dire quello che vuole specificando che sono sempre rumor, tocca al giornalista verificare le fonti...non è un mio lavoro..
Mi hai anticipato,sono perfettamente d'accordo ;)

hackboyz
24-06-2005, 17:07
Sono d'accordissimo con voi, siamo in un forum parliamone... anche dei rumors, ma specificando che sono rumors ;)

Il mio ragionamento ovviamente si riferiva al post di hal che è poi stato editato e alla reazione di Corsini. Io non avevo letto la news "originale" e leggendo il post di hal con sotto un secco 550/1400 pensavo fosse stato confermato ... poi ovviamente ho letto la news originale e il post di corsini e ho capito ... tutto qui :)

Athlon 64 3000+
24-06-2005, 17:07
Lo dico e lo ripeto.
Di versioni di G70 a 32 pipeline non se ne vedranno perchè ci sarebbe un'altro aumento di 80-90 milioni di transistor e a 0,11 micron non sarà possibile farlo e magari bisognerebbe costruirlo a 0,09 micron e si potrebbe incappare in grossi problemi di modelli funzionanti a 32 PP.
La Ultra per me sarà sicuramente una versione a frequenza di core/mem maggiorate e basta e verrà a costa sui 600-650 euro.
Da quello che so la 6800Ultra uscirà dal mercato ma rimmarrà la 6800GT.
Poi su R520 per il momento non si sà niente e io di aria fritta non so cosa farci.

halduemilauno
24-06-2005, 17:21
Sono d'accordissimo con voi, siamo in un forum parliamone... anche dei rumors, ma specificando che sono rumors ;)

Il mio ragionamento ovviamente si riferiva al post di hal che è poi stato editato e alla reazione di Corsini. Io non avevo letto la news "originale" e leggendo il post di hal con sotto un secco 550/1400 pensavo fosse stato confermato ... poi ovviamente ho letto la news originale e il post di corsini e ho capito ... tutto qui :)

il mio era stato posto fuori dal virgolettato. equivoci non ce ne potevano essere quindi quanto detto da me era ovviamente tutta farina del mio sacco.
contavo solo di dare il mio contributo esprimendo solo la mia opinione. nessun sogno solo il mio parere come tante altre volte ho fatto.
tutto qui.

Vifani
24-06-2005, 17:37
Raffaele, permetti un'altra domanda?

In molte recensioni estere ho notato uno stranisimo comportamento della 7800; per esempio (su tutti) xbitlabs ha pubblicato questo:

http://www.xbitlabs.com/images/video/g70-architecture/research_candy.gif

FarCry, AA4X e AF16X.
La 7800 risulta più lenta anche della 6800, sia in singola scheda che in SLI.
Questo in entrambe i test effettuati da loro.

Voi nei vostri test avete usato altre due mappe, Training e Volcano, che di solito uso anch'io.

Cosa pensi di ciò? Driver acerbi?

(Se hai ancora la scheda, sta cosa ti risulta?)

Guarda, per poter eseguire quei test avrei bisogno della timedemo usata da Xbitlabs in quella mappa, non mi basta conoscere la mappa. Detto fra noi, mi sembrano molto strani quei risultati.

xpiuma
24-06-2005, 17:40
Guarda, per poter eseguire quei test avrei bisogno della timedemo usata da Xbitlabs in quella mappa, non mi basta conoscere la mappa. Detto fra noi, mi sembrano molto strani quei risultati.

Anche a me sembrano molto strani, ma conta che quell'effetto la loro 7800 ce l'ha in entrambe i test di FarCry che hanno fatto.

Se vuoi le mappe te le dò. ;)

hackboyz
24-06-2005, 17:53
il mio era stato posto fuori dal virgolettato. equivoci non ce ne potevano essere quindi quanto detto da me era ovviamente tutta farina del mio sacco.
contavo solo di dare il mio contributo esprimendo solo la mia opinione. nessun sogno solo il mio parere come tante altre volte ho fatto.
tutto qui.
Ok. ;)

Comunque mi era sfuggito il test di OPP ad acqua con una singola 7800GTX che hai linkato. 550 / 1450. Sfiorati i 10k al 3D Mark 05. Considerando che usa un FX-55 a 3,6 ghz si può pensare a circa 9500 punti forse meno. Prendendo per buone le supposizioni di hal ( :D ) saremmo molto vicini a quei 10k che circolavano un po' di tempo fa (non so se confermati) di R520 o sbaglio?

PS: anche a me quei test di xbitlabs sembrano un po' strani ... a momenti la 7800 le prende dalla mia x800xl :asd:

Dark Schneider
24-06-2005, 18:07
Ho visto il video della techdemo Luna. Bella. Rispetto alle foto risulta essere molto più carina.

Però Nalu è meglio. :) Almeno Nalu balla anche ed è tecnicamente migliore IMHO. Quando Nalu muove i capelli è impressionante. :)

lowenz
24-06-2005, 18:14
Ho visto il video della techdemo Luna. Bella. Rispetto alle foto risulta essere molto più carina.

Però Nalu è meglio. :) Almeno Nalu balla anche ed è tecnicamente migliore IMHO. Quando Nalu muove i capelli è impressionante. :)
Eh, ma il vero tamarro è Mad Mod Mike :D

http://www.nzone.com/docs/IO/23049/screenshot1.jpg

Nvidia ha puntato sulla simpatia (guardatevi il video, è troppo divertente) :)

zerothehero
24-06-2005, 18:21
Ho visto il video della techdemo Luna. Bella. Rispetto alle foto risulta essere molto più carina.

Però Nalu è meglio. :) Almeno Nalu balla anche ed è tecnicamente migliore IMHO. Quando Nalu muove i capelli è impressionante. :)


NALU è la migliore (dopo dawn).. :) carino anche mad..luna è freddina.

zerothehero
24-06-2005, 18:24
Ok. ;)
FX-55 a 3,6 ghz si può pensare a circa 9500 punti forse meno. Prendendo per buone le supposizioni di hal ( :D ) saremmo molto vicini a quei 10k che circolavano un po' di tempo fa (non so se confermati) di R520 o sbaglio?

:asd:

Non solo solo sue supposizioni ma è "roba" assolutamente non confermata che gira sulla rete..e a mio parere hal fa benissimo a postarla (è cmq sempre abb. informato)..:)
certo va specificato che è "rumor"..ma hal è un "appassionato" non un giornalista e quindi non è tenuto a una rigorosa disamina delle fonti...chi poi non vuole leggerle non le legga e aspetti la presentazione ufficiale..io sono curioso e seguo. :fagiano:

Vifani
24-06-2005, 18:36
Anche a me sembrano molto strani, ma conta che quell'effetto la loro 7800 ce l'ha in entrambe i test di FarCry che hanno fatto.

Se vuoi le mappe te le dò. ;)

Mi serve il timedemo, non la mappa.

xpiuma
24-06-2005, 18:50
Mi serve il timedemo, non la mappa.

Si, bè... Era sottinteso. :)

Apple80
24-06-2005, 19:11
Ragazzi ho qui fra le mani una XFX 7800 GTX.

Purtroppo non posso montarla visto ke ho la dfi 754 AGP.

MA domani mattina vado a prendere la DFI NF4 ultra-D con A64 3000+ venice


ora mi faccio i benchmark con i componenti ke ho ora. poi domani faro' i benchamr col nuovo sistema e vedro' i confronti

Vifani
24-06-2005, 19:19
Si, bè... Era sottinteso. :)

Manda tutto a raffaele.fanizzi@hwupgrade.it e vedo cosa posso fare :)

Dark Schneider
24-06-2005, 19:23
Eh, ma il vero tamarro è Mad Mod Mike :D

http://www.nzone.com/docs/IO/23049/screenshot1.jpg

Nvidia ha puntato sulla simpatia (guardatevi il video, è troppo divertente) :)


Ti dirò...secondo me assomiglia un po' a Gabe Newell...solo che ha il casco. :asd:

Apple80
24-06-2005, 19:23
ma la 7800 GTX fà anke da acquisizione video?
no x' ho trovato dentro anke dei connettori di uscita ed entrata S_vhs e composito.

andreamarra
24-06-2005, 19:30
Ragazzi ho qui fra le mani una XFX 7800 GTX.

Purtroppo non posso montarla visto ke ho la dfi 754 AGP.

MA domani mattina vado a prendere la DFI NF4 ultra-D con A64 3000+ venice


ora mi faccio i benchmark con i componenti ke ho ora. poi domani faro' i benchamr col nuovo sistema e vedro' i confronti

cambiando scheda madre saranno ovviamente alterati i valori...

cmq divertiti e posta alcuni bench, magari del demo di FEAR se ce l'hai :)

lantony
24-06-2005, 19:40
cambiando scheda madre saranno ovviamente alterati i valori...

cmq divertiti e posta alcuni bench, magari del demo di FEAR se ce l'hai :)

La demo di fear è a pagamento :(
Cmq è ottimizzata per le ultime schede ATI ;)

lowenz
24-06-2005, 20:29
Ti dirò...secondo me assomiglia un po' a Gabe Newell...solo che ha il casco. :asd:
:asd: :asd: :asd:

.....E manca la ciambella :D

Anthonello
25-06-2005, 10:45
dopo aver comprato 2 6800Gt e averne avuta solo 1 a stò giro aspetto un po'
per comprarla...Natale probabilmente

zerothehero
25-06-2005, 10:47
La demo di fear è a pagamento :(
Cmq è ottimizzata per le ultime schede ATI ;)

ma se l'ho scaricata gratis una settimana fa dal gamespy..
provalo è pesantissimo...ci devo giocare a 640*480.. :O

Athlon 64 3000+
25-06-2005, 11:50
ma la 7800 GTX fà anke da acquisizione video?
no x' ho trovato dentro anke dei connettori di uscita ed entrata S_vhs e composito.

facci sapere.
Il 3000+ venice per i test lo overclokkerai oppure no.
Mi faresti un'enorme piacere se facessi i test con con il processore anche a frequenze di default perchè mi daresti un'idea sulle prestazioni della 7800GTX con processori di fascia medio-bassa.

LCol84
25-06-2005, 11:52
facci sapere.
Il 3000+ venice per i test lo overclokkerai oppure no.
Mi faresti un'enorme piacere se facessi i test con con il processore anche a frequenze di default perchè mi daresti un'idea sulle prestazioni della 7800GTX con processori di fascia medio-bassa.

azz, un 3000+ medio bassa.... :asd:

lantony
25-06-2005, 11:52
ma se l'ho scaricata gratis una settimana fa dal gamespy..
provalo è pesantissimo...ci devo giocare a 640*480.. :O

Ora la beta è chiusa purtroppo :(
Cmq ti scatta per la scheda video, almeno da una 9800 in su dovrebbe essere giocabile.

Athlon 64 3000+
25-06-2005, 11:55
azz, un 3000+ medio bassa.... :asd:

è il processore socket 939 più piccolo e sotto di lui ci sono i sempron che sono di fascia bassa.

Dark Schneider
25-06-2005, 13:31
è il processore socket 939 più piccolo e sotto di lui ci sono i sempron che sono di fascia bassa.


Si ma un Athlon 64 non è un processore di fascia medio-bassa. Sennò chi ha un Athlon XP o anche un p4 chessò 1600-1800 Mhz che ha?

Io stesso non sento il bisogno di overcloccare il mio A64 2800+.

MaBru
25-06-2005, 14:06
Ti dirò...secondo me assomiglia un po' a Gabe Newell...solo che ha il casco. :asd:
E non sta mangiando una ciambella. :asd::D

Athlon 64 3000+
25-06-2005, 14:23
Si ma un Athlon 64 non è un processore di fascia medio-bassa. Sennò chi ha un Athlon XP o anche un p4 chessò 1600-1800 Mhz che ha?

Io stesso non sento il bisogno di overcloccare il mio A64 2800+.

Io mi riferivo alla sua attuale collocazione sul mercato del nuovo.
Non di certo riguardo al reparto processori che ci sono in totale.
Infatti dalle mie parti solo in 2 hanno delle cpu superiori alle mie e molti dei miei amici hanno dei Duron o al Massimo Athlon XP.

Vifani
25-06-2005, 15:15
Raffaele, permetti un'altra domanda?

In molte recensioni estere ho notato uno stranisimo comportamento della 7800; per esempio (su tutti) xbitlabs ha pubblicato questo:

http://www.xbitlabs.com/images/video/g70-architecture/research_candy.gif

FarCry, AA4X e AF16X.
La 7800 risulta più lenta anche della 6800, sia in singola scheda che in SLI.
Questo in entrambe i test effettuati da loro.

Voi nei vostri test avete usato altre due mappe, Training e Volcano, che di solito uso anch'io.

Cosa pensi di ciò? Driver acerbi?

(Se hai ancora la scheda, sta cosa ti risulta?)

I risultati ottenuti da me con la stessa demo solo alquanto differenti. Da considerare però che noi abbiamo un Athlon FX55 con memorie DDR Corsair con timing 2-2-2-5.

AA 4x - Anisotropico 16x
1024 - 142
1280 - 98,2
1600 - 73,1

xpiuma
25-06-2005, 15:20
Bè, loro con un 4000+ e le ram con timings alti non dovrebbero perdere così tanto.

Quindi hanno avuto un problema loro nel fare il test, escludiamo quindi un problema ai driver con quella mappa.


Grazie Mille Raffaele per la disponibilità. ;)

Arruffato
25-06-2005, 15:26
I risultati ottenuti da me con la stessa demo solo alquanto differenti. Da considerare però che noi abbiamo un Athlon FX55 con memorie DDR Corsair con timing 2-2-2-5.

AA 4x - Anisotropico 16x
1024 - 142
1280 - 98,2
1600 - 73,1
Alla faccia della differenza, sono risultati totalmente differenti.

Marck
25-06-2005, 16:28
Dal test di Raffaele la 7800gtx a 1024X768 le dà a due 6800ultra in sli e anche a due 7800gtx in sli :sofico:
Alla faccia del cup limited :D
ma loro che versione dei drivers hanno usato???

Vifani
25-06-2005, 17:32
Dal test di Raffaele la 7800gtx a 1024X768 le dà a due 6800ultra in sli e anche a due 7800gtx in sli :sofico:
Alla faccia del cup limited :D
ma loro che versione dei drivers hanno usato???

Gli stessi miei.

ATi7500
25-06-2005, 17:56
non è che loro hanno fatto i test con AA Gamma corrected? (che sembra faccia perdere un bel pò in prestazioni)

bYeZ!

massimomarc
25-06-2005, 18:36
non si riesce a capire ancora quanto è effettivamente potente sta scheda....

Vifani
25-06-2005, 18:39
non è che loro hanno fatto i test con AA Gamma corrected? (che sembra faccia perdere un bel pò in prestazioni)

bYeZ!

Non penso anche perché significherebbe testare NV40 e G70 in condizioni differenti e non è da Xbitlabs.

Daytona
25-06-2005, 18:46
ma se l'ho scaricata gratis una settimana fa dal gamespy..
provalo è pesantissimo...ci devo giocare a 640*480.. :O
Spero propio che la pesantezza sia dovuta al fatto che è una versione beta.... :sperem:

1100000110100000
:)

Marck
25-06-2005, 22:24
Non penso anche perché significherebbe testare NV40 e G70 in condizioni differenti e non è da Xbitlabs.
Allora sembra che la differenza sia dovuta alla cpu..possibile che un 4000+ freni così tanto la 7800gtx?? se così fosse la 7800gtx ha ancora tanto potenziale da mostrare..

OvErClOck82
25-06-2005, 22:31
Allora sembra che la differenza sia dovuta alla cpu..possibile che un 4000+ freni così tanto la 7800gtx?? se così fosse la 7800gtx ha ancora tanto potenziale da mostrare..
ma certo che ne ha, e mi preoccuperei del contrario. :D

Vifani
26-06-2005, 02:42
Allora sembra che la differenza sia dovuta alla cpu..possibile che un 4000+ freni così tanto la 7800gtx?? se così fosse la 7800gtx ha ancora tanto potenziale da mostrare..

Probabile, ma io preferisco pensare che debbano uscire ancora applicazioni in grado di sfruttare la potenza di G70 e non le CPU in grado di sfruttarlo.

mantes
26-06-2005, 07:36
Io propendo più per la seconda ipotesi.
Infatti è nei bench fatti coi giochi più recenti,come Splinter cell:chaos theory,o la demo di F.e.a.r. che la 7800gtx ha dato il meglio di se rispetto alla 6800ultra.
E d'altra parte mi rifiuto di pensare che sia cpu limited con un 4000+ anche a 1600x1200 aa 4x e af 16x :muro:

Athlon 64 3000+
26-06-2005, 10:24
Probabile, ma io preferisco pensare che debbano uscire ancora applicazioni in grado di sfruttare la potenza di G70 e non le CPU in grado di sfruttarlo.

Mi fa piacere che rispetto al resto del Forum andiamo controccorrente.
:D

A parte gli scherzi per vedere la vera potenza di questa scheda ci vorranno dei giochi pen più pesanti di quelli che ci sono attualmente e questi usciranno sicuramente nel 2006.

bartolino3200
26-06-2005, 16:11
Probabile, ma io preferisco pensare che debbano uscire ancora applicazioni in grado di sfruttare la potenza di G70 e non le CPU in grado di sfruttarlo.
O magari un mix delle due cose tanto per chiudere in bellezza.

andreamarra
26-06-2005, 16:15
A parte gli scherzi per vedere la vera potenza di questa scheda ci vorranno dei giochi pen più pesanti di quelli che ci sono attualmente e questi usciranno sicuramente nel 2006.


e si, basta vedere alcuni bench fatti su altri forum su demo di FEAR.

La differenza prestazionale tra una 6800GT/Ultra e una GTX in questo gioco è davvero impressionante, ovviamente a netto favore dell'ultima nata in casa nvidia.

bartolino3200
26-06-2005, 16:37
e si, basta vedere alcuni bench fatti su altri forum su demo di FEAR.

La differenza prestazionale tra una 6800GT/Ultra e una GTX in questo gioco è davvero impressionante, ovviamente a netto favore dell'ultima nata in casa nvidia.

Andrea urge un link bello diretto!!! :-)

JoeLatino
27-06-2005, 08:39
che ne dite di una bella cpu dual core???? ;)
non vedo l'ora di averla.... a settembre/ottobre mi rifaccio il pc e credo proprio che prendero':
la mia configurazione sara'...:
amd 4400x2,1gb ram g.skill 4400le,geforce 7800 (forse anche ultra :sofico: )
chissa' forse cosi' non si avranno piu' limitazioni,no?

Paolo Corsini
27-06-2005, 08:50
che ne dite di una bella cpu dual core???? ;)
non vedo l'ora di averla.... a settembre/ottobre mi rifaccio il pc e credo proprio che prendero':
la mia configurazione sara'...:
amd 4400x2,1gb ram g.skill 4400le,geforce 7800 (forse anche ultra :sofico: )
chissa' forse cosi' non si avranno piu' limitazioni,no?
Processore Dual Core come alternativa al cpu limited? I giochi sono applicazioni single threaded, il secondo core non lo sfruttano assolutamente:

http://www.hwupgrade.it/articoli/cpu/1313/6.html

DjLode
27-06-2005, 08:57
La demo di fear è a pagamento :(
Cmq è ottimizzata per le ultime schede ATI ;)

Sei sicuro di quello che dici? Non sono molto informato ma da quanto so usa il motore di Doom3 e mi pare strano che siano arrivati addirittura ad ottimizzarlo per Ati.

JoeLatino
27-06-2005, 09:12
a parte il fatto che i prossimi drivers nvdia saranno ottimizzati per il dual core anche per i giochi,io lo prenderei soprattutto per programmi di grafica 3d,montaggio video ed effetti speciali!!!
Cq vedrai che prima o poi anchi i giochi saranno ottimizzati :)

bartolino3200
27-06-2005, 11:04
a parte il fatto che i prossimi drivers nvdia saranno ottimizzati per il dual core anche per i giochi,io lo prenderei soprattutto per programmi di grafica 3d,montaggio video ed effetti speciali!!!
Cq vedrai che prima o poi anchi i giochi saranno ottimizzati :)

Non so se bastino i driver ottimizzati per il dual core, ma credo debba essere ricompilata parte del gioco.
Sul fatto di essere la scelta giusta il dual core, non ci piove, il pc per me non è mai stato un giocattolo, al massimo ci gioco anche, poveri i miei occhi...

fek
27-06-2005, 11:16
Processore Dual Core come alternativa al cpu limited? I giochi sono applicazioni single threaded, il secondo core non lo sfruttano assolutamente:

http://www.hwupgrade.it/articoli/cpu/1313/6.html

E' prassi abbastanza diffusa gestire l'audio in un secondo thread, alcuni giochi caricano e processano le texture anche in un secondo thread, oppure gestiscono il sistema di animazioni in un thread separato.

In queste situazione un secondo core porterebbe un certo beneficio ma non sostanziale perche' la maggior parte del tempo CPU e' speso comunque in un singolo thread.

Progettare un motore 3d parallelo richiede un pesante cambiamento sia alla mentalita' sia al modo in cui si affronta il progetto.

mauriz83
27-06-2005, 15:03
ma secondo te ,fek,è possibile/abbastanza semplice fare giochi multithreaded o multicore compatibili(insomma dei giochi pensati per sfruttare i processori multicore)?
Cioè a parte il mondo dei pc che pian piano si sta avviando verso i dual core e chissà in futuro,io penso anche alle console nuove,sia xbox360 che ps3 avranno vari core nella cpu(la xbox se non sbaglio 3 core powerpc mentre la ps3 il cell con 7-8 core simmetrici :eek: )...in ogni caso un gioco per n-core si potrà sfruttare su un single core o si renderà obbligatorio il cambio di processore(parlo del pc)?

Semplice curiosità :)

Hal2001
27-06-2005, 15:07
...in ogni caso un gioco per n-core si potrà sfruttare su un single core o si renderà obbligatorio il cambio di processore(parlo del pc)?

Si che sarà sfruttabile.

fek
27-06-2005, 15:12
ma secondo te ,fek,è possibile/abbastanza semplice fare giochi multithreaded o multicore compatibili(insomma dei giochi pensati per sfruttare i processori multicore)?
Cioè a parte il mondo dei pc che pian piano si sta avviando verso i dual core e chissà in futuro,io penso anche alle console nuove,sia xbox360 che ps3 avranno vari core nella cpu(la xbox se non sbaglio 3 core powerpc mentre la ps3 il cell con 7-8 core simmetrici :eek: )...in ogni caso un gioco per n-core si potrà sfruttare su un single core o si renderà obbligatorio il cambio di processore(parlo del pc)?

Semplice curiosità :)

Non sara' semplice, richiede un profondo cambio di mentalita' ed algoritmi, ma non c'e' scelta, andra' fatto ed immagino ci vorra' qualche anno prima di vedere solo giochi pensati gia' in partenza per essere multithrad.

Un'applicazione multithread gira' perfettamente in un ambiente monoprocessore, a scapito di un certo decadimento di prestazioni dovuto al context switching e alla sincronizzazione fra i thread che in un'applicazione single thread sono ridotti al minimo se non inesistenti.

zerothehero
27-06-2005, 15:49
Ora la beta è chiusa purtroppo :(
Cmq ti scatta per la scheda video, almeno da una 9800 in su dovrebbe essere giocabile.


a 640*480 faccio 100fps... :D ..nel multiplayer purtroppo ci vuole grande stabilità di frame altrimenti non si riesce a giocare..nel single mi accontento di una media di 30-35fps...a breve dovrebbe ritornarmi la 6800gt :mc:

zerothehero
27-06-2005, 15:51
Mi fa piacere che rispetto al resto del Forum andiamo controccorrente.
:D

A parte gli scherzi per vedere la vera potenza di questa scheda ci vorranno dei giochi pen più pesanti di quelli che ci sono attualmente e questi usciranno sicuramente nel 2006.

FEAR esalta molto le differenze tra una nv40 e una gt 7800gtx..

mauriz83
27-06-2005, 15:53
Non sara' semplice, richiede un profondo cambio di mentalita' ed algoritmi, ma non c'e' scelta, andra' fatto ed immagino ci vorra' qualche anno prima di vedere solo giochi pensati gia' in partenza per essere multithrad.

Un'applicazione multithread gira' perfettamente in un ambiente monoprocessore, a scapito di un certo decadimento di prestazioni dovuto al context switching e alla sincronizzazione fra i thread che in un'applicazione single thread sono ridotti al minimo se non inesistenti.
Capisco,quindi per adesso,come sospettavo,non serve a niente prendere un processore come gli atlhlon 64 x2 o i nuovi dual core intel,quando arriveranno giochi pensati exclusivamente per multicore(che imho saranno più di due fra un paio di anni) allora il pc supererà di qualità le console nextgen,in quel caso i vetusti athlon fx57 monocore da 1000 euro saranno sufficienti solo per applicazioni da ufficio :eek: ,gli attuali dual core saranno deboli per sfruttare quei particolari tipi di giochi e soprattutto ci saranno schede video almeno 4 volte più potenti di quelle attuali.

Insomma in poche parole ce ne vuole un bel po per vedere qualcosa di veramente innovativo per pc,un paio d'anni hai detto,nel frattempo mi divertirò con una console nextgen :) .

Alberto Falchi
27-06-2005, 16:15
Non sara' semplice, richiede un profondo cambio di mentalita' ed algoritmi, ma non c'e' scelta, andra' fatto ed immagino ci vorra' qualche anno prima di vedere solo giochi pensati gia' in partenza per essere multithrad.



Però il fatto che Xbox 360 esca verso ottobre, e che probabilmente molti si appoggeranno a XNA per lo sviluppo, penso potrebbe accelerare lo switch alla programmazione multithread.

Pape

lantony
27-06-2005, 16:30
Sei sicuro di quello che dici? Non sono molto informato ma da quanto so usa il motore di Doom3 e mi pare strano che siano arrivati addirittura ad ottimizzarlo per Ati.

Sì sono sicuro. Sembrava strano anche a me ma ho letto da diverse parti che il gioco è ottimizzati per ATI infatti se vai sul sito ufficiale trovi la pubblicità ATI x800 e non nvidia ;) Certo può essere ottimizzato quanto vuoi per le ATI ma contro la potenza della G70 c'è poco da fare x ATI ;)

Dark Schneider
27-06-2005, 16:39
F.E.A.R cmq ha un motore suo, non quello di Doom 3. Sfrutta le DX9 tra l'altro.

In ogni caso proverò sta demo...vediamo comè. :)

gia78
27-06-2005, 17:00
Però il fatto che Xbox 360 esca verso ottobre, e che probabilmente molti si appoggeranno a XNA per lo sviluppo, penso potrebbe accelerare lo switch alla programmazione multithread.

Pape
Ho letto questo articolo (http://www.anandtech.com/video/showdoc.aspx?i=2453) su AnandTech ed in pratica c'è scritto che per i primi due anni i giochi xbox360 e ps3
saranno singol thread,rpoprio perchè tutti i giochi adesso sono programmati in questo modo.Il multiprocessore verrà utilizzato per altre cose,come nel caso di xbox360 per la codifica di filmati wmvhd,per il sonoro e per la decompressione dei dati visto il minor spazio del supporto scelto per xbox360.

Alberto Falchi
27-06-2005, 17:38
Ho letto questo articolo (http://www.anandtech.com/video/showdoc.aspx?i=2453) su AnandTech ed in pratica c'è scritto che per i primi due anni i giochi xbox360 e ps3
saranno singol thread,rpoprio perchè tutti i giochi adesso sono programmati in questo modo.Il multiprocessore verrà utilizzato per altre cose,come nel caso di xbox360 per la codifica di filmati wmvhd,per il sonoro e per la decompressione dei dati visto il minor spazio del supporto scelto per xbox360.


Dove scusa? Io leggo questo:

"The most important selling point of the Xbox 360's Xenon core is the fact that all three cores are identical, and they are all general purpose microprocessors. The developer does not have to worry about multi-threading beyond the point of getting their code to be thread safe; once it is multi-threaded, it can easily be run on any of the cores. The other important thing to keep in mind here is that porting between multi-core PC platforms and the Xbox 360 will be fairly trivial. Anywhere any inline assembly is used there will obviously have to be changes, but with relatively minor code changes and some time optimizing, code portability between the PC and the Xbox 360 shouldn't be very difficult at all. For what it is worth, porting game code between the PC and the Xbox 360 will be a lot like Mac developers porting code between Mac OS X for Intel platforms and PowerPC platforms: there's an architecture switch, but the programming model doesn't change much"

Probabilmente ti riferivi a questo passaggio

"The problem is that today, all games are single threaded, meaning that in the case of the Xbox 360, only one out of its three cores would be utilized when running present day game engines. "

Present day engines. Ergo, si applica ai porting dei giochi attuali, o ai giochi che verranno realizzati su engine attualmente esistenti. Unreal Engine 3, per esempio, è realizzato già pensando alle nextgen console.

Pape

DjLode
27-06-2005, 20:29
Sì sono sicuro. Sembrava strano anche a me ma ho letto da diverse parti che il gioco è ottimizzati per ATI infatti se vai sul sito ufficiale trovi la pubblicità ATI x800 e non nvidia ;) Certo può essere ottimizzato quanto vuoi per le ATI ma contro la potenza della G70 c'è poco da fare x ATI ;)

Mi sono confuso io, è Prey che usa il motore di Doom3, non F.E.A.R.
Chissà perchè ero convinto del contrario...

fek
27-06-2005, 21:33
The developer does not have to worry about multi-threading beyond the point of getting their code to be thread safe;

Hai detto niente... una passeggiata al parco :p

halduemilauno
28-06-2005, 09:03
http://www.vr-zone.com/?i=2380&s=1
11307.
;)

JoeLatino
28-06-2005, 09:14
La sapete l'ultima?
Anche se gia' si sospettava in giro qualcosa del genere,e' molto probabile,se non anche certo (fonte diretta straniera), che le schede 7800gtx hanno gia' 32 pipeline e non 24!!! :eek: in pratica Nvidia per il momento le ha disabilitate (come e' successo per le 6800le) e le attivera' in una versione ultra a settembre.
Chissa' se faranno una versione aggiornata di rivaturner per attivarle almeno in parte....Che ne dite? ;)

lantony
28-06-2005, 09:34
La sapete l'ultima?
Anche se gia' si sospettava in giro qualcosa del genere,e' molto probabile,se non anche certo (fonte diretta straniera), che le schede 7800gtx hanno gia' 32 pipeline e non 24!!! :eek: in pratica Nvidia per il momento le ha disabilitate (come e' successo per le 6800le) e le attivera' in una versione ultra a settembre.
Chissa' se faranno una versione aggiornata di rivaturner per attivarle almeno in parte....Che ne dite? ;)


Infatti a quanto pare queste 7800GTX non sono create per competere con l'ATI fudo, ciò sarà compito della versione ultra a 32pipe ;) (chissà quanto costerà) :asd: