View Full Version : Radeon X1900: disponibile in 3 versioni
Scusa per il quote... ma posto dalle news... :D (Se noti non quoto quasi mai nessuno)
L'NV47 mi pare di aver capito che è il nome originario del G70, chiamato così perchè le innovazioni giustificano il "salto" generazionale (e forse anche perchè se ATI fa il salto, lo deve fare anche NVidia! ;) ). Quindi assodato che NV41 (o 42, mi confondo sempre! ;) ) è una "rivisitazione" dell'NV40 e che G70 (alias NV47) NON lo è (ma è una evoluzione), io IPOTIZZAVO, che G71 fosse una rivisitazione al pari dell'NV41. Poi anche io spero che ci sia per esempio HDR+AA e più pipeline (ma mi accontento anche solo di 24 ROPs e 24 Pipelie eh... ;) ), solo che così poco tempo... non credo sia possibile e con le DX10 alle porte, non ci sprecherei molto R&D su un nuovo progetto DX9... A meno che non sia un progetto già pronto, che NVIDIA ha tenuto in caldo, aspettoando ATI...
No il G70 si chiama NV47. :) Il secondo nome e' solo frutto di decisioni commerciali.
questa e' la mia VGA
"$ffffffffff NVIDIA specific display adapter information
$ffffffffff ---------------------------------------------------
$0100000000 Graphics core : NV47 revision A1 (24x1,8vp)
$0100000001 Hardwired ID : 0090 (ROM strapped to 0091)
$0100000002 Memory bus : 256-bit
$0100000003 Memory type : DDR3 (RAM configuration 07)
$0100000004 Memory amount : 262144KB
$0100000100 Core domain 0 : 275.400MHz
$0100000101 Core domain 1 : 275.400MHz
$0100000102 Core domain 2 : 275.400MHz
$0100000006 Memory clock : 299.250MHz (598.500MHz effective)
$0100000007 Reference clock : 27.000MHz"
Dunque e' un NV47. :)
Ovviamente suquesto PC c'e' una 7800GTX.
diabolik1981
28-12-2005, 18:51
Ne abbiamo gia' discusso.
Allora non calcoliamo piu' nessuna News senza fonti "dichiarate". Praticamente il 90% delle News!!
infatti spesso mi chiedo perchè si chiamino news... sarebbe meglio inserirle in una sezione Rumors.
infatti spesso mi chiedo perchè si chiamino news... sarebbe meglio inserirle in una sezione Rumors.
Concordo, sarebbe corretto. :)
A volerne di giochi, ma pure di questo ne abbiamo palrato e non e' il thread adatto. :)
Comunque la densita' di pixel in un 21" a 1600 non e' maggiore della densita' di pixel in un 17" a 1280. Ovviamente lo schermo e' piu' grande, dunque piu' immersiva l'esperienza, (anche piu' dispersiva). Comunque una 7800 va meglio di una X850XT con i filtri attivi (4AA/8Ani-4AA/16Ani) ed hai avuto un mare di vantaggi prestazionali, molti piu' di quanti non tu ne abbia avuti con l'ultimo cambio che hai fatto.
Non e' vero...e' inutile ti ostini a mandare avanti una crociata con chi ha provato sul campo questa cosa.
Con la X850XT giocavo 1600*1200 senza filtri e avevo un frame rate sui 90/100 ..con i filtri scendeva a 40/40 a CS:S e quindi non li usavo.
Con la GTX arrivavo a 120 senza filtri,ma con i filtri era UGUALE ..in media 45/50 e scusami se poi penso di essere preso per il culo per aver speso 480 euro per una scheda che a quelle risoluzioni mi aspettavo andasse di piu'.
Che senso avrebbe altrimenti?
Per vedere millemila fps al posto di 100 se non posso usare i filtri?
Non e' vero...e' inutile ti ostini a mandare avanti una crociata con chi ha provato sul campo questa cosa.
Con la X850XT giocavo 1600*1200 senza filtri e avevo un frame rate sui 90/100 ..con i filtri scendeva a 40/40 a CS:S e quindi non li usavo.
Con la GTX arrivavo a 120 senza filtri,ma con i filtri era UGUALE ..in media 45/50 e scusami se poi penso di essere preso per il culo per aver speso 480 euro per una scheda che a quelle risoluzioni mi aspettavo andasse di piu'.
Che senso avrebbe altrimenti?
Per vedere millemila fps al posto di 100 se non posso usare i filtri?
Mi fai vedere i benchmark ai quali ti riferisci??
Foglia Morta
28-12-2005, 21:55
Mi fai vedere i benchmark ai quali ti riferisci??
l' ha sperimentato sul suo pc da quel che ho capito
Mi fai vedere i benchmark ai quali ti riferisci??
:muro: apri la consolle di CS:S e digiti net_graph 3 e vedi gli FPS.... :rolleyes:
I bench come il 3dmarck e soci li lascio a chi vuol fare i record...a me interessano principalmente i giochi.
:muro: apri la consolle di CS:S e digiti net_graph 3 e vedi gli FPS.... :rolleyes:
I bench come il 3dmarck e soci li lascio a chi vuol fare i record...a me interessano principalmente i giochi.
Questo
http://www.xbitlabs.com/articles/video/display/cs-source_10.html
e' il primo bench che mi sia capitato per le mani con Conter Strike Source (intendi questo immagino).
E' un po' vecchiotto e non c'e' la GTX, ma basta la 6800U per battere a filtri attivi anche la XT PE a volte. La XT non PE, sta sopra alla ULTRA solo a 1600 con filtri attivi e non sempre e quando ci sta ci sta di poco.
Dunque la tua 7800GTX funzionava male o non era installata bene. :)
Questo
http://www.xbitlabs.com/articles/video/display/cs-source_10.html
e' il primo bench che mi sia capitato per le mani con Conter Strike Source (intendi questo immagino).
E' un po' vecchiotto e non c'e' la GTX, ma basta la 6800U per battere a filtri attivi anche la XT PE a volte. La XT non PE, sta sopra alla ULTRA solo a 1600 con filtri attivi e non sempre e quando ci sta ci sta di poco.
Dunque la tua 7800GTX funzionava male o non era installata bene. :)
AHHAHAHHAHAH....maaaadddddddaaaaaaiiiiiiiiiiii....cioe'...mi vuoi far credere che quelli sono veri??????????
Allora e' inutile continuare dai...
Quando avevo la 9700 pro ed e' uscito HL2 ho deciso di aggiornare la VGA...
Ho preso sempre dal mio amico grossista una 6800 Ultra.
A livello visivo di FPS alla mano non cambiava un gran che...delusione.
Cambiata la VGA in meno di 4 giorni con una X850XT PE....tutto bene,poi ho cambaito monitor e da li ho preso la GTX e la storia si e' ripetuta.
Quei bench fanno abbastanza ridere.
Magari da un occhiata a questo e rifatti gli occhi:
http://www.hwupgrade.it/articoli/skvideo/1200/7.html
Buona notte va.. :rolleyes:
kintaro oe
29-12-2005, 00:49
occhio fikkuz che il link che hai riportato riguarda half life, mentre quello che ha riportato madrat e' quello menzionato da te qualche post prima, counterstrike source.
ciao!
AHHAHAHHAHAH....maaaadddddddaaaaaaiiiiiiiiiiii....cioe'...mi vuoi far credere che quelli sono veri??????????
Allora e' inutile continuare dai...
Quando avevo la 9700 pro ed e' uscito HL2 ho deciso di aggiornare la VGA...
Ho preso sempre dal mio amico grossista una 6800 Ultra.
A livello visivo di FPS alla mano non cambiava un gran che...delusione.
Cambiata la VGA in meno di 4 giorni con una X850XT PE....tutto bene,poi ho cambaito monitor e da li ho preso la GTX e la storia si e' ripetuta.
Quei bench fanno abbastanza ridere.
Magari da un occhiata a questo e rifatti gli occhi:
http://www.hwupgrade.it/articoli/skvideo/1200/7.html
Buona notte va.. :rolleyes:
Temo ti sia sbagliato, mi hai dato un link di HL2, non di CS:S, per quanto sia lo stesso engine, sono due giochi differentni.
Comunque non hai esattamente dato il tuo massimo vendendo una ATI e comprando un'nVidia per giocare solo ad un gioco con l'engine di HL2.
Comunque vediamo un po'..
http://www.hwupgrade.it/articoli/skvideo/1387/9.html
Qui (tanto per citare chi ritieni attendibile) vedi che anche se le differenze ci sono, non sono cosi' assurde come dici tu, nemmeno attivando il pesantissimo 8XS con la GTX256 si riesce a scendere sotto i 56fps a 1600 ed i 77fps a 1280. Mi chiedo tu come facessi a viaggiare a frame rate cosi' indecenti (se fosse dipeso dalla CPU, il limite sarebbe stato ovviamente presente con qualunque VGA di questo pianeta).
Qui invece
http://www.anandtech.com/video/showdoc.aspx?i=2278&p=10
vediamo un confronto percentuale tra X800XT e 6800U, ATI come e' lecito attendersi da quel gioco, sta avanti, ma non vedo (perche' non esiste) la differenza madornale della quale parli tu, tanto da rivendersi due VGA.
Nota che nVidia non sale mai una volta davanti ad ATI, nemmeno senza filtri, percio' non dirmi che ho capato una recensione "pro nVidia", perche' semmai, e' il contrario.
Qui
http://www.tomshw.it/graphic.php?guide=20050622&page=nvidia_7800_gtx-16
Se pur di pochissimo (perche' sono evidentemente CPU limited), la 7800GTX sta avanti alla X850 XT PE (tu non avevi una PE, dunque toglici una buona percentuale..). Nemmeno da qui riesco a capire come il passaggio da X850 XT a 7800GTX possa averti creato noie. :)
Andiamo avanti.. la trovero' la motivazione..
Qui
http://www.thetechlounge.com/articles.php?id=224&page=5
Mi sembra che filtri o senza, la X850XT PE (sempre PE), stia sempre ed immancabilmente dietro anche alla 7800GT, senza scomodare la GTX.
Questa recensione e' veramente severa nei confronti della GTX, dai che forse ci siamo!!
http://www.hardwareanalysis.com/content/article/1810.2/
Ah, ma cavolo!! pure qui la 7800GTX sta sempre e comunque avanti alla X850XT (sempre PE, percio' sempre meglio della tua). :(
Va be', mi spiace, ho fatto il possibile per cercare di darti ragione, ma proprio non ci riesco. :)
Verdetto:
Ti hanno venduto una 7800GTX rotta o non sai installare le VGA nVidia. :)
P.S. Non ho fatto un parallelo di fps tra 6800Ultra e 9700pro, perche' sarebbe stato tanto difficile quanto ridicolo.
Ciao
occhio fikkuz che il link che hai riportato riguarda half life, mentre quello che ha riportato madrat e' quello menzionato da te qualche post prima, counterstrike source.
ciao!
Credo proprio che lo abbia portato come esempio dato l'engine identico.. Come vedi ha comuqnue detto una gran balla, non so se cosciente di farlo o non in malafede (voglio sperare di no), ma l'ha detta e pure di dimensioni epiche. :)
Tanto che con un pizzico di malignita' mi vien da pensare che lui le due nVidia non le abbia mai viste. Anche perche' nessuno sano di mente vende una GTX per passare ad una X1800XT, per quanto migliore in alcuni ambiti, mi sembrerebbe uno spreco assurdo di soldi indegno.
Non sapevo che nei drivers fosse indicata come NV47!
La cosa interessante che noto, invece, è i tre core clock domain (P.S.: quelle saranno le frequenze in 2d ;) )! Sapevo del fatto dei 430 e 470 MHz, ma qui sembra che ci sia un ulteriore terzo clock! Chissà se è diverso ancora in 3D e chissà se uscirà mai una utility per occare i 3 valori separatamente!
BlackBug
29-12-2005, 08:24
Ati,Nvidia,AMD,Intel è il mio accorato appello affinchè vi decidiate a licenziare quello che pensa i nomi e le sigle dei vostri prodotti! Fanno davvero pena!
halduemilauno
29-12-2005, 09:39
Io sono sicuro che un chip a 24 o 32 pipe sia pura invenzione , il progetto mi pare di aver letto sia stato cominciato appena terminata la 9800 e non si cambia nel giro di 2 mesi per eventuali problemi di resa produttiva un progetto iniziato anni prima. Ma questo te lo dico ora , molti mesi fa anche io lo avrei pensato perchè eravamo abituati a pensare in termini di pipeline e mhz , l architettura nuova cambia la questione e di conseguenza bisogna adeguarsi ;)
il progetto R520 è iniziato a fine 2003. è certo che negli ultimi 8/10 mesi non si possano fare cambiamenti netti quindi sono(in questo caso)escluse modifiche sostanziali nel corso di tutto il 2005. ma nel corso del 2004(magari prima metà)certo che si possano fare. e magari queste spiegherebbero i 6/7 mesi di ritardo sulla tabella iniziale.
questo era solo per precisare.
;)
Foglia Morta
29-12-2005, 09:46
il progetto R520 è iniziato a fine 2003. è certo che negli ultimi 8/10 mesi non si possano fare cambiamenti netti quindi sono(in questo caso)escluse modifiche sostanziali nel corso di tutto il 2005. ma nel corso del 2004(magari prima metà)certo che si possano fare. e magari queste spiegherebbero i 6/7 mesi di ritardo sulla tabella iniziale.
questo era solo per precisare.
;)
il ritardo è dovuto da altro , non un cambio del architettura.
halduemilauno
29-12-2005, 09:49
il ritardo è dovuto da altro , non un cambio del architettura.
io cercavo di far vedere/capire che il tempo a disposizione c'era. e cmq io ho detto magari. tu invece sei assolutamente certo.
Foglia Morta
29-12-2005, 09:57
io cercavo di far vedere/capire che il tempo a disposizione c'era. e cmq io ho detto magari. tu invece sei assolutamente certo.
ma che discorsi sono... Stando al tuo ragionamento tutti possono cambiare architettura all insaputa di tutti , un modo come un altro per non dire nulla.
Stavamo parlando di rumor messi in giro da Maggio a Settembre , quindi si sono rivelati completamente aria fritta :mc:
halduemilauno
29-12-2005, 09:58
ma che discorsi sono... Stando al tuo ragionamento tutti possono cambiare architettura all insaputa di tutti , un modo come un altro per non dire nulla.
Stavamo parlando di rumor messi in giro da Maggio a Settembre , quindi si sono rivelati completamente aria fritta :mc:
e io stavo parlando di altro.
Foglia Morta
29-12-2005, 09:59
e io stavo parlando di altro.
allora segui il filo del discorso :)
halduemilauno
29-12-2005, 10:25
allora segui il filo del discorso :)
infatti io parlavo di questo:
Io sono sicuro che un chip a 24 o 32 pipe sia pura invenzione , il progetto mi pare di aver letto sia stato cominciato appena terminata la 9800 e non si cambia nel giro di 2 mesi per eventuali problemi di resa produttiva un progetto iniziato anni prima. Ma questo te lo dico ora , molti mesi fa anche io lo avrei pensato perchè eravamo abituati a pensare in termini di pipeline e mhz , l architettura nuova cambia la questione e di conseguenza bisogna adeguarsi ;)
non a caso ho quotato te.
;)
Foglia Morta
29-12-2005, 10:27
non a caso ho quotato te.
;)
... e seguendo il filo del discorso le 24 o 32 pipe erano riferite a rumor di Maggio-Settembre di cui stavamo parlando :)
halduemilauno
29-12-2005, 10:41
... e seguendo il filo del discorso le 24 o 32 pipe erano riferite a rumor di Maggio-Settembre di cui stavamo parlando :)
"non si cambia nel giro di 2 mesi per eventuali problemi di resa produttiva un progetto iniziato anni prima."
tu parli di due mesi. nell'arco di sviluppo durato 24 mesi. i famosi due mesi non possono essere collocati negli ultimi 6/8/10 ma possono essere benissimo collocati dopo i primi 6/8/10.
nessuno parla di mesi del 2005. ma si potrebbe parlare di mesi del 2004. chi può esser sicuro di escluderlo?
capito ora?
tutto qui. nessuna certezza solo una precisazione.
;)
Il tape-out di un progetto non avviene sicuramente nella prima parte della progettazione ;) Quindi i problemi di rese produttive potrebbero essere stati riscontrati solo in fase di affinamento del processo di produzione...quindi solo alla fine... Quindi se il progetto fosse stato pensato inzialmente a 32 pipe comunque non sarebbe stato il processo produttivo ad impedirne la realizzazione...
halduemilauno
29-12-2005, 11:05
Il tape-out di un progetto non avviene sicuramente nella prima parte della progettazione ;) Quindi i problemi di rese produttive potrebbero essere stati riscontrati solo in fase di affinamento del processo di produzione...quindi solo alla fine... Quindi se il progetto fosse stato pensato inzialmente a 32 pipe comunque non sarebbe stato il processo produttivo ad impedirne la realizzazione...
esatto.
;)
Foglia Morta
29-12-2005, 11:06
"non si cambia nel giro di 2 mesi per eventuali problemi di resa produttiva un progetto iniziato anni prima."
tu parli di due mesi. nell'arco di sviluppo durato 24 mesi. i famosi due mesi non possono essere collocati negli ultimi 6/8/10 ma possono essere benissimo collocati dopo i primi 6/8/10.
nessuno parla di mesi del 2005. ma si potrebbe parlare di mesi del 2004. chi può esser sicuro di escluderlo?
capito ora?
tutto qui. nessuna certezza solo una precisazione.
;)
e a questo ragionamento ti ho risposto con "ma che discorsi sono... Stando al tuo ragionamento tutti possono cambiare architettura all insaputa di tutti , un modo come un altro per non dire nulla." :doh:
Ho parlato di 2 mesi per dire , poi ci vogliono conoscenze oltre la media per saperlo , anche 6/8/10 mesi mi pare una tua equazione personale , tra l'altro improbabile perchè R500 è venuto fuori molti mesi prima e dato il vincolo di parentela tra i 2 chip un ipotetica data di decisione di cambiamento del progetto dovrebbe essere anticipata ulteriormente , tutto questo per fare poi allusioni contro Ati , quando lo stesso ragionamento potrebbe essere usato con nVidia , Amd , Intel e tutte quante.
Se non si hanno dati oggettivi si fantastica su ciò che può portare l evoluzione tecnologica per il piacere chiacchierare , poi quando si hanno dati si riformula in modo coerente . La discussione è sorta dal momento che si tengono ancora in considerazione dei rumors in cui la fonte diceva "abbiamo sentito dire che..." e la fonte erano loro stessi , i fatti hanno smontato completamente quei rumors da mesi , non c' è più ragione di costruirci sopra delle ipotesi .
halduemilauno
29-12-2005, 11:10
e a questo ragionamento ti ho risposto con "ma che discorsi sono... Stando al tuo ragionamento tutti possono cambiare architettura all insaputa di tutti , un modo come un altro per non dire nulla." :doh:
Ho parlato di 2 mesi per dire , poi ci vogliono conoscenze oltre la media per saperlo , anche 6/8/10 mesi mi pare una tua equazione personale , tra l'altro improbabile perchè R500 è venuto fuori molti mesi prima e dato il vincolo di parentela tra i 2 chip un ipotetica data di decisione di cambiamento del progetto dovrebbe essere anticipata ulteriormente , tutto questo per fare poi allusioni contro Ati , quando lo stesso ragionamento potrebbe essere usato con nVidia , Amd , Intel e tutte quante.
Se non si hanno dati oggettivi si fantastica su ciò che può portare l evoluzione tecnologica per il piacere chiacchierare , poi quando si hanno dati si riformula in modo coerente . La discussione è sorta dal momento che si tengono ancora in considerazione dei rumors in cui la fonte diceva "abbiamo sentito dire che..." e la fonte erano loro stessi , i fatti hanno smontato completamente quei rumors da mesi , non c' è più ragione di costruirci sopra delle ipotesi .
Io sono sicuro che un chip a 24 o 32 pipe sia pura invenzione , il progetto mi pare di aver letto sia stato cominciato appena terminata la 9800 e non si cambia nel giro di 2 mesi per eventuali problemi di resa produttiva un progetto iniziato anni prima. Ma questo te lo dico ora , molti mesi fa anche io lo avrei pensato perchè eravamo abituati a pensare in termini di pipeline e mhz , l architettura nuova cambia la questione e di conseguenza bisogna adeguarsi ;)
niente ancora non hai capito.
Foglia Morta
29-12-2005, 11:35
niente ancora non hai capito.
me ne farò una ragione :D
halduemilauno
29-12-2005, 11:41
me ne farò una ragione :D
l'ho detto la mia era solo una precisazione che mi son trovato in dovere di fare.
ciao.
;)
ma che discorsi sono... Stando al tuo ragionamento tutti possono cambiare architettura all insaputa di tutti , un modo come un altro per non dire nulla.
Stavamo parlando di rumor messi in giro da Maggio a Settembre , quindi si sono rivelati completamente aria fritta :mc:
Infatti ATI come nVidia puo' cambiare architettura senza chiedertelo, nè avvisarti!! Giuro!! :p
Sicuramente possono esserci stati due progetti parallei e quello con il minor numero di problemi ha visto la luce. Chi lo sa!! Non dico che sia cosi', ma le tue certezze sono un po' eccessive. :)
Ati,Nvidia,AMD,Intel è il mio accorato appello affinchè vi decidiate a licenziare quello che pensa i nomi e le sigle dei vostri prodotti! Fanno davvero pena!
Straquoto!! Anche per i core, finiti i nomi delle citta' come faranno?? (circa tra un miliardo di anni):D
Credo proprio che lo abbia portato come esempio dato l'engine identico.. Come vedi ha comuqnue detto una gran balla, non so se cosciente di farlo o non in malafede (voglio sperare di no), ma l'ha detta e pure di dimensioni epiche. :)
Tanto che con un pizzico di malignita' mi vien da pensare che lui le due nVidia non le abbia mai viste. Anche perche' nessuno sano di mente vende una GTX per passare ad una X1800XT, per quanto migliore in alcuni ambiti, mi sembrerebbe uno spreco assurdo di soldi indegno.rr
Ti ripeto che i bench tipo lo stress video di HL2 o altre menate non ti danno la reale visuale di gioco quando giochi.
Ti diro' di piu' visto che insinui che le schede nVidia non le abbia manco viste...(poi se vuoi ti faccio vedere le fatture)...
Dal menu' video del gioco CS:S o dell'attuale DOD:S viene rilevata una nominale potenza HW per il quale il sistema imposta una configurazione default.
Passando dalla 850 alla GTX l'impostazione era aumentata tanto che di default erano impostati i filtri 4x e 8x e anche il livello di dettaglio grafico.
Contentissimo di questo,iniziando a provare con gli fps a vista,pero' mi sono visto (su DOD:S) un aumento modesto e per magari una scarsa ottimizzazione della programmazione del gioco...nei momenti concitati cali verticali degli fps a scapito della fluidita'.Quindi son tornato indietro,tolti i filtri,fluidita' piu' che ottima.
Mai detto che tra la differenza fra la 850 e la GTX 256 non si vede...si vede poco con i filtri attivati tanto da non poterli utilizzare.
Con la 1800 ,malgrado che default impostasse un gradino dietro la GTX 256,visivamente e con consolle aperta il gioco e' fluido su una media di 70/80 fps...piu' che giusti per una buona fluidita'.
Di pu' non so che dirti..tu addirittura mi vuoi far credere che la 6800U va piu' della 850.....coi filtri poi...mah :rolleyes:
Sul 3d della X1800XT vedrai che non sono l'unico a esser passato da una GTX 256 a una 1800.
Avrei preferito una GTX 512,ma da dove mi rifornisco io a prezzi umani tengono PIXELWIEW e ancora la 512 non la fanno....e andare a spendere piu' di 600 euro per un aumento di poco piu' non aveva senso.
Secondo me ora come ora la 1800 e' la scheda che a livello prezzo/prestazioni offre di piu'.
Quando uscira' la 1900 se avra' un bel salto prestazionale la cambiero',oppure aspettero' G71... :)
Temo ti sia sbagliato, mi hai dato un link di HL2, non di CS:S, per quanto sia lo stesso engine, sono due giochi differentni.
Comunque non hai esattamente dato il tuo massimo vendendo una ATI e comprando un'nVidia per giocare solo ad un gioco con l'engine di HL2.
Comunque vediamo un po'..
http://www.hwupgrade.it/articoli/skvideo/1387/9.html
Qui (tanto per citare chi ritieni attendibile) vedi che anche se le differenze ci sono, non sono cosi' assurde come dici tu, nemmeno attivando il pesantissimo 8XS con la GTX256 si riesce a scendere sotto i 56fps a 1600 ed i 77fps a 1280. Mi chiedo tu come facessi a viaggiare a frame rate cosi' indecenti (se fosse dipeso dalla CPU, il limite sarebbe stato ovviamente presente con qualunque VGA di questo pianeta).
Qui invece
http://www.anandtech.com/video/showdoc.aspx?i=2278&p=10
vediamo un confronto percentuale tra X800XT e 6800U, ATI come e' lecito attendersi da quel gioco, sta avanti, ma non vedo (perche' non esiste) la differenza madornale della quale parli tu, tanto da rivendersi due VGA.
Nota che nVidia non sale mai una volta davanti ad ATI, nemmeno senza filtri, percio' non dirmi che ho capato una recensione "pro nVidia", perche' semmai, e' il contrario.
Qui
http://www.tomshw.it/graphic.php?guide=20050622&page=nvidia_7800_gtx-16
Se pur di pochissimo (perche' sono evidentemente CPU limited), la 7800GTX sta avanti alla X850 XT PE (tu non avevi una PE, dunque toglici una buona percentuale..). Nemmeno da qui riesco a capire come il passaggio da X850 XT a 7800GTX possa averti creato noie. :)
Andiamo avanti.. la trovero' la motivazione..
Qui
http://www.thetechlounge.com/articles.php?id=224&page=5
Mi sembra che filtri o senza, la X850XT PE (sempre PE), stia sempre ed immancabilmente dietro anche alla 7800GT, senza scomodare la GTX.
Questa recensione e' veramente severa nei confronti della GTX, dai che forse ci siamo!!
http://www.hardwareanalysis.com/content/article/1810.2/
Ah, ma cavolo!! pure qui la 7800GTX sta sempre e comunque avanti alla X850XT (sempre PE, percio' sempre meglio della tua). :(
Va be', mi spiace, ho fatto il possibile per cercare di darti ragione, ma proprio non ci riesco. :)
Verdetto:
Ti hanno venduto una 7800GTX rotta o non sai installare le VGA nVidia. :)
P.S. Non ho fatto un parallelo di fps tra 6800Ultra e 9700pro, perche' sarebbe stato tanto difficile quanto ridicolo.
Ciao
Analizzando bene i grafici scusami se mi scappa da ridere...io ti ho detto maddaiiiiiiiii perche' volevi confrontare una x850xt con una 6800 U..ma ti pare?
Il mio discorso che son rimasto deluso delle prestazioni trauna generazione di schede e una altra.
In molti grafici che hai esposto...un GTX prende a una 850 pochi fps (su HL2 CSS) in alcuni 7/8.....
Il discorso era quindi....ha senso spendere 450/70 euro per una scheda per 10/20 FPS ?
Risposta NO
Li ho spesi per potermi godere i giochi con cui sono intrippato adesso con tutti i crismi a 1600*1200.....
Ora puoi darmi dello stupido.. :)
rr
Ti ripeto che i bench tipo lo stress video di HL2 o altre menate non ti danno la reale visuale di gioco quando giochi.
Ti diro' di piu' visto che insinui che le schede nVidia non le abbia manco viste...(poi se vuoi ti faccio vedere le fatture)...
Dal menu' video del gioco CS:S o dell'attuale DOD:S viene rilevata una nominale potenza HW per il quale il sistema imposta una configurazione default.
Passando dalla 850 alla GTX l'impostazione era aumentata tanto che di default erano impostati i filtri 4x e 8x e anche il livello di dettaglio grafico.
Contentissimo di questo,iniziando a provare con gli fps a vista,pero' mi sono visto (su DOD:S) un aumento modesto e per magari una scarsa ottimizzazione della programmazione del gioco...nei momenti concitati cali verticali degli fps a scapito della fluidita'.Quindi son tornato indietro,tolti i filtri,fluidita' piu' che ottima.
Mai detto che tra la differenza fra la 850 e la GTX 256 non si vede...si vede poco con i filtri attivati tanto da non poterli utilizzare.
Con la 1800 ,malgrado che default impostasse un gradino dietro la GTX 256,visivamente e con consolle aperta il gioco e' fluido su una media di 70/80 fps...piu' che giusti per una buona fluidita'.
Di pu' non so che dirti..tu addirittura mi vuoi far credere che la 6800U va piu' della 850.....coi filtri poi...mah :rolleyes:
Sul 3d della X1800XT vedrai che non sono l'unico a esser passato da una GTX 256 a una 1800.
Avrei preferito una GTX 512,ma da dove mi rifornisco io a prezzi umani tengono PIXELWIEW e ancora la 512 non la fanno....e andare a spendere piu' di 600 euro per un aumento di poco piu' non aveva senso.
Secondo me ora come ora la 1800 e' la scheda che a livello prezzo/prestazioni offre di piu'.
Quando uscira' la 1900 se avra' un bel salto prestazionale la cambiero',oppure aspettero' G71... :)
Io non voglio faro polemica, ma capisci da solo che se tutto il web propone risultati con fps "medi" (dunque comprensivi di rallentamenti) differenti da quelli che la tua esperienza propone, il problema e' stato tuo. Da HL2 io ci ho giocato con una 6800GT alla grande.
Non sono io a dirti che una VGA va meglio di un'altra, ho postato dei link apposta.
In ogni caso, a ridosso dall'uscita di G71 ed R580 (ATI volesse), hai fatto male a non tenere una GTX (che per altro, in molti casi, e' ancora preferibile alla X1800). Certo, se non hai problemi economici, puoi toglierti ogni capirccio.
Quello che volevo dirti e' solo che una GTX per HL2 (che sia CSS) e' sovadimensionata, non puo' non bastare. :)
Io non voglio faro polemica, ma capisci da solo che se tutto il web propone risultati con fps "medi" (dunque comprensivi di rallentamenti) differenti da quelli che la tua esperienza propone, il problema e' stato tuo. Da HL2 io ci ho giocato con una 6800GT alla grande.
Non sono io a dirti che una VGA va meglio di un'altra, ho postato dei link apposta.
In ogni caso, a ridosso dall'uscita di G71 ed R580 (ATI volesse), hai fatto male a non tenere una GTX (che per altro, in molti casi, e' ancora preferibile alla X1800). Certo, se non hai problemi economici, puoi toglierti ogni capirccio.
Quello che volevo dirti e' solo che una GTX per HL2 (che sia CSS) e' sovadimensionata, non puo' non bastare. :)
Neanchio voglio far polemica...ognuno ha la sua esperienza e i suoi bisogni.
Penso che una 6600 con un monitor da 17 riesca a dare un ottima esperienza di gioco.Io con un monitor grande giocando a 1600*1200 ti ho detto la mia.
Spendere un tot di soldi per una high end lo fai non per passare da 80 fps che sono piu' che soddisfacenti a 120 o a 200...ma lo fai secondo il mio modo di ragionare per migliorare visivamente la cosa.
Con la GTX avevo poco o piu'...avevo molti piu' fps che alle solite ris non mi servivano....ma ora c'e' l'HDR..che aumenta sensibilmente la sensazione di gioco e ci sono i filtri.
Anche dai grafici che hai postato si vede nettamente che le migliorie sono di pochi fps...
Ti giuro che con la X1800XT riesco a giocare fluidamente con HDR e filtri a frame rate piu' che soddisfacenti....altriemnti saltavo questa generazione e aspettavo la prossima e mi tenevo la 850 che andava piu' che bene...
Neanchio voglio far polemica...ognuno ha la sua esperienza e i suoi bisogni.
Penso che una 6600 con un monitor da 17 riesca a dare un ottima esperienza di gioco.Io con un monitor grande giocando a 1600*1200 ti ho detto la mia.
Spendere un tot di soldi per una high end lo fai non per passare da 80 fps che sono piu' che soddisfacenti a 120 o a 200...ma lo fai secondo il mio modo di ragionare per migliorare visivamente la cosa.
Con la GTX avevo poco o piu'...avevo molti piu' fps che alle solite ris non mi servivano....ma ora c'e' l'HDR..che aumenta sensibilmente la sensazione di gioco e ci sono i filtri.
Anche dai grafici che hai postato si vede nettamente che le migliorie sono di pochi fps...
Ti giuro che con la X1800XT riesco a giocare fluidamente con HDR e filtri a frame rate piu' che soddisfacenti....altriemnti saltavo questa generazione e aspettavo la prossima e mi tenevo la 850 che andava piu' che bene...
Peccato che lost coast vada addirittura meglio su nVidia con l'HDR. Pure la qualita' dell'immagine passa da sensibilmente peggiore (senza HDR ed ho postato diverse immagini a riprova di questo) a migliore. :) Comunque contento, contenti tutti.
Foglia Morta
29-12-2005, 13:54
Infatti ATI come nVidia puo' cambiare architettura senza chiedertelo, nè avvisarti!! Giuro!! :p
Sicuramente possono esserci stati due progetti parallei e quello con il minor numero di problemi ha visto la luce. Chi lo sa!! Non dico che sia cosi', ma le tue certezze sono un po' eccessive. :)
Il sentito dire non lo tengo in considerazione se ci sono dati oggettivi che lo contraddicono, a prescindere dal suo orientamento.
E visto che convieni sul fatto che è stata sollevata una questione che non si potrà mai chiarire , a che pro fare delle allusioni ? Perchè piace deformare la realtà come fa comodo , e se i dati oggettivi non lo permettono si lavora di immaginazione come stai facendo.
Il sentito dire non lo tengo in considerazione se ci sono dati oggettivi che lo contraddicono, a prescindere dal suo orientamento.
E visto che convieni sul fatto che è stata sollevata una questione che non si potrà mai chiarire , a che pro fare delle allusioni ? Perchè piace deformare la realtà come fa comodo , e se i dati oggettivi non lo permettono si lavora di immaginazione come stai facendo.
Perche' secondo me credi troppo alle parole di ATI (o chi per lei). Possono darci a bere cio' che vogliono. :)
Va be', vado a chiudere gli ultimi conti del 2005, va'!! Ciao ciaooo!!
Foglia Morta
29-12-2005, 14:09
Perche' secondo me credi troppo alle parole di ATI (o chi per lei). Possono darci a bere cio' che vogliono. :)
Va be', vado a chiudere gli ultimi conti del 2005, va'!! Ciao ciaooo!!
ma se sono mesi che rompo le palle a yoss con domande su domande :D ,e l idea che mi son fatto è quella , e poi non sono io quello che crede che G71 farà HDR+AA sulla base di non si sa che cosa :D
Peccato che lost coast vada addirittura meglio su nVidia con l'HDR. Pure la qualita' dell'immagine passa da sensibilmente peggiore (senza HDR ed ho postato diverse immagini a riprova di questo) a migliore. :) Comunque contento, contenti tutti.
Ma sei sicuro di quel che dici?
Boh...a me guardndo in giro mi sembra sempre che l'HDR vada meglio con ATI,anzi..che la X1800XT vada meglio della GTX 256 in qualsiasi situazione.
Per quanto riguarda l'HDR in generale:
http://www.hwupgrade.it/articoli/skvideo/1361/17.html
Per quanto riguarda Loast Coast...con i filtri sempre ATI:
http://www.hwupgrade.it/articoli/skvideo/1405/11.html
Athlon 64 3000+
29-12-2005, 16:15
Ma sei sicuro di quel che dici?
Boh...a me guardndo in giro mi sembra sempre che l'HDR vada meglio con ATI,anzi..che la X1800XT vada meglio della GTX 256 in qualsiasi situazione.
Per quanto riguarda l'HDR in generale:
http://www.hwupgrade.it/articoli/skvideo/1361/17.html
Per quanto riguarda Loast Coast...con i filtri sempre ATI:
http://www.hwupgrade.it/articoli/skvideo/1405/11.html
forse madrat si riferiva alla X850XT.
La 7800GTX è molto più veloce della X850XT(sopratutto con i filtri abilitati).
Hai ragione invece a dire che la 7800GTX con HDR attivato è più lenta della X1800XT dato che R520 esegue l'HDR più velocemente avendo la circuiteria responsabile dell'HDR separata da quelle delle rops che sono responsabili dell'AA.
Il grafico di Splinter Cell è stato fatto con l'ultima patch che abilita la SM 2.0 e L'HDR che viene eseguito e uguale a quello di HL2 perchè viene esegui con calcoli interi.
forse madrat si riferiva alla X850XT.
La 7800GTX è molto più veloce della X850XT(sopratutto con i filtri abilitati).
Hai ragione invece a dire che la 7800GTX con HDR attivato è più lenta della X1800XT dato che R520 esegue l'HDR più velocemente avendo la circuiteria responsabile dell'HDR separata da quelle delle rops che sono responsabili dell'AA.
Il grafico di Splinter Cell è stato fatto con l'ultima patch che abilita la SM 2.0 e L'HDR che viene eseguito e uguale a quello di HL2 perchè viene esegui con calcoli interi.
Si ma io infatti lo so che una GTX e' piu' veloce di una X850XT...mai detto il contrario mi sembra...MadRat si riferisce alla 1800 quotando il mio discorso:
Neanchio voglio far polemica...ognuno ha la sua esperienza e i suoi bisogni.
Penso che una 6600 con un monitor da 17 riesca a dare un ottima esperienza di gioco.Io con un monitor grande giocando a 1600*1200 ti ho detto la mia.
Spendere un tot di soldi per una high end lo fai non per passare da 80 fps che sono piu' che soddisfacenti a 120 o a 200...ma lo fai secondo il mio modo di ragionare per migliorare visivamente la cosa.
Con la GTX avevo poco o piu'...avevo molti piu' fps che alle solite ris non mi servivano....ma ora c'e' l'HDR..che aumenta sensibilmente la sensazione di gioco e ci sono i filtri.
Anche dai grafici che hai postato si vede nettamente che le migliorie sono di pochi fps...
Ti giuro che con la X1800XT riesco a giocare fluidamente con HDR e filtri a frame rate piu' che soddisfacenti....altriemnti saltavo questa generazione e aspettavo la prossima e mi tenevo la 850 che andava piu' che bene...
Lui risponde....
Peccato che lost coast vada addirittura meglio su nVidia con l'HDR. Pure la qualita' dell'immagine passa da sensibilmente peggiore (senza HDR ed ho postato diverse immagini a riprova di questo) a migliore. :) Comunque contento, contenti tutti.
:)
forse madrat si riferiva alla X850XT.
La 7800GTX è molto più veloce della X850XT(sopratutto con i filtri abilitati).
Hai ragione invece a dire che la 7800GTX con HDR attivato è più lenta della X1800XT dato che R520 esegue l'HDR più velocemente avendo la circuiteria responsabile dell'HDR separata da quelle delle rops che sono responsabili dell'AA.
Il grafico di Splinter Cell è stato fatto con l'ultima patch che abilita la SM 2.0 e L'HDR che viene eseguito e uguale a quello di HL2 perchè viene esegui con calcoli interi.
Presta un po' piu' attenzione a quel che dici, HL2 LC non fa uso di HDR in alpha blending FP. Tanto e' vero che puo' utilizzare l'AA contemporaneamente.
Si ma io infatti lo so che una GTX e' piu' veloce di una X850XT...mai detto il contrario mi sembra...MadRat si riferisce alla 1800 quotando il mio discorso:
Ma chi te lo dice???
Io ho preso una GTX 256 che su CSS:S andava come la mia "vecchia" X850XT....che se mettevo su i filtri (l'avevo presa apposta) moriva.
Cosi' l'ho cambiata appena uscita la X1800XT e finalmente ho la scheda che volevo...
Non e' questione di top VGA del genere io ce l'ho piu' lungo...dipende da quello che ci devi fare e nel mio caso con un monitor da 21 sono "costretto" a giocare 1600x1200 per non vedere una grafica sgranata....
Non aggiungo altro.
Anzi, no, una cosa la voglio proprio aggiungere.. Hai pure detto che tra una 9700pro ed una 6800U non c'erano grandi differenze in termini di fps. :D
Ma sei sicuro di quel che dici?
Boh...a me guardndo in giro mi sembra sempre che l'HDR vada meglio con ATI,anzi..che la X1800XT vada meglio della GTX 256 in qualsiasi situazione.
Per quanto riguarda l'HDR in generale:
http://www.hwupgrade.it/articoli/skvideo/1361/17.html
Per quanto riguarda Loast Coast...con i filtri sempre ATI:
http://www.hwupgrade.it/articoli/skvideo/1405/11.html
Stando proprio al secondo link, che tu stesso hai proposto, si evince chiaramente quanto l'HDR instaurti una situazione di vantaggio per l'architettura nVidia, vista la differenza tra HL2 senza HDR (che vede sempre le nVidia dietro alle ATI di pari livello) e la sostanziale parita' in LC (HDR).
Poi se ci fai caso, sempre stando al link da te "postato", a 1600*1200 la X1800XT la GTX con filtri attivi di ben 3,8fps!! (InDoor) e sta addirittura sotto in (OutDoor) di ben 0,2!! Direi che sono veramente differenze tangibili. Ottimo acquisto la X1800XT per simili incrementi (e decrementi!!).
E non ho scomodato altre recensioni. :)
Athlon 64 3000+
29-12-2005, 17:13
Presta un po' piu' attenzione a quel che dici, HL2 LC non fa uso di HDR in alpha blending FP. Tanto e' vero che puo' utilizzare l'AA contemporaneamente.
mi sarò spiegato male.
Lo so benissimo che HL2 fa hdr non con i calcoli in FP ma con gli interi.
Non aggiungo altro.
Anzi, no, una cosa la voglio proprio aggiungere.. Hai pure detto che tra una 9700pro ed una 6800U non c'erano grandi differenze in termini di fps. :D
Mi ero spiegato male...intedevo che tra la GTX 256 con i filtri e la X850XT senza....grosse differenze non c'erano ,tanto da giustificare l'acquisto.
Stando proprio al secondo link, che tu stesso hai proposto, si evince chiaramente quanto l'HDR instaurti una situazione di vantaggio per l'architettura nVidia, vista la differenza tra HL2 senza HDR (che vede sempre le nVidia dietro alle ATI di pari livello) e la sostanziale parita' in LC (HDR).
Poi se ci fai caso, sempre stando al link da te "postato", a 1600*1200 la X1800XT la GTX con filtri attivi di ben 3,8fps!! (InDoor) e sta addirittura sotto in (OutDoor) di ben 0,2!! Direi che sono veramente differenze tangibili. Ottimo acquisto la X1800XT per simili incrementi (e decrementi!!).
E non ho scomodato altre recensioni. :)
Per fortuna non sono un accanito giocatore di LC :stordita: ...a me interessava CS:S (con filtri attivi) piu' che altro...e non sto qui a sindacare ogni mio utilizzo della scheda dall' OC ad altro...mi sa che ti stai attando davvero sugli specchi per voler far credere che la GTX sia cosi' superiore....
Una top invenduta, introvabile che costava 200€ in piu'.. Alla faccia della correttezza!! ma per mamma ATI questo ed altro. :)
Il discorso è paritetico per GTX 512Mb e XT. Ma questo ed altro per mamma Nvidia no? Ma ti soffermi a leggere quello che scrivi :asd:
Sai esistono gli ordini. :)
Ti invito a rileggerti tutto il thread relativo, questi discorsi li abbiamo gia' fatti. Vediamo quanto continuerai.
So che esistono gli ordini, ma visto che i negozi non indicano data o l'hanno tolta dal magazzino... continuerò fino a quando tu spaccerai false verità (alcuni le chiamano minchiate). Amen :)
Per fortuna non sono un accanito giocatore di LC :stordita: ...a me interessava CS:S (con filtri attivi) piu' che altro...e non sto qui a sindacare ogni mio utilizzo della scheda dall' OC ad altro...mi sa che ti stai attando davvero sugli specchi per voler far credere che la GTX sia cosi' superiore....
Ho postato dei grafici che parlano da soli, sei tu che lo stai facendo. :) Ti ho dato ragione, piu' dicosi' non so che fare. :)
Il discorso è paritetico per GTX 512Mb e XT. Ma questo ed altro per mamma Nvidia no? Ma ti soffermi a leggere quello che scrivi :asd:
Non ho mai detto che la GTX512 sia una pari livello delal X1800XT, lo diro' quando e se mai verra' venduta a prezzo di listino (50€ piu' della XT).
Per ora per fare un ottimo affare bastano le "GeForce 7800GTX 256Mb PciExp MSI DVI/Tv-Out € 442,80". :)
So che esistono gli ordini, ma visto che i negozi non indicano data o l'hanno tolta dal magazzino... continuerò fino a quando tu spaccerai false verità (alcuni le chiamano minchiate). Amen :)
Non mi risulta che qualcuno lo faccia, sarebbe stato sospeso. :)
Comuqnue sono presenti nei case di molti utenti a quanto pare, non male per una VGA fantasma. ;)
Sempre a flammare eh... ma mi spiegate che centra nVidia con l'X1900? :rolleyes:
E' così difficile commentare una news relativa a una scheda grafica che uscirà e che "forse" potrà essere competitiva sul mercato, quindi in un qualche modo un bene per molti utenti?
E' così difficile essere un attimo oggettivi? Prima avevo un ATi ora ho una nVidia (che personalmente mi soddisfa prestazionalmente e nn in altre cose, ma queste è un problema mio), nn sto a postare sul forum di continuo W nvidia o W ati, è meglio questo o meglio quest'altro, in quanto date:
- le tasche dell'acquirente (quindi MadRat scordati l'assolutezza della tua affermazione circa "un'ottimo affare" una scheda grafica a 442€)
- la mentalità dell'acquirente
- l'utilizzo che ne farà del prodotto dell'acquirente
- l'acquirente
senza prescindere dall'informazione corretta che ha l'acquirente di un prodotto (cosa possibile tramite siti come questo):
la scheda migliore per l'acquirente al 90% è quella che ha comprato (a meno di guasti).
Nessuno deve dimostrare di avercelo lungo x o x+1. E se lo fa... @azzi suoi.
Foglia Morta
29-12-2005, 21:47
la scheda migliore per l'acquirente al 90% è quella che ha comprato (a meno di guasti).
ma così ci togli il 90% del gusto di discutere :D
Per carità nn intendevo :sofico: E' solo che magari dopo un po' comincia a dare letteralmente fastidio vedere le news riempite di commenti che al 90% nn centrano con la stessa news...
- le tasche dell'acquirente (quindi MadRat scordati l'assolutezza della tua affermazione circa "un'ottimo affare" una scheda grafica a 442€)
Sono assolutamente d'accordo, io sto sconsigliando da un mese intero l'acquisto delel VGA top gamma, GTX compresa!! Parlado pero' di TOP, ritengo che se qualcuno proprio no riesce a farne a meno, 442€ sono meglio di 550€, in previsione di un'imminentissima svalutazione e di prestazioni tutto sommato analoghe. Tutto qui.
In questo forum c'e' un brutto vizio, si decontestiualizza. Ogni frase ha, appunto, un contesto, se questo viene meno, la frase, come il significato e la motivazione che la accompagnano, crolla.
Non ho mai detto che la GTX512 sia una pari livello delal X1800XT, lo diro' quando e se mai verra' venduta a prezzo di listino (50€ piu' della XT).
La X1800XT si trova a 531€, la GTX512 a meno di 682€ non la vedo. Con la differenza che la prima è disponibile un po' dappertutto, la seconda no.
La X1800XT si trova a 531€, la GTX512 a meno di 682€ non la vedo. Con la differenza che la prima è disponibile un po' dappertutto, la seconda no.
Eh basta Mabru con 'sti discorsi, no??
Cosa c'entra questa tua risposta con il mio post??
Io ho anche detto che non considerero' mai la GTX512 pari di una XT fino a quando (e se mai) non sara' disponibile in volumi "sufficienti a corpire la richiesta" e tali da non consentire il gioco a rialzo che fanno i negozianti. Comunque dovreste anche piantarla un po' con questa storia dell'ireperibilita', se la si ordina arriva (fesso chi la ordina, a mio modesto parere, ma anche questo ho ripetuto anche troppo, chi non vuol sentire non sentira' nemmeno questa volta).
Ora trova un argomento piu' interessante. :)
Eh basta Mabru con 'sti discorsi, no??
Cosa c'entra questa tua risposta con il mio post??
Io ho anche detto che non considerero' mai la GTX512 pari di una XT fino a quando (e se mai) non sara' disponibile in volumi "sufficienti a corpire la richiesta" e tali da non consentire il gioco a rialzo che fanno i negozianti.
E non dovresti nemmeno considerarla pari ad una XT. Sono due schede che stanno su livelli diversi. Perchè imho non è corretto confrontare due schede che hanno una differenza di prezzo di 100€ quando va bene. Disponibile e non.
E non dovresti nemmeno considerarla pari ad una XT. Sono due schede che stanno su livelli diversi. Perchè imho non è corretto confrontare due schede che hanno una differenza di prezzo di 100€ quando va bene. Disponibile e non.
Dunque la XT non e' sul livello di una GTX 256?? :) Beh, non male per nVidia eguagliare gorsso modo le prestazioni della TOP ATI (uscita molto dopo) con una VGA di classe inferiore. :)
Non ti sembra di star a campare un discorso un po' in aria?? Dai su.. :) Parliamo di tecnica, preferisco. :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.