View Full Version : EVGA, una nuova scheda video per Halloween
Redazione di Hardware Upg
02-11-2009, 09:12
Link alla notizia: http://www.hwupgrade.it/news/skvideo/evga-una-nuova-scheda-video-per-halloween_30617.html
Una scheda video basata su GeForce GTX 275 che affianca a questa GPU, sullo stesso PCB anche GTS 250, offrendo una soluzione sviluppata per riuscire a supportare al meglio videogiochi con tecnologia PhysX
Click sul link per visualizzare la notizia.
g.luca86x
02-11-2009, 09:18
:old: Notizia già vecchia, con tutte le critiche a questa soluzione che ne son convenute...
Bastoner
02-11-2009, 09:18
Nonostante per le schede video di nuova generazione sviluppate su architettura NVIDIA sia necessario attendere ancora alcune settimane
:mbe: :mbe: :mbe: :mbe: :mbe: :mbe:
Forse volevate dire "alcuni mesi"?
g.luca86x
02-11-2009, 09:20
è dell'altro giorno la notizia che tsmc è incappata nuovamente in un calo mostruoso delle rese produttive a 40nm! Questa è una generazione di schede video maledetta...
non male come idea. tuttavia, a quanto pare, è limitata al dual SLI (a giudicare dalla presenza di un solo connettore) ed immagino che tale SLI sia attuabile utilizzando un'altra GTX275 896mb.
non mi convince, anche perchè in pochi giochi andrà come una bestia, mentre in quelli non ottimizzati PhysX non sarà altro che una GTX275 che beve molta più corrente (da quello che so la PPU non si disattiva quando on è sotto stress).
ho sempre avuto Nvidia, fino a quando, due settimane fa, ho preso una HD5870. fatti due conti, con imminenti le nuove verdognole e già uscite le nuove GPU AMD non vedo molto sensata questa soluzione.
ahahah
ma ci vuole addirittura una 250 (cioè una 9800gtx) (cioè una 8800gtx) per la fisica ?
hanno così tanti chip da smaltire ?
Avrei gradito una più parsimoniosa 9400-9500 mobile, invece di 2 vga, di cui una quasi inutilizzata e relegata a "supporto Ageia"....
Troppo LOL l'etichetta di joker.....:asd: :asd:
Kharonte85
02-11-2009, 09:30
Potrebbe essere un'idea valida per il futuro.
Non credo che l´immagine di Jocker sia da associare ad Halloween (almeno non principalmente), quanto al fatto che Batman sia il gioco piú celebrato per sponsorizzare Physix...senz´altro questo gioco andrá da paura con una configurazione del genere...ma spendere 350 dollari per una configurazione "media", che poi non da niente di piú di una 8800 gtx, lo trovo insensato....soluzione di nicchia.....
Severnaya
02-11-2009, 09:59
se veramente per fermi in versione gaming mancano poche settimane sia tutto di guadagnato
a meno che le prestazioni nn siano all'altezza, cosa che nn credo, o il prezzo sia sovradimensionato e conoscendo nvidia nn credo sia impossibile...
mmmm... si... grandi... già... ma le dx11? :mc: :mc:
E' uno scherzo vero? :D
uhuh
La cosa più bella di questa scheda è indubbiamente lo sticker di Jocker :D
Severnaya
02-11-2009, 10:18
io nonostante tutto me lo auguro per una serie di ragioni:
in primis si eviterebbe un monopolio di fatto da parte di ati, che nonostante la simpatia che molti hanno verso le rosse (nn di maranello :asd:) un marchio solo è negativo da qualsivoglia punto si guardi
si eviterebbe un rialzo dei prezzi vedi monopolio di prima
vedremmo un'uscita anticipata (probabilmente) delle varie soluzione x2 o 5970 e 5890 (ipotesi)
tutto questo se fermi esce nn fra 6 mesi ma fra poco, abbia dei prezzi competitivi il che nn è detto se la resa di TSMC nn è alta o nvidia si droga e cmq spara dei prezzi che nn stanno ne in cielo ne in terra
Unrealizer
02-11-2009, 10:33
ma avete notato che la foto del pcb ha 2 connettori sli, mentre la schda ne ha uno solo? :mbe:
:asd: :asd: :asd: :asd: :asd: :asd:
E menomale che la preesistente architettura NVidia, a detta loro, era praticamente adatta ad accollarsi il carico di un chip relegato alla fisica.... tranne per un piccolo insignificante particolare....sì... uno solo.... e cioè che se non hai una doppia GPU... ti scordi di avere prestazioni decenti; :asd: alla faccia della GPU ottimizzata per la fisica e a tutti quelli che credevano che PhysX fosse un'implementazione hardware con conseguente architettura adeguata a questo scopo.
L'hanno sempre saputo in verità.... è che se prima co sta faccenda non racimolavano un po' di quattrini non se ne parlava mica di far uscire un prodotto del genere con una PPU supplementare.
Siamo arrivati a raschiare il fondo del barile.
E' persino serigrafata! Con quella sì che ora puoi giocare a Batman! :doh:
Quant'è CARA sta fisica!!! :asd:
io nonostante tutto me lo auguro per una serie di ragioni:
in primis si eviterebbe un monopolio di fatto da parte di ati, che nonostante la simpatia che molti hanno verso le rosse (nn di maranello :asd:) un marchio solo è negativo da qualsivoglia punto si guardi
Il monopolio a prescindere non ci deve proprio stare o essere!!
E di questi tempi ATI non credo possa puntare a questa situazione di mercato con l'architettura preesistente; nonostante sia più performante del concorrente.
Non siamo ai tempi dell'R300 dove praticamente NON c'erano concorrenti neanche a guardarli col binocolo!!!!
Devo ammettere però che Nvidia ultimamente ci aveva provato a prendere il largo. Fra PhysX, altre porcherie e standard chiusi senza senso, di evidenti segnali di monopolio ne aveva/ha mostrati eccome.
Dovresti spaventarti di questo. Poi in una situazione di monopolio il prezzo lo alzano tutti.
Severnaya
02-11-2009, 11:14
ma nn temo tanto gli standard chiusi quanto la gente che li segue pensando a chissà quale miglioramento del gameplay mentre si mostrano come delle m....ate fotoniche
masty_<3
02-11-2009, 11:26
:mbe: :mbe: :mbe: :mbe: :mbe: :mbe:
Forse volevate dire "alcuni mesi"?
direi anni :D :D :sofico:
ahahah
ma ci vuole addirittura una 250 (cioè una 9800gtx) (cioè una 8800gtx) per la fisica ?
hanno così tanti chip da smaltire ?
Avrei gradito una più parsimoniosa 9400-9500 mobile, invece di 2 vga, di cui una quasi inutilizzata e relegata a "supporto Ageia"....
figuriamoci, con la loro furbizia chissà cosa avrebbero combinato :stordita:
sarebbe bello però se ci avessero piazzato un 9400 su per il risparmio energetico, ma è un sogno :fagiano:
ma avete notato che la foto del pcb ha 2 connettori sli, mentre la schda ne ha uno solo? :mbe:
:sofico: :sofico: :sofico: :sofico:
@severnaya: credimi aspetto ancora qualcosa ottimizzato su quad core
Severnaya
02-11-2009, 11:36
ti credo!|
Italia 1
02-11-2009, 11:51
C'avrà il successo della Fiat Duna ??
Dai su, 3-4 ne venderanno oltre a qualche migliaio di sample regalati in giro per farli testare e benchare..
Ma quindi...
Scusata, ma non ho capito cosa c'entri Halloween...cioe', praticamente questa scheda e' rimasta in vendita solo la sera del 31 Ottobre e basta?
Ma quindi...
Scusata, ma non ho capito cosa c'entri Halloween...cioe', praticamente questa scheda e' rimasta in vendita solo la sera del 31 Ottobre e basta?
no, hanno preso spunto da halloween con il famoso detto "trick or treat", dolcetto o scherzetto
così hanno creato una vga che è uno scherzo (di cattivo gusto) per ogni possibile pollo che se la comprerà (i motivi nei post precedenti)
e forse anche per quello c'è l'immagine di joker
scherzeeeetttooooooo!
a sto punto però la potevano fare/presentare col pcb color arancio-zucca :sbonk:
saluti
P.S.
effettivamente il secondo connettore SLI che fine ha fatto? Altri fake by nvidia? :muro:
ndrmcchtt491
02-11-2009, 13:49
DOMANDA: Dolcetto o scherzetto?
RISPOSTA: Scaffale!
:sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico:
Il debutto di Fermi-stando alle ultime indiscrezioni-dovrebbe avvenire fra gli ultimi giorni di novembre e le prime due settimane di dicembre (sarà davvero così?).
ovviamente no... sarà una 8800gt rebrendizzata... xD
ndrmcchtt491
02-11-2009, 14:55
:asd: :asd: :asd: :asd: :asd: :asd:
E menomale che la preesistente architettura NVidia, a detta loro, era praticamente adatta ad accollarsi il carico di un chip relegato alla fisica.... tranne per un piccolo insignificante particolare....sì... uno solo.... e cioè che se non hai una doppia GPU... ti scordi di avere prestazioni decenti; :asd: alla faccia della GPU ottimizzata per la fisica e a tutti quelli che credevano che PhysX fosse un'implementazione hardware con conseguente architettura adeguata a questo scopo.
L'hanno sempre saputo in verità.... è che se prima co sta faccenda non racimolavano un po' di quattrini non se ne parlava mica di far uscire un prodotto del genere con una PPU supplementare.
Siamo arrivati a raschiare il fondo del barile.
E' persino serigrafata! Con quella sì che ora puoi giocare a Batman! :doh:
Quant'è CARA sta fisica!!! :asd:
Credimi, non c'è bisogno di un "coso":confused: del genere per giocare a Batman con PhysX on(non al max) a 1280*1024 tutto al max, basta una 9600gt, te lo dico io!
Mi riquoto da solo: :D :D :D
DOMANDA:: Dolcetto o scherzetto?
RISPOSTA:: Scaffale!
:sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico:
h4xor 1701
02-11-2009, 15:54
non vedo dove sta tutto questo vantaggio aggiuntivo....
Credimi, non c'è bisogno di un "coso":confused: del genere per giocare a Batman con PhysX on(non al max) a 1280*1024 tutto al max, basta una 9600gt, te lo dico io!
Mi riquoto da solo: :D :D :D
DOMANDA:: Dolcetto o scherzetto?
RISPOSTA:: Scaffale!
:sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico:
Certo...!!! Se ti accontenti di una media del 50% di 60 fps e cali sino a 20fps, di sicuro hai ragione. :D
Ma sai, la differenza tra giocare a 30 fps e a 60 fps per il sottoscritto è NOTEVOLE; poi te magari ragioni a modo tuo e ti accontenti anche di fare 10 fps :Prrr:
C'è gente & gente.
P.S.: PhysX non al max vuol dire spegnere completamente effetti fisici di taluni oggetti, e non di attenuarne artificiosamente i comportamenti.
allora ho visto ke molta gente dici su ad nvidia dicendo ke questa è una skeda inutile ma ricordo ke non è stata nvidia a lanciare questa skeda ma EVGA cioè un produttore quindi nvidia c'era poco e nnt con questa skeda
PS: per dimostare la mia teoria basta andare sul sito della nvidia e guadare le skede video prodotte http://www.nvidia.it/object/geforce_family_it.html
killer978
02-11-2009, 20:11
ALcune settimane? forse HwUp ha informazioni che a tutto il WEB sono sconosciute!! Sto Physics sarà anche caruccio (gli effetti in Batman sono davvero belli nulla da dire) ma è di una pesantezza assurda, ho visto girare Batman in Full HD con la Fisica attiva su una GTX285 scandaloso il calo di frames, cosa lo fanno a fare se poi diventa ingiocabile x il 99% di utenti, dovrebbero renderlo accessibile a chiunque magari dando la possibilita di disattivare alcune funzioni
allora ho visto ke molta gente dici su ad nvidia dicendo ke questa è una skeda inutile ma ricordo ke non è stata nvidia a lanciare questa skeda ma EVGA cioè un produttore quindi nvidia c'era poco e nnt con questa skeda
PS: per dimostare la mia teoria basta andare sul sito della nvidia e guadare le skede video prodotte http://www.nvidia.it/object/geforce_family_it.html
ma che cavolo hai scritto? :confused: :rolleyes: :doh:
halduemilauno
03-11-2009, 09:54
ma che cavolo hai scritto? :confused: :rolleyes: :doh:
che questa scheda è una iniziativa privata della Evga e non di nvidia. iniziativa che(visto il nome)vale solo per questa ricorrenza tipicamente americana quindi per il solo mercato americano per pochissimi esemplari pare 350 pezzi e che credo gia tutti venduti.
poi sulla bontà della scheda è chiaro che si rivolge ad un pubblico di appassionati che credono molto nelle funzioni Physx e che quindi si rivolge a quelli che non hanno una scheda madre idonea e che con questo escamotage ottengono ciò che loro vogliono.
tutto qui.
;)
Crimson Skies
03-11-2009, 11:36
Una buona idea secondo me. Alla fine cercare di sfruttare al missimo la serie GT200 prima di approtare la GT300 è una mossa ottima da parte di Nvidia.
Mi piacerebbe provarla.
Cmq è vero l'etichetta con Joker di Batman Arkham Asylum è bellissima come idea.:)
halduemilauno hai capito quello ke volevo dire :)
ndrmcchtt491
05-11-2009, 08:19
Certo...!!! Se ti accontenti di una media del 50% di 60 fps e cali sino a 20fps, di sicuro hai ragione. :D
Ma sai, la differenza tra giocare a 30 fps e a 60 fps per il sottoscritto è NOTEVOLE; poi te magari ragioni a modo tuo e ti accontenti anche di fare 10 fps :Prrr:
C'è gente & gente.
P.S.: PhysX non al max vuol dire spegnere completamente effetti fisici di taluni oggetti, e non di attenuarne artificiosamente i comportamenti.
Be dai, 10fps sono ancora tanti:Prrr:
A 25 fps l' immagine è sufficentemente fluida, poi batman non è uno Fps,poi calavo a 20fps in casi limite, non certo per tutto il gioco.:read:
Certi giochi sono limitati a 30fps, cosa fai non li compri?
Al cimema le immagini vengono proiettate a 24fps, vedi le sequenze?
Be dai, 10fps sono ancora tanti:Prrr:
A 25 fps l' immagine è sufficentemente fluida, poi batman non è uno Fps,poi calavo a 20fps in casi limite, non certo per tutto il gioco.:read:
Certi giochi sono limitati a 30fps, cosa fai non li compri?
Al cimema le immagini vengono proiettate a 24fps, vedi le sequenze?
25 fps fluido su monitor LCD con risoluzioni minime ormai che accettano frequenze a 60 Hz???
Ma tu stai scherzando o cosa? Il PC non è una console.
A 25 fps l'immagine è sufficentemente fluida? Ma hai mai giocato con i 60 fps?
Vuoi vedere quanta differenza passa già tra giocare a 50 fps e a 60 fps?
Tu mi parli di 25 fps!!! :doh:
Un gioco a differenza di un film è interattivo.
Cosa diamine stai dicendo? Il film è speculare al limite imposto dalla frequenza di aggiornamento e il montaggio viene fatto ad hoc. In un gioco mi dici come fai a impedire all'utente di cambiare repentivamente un'inquadratura se invece lo desidera? :D Non fare paragoni che non c'azzecano nulla.
Batman non è uno fps. Ma che c'entra? Mica il calo frame-rate è riservato solo agli fps?
Ormai in tutti i giochi si sente la necessità di arrivare ai 60 fps con il crescere delle risoluzioni di gioco.
ndrmcchtt491
06-11-2009, 14:52
25 fps fluido su monitor LCD con risoluzioni minime ormai che accettano frequenze a 60 Hz???
Ma tu stai scherzando o cosa? Il PC non è una console.
Non ti seguo...:confused: :confused:
Cosa c' entrano le console?
Cosa c'entra la risoluzione e il refresh con il frame-rate?
Una sequenza a 200Hz la vedi a 20fps e la stessa a 50Hz a 20fps la vedi sempre a 20fps indifferentemente dal refresh
A 25 fps l'immagine è sufficentemente fluida? Ma hai mai giocato con i 60 fps?
Vuoi vedere quanta differenza passa già tra giocare a 50 fps e a 60 fps?
Tu mi parli di 25 fps!!! :doh:
Un gioco a differenza di un film è interattivo.
Cosa diamine stai dicendo? Il film è speculare al limite imposto dalla frequenza di aggiornamento e il montaggio viene fatto ad hoc. In un gioco mi dici come fai a impedire all'utente di cambiare repentivamente un'inquadratura se invece lo desidera? :D Non fare paragoni che non c'azzecano nulla.
Ho giocato anche a 200fps!!:eek: :eek:
Scusa un po': un gioco dove lo vedi? un film dove lo vedi? Su un monitor o televisore che sia, cosa c'entra l' interattività:confused: :confused:
Un rts è godibile anche a 25fps, con un fps potresti avere qualche problema a 25fps...
In un gioco mi dici come fai a impedire all'utente di cambiare repentivamente un'inquadratura se invece lo desidera?
Non ho capito una mazza del tuo ultimp discorso, illuminami!:mc: :mc:
P.s. con Crysis se non raggiungi i 6ofps fissi che fai???:lamer: :lamer:
Non ti seguo...:confused: :confused:
Cosa c' entrano le console?
Cosa c'entra la risoluzione e il refresh con il frame-rate?
Una sequenza a 200Hz la vedi a 20fps e la stessa a 50Hz a 20fps la vedi sempre a 20fps indifferentemente dal refresh
Ho giocato anche a 200fps!!:eek: :eek:
Scusa un po': un gioco dove lo vedi? un film dove lo vedi? Su un monitor o televisore che sia, cosa c'entra l' interattività:confused: :confused:
Un rts è godibile anche a 25fps, con un fps potresti avere qualche problema a 25fps...
Non ho capito una mazza del tuo ultimp discorso, illuminami!:mc: :mc:
P.s. con Crysis se non raggiungi i 6ofps fissi che fai???:lamer: :lamer:
Senti qua purtroppo siamo offtopic di almeno 25 km. Se ti interessa la questione ti passo questo link (http://gaming.ngi.it/showthread.php?t=50218) che ho trovato sul web e di un articolo abbastanza vecchio ma interessante... Ma non venirmi a dire per piacere che Batman giocato a 30 fps è fluido... perché io altrimenti sono babbo natale e possiamo anche finire di sviluppare GPU visto che grosso modo pure una scheda di fascia media ti fa girare il più pesante e oneroso dei giochi a 25/30 fps.
La scattosità è evidente.
Il discorso del cambio repentino di inquadratura e il controllo "del regista" affidato completamente all'utente e altre cose te le leggi da te in quell'articolo.
Qua c'è gente marziana che sostiene di notare differenza tra il passaggio netto da 100 fps a 80 fps quindi è evidente che la questione è tutt'altro che esaurita.. Poi quando dal giappone arrivano notizie di anime in produzione con fotogrammi al secondo oltre i 100, non sono più sicuro manco dei 60 fps a momenti. Figurati!
Crysis, forse merito di un elevato realismo, si comporta bene ad un basso fps e l'effetto balbettante è decisamente attenuato, sta di fatto che in altri giochi già con un fps sopra abbondantemente i 30 ma sotto i 60 diventano ingiocabili affaticando l'occhio (anzi, più correttamente, il cervello)...
Come mai? Può essere che il cervello esprime un certo pregiudizio nei confronti di taluni giochi o che ha un'interpretazione della realtà tutta sua maturata con l'esperienza? Boh forse sarà la seconda....
Vedi Resident Evil 5 e lo stesso Batman che sceso a 40 a me inizia a far male letteralmente la testa. Potrebbe anche essere che il cervello si esenta da applicare l'effetto blur in talune situazioni che gli appaiono relativamente lontane dal concetto di realtà così come lo conosce. Il cervello di cose strane ne fa in effetti... sarebbe capace pure "di inventarsi e ricostruire" determinati fotogrammi che nella realtà dei fatti non ci sono... per esempio in un labbiale... in cui certi movimenti potrebbero considerarsi, per così dire, "scontati". Qua è roba che scotta.... e mi licenzio da solo... non proseguo. Anche perché già ci sono i miraggi a fare da testimone.
Lo stesso antialiasing è un'illusione del cervello che, a certi livelli, non riesce più a cogliere i dettagli, o i contorni, di un oggetto... o vuoi per limiti di capacità risolutive superate, o per notevole distanza dall'occhio dell'oggetto... e si inventa così smussamenti che non esistono...
P.S.: non rispondo più in merito a questo discorso.
masty_<3
06-11-2009, 19:48
no ma ripeto
non basta comprare una gtx295 e disabilitare lo sli via drivers?
no ma ripeto
non basta comprare una gtx295 e disabilitare lo sli via drivers?
Beh sì... è una dual gpu anche quella in fondo. Ma è stata una uscita di stile terrificante secondo me, che forse quella scheda lì non è più neanche in commercio adesso.... era a breve tiratura :D
Si stende un velo pietoso e via.
masty_<3
06-11-2009, 20:42
Beh sì... è una dual gpu anche quella in fondo. Ma è stata una uscita di stile terrificante secondo me, che forse quella scheda lì non è più neanche in commercio adesso.... era a breve tiratura :D
Si stende un velo pietoso e via.
Bah, praticamente scegli tra
scheda figa 350€ con batman gts250+gtx275
scheda decente 365€ con mastercard gtx275+gtx275
bah, la gente si fa fregare nei modi migliori, e io che sto ancora qui a tentare di imparare qualcosa :doh: perchè non dedicarci alle truffe?
ndrmcchtt491
07-11-2009, 09:46
Senti qua purtroppo siamo offtopic di almeno 25 km. Se ti interessa la questione ti passo questo link (http://gaming.ngi.it/showthread.php?t=50218) che ho trovato sul web e di un articolo abbastanza vecchio ma interessante... Ma non venirmi a dire per piacere che Batman giocato a 30 fps è fluido... perché io altrimenti sono babbo natale e possiamo anche finire di sviluppare GPU visto che grosso modo pure una scheda di fascia media ti fa girare il più pesante e oneroso dei giochi a 25/30 fps.
La scattosità è evidente.
Il discorso del cambio repentino di inquadratura e il controllo "del regista" affidato completamente all'utente e altre cose te le leggi da te in quell'articolo.
Qua c'è gente marziana che sostiene di notare differenza tra il passaggio netto da 100 fps a 80 fps quindi è evidente che la questione è tutt'altro che esaurita.. Poi quando dal giappone arrivano notizie di anime in produzione con fotogrammi al secondo oltre i 100, non sono più sicuro manco dei 60 fps a momenti. Figurati!
Crysis, forse merito di un elevato realismo, si comporta bene ad un basso fps e l'effetto balbettante è decisamente attenuato, sta di fatto che in altri giochi già con un fps sopra abbondantemente i 30 ma sotto i 60 diventano ingiocabili affaticando l'occhio (anzi, più correttamente, il cervello)...
Come mai? Può essere che il cervello esprime un certo pregiudizio nei confronti di taluni giochi o che ha un'interpretazione della realtà tutta sua maturata con l'esperienza? Boh forse sarà la seconda....
Vedi Resident Evil 5 e lo stesso Batman che sceso a 40 a me inizia a far male letteralmente la testa. Potrebbe anche essere che il cervello si esenta da applicare l'effetto blur in talune situazioni che gli appaiono relativamente lontane dal concetto di realtà così come lo conosce. Il cervello di cose strane ne fa in effetti... sarebbe capace pure "di inventarsi e ricostruire" determinati fotogrammi che nella realtà dei fatti non ci sono... per esempio in un labbiale... in cui certi movimenti potrebbero considerarsi, per così dire, "scontati". Qua è roba che scotta.... e mi licenzio da solo... non proseguo. Anche perché già ci sono i miraggi a fare da testimone.
Lo stesso antialiasing è un'illusione del cervello che, a certi livelli, non riesce più a cogliere i dettagli, o i contorni, di un oggetto... o vuoi per limiti di capacità risolutive superate, o per notevole distanza dall'occhio dell'oggetto... e si inventa così smussamenti che non esistono...
P.S.: non rispondo più in merito a questo discorso.
Io non ti ho chiesto di espormi le tue argomentazioni sulla vista o sul cervello umano...:rolleyes: :rolleyes:
La differenza tra 80fps e 100fps certo che si nota, mica ho detto il contrario.:read:
Anche se non ai risposto alle mie domande va bene così:read: :read: :read:
Io mi accontento di 30fps, tu no.
D' altronde il mondo è bello perchè vario.
Concludo il mio post, saluti
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.