Albatron annuncia scheda video con NV34

Albatron annuncia scheda video con NV34

Anche Albatron porta sul mercat la soluzione di fascia media di nVidia, GeForce FX5200

di pubblicata il , alle 12:14 nel canale Schede Video
NVIDIAGeForce
 

Con la seguente press-release Albatron comunica la disponibilità della scheda video GeForce FX5200U, basato sulla GPU NV34 con frequenza di core di 325MHz e frequenza di memoria di 650MHz.

"Albatron Technology, a manufacturer of high technology equipment, recently announced the GeForce FX5200U graphics accelerator featuring nVIDIA's FX5200 Ultra GPU. This board contains high performance features such as AGP 8x support, a GPU clock speed of 325 MHz, and memory that can clock up to 650 MHz. Add in the newest release of nVIDIA's CineFX engine and you have a high performance graphics card with incredible 3D imaging capabilities.

The nVIDIA GPU (GeForce FX5200 Ultra) for this board includes the most advanced suite of applications available on the market today. This includes the newest release of the CineFX engine which brings you closer to cinematic effects than ever before, even tackling the most difficult tasks such as smoke, hair, fur, grass, and ocean waves with uncanny precision. nVIDIA also provides Cg architecture which gives the developer an incredibly rich set of tools to design substantially complex and sophisticated graphics. Cg architecture was also designed to work closely with OpenGL1.4 and Microsoft DirectX 9.0 specifications which encourage the developer to use and reuse code efficiently, drastically reducing development time.

nVIDIA also includes the latest nView graphics display technology allowing you to spread your Windows desktop over two independent monitors. Using separate RAMDAC channels, this GPU is able to supply each display with data at transfer rates up to 350 MHz. Also, this board is capable of resolutions up to 2048x1536 (@75 Hz). An additional feature is the Unified Driver Architecture (UDA) which are common software drivers used by all nVIDIA products which simplifies the upgrade process for nVIDIA products.

Albatron made sure that all of the board's components matched its "Ultra" GPU in speed and performance. AGP 8X technology allows for fast 2.1 GB/sec data transfer rates, significantly increasing performance compared to its AGP 4X predecessors. The DDR RAM modules consist of 2.8 ns memory chips with a total capacity of 128 MB and a 128 bit memory bus. The memory clock can also be overclocked to reach an astounding 650 MHz!

Other hardware features include D-Sub, DVI and TV-Out interface ports adding compatibility with some of the most popular interface specifications. A powerful pure copper fan is used for maximum heat dissipation and heat sinks are provided for all of its DDR RAM modules. The FX5200U comes in an attractive, shiny color box featuring the popular FX series cover girl-butterfly, Gigi. In the box, bundled with the card, is an "S-Video to AV" adapter cable, Driver CD, Warranty, English/Chinese manual and 2 graphics games. Fully equipped and ready to tackle the most elaborate, sophisticated graphical challenges, the FX5200U has the "right stuff" to launch you into the next generation of graphical computing. "

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

14 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
fluca15 Maggio 2003, 12:32 #1

Articolo segnalato da Litium.it

E' quanto afferma l'autorevole sito ExtremeTech, che riporta come prova per la propria affermazione diversi screenshots di questo famoso benchmark, che è per sua natura deterministico, ovvero fissa le scene sempre nella stessa maniera. L'articolo è assai tecnico ma proviamo a darne una spiegazione semplice e intuitiva. La molla che ha spinto ad indagare erano alcune discprepanze fra i bench facenti uso di giochi ordinari(Radeon e GeforceFx affiancate) e quelli sintetici(GeforceFx superiore).

Il punto è fondamentalmente il seguente: poichè nei benchmark sintetici il punto di vista dell'osservatore è statico, chi sviluppa l'hardware, conoscendo a priori ciò che verra visto e ciò che NON verrà visto sullo schermo facendo girare il benchmark, può stabilire di tagliare via gli angoli non visti, aumentando vistosamente il numero di frames per secondo renderizzati.

Non solo, è anche possibile risparmiare sulla banda di memoria perchè non è necessario ripulire lo Z e il color buffer per quei pixel che non saranno visti.

Poichè Extremetech è dotata di una versione per soli sviluppatori del 3dMark, è stato possibile stoppare il bench e scegliere un angolo di visuale leggermente differente(cosa che succederebbe nel mondo dei giochi normali)e sono saltati subito agli occhi tutti gli artefatti.

nVidia risponde all'accusa adducendo come scusa un errore dei driver...

Trovate l'articolo a questo indirizzo.



A questo punto, si pone orami una domanda: i benchmark classici per le schede video hanno ancora un senso?
fluca15 Maggio 2003, 12:34 #2
Hanno senso se si opera correttamente e con coscienza
Xanny15 Maggio 2003, 12:41 #3
E' il motivo dell'exploit dei detonator 50! non un errore dei driver... una programmazione premeditata.
Ma non e' una novita' che Nvidia e spero non venga seguita da Ati, sviluppi drivers da bench... 1 drivers non fa miracoli di velocita' puo' pero' farli di qualita'...
spetro15 Maggio 2003, 12:43 #4

Che tristezza

Comunque il barare nei benchmark è purtroppo una pratica vecchia e già adottata da diverse parti. Il tutto a danno di noi utilizzatori.
Sono metodi ingiusti e al limite dell'illegale (mettere in mostra doti velocistiche false).

PS Ma la ragazza-farfalla simbolo dell'FX davvero si chiama Gigi? "featuring the popular FX series cover girl-butterfly, Gigi." LOL
spazio8015 Maggio 2003, 12:50 #5
Scusate, non c'entra nulla, ma mi fa ridere:
come si fa a mettere su una scheda un nome come "Gigi"?
Sennza offendere nessuno, ovviamente, però non è molto appropriato ad un prodotto hitech.
Ed ecco a voi la nuova NVidia FX5900 "Lello", anche in versione "Nanni" MX con Tv out.
Ma per carità....
Cimmo15 Maggio 2003, 12:53 #6
L'indirizzo originale e' questo
http://www.extremetech.com/article2...,1086857,00.asp
articolo interessantissimo consiglio a tutti quelli che hanno dimestichezza con l'inglese di leggerlo, in pratica i Detonator 44.03 sono stati truccati...brava nvidia!
Ovviamente e' un bug nei driver lei dice...un bug che ti fa andare + veloce la scheda, fossero tutti cosi' i bug

Grazie fluca per avercelo detto!
cionci15 Maggio 2003, 12:54 #7
Xanny: anche ATi lo ha fatto... All'interno dei driver ATi si trovava un riferimento all'eseguibile di Quake3... Rinominando l'eseguibile la scheda video andava più piano...

Lo fanno tutti
signo3d15 Maggio 2003, 13:50 #8
E il mercato...coi soldi che ci sono in ballo....
ligama15 Maggio 2003, 14:20 #9
...il maggiore guadagno dei nuovi detonators FX è in giochi del calibro di UT2003..quindi non mi sento di mettere in discussione il lavoro di NVIDIA.
Ogni casa produttrice attua determinate strategie...ATI lo ha fatto con il FA...ma nessuno se ne è lamentato per un anno!!!!
Rob8015 Maggio 2003, 14:57 #10
Beh concordo pienamente con ligama, guardate il bench NON sintetico di ut2003..non spariamo sulla croce rossa..

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^