View Full Version : Gigabyte: comunicato ufficiale su 3D1
Redazione di Hardware Upg
22-12-2004, 15:24
Link alla notizia: http://news.hwupgrade.it/13777.html
Gigabyte rilascia il comunicato ufficiale circa la nuova scheda video equipaggiata con due GPU NVIDIA GeForce 6600GT
Click sul link per visualizzare la notizia.
Porca paletta... mapesta di più di una ultra ????:sbavvv:
generals
22-12-2004, 15:35
Inoltre, come se la cava con i filtri?
bellaLI!
22-12-2004, 15:36
quei 256 bit sono reali oppure 128 + 128 (un canale per gpu)
ma come la ha presa nvidia?
Tbread-inside
22-12-2004, 15:47
e si potranno mettere 2 di queste in sli ???? :sofico:
Originariamente inviato da daitand
ma come la ha presa nvidia?
Gigabyte credo che in linea di massima abbia la possibilita' di investire come vuole nello sviluppo delle sue schede. ;)
Non credo che debba rendere piu' di tanto conto a Nvidia di cio' che fa con le sue vpu. Figurati poi se queste schede diventano anche un successone...
In ogni caso immagino il prezzo di questa soluzione.
non dovrebbe costare tanto.. si diceva che potrebbe stare in bundle nella nuova scheda madre gigabyte con lo sli ad un prezzo sui 650E... cmq resto convinto che questa scheda video non arrivera' mai sui scaffali, mi ricordo ancora di un suo lettore dvd, stupendo, ma mai uscito.
edit...
Full compatibility with high performance GIGABYTE 8? series motherboards, such as the GA-K8NXP-SLI, for a deluxe gaming package that includes SLI, PCI Express graphics interface, Serial ATA II, NV Firewall and powerful AMD Athlon64FX/64 processor support"
Mezzelfo
22-12-2004, 16:02
Credo che sia semplicemente l'utilizzo della tecnologia SLI di nVidia solo che invece di avere due schede separate Gigabyte le ha compattate in una sola...
poi questi grafici lasciano il tempo che trovano... perche' non hanno fatto un screen del risultato?
anche un bambino di un anno sarebbe capace di fare quei grafici
SilentDragon
22-12-2004, 16:03
ma magari ne fanno anche un modello AGP! sarebbe molto interessante
Dalla foto sembra nn si possa mettere a sua volta in SLi...
Cmq io preferisco 2 VGA staccate:
Hanno la memoria più performante (può essere di più e il bus può essere + ampio)
...eccole, sotto licenza son tornate, le mitiche voodoo camuffate da geforce. Prima o poi doveva accadere: nvidia non spreca nulla in fatto di brevetti, sà il fatto suo. Ati, alzati e cammina!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
Feanortg
22-12-2004, 16:59
...Sono daccordo, il team della 3DFX è tornato! Si vede dalle prestazioni di Doom 3... Così come una volta era Quake o Unreal in opengl. Non per niente ho ripreso una Nvidia eheheh! Finalmente!
giovonni
22-12-2004, 17:27
Moooooolto interessante sta schedozza: alla fine se fossero onesti dovrebbe costare meno di una Ultra perchè, pur contando il surplus dovuto alla "genialata", i due chip che monta dovrebbero essere ben più economici di un solo 6800ultra, mentre il resto della scheda è più o meno (e qua mi criticherete) come la 6800ultra.
riva.dani
22-12-2004, 17:37
sono molto scettico su quei risultati.... :o
Mr.Gamer
22-12-2004, 17:43
io invece sono molto scettico sul costo :|
geniusmiki
22-12-2004, 17:54
credo che nessuno l'abbia detto:
complimenti alla gigabyte che al contario di asus fa prodotti sempre più stabili, performanti e anche tecnologicamnte avanzati...
e quanta corrente necessita?
ErminioF
22-12-2004, 18:37
questa scheda non è niente male...cmq i grafici sono veritieri quasi sicuramente, non è che taroccano i bench per qualche punticino al 3dmark :D
asus? che ha fatto di male ora asus? mah!
mah se funziona voglio vedere questa con i giochi reali...
DevilsAdvocate
22-12-2004, 20:20
Attenti all'inghippo!
Questa pesta piu' delle altre nel 3dmark 2003,
ma non credo faccia altrettanto nel 2005 in quanto
gli shader sono quasi sicuramente inferiori. Quindi
occhio!!!!
Juspriss
22-12-2004, 20:36
Spero di leggere abbreve le recensioni! ;)
e con questa ati puo andare a raccoglere le patate eheheheh
Free Gordon
22-12-2004, 22:21
E questa quanto consuma?
1.21gigowatt? LOL!
Fabio310
22-12-2004, 23:51
ci guadagni se ati va a cogliere le patate.... pensa ke pagheresti questa skeda molto di + se ati non ci fosse!
invece di fare il tifo da bar cerchiamo di postare commenti o dubbi utili! Come la maggior parte delle persone fà :D
JohnPetrucci
23-12-2004, 00:45
E pensare che ho ordinato una 6800GT, se avessi la bacchetta magica ordinerei questa scheda invece.
Andreakk73
23-12-2004, 04:07
Certo ragazzi che per metterci d'accordo non lo so cosa dovrebbero inventarsi.sembriamo tutti ingegneri come che noi potessimo insegnare loro qualcosa nel costruire una scheda e adesso il bus e adesso la memoria e il benc è finto...bo se lo dite voi!!! E poi quella sull'ASUS propio non la condivido.
bella...
anzi straordinaria :eek: :eek: :eek:
MAh..anche a me sembrano strani i risultati : due 6600gt in sli non raggiungono una 6800gt e qui due chip 6600 fanno il mazzo alla 6800ultra..probabilmente puà essere che nello sli la perdita sta propio nella gestione delle due schede video..
A me invece non convice questa cosa:
assodato che una 6600GT va meno della metà di una 6800 Ultra, come è possibile che usando due chip le prestazioni siano più che raddoppiate?
P.S. resta cmq il fatto che sia un ottimo esercizio di stile
Fullerene
23-12-2004, 17:29
Non so se è stato già chiesto: ma occorrerà il chipset nForce4 Ultra o nForce4 SLI?
Grazie!!!
cdimauro
24-12-2004, 08:51
Francamente mi aspetterei che non fosse necessaria una piattaforma SLI per una scheda che integra questa tecnologia "all'interno"...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.