PDA

View Full Version : Gigabyte: comunicato ufficiale su 3D1


Redazione di Hardware Upg
22-12-2004, 15:24
Link alla notizia: http://news.hwupgrade.it/13777.html

Gigabyte rilascia il comunicato ufficiale circa la nuova scheda video equipaggiata con due GPU NVIDIA GeForce 6600GT

Click sul link per visualizzare la notizia.

zabe
22-12-2004, 15:27
si sa quanto costerà?

TheZeb
22-12-2004, 15:34
Porca paletta... mapesta di più di una ultra ????:sbavvv:

generals
22-12-2004, 15:35
Inoltre, come se la cava con i filtri?

bellaLI!
22-12-2004, 15:36
quei 256 bit sono reali oppure 128 + 128 (un canale per gpu)

daitand
22-12-2004, 15:39
ma come la ha presa nvidia?

Tbread-inside
22-12-2004, 15:47
e si potranno mettere 2 di queste in sli ???? :sofico:

Simon82
22-12-2004, 15:53
Originariamente inviato da daitand
ma come la ha presa nvidia?
Gigabyte credo che in linea di massima abbia la possibilita' di investire come vuole nello sviluppo delle sue schede. ;)
Non credo che debba rendere piu' di tanto conto a Nvidia di cio' che fa con le sue vpu. Figurati poi se queste schede diventano anche un successone...
In ogni caso immagino il prezzo di questa soluzione.

Kars
22-12-2004, 16:00
non dovrebbe costare tanto.. si diceva che potrebbe stare in bundle nella nuova scheda madre gigabyte con lo sli ad un prezzo sui 650E... cmq resto convinto che questa scheda video non arrivera' mai sui scaffali, mi ricordo ancora di un suo lettore dvd, stupendo, ma mai uscito.

edit...

Full compatibility with high performance GIGABYTE 8? series motherboards, such as the GA-K8NXP-SLI, for a deluxe gaming package that includes SLI, PCI Express graphics interface, Serial ATA II, NV Firewall and powerful AMD Athlon64FX/64 processor support"

Mezzelfo
22-12-2004, 16:02
Credo che sia semplicemente l'utilizzo della tecnologia SLI di nVidia solo che invece di avere due schede separate Gigabyte le ha compattate in una sola...

Kars
22-12-2004, 16:02
poi questi grafici lasciano il tempo che trovano... perche' non hanno fatto un screen del risultato?
anche un bambino di un anno sarebbe capace di fare quei grafici

SilentDragon
22-12-2004, 16:03
ma magari ne fanno anche un modello AGP! sarebbe molto interessante

Zac 89
22-12-2004, 16:08
Dalla foto sembra nn si possa mettere a sua volta in SLi...

Cmq io preferisco 2 VGA staccate:
Hanno la memoria più performante (può essere di più e il bus può essere + ampio)

lappaz
22-12-2004, 16:45
...eccole, sotto licenza son tornate, le mitiche voodoo camuffate da geforce. Prima o poi doveva accadere: nvidia non spreca nulla in fatto di brevetti, sà il fatto suo. Ati, alzati e cammina!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Feanortg
22-12-2004, 16:59
...Sono daccordo, il team della 3DFX è tornato! Si vede dalle prestazioni di Doom 3... Così come una volta era Quake o Unreal in opengl. Non per niente ho ripreso una Nvidia eheheh! Finalmente!

giovonni
22-12-2004, 17:27
Moooooolto interessante sta schedozza: alla fine se fossero onesti dovrebbe costare meno di una Ultra perchè, pur contando il surplus dovuto alla "genialata", i due chip che monta dovrebbero essere ben più economici di un solo 6800ultra, mentre il resto della scheda è più o meno (e qua mi criticherete) come la 6800ultra.

riva.dani
22-12-2004, 17:37
sono molto scettico su quei risultati.... :o

Mr.Gamer
22-12-2004, 17:43
io invece sono molto scettico sul costo :|

geniusmiki
22-12-2004, 17:54
credo che nessuno l'abbia detto:
complimenti alla gigabyte che al contario di asus fa prodotti sempre più stabili, performanti e anche tecnologicamnte avanzati...

LordPBA
22-12-2004, 17:59
e quanta corrente necessita?

ErminioF
22-12-2004, 18:37
questa scheda non è niente male...cmq i grafici sono veritieri quasi sicuramente, non è che taroccano i bench per qualche punticino al 3dmark :D

ancheio
22-12-2004, 18:54
asus? che ha fatto di male ora asus? mah!

Bisont
22-12-2004, 19:18
mah se funziona voglio vedere questa con i giochi reali...

DevilsAdvocate
22-12-2004, 20:20
Attenti all'inghippo!
Questa pesta piu' delle altre nel 3dmark 2003,
ma non credo faccia altrettanto nel 2005 in quanto
gli shader sono quasi sicuramente inferiori. Quindi
occhio!!!!

Juspriss
22-12-2004, 20:36
Spero di leggere abbreve le recensioni! ;)

Parker
22-12-2004, 21:56
e con questa ati puo andare a raccoglere le patate eheheheh

Free Gordon
22-12-2004, 22:21
E questa quanto consuma?
1.21gigowatt? LOL!

Fabio310
22-12-2004, 23:51
ci guadagni se ati va a cogliere le patate.... pensa ke pagheresti questa skeda molto di + se ati non ci fosse!
invece di fare il tifo da bar cerchiamo di postare commenti o dubbi utili! Come la maggior parte delle persone fà :D

JohnPetrucci
23-12-2004, 00:45
E pensare che ho ordinato una 6800GT, se avessi la bacchetta magica ordinerei questa scheda invece.

Andreakk73
23-12-2004, 04:07
Certo ragazzi che per metterci d'accordo non lo so cosa dovrebbero inventarsi.sembriamo tutti ingegneri come che noi potessimo insegnare loro qualcosa nel costruire una scheda e adesso il bus e adesso la memoria e il benc è finto...bo se lo dite voi!!! E poi quella sull'ASUS propio non la condivido.

midian
23-12-2004, 07:04
bella...
anzi straordinaria :eek: :eek: :eek:

pikkoz
23-12-2004, 10:27
MAh..anche a me sembrano strani i risultati : due 6600gt in sli non raggiungono una 6800gt e qui due chip 6600 fanno il mazzo alla 6800ultra..probabilmente puà essere che nello sli la perdita sta propio nella gestione delle due schede video..

Tonino
23-12-2004, 15:43
A me invece non convice questa cosa:

assodato che una 6600GT va meno della metà di una 6800 Ultra, come è possibile che usando due chip le prestazioni siano più che raddoppiate?

P.S. resta cmq il fatto che sia un ottimo esercizio di stile

Fullerene
23-12-2004, 17:29
Non so se è stato già chiesto: ma occorrerà il chipset nForce4 Ultra o nForce4 SLI?

Grazie!!!

cdimauro
24-12-2004, 08:51
Francamente mi aspetterei che non fosse necessaria una piattaforma SLI per una scheda che integra questa tecnologia "all'interno"...