View Full Version : Aspettando G80 [Thread ufficiale]
Pagine :
[
1]
2
3
4
5
6
7
8
9
10
11
12
Apro questo 3d traendo spunto dalle ultime specifiche pubblicate sul sito VR-Zone proprio oggi.
* Unified Shader Architecture
* Support FP16 HDR+MSAA
* Support GDDR4 memories
* Close to 700M transistors (G71 - 278M / G70 - 302M)
* New AA mode : VCAA
* Core clock scalable up to 1.5GHz
* Shader Peformance : 2x Pixel / 12x Vertex over G71
* 8 TCPs & 128 stream processors
* Much more efficient than traditional architecture
* 384-bit memory interface (256-bit+128-bit)
* 768MB memory size (512MB+256MB)
* Two models at launch : GeForce 8800GTX and GeForce 8800GT
* GeForce 8800GTX : 7 TCPs chip, 384-bit memory interface, hybrid water/fan cooler, water cooling for overclocking. US$649
* GeForce 8800GT : 6 TCPs chip, 320-bit memory interface, fan cooler. US$449-499
Our friends have gotten some information of the upcoming NVIDIA G80 and it appears that G80 gonna be unified shader after all. It should be pretty close to the truth and it explained the mystery of the strange DRAM capacities that INQ (http://www.theinquirer.net/default.aspx?article=34359) reported previously. Expect G80 to be out somewhere in mid November along with Kentsfield.
http://www.vr-zone.com/?i=4007
Crasher89
19-09-2006, 18:54
se davvero la skeda avrà queste caratteristiche sarà un vero e proprio mostro....
mi sembra un po strana sta cosa dei 384bit e 768Mega....sarebbe la prima skeda ad andare oltre i 256Bit(apparte la 7950GX2)
LightForce
19-09-2006, 18:58
:eekk:
Foglia Morta
19-09-2006, 19:00
ma dai 700 mln di transistor... manco fosse a 65nm, quel rumour è una ca**ata immensa
ma dai 700 mln di transistor... manco fosse a 65nm, quel rumour è una ca**ata immensa
Certo, come il bus da 384bit :)
Diciamo che da corda al rumor di The Inquirer che vedeva G80 come ibrido, mezzo Dx9 e mezzo Dx 10. Quei transistor sono un numero sparato a casaccio tanto per adre l'idea di un core grosso. E la somma del bus lascia intendere una gpu che funziona a 256bit e una a 128bit. Così come la ram.
700 milioni di transistor...
si puo' avere la versione a valvole?
:)
Bah... un bel Quad SLi... quasi tre miliardi di trans...
:sofico:
Per quanto riguarda i transistor la cifra dovrebbe essere intorno ai 500 ml.
Io la voglio con l'intercooler e il perossido di azoto :D
Chi offre di piu' sui transistor? :doh: :rolleyes:
le caratteristiche nel primo thread mi sembrano palesemente inventate 700M transistor :rolleyes: core a 1.5ghz :rolleyes: shader unificati :rolleyes: mah.....direi di aspettare qualche indiscrezione più affidabile per intavolare una discussione...
JoeLatino
20-09-2006, 16:31
....forse pero' non e' del tutto una bufala... :D
leggendo nei forum stranieri e' evidenziato che molto probabilmente la g80 sara' una dual core e che quindi tutto va diviso per 2!
Piuttosto sara' da vedere se una parte e' dedicata alla grafica normale e l'altra alla fisica o se il secondo bus e' utilizzato solo come buffer/setup per le nuove AA...
Athlon 64 3000+
20-09-2006, 17:49
personalmente quei dati che vorrebbero dire che la gpu avrà 700 milioni di transistor sono tutte sparate senza senso.
Ricordo che già le GPU sono dei processori multicore quello della gpu dual core non è vero anche quello.
Al massimo potrebbero fare una versione con G80 come la 7950GX2 ma forse solo quando scenderanno al processo produttivo a 65 nm.
Sicuramente G80 avrà oltre 400 milioni di transistor e scaldera di più persino della 7950GX2 e si parla che dovrebbe essere fatto a 90 nm.
JoeLatino
27-09-2006, 08:06
scusate ma ci sono novita' per questa scheda?
Kharonte85
27-09-2006, 08:27
Direttamente da wiki http://en.wikipedia.org/wiki/GeForce_8_Series :D
GeForce 8 Series
This article contains information about a scheduled or expected future product.
It may contain unverified or unreliable information, and may not reflect the final version of the product.
The GeForce 8 Series, or G80, will be the eighth generation of NVIDIA's GeForce graphics cards. Little was known about this series until an official announcement from NVIDIA.
Rumors
* The G80 is expected to be released anywhere from November to December of 2006.
* It will be the first Direct3D 10 and Shader Model 4.0 card to be released.
* There will be 2 cards released at launch, the flagship 8800GTX and the slightly slower 8800GT.
* The 8800GTX will have 768 MB of ram while the 8800GT will have 384 MB of RAM and will also have slower core and memory clock speeds, and possibly fewer pipelines, than the 8800GTX.
* The launch price of the 8800GTX will be $649 while the 8800GT will initially cost $449-499.
* Following the introduction of the flagship 8800 range, NVIDIA will introduce cheaper, slower versions of the card with one or more of the following reductions in capability: (a) reduced core clock speed; (b) reduced memory clock speed; (c) reduced memory bus width; (d) reduced pipeline count; (e) reduced chip count (if the 8800 is, in fact, a dual chip part); and / or (f) reduced complement of memory. If previous NVIDIA naming convention is followed, mid-range products will be identified by model number 8600, and low-end parts will be named 8200/8300.
* The G80 has most recently been claimed to be based on a unified shader architecture, with shading performance of 2x pixel and 12x vertex above G71. Somewhat contrarily, it has also been recently described as having separate or hybrid pipelines for DX9 and DX10, and possibly separate cores.
* The G80 die will be large - 20x20 mm, with nearly 700 million transistors.
* The memory interface is said to be Samsung's new GDDR4 specification. The 8800GTX will have a 384-bit memory interface, and the 8800GT's will be 320-bit.
* The series is also rumored to have fast memory and core clocks (with the core scaling up to 1.5GHz on a future process), but will still be built on 90nm technology to avoid unnecessary risks. Core clocks are estimated to be in the 700 to 850 MHz range upon initial release.
* Anandtech reports that the next generation of GPUs will range in power consumption from 130W to 300W. This increase in power consumption will make for higher-wattage Power Supply Units (in the 800 to 1100 Watt range) and/or the addition of internal, secondary PSUs solely for powering the GPUs.
* The 8800GTX's cooler will be a hybrid water/fan design. The 8800GT will use a traditional fan cooler.
* The G80 should also feature HDMI, or possibly UDI, connections with full HDCP support.
* The G80 will have a new antialiasing mode known as VCAA.
;)
Dylan BJ
27-09-2006, 16:52
:D
molto molto interessante... ke sia gia' venuto il tempo di vendere la 7950X2??? poverina, cosi' giovane... :Prrr:
oOMichaelOo
27-09-2006, 16:59
Parlando di consumi.....? la tecnologia e il consumo nn dovrebbero essere inversamente proporzionali? :doh:
Kharonte85
27-09-2006, 17:13
Parlando di consumi.....?
:doh: Ogni sera prima di andare a :ronf: prego che quelle voci non siano vere... :help: :mc:
kenjcj2000
27-09-2006, 17:26
:doh: Ogni sera prima di andare a :ronf: prego che quelle voci non siano vere... :help: :mc:
mi sà che preghi a vuoto allora...
kenjcj2000
27-09-2006, 17:29
Parlando di consumi.....? la tecnologia e il consumo nn dovrebbero essere inversamente proporzionali? :doh:
vero ma fino al passagio dei 65nm questo dato sarà contradetto :D
rey.mysterio83
27-09-2006, 17:30
ma quando minchia escono ste g80??
Dylan BJ
28-09-2006, 01:51
ma quando minchia escono ste g80??
temo inizio novembre.... :muro:
Kharonte85
28-09-2006, 08:22
mi sà che preghi a vuoto allora...
:sob: Perlomeno spero che un alimentatore come il tuo riesca a reggerele... :sperem:
halduemilauno
28-09-2006, 09:06
ma quando minchia escono ste g80??
il prossimo 3 ottobre ci sarà una conferenza sulle dx10.
;)
Athlon 64 3000+
28-09-2006, 09:40
il prossimo 3 ottobre ci sarà una conferenza sulle dx10.
;)
Interessante :)
Iscritto speriamo che ad Ottobre si vada qualcosa .
Dopo molti rumours a riguardo, nVidia svela i suo piani per quanto riguarda la gpu G80, i cui primi sample verranno distribuiti a novembre.
Come la logica suggeriva e dal momento che il processo produttivo utilizzato è ancora quello a 90 nanometri, la frequenza di 1500 MHz di core di cui si era favoleggiato è ben lontana da quella che sarà la realtà; verosimilmente il clock operativo si aggirerà sui 700 MHz.
La casa californiana ha quindi almeno un trimestre di vantaggio sulla concorrente Ati, che potrà mettere in campo R600 non prima di gennaio/febbraio del 2007
http://www.pctuner.net/php/Descrizione/Descrizione.php?id=newsweb&n=3933
halduemilauno
28-09-2006, 11:30
Dopo molti rumours a riguardo, nVidia svela i suo piani per quanto riguarda la gpu G80, i cui primi sample verranno distribuiti a novembre.
Come la logica suggeriva e dal momento che il processo produttivo utilizzato è ancora quello a 90 nanometri, la frequenza di 1500 MHz di core di cui si era favoleggiato è ben lontana da quella che sarà la realtà; verosimilmente il clock operativo si aggirerà sui 700 MHz.
La casa californiana ha quindi almeno un trimestre di vantaggio sulla concorrente Ati, che potrà mettere in campo R600 non prima di gennaio/febbraio del 2007
http://www.pctuner.net/php/Descrizione/Descrizione.php?id=newsweb&n=3933
sulla faccenda 90 nanometri non ci giurerei. la prossima settimana(3 ottobre?)Nvidia dovrebbe presentare la 7650gs proprio fatta a 80nanometri. e gia c'è la 7700go.
;)
rey.mysterio83
28-09-2006, 11:45
quindi a novembre escono?
JoeLatino
28-09-2006, 12:19
Ehm...scusate ma alla fine la g80 avra' pixel/shaders unificati o no????
Dite che verso febbraio/marzo uscira' una versione ultra o doppia tipo la 7950?
Cosa significa esattamente 8 TCPs & 128 stream processors?
E perche' nel modello segnalato GeForce 8800GTX ci sono solo 7tcp e non 8?
Grazie
Ehm...scusate ma alla fine la g80 avra' pixel/shaders unificati o no????
Dite che verso febbraio/marzo uscira' una versione ultra o doppia tipo la 7950?
Cosa significa esattamente 8 TCPs & 128 stream processors?
E perche' nel modello segnalato GeForce 8800GTX ci sono solo 7tcp e non 8?
Grazie
Penso che se usciranno soluzioni SLI on board cosi' come la 7950, non le vedremo certo per Febbraio, e comunque a giudicare da quelli che sono i primi rumors sui consumi, la vedo una cosa abbastanza esosa per ora, almeno con questi processi produttivi.
halduemilauno
28-09-2006, 14:14
quindi a novembre escono?
probabilmente sarà come lo scorso anno dove Nvidia non aveva concorrenti validi e fece uscire inizialmente la 7800gtx(256) castrata a 430/1200, più che sufficiente allo scenario di allora per riservandosi la vera 7800gtx(512)550/1700 appena ati rese disponibile la x1800xt. quindi aspettiamoci la 8800gt e poi la 8800gxt.
probabilmente.
;)
riservandosi la vera 7800gtx(512)550/1700 appena ati rese disponibile la x1800xt
Ah, quella simpaticissima scheda praticamente mai uscita? Niente male per essere la vera GTX :asd:
Dai, lo sappiamo tutti (a questo punto a parte te) cosa fu quella scheda... ;)
Dark Schneider
28-09-2006, 14:44
Quelle specifiche sono falsissime. Non stanno nè in cielo nè in terra.
Core a 1500 Mhz, bus a 384 bit,700 milioni di transistor? :asd:
Comunque non capisco tutta sta fretta che c'è di cambiare vga e prendersi la prima vga DX10. Non se ne sente nemmeno il bisogno. Poi scusa se non esce Vista...
halduemilauno
28-09-2006, 14:46
Ah, quella simpaticissima scheda praticamente mai uscita? Niente male per essere la vera GTX :asd:
Dai, lo sappiamo tutti (a questo punto a parte te) cosa fu quella scheda... ;)
intendevo sottolineare l'atteggiamento avuto allora. in assenza di concorrenza Nvidia si comportò cosi. certamente se concorrenza ci fosse stata la 7800gtx 512 550/1700 sarebbe uscita fin da subito e quindi sarebbe stata ben più presente.
ps e cosa dire della x1800xt? annunciata a settembre, presentata ad ottobre, disponibile a novembre, sostituita a gennaio(dalla x1900xtx).
halduemilauno
28-09-2006, 14:47
Comunque non capisco tutta sta fretta che c'è di cambiare vga e prendersi la prima vga DX10. Non se ne sente nemmeno il bisogno. Poi scusa se non esce Vista...
appunto...
;)
Solskjaer
28-09-2006, 14:51
Peccato per le spec inventate, ma sarà di sicuro una bomba.
Quoto però la piena inutilità di correre fdietro alle schede dx10 prima che vista sia rock solid, e comqunue meglio apettare qualche step in + di SVGA per poter decidere.
Intanto mi coccolo la mia belva :P
appleroof
28-09-2006, 15:09
Comunque non capisco tutta sta fretta che c'è di cambiare vga e prendersi la prima vga DX10. Non se ne sente nemmeno il bisogno. Poi scusa se non esce Vista...
quoto
Quelle specifiche sono falsissime. Non stanno nè in cielo nè in terra.
Core a 1500 Mhz, bus a 384 bit,700 milioni di transistor? :asd:
Comunque non capisco tutta sta fretta che c'è di cambiare vga e prendersi la prima vga DX10. Non se ne sente nemmeno il bisogno. Poi scusa se non esce Vista...
Giust'appunto... le schede odierne andranno benissimo persino con i primi titoli che potranno sfruttare le Directx10. Certo non avremo certe features e certe cose dovranno per forza essere omesse, ma io ancora ora rimango allibito dalla potenza delle attuali soluzioni, senza parlare poi delle stesse in SLI e Crossfire.
Pensare di vendere ora una 7950 o una X1950XTX e' da matti.
Athlon 64 3000+
28-09-2006, 15:24
per esempio per uno che ha un'Athlon 64 single core con una X1900XT come accoppiata tipo me sarebbe meglio tenersi la scheda video e farsi un dual core visto che piano piano veranno sempre più sfruttati
per esempio per uno che ha un'Athlon 64 single core con una X1900XT come accoppiata tipo me sarebbe meglio tenersi la scheda video e farsi un dual core visto che piano piano veranno sempre più sfruttati
Esatto. Personalmente la X1800XL che ho comprato insieme agli altri componenti mi dovra' durare a lungo, prossimo upgrade sara' ram e cpu se lo riterro' opportuno.
DarKilleR
28-09-2006, 15:28
non credo a niente di tutto ciò, tranne che al bus a 384 bit....normale evoluzione prima del bus a 512 bit.
Per il resto 1.5 ghz mica è un Pentium 4 cavolo è una VGA ^^ :sofico:
non credo a niente di tutto ciò, tranne che al bus a 384 bit....normale evoluzione prima del bus a 512 bit.
Per il resto 1.5 ghz mica è un Pentium 4 cavolo è una VGA ^^ :sofico:
Bisogna un'attimo capire se al momento risultera' davvero utile investire nell'ampliamento della banda invece che sull'architettura interna vista la mostruosa evoluzione degli shaders.
Io invece sono propio curioso di vedere all'opera un primo sample di G80, ma non per quanto riguarda le DX10 ma per vedere come gira con le DX 9.C rispetto alle schede top di gamma di adesso (Nvidia 7950 GX2 e Ati X1950XTX ) ;) .
JoeLatino
28-09-2006, 16:44
...Certo che se le g80 avrebbero una sorta di coprocessore per la fisica.... non sarebbe davvero male!!! :D
halduemilauno
28-09-2006, 16:57
non credo a niente di tutto ciò, tranne che al bus a 384 bit....normale evoluzione prima del bus a 512 bit.
Per il resto 1.5 ghz mica è un Pentium 4 cavolo è una VGA ^^ :sofico:
ma forse 1500 come denominazione è la somma delle due gpu in versione x2.
;)
intendevo sottolineare l'atteggiamento avuto allora. in assenza di concorrenza Nvidia si comportò cosi. certamente se concorrenza ci fosse stata la 7800gtx 512 550/1700 sarebbe uscita fin da subito e quindi sarebbe stata ben più presente.
Se non fosse stato per problemi produttivi... li avevano dopo aver fatto un bel pò di "testing" con la GTX, figurati se l'avessero lanciata subito. Molte marche avevano addirittura problemi a tenere stabili le gpu... insomma una chiavica.
ps e cosa dire della x1800xt? annunciata a settembre, presentata ad ottobre, disponibile a novembre, sostituita a gennaio(dalla x1900xtx).
Ritardi. Ma sei tu ad aver tirato in ballo la GTX 512mb, non di certo io. I confronti puoi farli, se vuoi... ma dire l'ha fatto Ati non toglie di certo il fatto che la GTX 512mb sia stata una mossa avventata nonchè totalmente inutile.
halduemilauno
28-09-2006, 17:06
Se non fosse stato per problemi produttivi... li avevano dopo aver fatto un bel pò di "testing" con la GTX, figurati se l'avessero lanciata subito. Molte marche avevano addirittura problemi a tenere stabili le gpu... insomma una chiavica.
Ritardi. Ma sei tu ad aver tirato in ballo la GTX 512mb, non di certo io. I confronti puoi farli, se vuoi... ma dire l'ha fatto Ati non toglie di certo il fatto che la GTX 512mb sia stata una mossa avventata nonchè totalmente inutile.
:boh:
:boh:
Ok, ora che abbiamo esaurito l'argomento per evidente mancanza di argomenti, possiamo continuare a parlare di G80 ;)
halduemilauno
28-09-2006, 17:24
Ok, ora che abbiamo esaurito l'argomento per evidente mancanza di argomenti, possiamo continuare a parlare di G80 ;)
appunto e parlando di G80 che ho tirato fuori l'argomento 7800gtx in funzione G80 proprio perchè vedo ora una certa analogia con quello che accadde allora(Nvidia in vantaggio temporale e quindi nelle condizioni di non dover sparare tutte le cartuccie perchè la situazione non lo richiede e sparare la cartuccia più grossa proprio quando la concorrenza è invece presente). tu invece hai parlato della 7800gtx diciamo per altro.
tutto qui. poi per carità son solo mie opinioni.
;)
appunto e parlando di G80 che ho tirato fuori l'argomento 7800gtx in funzione G80 proprio perchè vedo ora una certa analogia con quello che accadde allora(Nvidia in vantaggio temporale e quindi nelle condizioni di non dover sparare tutte le cartuccie perchè la situazione non lo richiede e sparare la cartuccia più grossa proprio quando la concorrenza è invece presente). tu invece hai parlato della 7800gtx diciamo per altro.
tutto qui. poi per carità son solo mie opinioni.
;)
Certo, hai ragione sempre e comunque tu :rolleyes:
halduemilauno
28-09-2006, 18:03
Certo, hai ragione sempre e comunque tu :rolleyes:
beh..e cmq ho solo espresso il mio parere. il mio punto di vista.
;)
Athlon 64 3000+
28-09-2006, 20:07
Certo, hai ragione sempre e comunque tu :rolleyes:
cerchiamo di essere meno polemici.
Diciamo che Hal2001 ha espresso solo un suo parere e non c'è bisogno di scaldarsi cosi tanto.
Dylan BJ
28-09-2006, 20:07
Da quel che leggo in parecchi forum c'e' la convinzione che G80 sara' un'evoluz della 7950X2..... quindi biskeda (ecco spiegato 1500 come somma dei 2 core e non frequenza di un singolo!) forte del fatto che ci sono diversi mesi d'esperienza in atto col progetto 7950X2 e la casa di santa clara si e' cosi' potuta "rodare" al meglio...
rey.mysterio83
28-09-2006, 22:36
be ha caratteristiche di tutto rispetto cmq...
cerchiamo di essere meno polemici.
Diciamo che Hal2001 ha espresso solo un suo parere e non c'è bisogno di scaldarsi cosi tanto.
Scaldarsi io? Certo, non ho altro a cui pensare che scaldarmi per una scheda video. Se non l'hai capito, e non l'hai capito, era un modo di tagliare il discorso. Ci volevi giusto tu per ridare fuoco alla miccia ;)
Athlon 64 3000+
29-09-2006, 09:01
Scaldarsi io? Certo, non ho altro a cui pensare che scaldarmi per una scheda video. Se non l'hai capito, e non l'hai capito, era un modo di tagliare il discorso. Ci volevi giusto tu per ridare fuoco alla miccia ;)
Volevo solo calmare gli animi e non riaccendere la miccia.
Queste erano le mie intenzioni e lo ho fatto non per difendere Hal2001 ma perchè mi sembrava esagerato il tono che avevi preso dopo quello che aveva detto.
Io per esempio ora come ora ritengo le Ati meglio della Nvidia e per le gpu dx 10 mi ispira di più R600.
fabioleroy
29-09-2006, 10:22
Non è che tutti quei transistors servano per integrare sul CHIP una sorta di Memoria Embedded?
JoeLatino
29-09-2006, 12:20
Ragazzi sembra ormai ufficiale che le g80 verranno presentate ad ottobre e commercializzate da meta' novembre circa! :)
In vari forum stranieri ho letto che Nvidia sta' cercando di spingere i vari distributori a scontare fortemente le 7900/7950 top di gamma per finire le scorte di magazzino e far posto cosi' alle nuove g80....
Inoltre,anche se non e' ancora ufficiale sembra proprio che le nuove schede sono costruite sulla falsariga delle 7950gtx,cioe' con dualcore.
Effettivamente la cosa potrebbe essere vera e spiegare almeno in parte le precedenti voci....
* Unified Shader Architecture (forse solo la parte dedicata alle directx10)
* Support FP16 HDR+MSAA
* Support GDDR4 memories 1000/1100MHZ*2
* Close to 700M transistors (350M*2)
* New AA mode : VCAA
* Core clock scalable up to 1.5GHz (700/750*2)
* Shader Peformance : 2x Pixel / 12x Vertex over G71
* 7 TCPs & 128 stream processors max
* Much more efficient than traditional architecture
* 384-bit memory interface (256-bit+128-bit)
* 768MB memory size (512MB+256MB)
Che ne pensate??
Athlon 64 3000+
29-09-2006, 12:25
Ragazzi sembra ormai ufficiale che le g80 verranno presentate ad ottobre e commercializzate da meta' novembre circa! :)
In vari forum stranieri ho letto che Nvidia sta' cercando di spingere i vari distributori a scontare fortemente le 7900/7950 top di gamma per finire le scorte di magazzino e far posto cosi' alle nuove g80....
Inoltre,anche se non e' ancora ufficiale sembra proprio che le nuove schede sono costruite sulla falsariga delle 7950gtx,cioe' con dualcore.
Effettivamente la cosa potrebbe essere vera e spiegare almeno in parte le precedenti voci....
* Unified Shader Architecture (forse solo la parte dedicata alle directx10)
* Support FP16 HDR+MSAA
* Support GDDR4 memories 1000/1100MHZ*2
* Close to 700M transistors (350M*2)
* New AA mode : VCAA
* Core clock scalable up to 1.5GHz (700/750*2)
* Shader Peformance : 2x Pixel / 12x Vertex over G71
* 7 TCPs & 128 stream processors max
* Much more efficient than traditional architecture
* 384-bit memory interface (256-bit+128-bit)
* 768MB memory size (512MB+256MB)
Che ne pensate??
Sinceramente di credo poco a queste specifiche perchè preferisco aspettare la presentazione.
Se verrà già presentata tra ottobre e novembre molto bene cosi potrà gia vedere una gpu dx 10 in azione e vedere con XP e le dx 9 quantà sarà più veloce delle varie X1900 e 7900.
G80 sono sicuro che sarà una soluzione single chip con oltre 400 milioni di transistor
Avete preso la news da qui ??
http://www.hwsetup.it/news/puntatore.php?uid=3591
JoeLatino
29-09-2006, 13:03
Avete preso la news da qui ??
http://www.hwsetup.it/news/puntatore.php?uid=3591
no...
da altre fonti... (o almeno io... :D )
Athlon 64 3000+
29-09-2006, 13:10
Avete preso la news da qui ??
http://www.hwsetup.it/news/puntatore.php?uid=3591
Sono le stesse specifiche postate pochi post fà e penso che siano completamente campate per aria.
Non credo che sarà una gpu dual core dato che le gpu attuali sono già multi core.
Vedremo se sarà con gli shader unificati oppure ancora a shader separati.
Diciamo che anche se mi ispira più R600 si potrebbe dire che G80 se avrà una architettura ibrida dx9/dx10 si sposerebbe meglio con le mie intenzioni di rimanere con XP ancora a lungo.
Speriamo che venga presentato già a Novembre cosi da togliermi ogni dubbio almeno su questo gpu.
Le mie sono sono parole da appassionato e non che voglia per forza comprare R600 e G80.
JoeLatino
29-09-2006, 13:18
Sono le stesse specifiche postate pochi post fà e penso che siano completamente campate per aria.
Non credo che sarà una gpu dual core dato che le gpu attuali sono già multi core.
Vedremo se sarà con gli shader unificati oppure ancora a shader separati.
Diciamo che anche se mi ispira più R600 si potrebbe dire che G80 se avrà una architettura ibrida dx9/dx10 si sposerebbe meglio con le mie intenzioni di rimanere con XP ancora a lungo.
Speriamo che venga presentato già a Novembre cosi da togliermi ogni dubbio almeno su questo gpu.
Le mie sono sono parole da appassionato e non che voglia per forza comprare R600 e G80.
non credo sara' cosi'....
per me e' molto piu' probabile un'architettura tipo la 7950gtx...
cq entro meta' ottobre al 90% avremo gia' le caratteristiche ufficiali ;)
Athlon 64 3000+
29-09-2006, 13:36
non credo sara' cosi'....
per me e' molto piu' probabile un'architettura tipo la 7950gtx...
cq entro meta' ottobre al 90% avremo gia' le caratteristiche ufficiali ;)
G80 avrà una architettura nuova e molto diversa rispetto a NV40,G70 e G71 visto che per supportare solo HDR e AA contemporaneamente deve riprogettare completamente parte della logica di funzionamento.
Poi sono sicuro che le TMU saranno esterne alla pixel pipeline come è con R520 e R580.
Con quello che consumerà probabilmente non ci sarà una versione a doppia gpu come è stato per la 7950GX2 visto che hanno usato G71 che con frequenze massimo di 500 mhz consuma davvero poco.
Ricordo che sicuramente G80 consumerà di più di R580 e sarà una gpu più complessa e più potente e più efficiente rispetto alla mia X1900XT e di quanto lo sarà in dx9 lo vedremo nelle recensioni ufficiali al momento della presentazione alla stampa.
Speriamo che se sarà un ibrido dx9/dx10 non sia un nuovo NV30 perchè un po' questa paura ce la ho.
Dark Schneider
29-09-2006, 13:59
Giust'appunto... le schede odierne andranno benissimo persino con i primi titoli che potranno sfruttare le Directx10. Certo non avremo certe features e certe cose dovranno per forza essere omesse, ma io ancora ora rimango allibito dalla potenza delle attuali soluzioni, senza parlare poi delle stesse in SLI e Crossfire.
Pensare di vendere ora una 7950 o una X1950XTX e' da matti.
La potenza di queste soluzioni è molto alta. Saranno sicuramente adeguatissime per qualsiasi gioco futuro. Considerando, diciamolo tutto che di giochi "veri" DX10 non ne usciranno a breve.
Se ci voltiamo e guardiamo un po' indietro, negli ultimi 2 anni la potenza è cresciuta con una velocità impressionante. Mi ricordo ai tempi di R3x0 e NV3x. Nel giro di due anni uscirono modelli alla fine simili, ma con frequenze più elevate. Da 9700Pro ed una 9800XT non c'era questa grossa differenza.
Poi in due anni siamo passati da soluzioni a 16 Pipeline come NV40 a schede come 7950 che vanno probabilmente 3 volte più veloci.
Però alla fine anche così non è male. La potenza sta aumentando molto velocemente, ma ne beneficiano tutte le fasce. Le schede da 200 euro oggi hanno un ottima potenza per far girare qualsiasi cosa. :)
Foglia Morta
29-09-2006, 14:03
le previsioni sui consumi sembrano avverarsi... dissipatore reference a liquido ?
http://img149.imageshack.us/my.php?image=1159518267645ax8.jpg
http://img216.imageshack.us/my.php?image=1159518192134hn1.jpg
http://img134.imageshack.us/my.php?image=1159518316603yj6.jpg
http://img149.imageshack.us/my.php?image=1159518359537xh7.jpg
http://img135.imageshack.us/my.php?image=1159518470782eg0.jpg
http://img135.imageshack.us/my.php?image=1159518536067it3.jpg
http://img135.imageshack.us/my.php?image=1159518797347nz0.jpg
Ma alcuni ce l'hanno i connettori altre no? :confused:
E ci sono 2 connettori dell'alimentazione? :eek:
E 12 moduli di memoria (a quanto sembra dal retro)? :eek::D
Mi auguro vivamente siano prototipi sperimentali sebbene quando ci si avvicina alla data di presentazione il fatto che queste immagini cominciano ad apparire mi preoccupa.
Foglia Morta
29-09-2006, 14:10
tra l'altro il pcb è predisposto 12 chip di memoria
Foglia Morta
29-09-2006, 14:11
Ma alcuni ce l'hanno i connettori altre no? :confused:
E ci sono 2 connettori dell'alimentazione? :eek:
Mi auguro vivamente siano prototipi sperimentali sebbene quando ci si avvicina alla data di presentazione il fatto che queste immagini cominciano ad apparire mi preoccupa.
una potrebbe essere la 8800GTX e l'altra 8800GT , una a liquido ed una ad aria...
ogni connettore dell'alimentazione non sono 75W ? + i watt dello slot normale :eek:
tra l'altro il pcb è predisposto 12 chip di memoria
Si infatti lo avevo aggiunto nel mio post..:eek:
La vedo dura comunque a proporre una scheda raffreddata a liquido in una soluzione reference.
Athlon 64 3000+
29-09-2006, 14:23
Ho visto le foto e mi ha fatto davvero impressione vedere le possibili foto di G80.
Se sono saranno davvero cosi con 2 connettori d'alimentazione ho paura che col cavolo che il mio Enermax da 485W ce la possa fare visto che che il mio pc arriva vicino a 400W di consumo effettivo avendo attaccato 1 raptor e un disco da 160 gb,2 lettori DVD,il mio 3000+ a 130 nm che consuma più di un dual core AMD 90 nm una X1900XT e una X-Fi e una ventola 12x12.
Speriamo che non sia vero che avrà 2 connettori di alimentazioni PCI-ex.
Dark Schneider
29-09-2006, 14:26
G80 avrà una architettura nuova e molto diversa rispetto a NV40,G70 e G71 visto che per supportare solo HDR e AA contemporaneamente deve riprogettare completamente parte della logica di funzionamento.
Poi sono sicuro che le TMU saranno esterne alla pixel pipeline come è con R520 e R580.
Con quello che consumerà probabilmente non ci sarà una versione a doppia gpu come è stato per la 7950GX2 visto che hanno usato G71 che con frequenze massimo di 500 mhz consuma davvero poco.
Ricordo che sicuramente G80 consumerà di più di R580 e sarà una gpu più complessa e più potente e più efficiente rispetto alla mia X1900XT e di quanto lo sarà in dx9 lo vedremo nelle recensioni ufficiali al momento della presentazione alla stampa.
Speriamo che se sarà un ibrido dx9/dx10 non sia un nuovo NV30 perchè un po' questa paura ce la ho.
Guarda secondo me devi vederla in un altra ottica G80. Se sarà un ibrido, può darsi che sia un nuovo NV3x. Ma se ci pensi le tanto criticate GeForce FX ai tempi fornivano prestazioni simili alle corrispondenti Radeon. Erano velocissime nei giochi DX7 e DX8. La loro debolezza veniva fuori nel'esecuzione di giochi che facevano uso di SM 2.0!! Però le DX9 erano appena uscite e quindi se ci pensi, per i giochi che c'erano andavano alla grande.
Indubbiamente le 9700/9800 erano meglio come scelta in prospettiva futura. Dei veri chip DX9, che si son comportati discretamente in ambito DX9. Anche se poi abbiam visto tutti che quando son usciti titoli che facevano pesante uso DX9, per godere appieno della grafica ci volevano ben altre schede.
Quello che voglio dire è che G80 potrà anche essere un ibrido e non fare faville in terreno DX10, ma bisogna tener conto che ne dovrà passare di tempo prima del lancio di giochi che sfruttano le nuove librerie.
Da un determinato punto di vista, nVidia è criticabile perchè va ad ideare un architettura ibrida e non una diretta. Criticabile...diciamo che a tutti noi piacerebbe vedere un architettura full DX10 e quella ibrida ci fa un po' storcere il muso.
Però dall'altro punto di vista, alla nVidia non è che son incapaci e la scelta di un architettura ibrida probabilmente è il segno che si dovrà aspettare un bel pezzo per vedere giochi che fanno uso come si deve delle DX10.
Quindi se per caso sei interessato a G80 o R600 e guardi solo le prestazioni sui giochi che usciranno adesso, che son usciti o che usciranno di qui ad un annetto e mezzo...non farti problemi sull'architettura.
JoeLatino
29-09-2006, 14:52
correggetemi se sbaglio, ma ricapitolando:
(per la versione piu' potente)
double-die, single-package GPU
12 chip=768mb (512mb 256bit + 256mb 128 bit)
2 power connectors=225w
hybrid water/air cooler by CoolerMaster
lunghezza come la 'vecchia' 7900gtx
altro???
2 power connectors=225w
:doh:
correggetemi se sbaglio, ma ricapitolando:
(per la versione piu' potente)
double-die, single-package GPU
12 chip=768mb (512mb 256bit + 256mb 128 bit)
2 power connectors=225w
hybrid water/air cooler by CoolerMaster
lunghezza come la 'vecchia' 7900gtx
altro???
Aggiungerei per il raffreddamento che nella soluzione a liquido c'e' una soluzione heatpipe in rame mentre nell'altra dal colore direi di no.
Guarda secondo me devi vederla in un altra ottica G80. Se sarà un ibrido, può darsi che sia un nuovo NV3x. Ma se ci pensi le tanto criticate GeForce FX ai tempi fornivano prestazioni simili alle corrispondenti Radeon. Erano velocissime nei giochi DX7 e DX8. La loro debolezza veniva fuori nel'esecuzione di giochi che facevano uso di SM 2.0!! Però le DX9 erano appena uscite e quindi se ci pensi, per i giochi che c'erano andavano alla grande.
Indubbiamente le 9700/9800 erano meglio come scelta in prospettiva futura. Dei veri chip DX9, che si son comportati discretamente in ambito DX9. Anche se poi abbiam visto tutti che quando son usciti titoli che facevano pesante uso DX9, per godere appieno della grafica ci volevano ben altre schede.
Quello che voglio dire è che G80 potrà anche essere un ibrido e non fare faville in terreno DX10, ma bisogna tener conto che ne dovrà passare di tempo prima del lancio di giochi che sfruttano le nuove librerie.
Da un determinato punto di vista, nVidia è criticabile perchè va ad ideare un architettura ibrida e non una diretta. Criticabile...diciamo che a tutti noi piacerebbe vedere un architettura full DX10 e quella ibrida ci fa un po' storcere il muso.
Però dall'altro punto di vista, alla nVidia non è che son incapaci e la scelta di un architettura ibrida probabilmente è il segno che si dovrà aspettare un bel pezzo per vedere giochi che fanno uso come si deve delle DX10.
Quindi se per caso sei interessato a G80 o R600 e guardi solo le prestazioni sui giochi che usciranno adesso, che son usciti o che usciranno di qui ad un annetto e mezzo...non farti problemi sull'architettura.
Intanto non credo che questo processo produttivo sara' alla base di questa soluzione architetturale a lungo. Passeranno il prima possibile allo step inferiore eliminando subito il discorso a liquido che trovo onestamente impossibile da proporre.
Qualcosa mi dice che la soluzione a liquido sara' la soluzione piu' costosa nella storia delle vga se davvero ha anche 768Mb di GDDR4. :mbe:
Dylan BJ
29-09-2006, 15:14
Ragazzi ci siamo davvero quasi...... carine le foto!!! :D :D
Una settimana e mi sento le specifike ufficiali...... :p
JoeLatino
29-09-2006, 15:14
non so' perche' ma mi ricorda molto la storia della prima 7900gtx.....
cioe' mi sa' proprio che dopo un paio di mesi al massimo uscira' una nuova versione col pcb piu' corto e magari anche con consumi minori....
Foglia Morta
29-09-2006, 15:17
Qualcosa mi dice che la soluzione a liquido sara' la soluzione piu' costosa nella storia delle vga se davvero ha anche 768Mb di GDDR4. :mbe:
la fonte dice 1GB di memoria http://itbbs.pconline.com.cn/topic.jsp?tid=6054769&pageNo=1
ma è chiaramente un errore :D , non esistono moduli che permettano 1GB con 12 chip
la fonte dice 1GB di memoria http://itbbs.pconline.com.cn/topic.jsp?tid=6054769&pageNo=1
Sempre di piu'..:D :mc: :eek:
Foglia Morta
29-09-2006, 15:20
Sempre di piu'..:D :mc: :eek:
ho editato :D
non so' perche' ma mi ricorda molto la storia della prima 7900gtx.....
cioe' mi sa' proprio che dopo un paio di mesi al massimo uscira' una nuova versione col pcb piu' corto e magari anche con consumi minori....
Sul paio di mesi non sono convinto... sicuramentei il passo immediato sara' quello di risparmiare sui consumi che sembrano davvero enormi se ha bisogno di tutto quel popo' di alimentazione e raffreddamento, ma ci sara' da aspettare un semestre minimo.
ho editato :D
:read: :banned: :D
Forse con i moduli a 384bit.. :sofico:
Foglia Morta
29-09-2006, 15:25
Sul paio di mesi non sono convinto... sicuramentei il passo immediato sara' quello di risparmiare sui consumi che sembrano davvero enormi se ha bisogno di tutto quel popo' di alimentazione e raffreddamento, ma ci sara' da aspettare un semestre minimo.
giusto, imho una soluzione come la 7950GX2 non si rivedrà per molto tempo.
Secondo me nemmeno uno shrink di R580 a 80nm avrebbe permesso ad Ati di fare una scheda come quella ( GX2 ), tempo si fa parlava di una soluzione dual gpu ( gemini ) con 2 RV570 ( ben più piccolo di un ipotetico R580 a 80nm ).
Ora bisognerà vedere se G80 è a 80nm o 90nm per capire quale sarà lo step successivo ma comunque sia sarà veramente dura se questa prima versione necessità di 2 connettori
JoeLatino
29-09-2006, 15:31
giusto, imho una soluzione come la 7950GX2 non si rivedrà per molto tempo.
Secondo me nemmeno uno shrink di R580 a 80nm avrebbe permesso ad Ati di fare una scheda come quella ( GX2 ), tempo si fa parlava di una soluzione dual gpu ( gemini ) con 2 RV570 ( ben più piccolo di un ipotetico R580 a 80nm ).
Ora bisognerà vedere se G80 è a 80nm o 90nm per capire quale sarà lo step successivo ma comunque sia sarà veramente dura se questa prima versione necessità di 2 connettori
....Nvidia pero' potrebbe benissimo utilizzare uno shrink a 80nm gia' da ora,e non quello a 90nm come e' dato per scontato!
Foglia Morta
29-09-2006, 15:35
....Nvidia pero' potrebbe benissimo utilizzare uno shrink a 80nm gia' da ora,e non quello a 90nm come e' dato per scontato!
e a 80nm aver bisogno di 2 connettori per l'alimentazione ti fa essere ottimista riguardo al fatto che a 65nm si riesca rimediare una scheda come la 7950 ?
Taiwan Semiconductor Manufacturing Co, meglio nota come TSMC, è la più importante fonderia taiwanese, specializzata nella produzione di chip per vari partner tra i quali i due colossi delle schede video ATI e NVIDIA.
In quetsi giorni TSMC ha anticipato la propria intenzione di avviare, nel corso della metà del prossimo anno, la produzione di chip con processo produttivo a 55 nanometri. La finalità è quella di offrire prodotti tecnologicamente più avanzati ai propri clienti, e parallelamente distanziare le fonderie concorrenti UMC e Chartered proprio sul piano tecnologico.
Al momento attuale TSMC ha avviato la produzione in volumi di GPU, sia per ATI che per NVIDIA, basate su tecnologia a 80 nanometri. Il primo risultato di questo sforzo tecnologico è nella soluzione GeForce Go 7700, presentata alcuni giorni fa in abbinamento ad un nuovo notebook Asus (maggiori informazioni a questo indirizzo).
TSMC prevede inoltre che dal prossimo trimestre sarà possibile avviare la produzione dei primi chip con tecnologia a 65 nanometri; è questo processo produttivo, in effetti, che potrebbe venir utilizzato sia da ATI che da NVIDIA per future architetture video. Mancano conferme ufficiali, ma pare lecito attendersi che le GPU G80 di NVIDIA non adotteranno tecnologia a 65 nanometri, a favore di quella a 80 nanometri da poco disponibile.
http://www.hwupgrade.it/news/skvideo/a-55-nanometri-le-tecnologie-delle-gpu-nel-2007_18732.html
JoeLatino
29-09-2006, 15:39
e a 80nm aver bisogno di 2 connettori per l'alimentazione ti fa essere ottimista che a 65nm si riesca rimediare una scheda come la 7950 ?
....potrebbe anche essere che Nvidia sta' mettendo ora sul mercato una scheda non completamente 'ottimizzata' solo per battere sul tempo Ati e che poi rivredra' il tutto in tempi abbastanza brevi, magari proprio in tempo per controbattere l'r600
Foglia Morta
29-09-2006, 15:41
....potrebbe anche essere che Nvidia sta' mettendo ora sul mercato una scheda non completamente 'ottimizzata' solo per battere sul tempo Ati e che poi rivredra' il tutto in tempi abbastanza brevi, magari proprio in tempo per controbattere l'r600
cercavo di essere realista, non facevo un discorso sulla speranza :D
non oso pensare a fare un'sli con ste bestie 225w cada una :doh: ..mah dove siamo arrivati e dove arrivero di questo passo :(
JoeLatino
29-09-2006, 16:16
Ehm quale sara' il prossimo alimentatore da prendere?
Forse quello della pc power and cooling 1kw con 4 connettori per vga :D ?
Dylan BJ
29-09-2006, 16:19
Ehm quale sara' il prossimo alimentatore da prendere?
Forse quello della pc power and cooling 1kw con 4 connettori per vga :D ?
si... immaginati SLI e nn dico altro.......... cosi' si risparmiano sulle spese invernali di riscaldamento..... :p
JoeLatino
29-09-2006, 16:23
domani mi sa' che ne vedremo delle belle.... :D
per me circoleranno anche le foto del core e maggiori info :sofico:
Athlon 64 3000+
29-09-2006, 16:54
Intanto non credo che questo processo produttivo sara' alla base di questa soluzione architetturale a lungo. Passeranno il prima possibile allo step inferiore eliminando subito il discorso a liquido che trovo onestamente impossibile da proporre.
Ho gia cambiato tanto di quelle schede video che in realtà sono indeciso tra passare al dual core prendendomi un'Athlon 64 x2 65 nm con relativa scheda madre e memorie ddr2-667 come minimo e quindi fare calare i consumi complessivi del mio pc oppure passare a G80 o R600 tenendomi il mio pc attuale però rischiano di far aumentare talmente tanto i consumi con il rischio che persino il mio Enermax da 485W non ce la faccia.
Skullcrusher
29-09-2006, 17:38
Ho visto ora l'articolo di hwupgrade....certo che se nella versione finale montarà ancora 2 connettori per l'alimentazione, consumerà come un computer intero da sola... :muro:
Dark Schneider
29-09-2006, 17:57
Ho gia cambiato tanto di quelle schede video che in realtà sono indeciso tra passare al dual core prendendomi un'Athlon 64 x2 65 nm con relativa scheda madre e memorie ddr2-667 come minimo e quindi fare calare i consumi complessivi del mio pc oppure passare a G80 o R600 tenendomi il mio pc attuale però rischiano di far aumentare talmente tanto i consumi con il rischio che persino il mio Enermax da 485W non ce la faccia.
Io terrei il tuo pc così come è adesso. Compra solo quando lo senti necessario. Mi riferisco anche al cambio di mobo+cpu+memorie. Alla fine se ti soddisfa perchè cambiare? :) Al limite ritardi e fai il cambio completo, senza andare a comprare in due tempi.
Io terrei il tuo pc così come è adesso. Compra solo quando lo senti necessario. Mi riferisco anche al cambio di mobo+cpu+memorie. Alla fine se ti soddisfa perchè cambiare? :) Al limite ritardi e fai il cambio completo, senza andare a comprare in due tempi.
quoto ;) soprattutto viste le potenzialità degli yorkfield!!
Dark Schneider
29-09-2006, 18:21
Esatto. Personalmente la X1800XL che ho comprato insieme agli altri componenti mi dovra' durare a lungo, prossimo upgrade sara' ram e cpu se lo riterro' opportuno.
Si anchio sto bene come sto. La 6800GT ce l'ho ormai da 2 anni e 4 mesi. Tutto gira molto bene, anche i titoli più pesanti si comporta dignitosamente.
Tra l'altro da quando son tornato al mondo console, gioco molto più con quest'ultime. Quindi a maggior ragione non sento necessità di aggiornare il pc. Le prestazioni ci sono. Se proprio arriverà qualche titolo particolarmente pesante abbasserò un po' i dettagli e ci si gioca lo stesso(mi riferisco a Crysis e quelli basati su U3 Engine). Ma spendere altri soldi no. Non esiste e non ne ho nemmeno voglia.
Una volta mi facevo pianificazioni. Ora non più. Più tardi cambio, meglio è. :)
A parte che io dovrei cambiarmi tutto il pc. Ma sicuramente se proprio cambierò, sarà nel metà 2008. Sicuramente un altro anno e mezzo ce lo faccio. :) Sempre se poi avrò voglia di cambiare. :D
Ho visto ora l'articolo di hwupgrade....certo che se nella versione finale montarà ancora 2 connettori per l'alimentazione, consumerà come un computer intero da sola... :muro:
oramai si sta andando avanti come le cpu :rolleyes: a Mhz...spero arrivi presto la svolta che vi è stata in questi anni :)
Skullcrusher
29-09-2006, 18:44
oramai si sta andando avanti come le cpu :rolleyes: a Mhz...spero arrivi presto la svolta che vi è stata in questi anni :)
Già, altrimenti tra un po' serviranno 2 alimentatori...per chi avrà il coraggio di farlo... :p
Già, altrimenti tra un po' serviranno 2 alimentatori...per chi avrà il coraggio di farlo... :p
immagina...
Enermax FASE
Federazione Alimentatori Succhia Energia
basa il tuo sistema su FASE e vedrai che avrai sempre tutta la corrente di cui hai bisogno per i massimo delle performance
...
e la ENEL ti farà membro onorario e manderà la bolletta scritta in pergamena da amanuensi benedettini
:D LOL :D
rey.mysterio83
29-09-2006, 19:16
Lavastoviglie 2000 WATT
Asciuga Biancheria 2000 WATT
Forno Elettrico 2000 WATT
Friggitrice Elettrica 1800 WATT
Lavatrice 1600 WATT
Asciugacapelli 1300 WATT
Ferro da stiro 1200 WATT
Aspirapolvere 1100 WATT
Forno a microonde 800 WATT
Tostapane 800 WATT
Nvidia G80 225 WATT
Frigorifero 160 WATT
Televisore 50 WATT
sta tra un frigorifero e un tostapane... bene!! :D
Lavastoviglie 2000 WATT
Asciuga Biancheria 2000 WATT
Forno Elettrico 2000 WATT
Friggitrice Elettrica 1800 WATT
Lavatrice 1600 WATT
Asciugacapelli 1300 WATT
Ferro da stiro 1200 WATT
Aspirapolvere 1100 WATT
Forno a microonde 800 WATT
Tostapane 800 WATT
Nvidia G80 225 WATT
Frigorifero 160 WATT
Televisore 50 WATT
sta tra un frigorifero e un tostapane... bene!! :D
solo la vga aggiungi ad essa almeno altrettanti watt per l'intera config di un pc di un certo livello siamo almeno oltre la metà del consumo che se magna un tostapane o un forno a micronde..
sta tra un frigorifero e un tostapane... bene!! :D
ma sem matt? :D
Skullcrusher
29-09-2006, 20:12
immagina...
Enermax FASE
Federazione Alimentatori Succhia Energia
basa il tuo sistema su FASE e vedrai che avrai sempre tutta la corrente di cui hai bisogno per i massimo delle performance
...
e la ENEL ti farà membro onorario e manderà la bolletta scritta in pergamena da amanuensi benedettini
:D LOL :D
:asd:
più che bolletta in pergamena, devono venire in casa e mettere la 380.... :sofico:
Athlon 64 3000+
30-09-2006, 02:49
Lavastoviglie 2000 WATT
Asciuga Biancheria 2000 WATT
Forno Elettrico 2000 WATT
Friggitrice Elettrica 1800 WATT
Lavatrice 1600 WATT
Asciugacapelli 1300 WATT
Ferro da stiro 1200 WATT
Aspirapolvere 1100 WATT
Forno a microonde 800 WATT
Tostapane 800 WATT
Nvidia G80 225 WATT
Frigorifero 160 WATT
Televisore 50 WATT
sta tra un frigorifero e un tostapane... bene!! :D
Ma è possibile solo che ha 2 connettori PCi-ex e leggendo certe possibili caratteristiche possa arrivare a 225W,mi sembra veramente troppo esagerato come valore di consumo,credo che rimarrà sull ordine dei 150-160 W che sono già tanti.
Lavastoviglie 2000 WATT
Asciuga Biancheria 2000 WATT
Forno Elettrico 2000 WATT
Friggitrice Elettrica 1800 WATT
Lavatrice 1600 WATT
Asciugacapelli 1300 WATT
Ferro da stiro 1200 WATT
Aspirapolvere 1100 WATT
Forno a microonde 800 WATT
Tostapane 800 WATT
ATI R600 250 WATT
Nvidia G80 225 WATT
Frigorifero 160 WATT
Televisore 50 WATT
mi sa che mettero sul tetto un pò di pannelli solari solo per alimentare il pc :D
Crasher89
30-09-2006, 08:49
Lavastoviglie 2000 WATT
Asciuga Biancheria 2000 WATT
Forno Elettrico 2000 WATT
Friggitrice Elettrica 1800 WATT
Lavatrice 1600 WATT
Asciugacapelli 1300 WATT
Ferro da stiro 1200 WATT
Aspirapolvere 1100 WATT
Forno a microonde 800 WATT
Tostapane 800 WATT
ATI R600 250 WATT
Nvidia G80 225 WATT
Frigorifero 160 WATT
Televisore 50 WATT
mi sa che mettero sul tetto un pò di pannelli solari solo per alimentare il pc :D
spenderesti altri soldi inutili...le cose sono due:o prendi tuo fratello/sorella e la metti a correre su una cyclette per generare elettricità...oppure un esercito di criceti ke corrono su ruote ke danno elettricità...e poi potremo pensare anke ad uno sli di G80
Lavastoviglie 2000 WATT
Asciuga Biancheria 2000 WATT
Forno Elettrico 2000 WATT
Friggitrice Elettrica 1800 WATT
Lavatrice 1600 WATT
Asciugacapelli 1300 WATT
Ferro da stiro 1200 WATT
Aspirapolvere 1100 WATT
Forno a microonde 800 WATT
Tostapane 800 WATT
ATI R600 250 WATT
Nvidia G80 225 WATT
Frigorifero 160 WATT
Televisore 50 WATT
mi sa che mettero sul tetto un pò di pannelli solari solo per alimentare il pc :D
Huahahahuahaha :D non male come idea quasi quasi (io sto pure al 5° piano)
Skullcrusher
30-09-2006, 09:01
spenderesti altri soldi inutili...le cose sono due:o prendi tuo fratello/sorella e la metti a correre su una cyclette per generare elettricità...oppure un esercito di criceti ke corrono su ruote ke danno elettricità...e poi potremo pensare anke ad uno sli di G80
Uhm, ho giusto una staza che potrei usare per i criceti...però poi dovrei spendere molto per dargli da mangiare....uhm, bisogna fare un po' di conti :sofico:
Dylan BJ
30-09-2006, 11:02
Uhm, ho giusto una staza che potrei usare per i criceti...però poi dovrei spendere molto per dargli da mangiare....uhm, bisogna fare un po' di conti :sofico:
:asd:
Athlon 64 3000+
30-09-2006, 11:09
secondo me i possibili consumi che avranno G80 e R600 che si dice saranno sopra i 200 W mi sembrano veramente esagerati.
Sicuramente consumeranno di più della X1900XTX e 7950GX2 ma non arriveranno
a 200W.
Mi chiedevo...ma non sarebbe meglio avere due chip sulla sk dedicati ?
Uno Vertex uno Pixel dotati di 32mb ognuno di ram embedded...oltre ai classici 512?
Mmmm dite che 1000€ bastano? :D
Mi chiedevo...ma non sarebbe meglio avere due chip sulla sk dedicati ?
Uno Vertex uno Pixel dotati di 32mb ognuno di ram embedded...oltre ai classici 512?
Mmmm dite che 1000€ bastano? :D
che, non ti bastano gli shader unificati??
che, non ti bastano gli shader unificati??
Si ma sembra un compromesso per risparmiare transistor e massimizzare quel poco silicio del chip a disposizione, insomma, contenere i costi.
Per quello chiedevo, shader unificati è la via più breve per avere un evoluzione a prezzi umani.
Ma un architettura come quella che ho descritto avrebbe un senso?
secondo me i possibili consumi che avranno G80 e R600 che si dice saranno sopra i 200 W mi sembrano veramente esagerati.
Sicuramente consumeranno di più della X1900XTX e 7950GX2 ma non arriveranno
a 200W.
se adotteranno più o meno lo stesso processo produttivo delle gpu attuali al fronte di un'aumento smisurato di transistor integrati è facile immagginare che questo chip consumi parecchio di più..
il g80 dovrebbe avere 700 milioni di transistor contro 384 di x1950xtx quindi facendosi due calcoli potrebbe anche richiede il doppio di energia per essere alimentato..
Skullcrusher
30-09-2006, 11:45
Da quanto è trapelato finora, G80 consumerà 20-25 Watt in più di un'x1950xtx.... ;)
Da quanto è trapelato finora, G80 consumerà 20-25 Watt in più di un'x1950xtx.... ;)
sperem :help:
Skullcrusher
30-09-2006, 12:00
Leggete questo:
Description
Earlier today some information regarding the possible specs of nVidia's upcoming G80 based boards surfaced on VR-Zone, only to be "quietly" removed later. Thankfully X-bit labs managed to collect the information on the new cards and we can now present it to you below.
The most important aspect of the leaked documentation are the specs revealed:
- Unified Shader Architecture;
- Support FP16 HDR+MSAA;
- Support GDDR4 memories;
- Close to 700M transistors (G71 - 278M / G70 - 302M);
- New AA mode: VCAA;
- Core clock scalable up to 1.5GHz;
- Shader performance: 2x Pixel/12x Vertex over G71;
- 8 TCPs & 128 stream processors;
- Much more efficient than traditional architecture;
- 384-bit memory interface (256-bit+128-bit);
- 768MB memory size (512MB+256MB)
The unified shader architecture suggests, what the experts have been saying for a while now, that the cards will be support DX10.
According to the same, leaked, information the G80 will surface in November in two varieties, the GeForce 8800 GTX and GeForce 8800 GT priced at a mere USD 649 and USD 449-499 respectively. The GTX model (higher-end) will feature a 384-bit memory interface, a hybrid water and air cooler and 7 TCPs while the GT will have a 320-bit memory interface, a standard air cooler, and 6 TCPs.
No one has actually explained what TCP actually stands for although Techreport has uncovered an nVidia patent which refers to thread control processors. According to the same patent these TCPs will be used to set the function of the unified shader processors.
Tanto per cambiare circolano i soliti rumors che fanno sembrare la scheda un mostro...com'è successo per r580+ di Ati....
Fonte: Link (http://www.megagames.com/news/html/hardware/nvidiag80specsleaked.shtml)
:rolleyes:
halduemilauno
30-09-2006, 12:18
Leggete questo:
Description
Earlier today some information regarding the possible specs of nVidia's upcoming G80 based boards surfaced on VR-Zone, only to be "quietly" removed later. Thankfully X-bit labs managed to collect the information on the new cards and we can now present it to you below.
The most important aspect of the leaked documentation are the specs revealed:
- Unified Shader Architecture;
- Support FP16 HDR+MSAA;
- Support GDDR4 memories;
- Close to 700M transistors (G71 - 278M / G70 - 302M);
- New AA mode: VCAA;
- Core clock scalable up to 1.5GHz;
- Shader performance: 2x Pixel/12x Vertex over G71;
- 8 TCPs & 128 stream processors;
- Much more efficient than traditional architecture;
- 384-bit memory interface (256-bit+128-bit);
- 768MB memory size (512MB+256MB)
The unified shader architecture suggests, what the experts have been saying for a while now, that the cards will be support DX10.
According to the same, leaked, information the G80 will surface in November in two varieties, the GeForce 8800 GTX and GeForce 8800 GT priced at a mere USD 649 and USD 449-499 respectively. The GTX model (higher-end) will feature a 384-bit memory interface, a hybrid water and air cooler and 7 TCPs while the GT will have a 320-bit memory interface, a standard air cooler, and 6 TCPs.
No one has actually explained what TCP actually stands for although Techreport has uncovered an nVidia patent which refers to thread control processors. According to the same patent these TCPs will be used to set the function of the unified shader processors.
Tanto per cambiare circolano i soliti rumors che fanno sembrare la scheda un mostro...com'è successo per r580+ di Ati....
Fonte: Link (http://www.megagames.com/news/html/hardware/nvidiag80specsleaked.shtml)
:rolleyes:
ancora??? è stato aperto il thread su queste. ben 11 giorni fa.
:help:
Skullcrusher
30-09-2006, 13:17
ancora??? è stato aperto il thread su queste. ben 11 giorni fa.
:help:
Ottimo, l'avevo saltato :asd:
Dylan BJ
30-09-2006, 14:42
Cmq se specifike stan facendo davvero il giro della rete, tutti i siti americani ed europei paiono averle date x certe..... potremmo quasi aggiungere il motto "it's official now!" :D
Athlon 64 3000+
30-09-2006, 14:50
se adotteranno più o meno lo stesso processo produttivo delle gpu attuali al fronte di un'aumento smisurato di transistor integrati è facile immagginare che questo chip consumi parecchio di più..
il g80 dovrebbe avere 700 milioni di transistor contro 384 di x1950xtx quindi facendosi due calcoli potrebbe anche richiede il doppio di energia per essere alimentato..
Quei dati che ho visto postati personalmente li ritengo completamente campati per Aria e ritengo impossibile che anche a 80 nm possano fare una gpu con 700 milioni di transistor quando credo che G80 sarà sui 400-500 milioni e mi ricordo che sui consumi stavi intorno ai 150-160W e non 225.
Dark Schneider
30-09-2006, 15:26
Può anche essere se le GPU sono due(come nella 7950gx2) allora intendono la somma tra le due GPU riguardo i transistor. Magari G80 ha 350 mln di transistor, moltiplicato per le 2 GPU diventano 700 complessivi.
halduemilauno
30-09-2006, 15:34
Può anche essere se le GPU sono due(come nella 7950gx2) allora intendono la somma tra le due GPU riguardo i transistor. Magari G80 ha 350 mln di transistor, moltiplicato per le 2 GPU diventano 700 complessivi.
come per le frequenze.
;)
Skullcrusher
30-09-2006, 15:35
Può anche essere se le GPU sono due(come nella 7950gx2) allora intendono la somma tra le due GPU riguardo i transistor. Magari G80 ha 350 mln di transistor, moltiplicato per le 2 GPU diventano 700 complessivi.
In effetti quella in foto potrebbe essere un'eventuale 8850GX2, data la lunghezza..... :stordita:
DakmorNoland
30-09-2006, 15:38
Ragazzi non so perchè ma noto qualche somiglianza con la FX5900!! :D
Qui però oltre a farci cuocere le uova magari riusciamo pure a farci le bistecche alla brace! :asd:
Preferisco non pensare all'R600...
Athlon 64 3000+
30-09-2006, 15:40
Può anche essere se le GPU sono due(come nella 7950gx2) allora intendono la somma tra le due GPU riguardo i transistor. Magari G80 ha 350 mln di transistor, moltiplicato per le 2 GPU diventano 700 complessivi.
se fosse vero 350 milioni di transistor per una singola gpu dx 10 sarebbero "pochi" e sarebbe meno complessa addirittura di R580.
Poi farebbero le soluzioni single gpu e se sarà cosi sarò curioso di vedere come saranno le loro prestazioni rispetto alle X1900 e 7900
Foglia Morta
30-09-2006, 15:45
In effetti quella in foto potrebbe essere un'eventuale 8850GX2, data la lunghezza..... :stordita:
ma da questa immagine non c'entra nulla con una 7950GX2...
http://img134.imageshack.us/my.php?image=1159518316603yj6.jpg
DakmorNoland
30-09-2006, 15:47
bella questa :D
Eheh! :doh: Devo essere un pò fuso! :p cmq corretto :D
Foglia Morta
30-09-2006, 15:51
Eheh! :doh: Devo essere un pò fuso! :p cmq corretto :D
ho editato anche io :read: :D
Quei dati che ho visto postati personalmente li ritengo completamente campati per Aria e ritengo impossibile che anche a 80 nm possano fare una gpu con 700 milioni di transistor quando credo che G80 sarà sui 400-500 milioni e mi ricordo che sui consumi stavi intorno ai 150-160W e non 225.
boh non si sà quanti transistor ha g80 ma nel caso ne avesse circa 700 i consumi del chip sarebbero spropositati...
il fatto però che quel prototipo abbia due connettori di alimentazione fa intuire un elevato consumo che non può essere solo di poco superiore ad una x1950xtx che richiede circa 124w reali rilevati da xbitlabs..poi non sò magari fra qualche settima sapremo tutte le verità su sto travicolo :fagiano:
Dylan BJ
30-09-2006, 16:19
Ragazzi volete ridere un po'? sul forum ufficiale nvidia qualcuno ha aperto un thread intitolandolo cosi:
"GeForce 8800 GTX Details, It beats the R600 3 times over"
:p :D
DakmorNoland
30-09-2006, 16:30
Ragazzi volete ridere un po'? sul forum ufficiale nvidia qualcuno ha aperto un thread intitolandolo cosi:
"GeForce 8800 GTX Details, It beats the R600 3 times over"
:p :D
E' come nella vendetta dei Sith! Prima Intel e ora Nvidia sbaragliano i loro avversari! :asd:
Secondo me tutte ste voci anche se parzialmente fondate per quello che riguarda G80 lasciano il tempo che trovano! Io per ora mi tengo la mia 1800 e aspetterò che ritornino su consumi normali prima di prendere o ati o nvidia. O se non dovesse accadere passerò alla console.
Cmq sulla notizia che la g80 batte tre volte l'R600 ho qualche dubbio, ho sentito che ATI intende utilizzare un piccolo reattore nucleare da mettere all'esterno del case per alimentare la sua scheda! :asd:
Skullcrusher
30-09-2006, 16:46
ma da questa immagine non c'entra nulla con una 7950GX2...
http://img134.imageshack.us/my.php?image=1159518316603yj6.jpg
Già, la gpu è solo una... :muro:
Dark Schneider
30-09-2006, 16:49
se fosse vero 350 milioni di transistor per una singola gpu dx 10 sarebbero "pochi" e sarebbe meno complessa addirittura di R580.
Poi farebbero le soluzioni single gpu e se sarà cosi sarò curioso di vedere come saranno le loro prestazioni rispetto alle X1900 e 7900
Ricordati che nVidia è stata in grado di mantenere tutto quello che era G70 in G71 addirittura diminuendo il numero di transistor. Dai 302 mln a se ricordo bene 278 mln. :)
Può essere quindi che con un 70-80 mln in più rispetto a G71 siano riusciti a tirar fuori una nuova GPU con architettura ibrida. :)
Comunque staremo a vedere. :)
Athlon 64 3000+
30-09-2006, 17:23
Ricordati che nVidia è stata in grado di mantenere tutto quello che era G70 in G71 addirittura diminuendo il numero di transistor. Dai 302 mln a se ricordo bene 278 mln. :)
Può essere quindi che con un 70-80 mln in più rispetto a G71 siano riusciti a tirar fuori una nuova GPU con architettura ibrida. :)
Comunque staremo a vedere. :)
Se per caso veramente con 400 milioni di transistor massimi riescono a fare G80 tanto di cappello.
NV40 per esempio avevà 222 milioni di transistor a 130 nm.
La cosa che non mi torna e' che con tutti questi consumi e la doppia alimentazione necessaria, la circuiteria dedicata al questo comparto e' davvero limitata. :mbe:
La cosa che non mi torna e' che con tutti questi consumi e la doppia alimentazione necessaria, la circuiteria dedicata al questo comparto e' davvero limitata. :mbe:
si infatti http://img360.imageshack.us/img360/6744/g80angle1bghz0.jpg (http://imageshack.us) ci dovrebbe stare più roba li...
we regà ma non vi siete accorti che è un fake???
http://img300.imageshack.us/img300/8789/g802ni8.jpg
guardate i fantomatici raccordi per liquido, entrano ed escono immediatamente, senza l'ombra di un wiubbo :D
sgamati :read:
Foglia Morta
30-09-2006, 19:51
we regà ma non vi siete accorti che è un fake???
http://img300.imageshack.us/img300/8789/g802ni8.jpg
guardate i fantomatici raccordi per liquido, entrano ed escono immediatamente, senza l'ombra di un wiubbo :D
sgamati :read:
sei orbo :D ? attraversa dall'alto al basso il dissipatore
sei orbo :D ? attraversa dall'alto al basso il dissipatoremi spiace per te, ma quello è un pezzo del dissipatore ad aria, non del "liquido" ;)
Foglia Morta
30-09-2006, 19:57
mi spiace per te, ma quello è un pezzo del dissipatore ad aria, non del "liquido" ;)
confronta quello che sarebbe il dissipatore "solo aria" e quello ibrido "aria + liquido" , nel secondo c' è un tubo che attraversa il pcb. C' è il riflesso e si vede male, ma guarda anche la distanza dalla ventola al blocco di metallo, è diversa , e quello spazio serve proprio per l' heat pipe o tubo per il liquido o quello che è
edit: confronta queste 2:
http://img149.imageshack.us/my.php?image=1159518267645ax8.jpg
http://img216.imageshack.us/my.php?image=1159518192134hn1.jpg
a me pare evidente la diversità
Fake quindi ?? :confused: :confused: :rolleyes:
io credo proprio di si.
guardando le foto dei dissi qui http://itbbs.pconline.com.cn/topic.jsp?tid=6054769
si vede che quella "roba" c'è anche nel dissi puramente ad aria, e a me pare un riflesso "duro e puro" o qualcosa di simile sulla piastra inferiore del dissipatore ;)
nessun tubo in più o waterblock in quel dissi fake-ibrido
E' solo un prototipo secondo me ke nn vuole essere raffreddato ... :sofico: :sofico: :D :D :D :D
io credo proprio di si.
guardando le foto dei dissi qui http://itbbs.pconline.com.cn/topic.jsp?tid=6054769
si vede che quella "roba" c'è anche nel dissi puramente ad aria, e a me pare un riflesso "duro e puro" o qualcosa di simile sulla piastra inferiore del dissipatore ;)
有点担心显卡过重,PCB会变形 引用 回复
这个像专业卡多点 看不到核心可信性不高啵
核心频率最高可达到1.5GHz左右 <--- 未证实
显存位宽为古怪的384bit <--- 被证实
拥有768MB GDDR4高速显存 <--- 被证实
G80核心拥有多达7亿晶体管 <--- 未证实
以上信息都是同时爆出来的,已经有2项被证实了
PS:ATI R600是512bit显存,样子应该比G80还恐怖
:muro: :muro: :sofico: :sofico: :D
In effetti ho postato io quell'immagine su un'altro forum, e mi pare chiaramente un fake dato che i raccordi del liquido non portano l'acqua nel radiatore ma è come se siano stati messi li per caso...
o per far credere che ci fosse un presunto waterblock sotto alle lamelle... nonono questo non si fa :mc:
Andrea deluxe
01-10-2006, 01:03
credo che il doppio connettore di alimentazione serve per non creare cadute di tensione eccessive, e quindi evitare inutili sprechi di ampere!
JoeLatino
01-10-2006, 08:55
.... a guardar bene le foto che circolano in rete,credo che queste piu' che fake,siano delle foto dei primisimi prototipi in progetto.....
niente hdmi,due connettori di alimentazione,lunghezza fuori dalla norma,sistema di raffreddamento in fase di studio (non credo proprio facciano un misto liquido/aria cosi' :D ),core nascosto e non fotografato,scritte sulla scheda illeggibili,troppe viti ect....
Per me la versione finale sara' parecchio diversa da questa,max 180w di alimentazione,connettore hdmi almeno nella versione top,singolo sistema di raffreddamento e con caratteristiche principali che avevo gia' scritto in precedenza ....
kenjcj2000
01-10-2006, 09:06
.... a guardar bene le foto che circolano in rete,credo che queste piu' che fake,siano delle foto dei primisimi prototipi in progetto.....
niente hdmi,due connettori di alimentazione,lunghezza fuori dalla norma,sistema di raffreddamento in fase di studio (non credo proprio facciano un misto liquido/aria cosi' :D ),core nascosto e non fotografato,scritte sulla scheda illeggibili,troppe viti ect....
Per me la versione finale sara' parecchio diversa da questa,max 180w di alimentazione,connettore hdmi almeno nella versione top,singolo sistema di raffreddamento e con caratteristiche principali che avevo gia' scritto in precedenza ....
fossero pochi 180.... puntroppo fino alla seconda generazione di drtx10 (al cambio di processo produttivo) i consumi saranno alti senza parlare di Ati... che si dice i consumi sfioreranno i 230-250... staremo a vedere
Skullcrusher
01-10-2006, 09:11
Cavoli, guardando bene la foto di quella col dissipatore a liquido, non vedo nessun tubo che entra nel dissipatore, c'è il riflesso verticale, ma non mi pare che il tubo entri... :mbe: mi sa che è proprio un fake, oppure un qualche primissimo esemplare post test :p
kenjcj2000
01-10-2006, 09:18
Cavoli, guardando bene la foto di quella col dissipatore a liquido, non vedo nessun tubo che entra nel dissipatore, c'è il riflesso verticale, ma non mi pare che il tubo entri... :mbe: mi sa che è proprio un fake, oppure un qualche primissimo esemplare post test :p
a me sembra un fake sia le specifiche che la foto... il tubo infatti a vedere bene fà una specie di U ma non vedo niente che possa farmi pensare a una entrata nel dissi :confused:
Skullcrusher
01-10-2006, 09:23
a me sembra un fake sia le specifiche che la foto... il tubo infatti a vedere bene fà una specie di U ma non vedo niente che possa farmi pensare a una entrata nel dissi :confused:
Esatto, sembra così anche a me.... :fagiano:
a me sembra un fake sia le specifiche che la foto... il tubo infatti a vedere bene fà una specie di U ma non vedo niente che possa farmi pensare a una entrata nel dissi :confused:
infatti nn ci entra proprio nel dissi :asd: è solo un fake, hanno messo quella plastika nera solo per nascondere la realtà, ma con un pò di attenzione lo si nota subito :D
nico88desmo
01-10-2006, 10:30
secondo me è uno dei primi esemplari, servito per fare test...
certo che se le caratteristiche del chip sarebbero quelle :sbavvv: ..oltre a essere spaventose, a me sembrano quasi da fantainformatica!!!
Fake :O sia per il dissipatore, sia per la mancanza del hdmi, per i due connettori di alimentazione con una "componentistica" dedicata all'alimentazione decisamente scarna!!!
Mister Tarpone
01-10-2006, 15:33
certo che se le caratteristiche del chip sarebbero quelle :sbavvv: ..oltre a essere spaventose, a me sembrano quasi da fantainformatica!!!
Quoto!! :eek: e sinceramente non vedo l'ora che esca(e ormai manca pochissimo :cool: ).
Menomale che non ho sputtanato 300 - 350 euro per le attuali schede... :stordita:
Se tutto va bene sarà mia prima dell'estate prossima :sbav: .
fino ad allora,la mia fida 7600GT continuerà a svolgere il suo lavoro in maniera egregia :O
we regà ma non vi siete accorti che è un fake???
http://img300.imageshack.us/img300/8789/g802ni8.jpg
guardate i fantomatici raccordi per liquido, entrano ed escono immediatamente, senza l'ombra di un wiubbo :D
sgamati :read:
Speriamo che da domani si veda qualcosa di migliore da parte di Nvidia ma anche di R600 Ati :D .
halduemilauno
01-10-2006, 16:53
qui si possono vedere vicine.
http://www.hardware-mania.it/
;)
Eccola!!! le prime foto di R600!!! :D .
http://www.hwupgrade.it/articoli/905/index.html
:read: :read: :read: .
Eccola!!! le prime foto di R600!!! :D .
http://www.hwupgrade.it/articoli/905/index.html
:read: :read: :read: .
Ma son vekkie :mbe: :mbe: :confused:
http://www.hwupgrade.it/articoli/905/scheda_big.jpg
halduemilauno
01-10-2006, 17:30
Ma son vekkie :mbe: :mbe: :confused:
http://www.hwupgrade.it/articoli/905/scheda_big.jpg
azz.
:D
ma non hai letto la data?
;)
azz.
:D
ma non hai letto la data?
;)
Pubblicato il :
22 Settembre 2003
halduemilauno
01-10-2006, 17:48
Pubblicato il :
22 Settembre 2003
appunto.
;)
azz.
:D
ma non hai letto la data?
;)
più che la data me lo vedo proprio R600 che esce su PCB con attacco AGP universal!!!!!!!!!! :D :rotfl:
appunto.
;)
Penso che il ma son vecchie fosse una battuta, ci mancava la faccina :D dopo le altre.
Hihihi scherzetto :sofico: .
Re-voodoo
01-10-2006, 22:52
più che la data me lo vedo proprio R600 che esce su PCB con attacco AGP universal!!!!!!!!!! :D :rotfl:
e soprattutto con quei minuscoli dissipatori, quelli erano bei tempi.
Re-voodoo
01-10-2006, 22:59
ecco un immagine dal dietro
http://www.tomshw.it/articles/20060929////G803_c.jpg
ho letto che è lunga ben 28 cm
ed ho letto anche che quella con il liquido è la gtx invece l'altra è la gt e se guardate bene tra le due immagini una sembra che (quella con i raccordi per il liquido) ha un tubicino in rame e l'altra è in alluminio che sbuca in basso alla fine del dissipatore vedendo le immagini frontali.
e non hai visto, dopo aver detto ste robe che sappiamo tutti :D , che è un fake? guarda i presunti raccordi della gtx per liquido: entrano, fanno una U subito ed escono immediatamente senza alcun altro tubicino o waterblock. sono messi lì per far credere la presenza di un cooling misto :mc:
Dylan BJ
02-10-2006, 01:35
e non hai visto, dopo aver detto ste robe che sappiamo tutti :D , che è un fake? guarda i presunti raccordi della gtx per liquido: entrano, fanno una U subito ed escono immediatamente senza alcun altro tubicino o waterblock. sono messi lì per far credere la presenza di un cooling misto :mc:
prova di aumentare lum e contrasto del tuo monitor e noterai la sorpresa.. io vedo 3 tubicini orizzontali uno sopra l'altro...
Eccola!!! le prime foto di R600!!! :D .
http://www.hwupgrade.it/articoli/905/index.html
:read: :read: :read: .
Tra l'altro era gia' fake ai tempi: sapphire aveva montato un secondo chip senza alcun collegamento e piste relative ad un probabile funzionamento in SLI. Non a caso il posizionamento del chip era ovviamente improbabile cosi' vicino all'angolo della scheda. :D;)
Tra l'altro era gia' fake ai tempi: sapphire aveva montato un secondo chip senza alcun collegamento e piste relative ad un probabile funzionamento in SLI. Non a caso il posizionamento del chip era ovviamente improbabile cosi' vicino all'angolo della scheda. :D;)
:D E si era il lontano 2003 e io giravo con la mia super Ati Radeon 9500PRO moddata a 9700 :sofico: :sofico: :sofico: .
Cmq vedo che le grandi case non la finiscono mai di prenderci in giro con SAMPLE di sche de finte solo per farci parlare a vuoto e farsi pubblicità nel frattempo che loro finiscono il progetto :cool: .
La storia si ripete ;) .
:D E si era il lontano 2003 e io giravo con la mia super Ati Radeon 9500PRO moddata a 9700 :sofico: :sofico: :sofico: .
Cmq vedo che le grandi case non la finiscono mai di prenderci in giro con SAMPLE di sche de finte solo per farci parlare a vuoto e farsi pubblicità nel frattempo che loro finiscono il progetto :cool: .
La storia si ripete ;) .
Eh gia'... ovviamente sono mosse di marketing sempre e comunque. ;)
Re-voodoo
02-10-2006, 19:15
vediamo, cmq ho letto che quei tubicini servono per chi vuole fare dell oc quindi credo che la scheda funzioni anche senza esser attaccata al liquido.
Qui (http://www.tomshw.it/news.php?newsid=7714) ci sono riassunti i dettagli e i rumors di G80 (fonte di oggi)
Certo che 700 milioni di transistor a 1,5ghz :rolleyes:
oscuroviandante
02-10-2006, 19:34
Tutto quello che leggo mi sta convincendo sempre di più che è meglio saltare a piè pari la prima generazione di schede DX10... :stordita:
nico88desmo
02-10-2006, 19:50
io dico di non trarre conclusioni finchè non si hanno le caratteristiche certe della scheda...
secondo me le "caratteristiche ipotetiche" sono troppo esagerate...
il numero di transistor è pauroso...da 278M a 700M..sn due volte e mezza il G71..
in una cosa spero di quelle caratteristiche...dell'ampiezza del bus...dopo finalmente si potrà giocare con i filtri a palla senza troppa diminuizione di Frame...speriamo.. :D
halduemilauno
03-10-2006, 07:41
aggiornamentino/riassuntino.
http://www.tomshw.it/news.php?newsid=7714
;)
aggiornamentino/riassuntino.
http://www.tomshw.it/news.php?newsid=7714
;)
Riassunto di rumors.. :D
Comunque riguardo le foto imho in un modo o nell'altro sono vere: tutti gli anni si arriva a un mese dagli annunci e cominciano ad apparire qua e la le prime immagini dei prototipi. E' sempre stato cosi' e non e' detto che certi prototipi siano destinati a rimanere tali come fu per la versione potenziata del Radeon che aveva ricordo dissipatori anche sulle ram, cosi' come fu per i primi sample del Voodoo3 che avevano il pcb stile Banshee con memorie su due linee parallele ecc ecc.. Magari le soluzioni per il raffreddamento saranno totalmente differenti ma in ogni caso quella scheda e' un nuovo prodotto mai commercializzato e quindi con tutta la probabilita' contiene davvero il G80.
Chissa' poi quante soluzioni sono state testate nei laboratori Nvidia per tirare fuori un sistema di raffreddamento valido che non percorri la triste sorte dell'NV30.
halduemilauno
03-10-2006, 08:15
Riassunto di rumors.. :D
Comunque riguardo le foto imho in un modo o nell'altro sono vere: tutti gli anni si arriva a un mese dagli annunci e cominciano ad apparire qua e la le prime immagini dei prototipi. E' sempre stato cosi' e non e' detto che certi prototipi siano destinati a rimanere tali come fu per la versione potenziata del Radeon che aveva ricordo dissipatori anche sulle ram, cosi' come fu per i primi sample del Voodoo3 che avevano il pcb stile Banshee con memorie su due linee parallele ecc ecc.. Magari le soluzioni per il raffreddamento saranno totalmente differenti ma in ogni caso quella scheda e' un nuovo prodotto mai commercializzato e quindi con tutta la probabilita' contiene davvero il G80.
Chissa' poi quante soluzioni sono state testate nei laboratori Nvidia per tirare fuori un sistema di raffreddamento valido che non percorri la triste sorte dell'NV30.
certo riassunto di rumors. sulle tue considerazioni mi trovi d'accordo. rilancio.
http://www.digitimes.com/mobos/a20061002A2007.html
metà novembre. pare.
;)
Riassunto di rumors.. :D
Comunque riguardo le foto imho in un modo o nell'altro sono vere: tutti gli anni si arriva a un mese dagli annunci e cominciano ad apparire qua e la le prime immagini dei prototipi. E' sempre stato cosi' e non e' detto che certi prototipi siano destinati a rimanere tali come fu per la versione potenziata del Radeon che aveva ricordo dissipatori anche sulle ram, cosi' come fu per i primi sample del Voodoo3 che avevano il pcb stile Banshee con memorie su due linee parallele ecc ecc.. Magari le soluzioni per il raffreddamento saranno totalmente differenti ma in ogni caso quella scheda e' un nuovo prodotto mai commercializzato e quindi con tutta la probabilita' contiene davvero il G80.
Chissa' poi quante soluzioni sono state testate nei laboratori Nvidia per tirare fuori un sistema di raffreddamento valido che non percorri la triste sorte dell'NV30.
Che si dice in laboratorio? a quando una bella anteprima di G80 confrontata con X1950XTX, 7950GX2, X1900XT, 7900GTX
SBAV SBAV SBAV :eek: :eek: :eek:
:sofico: .
Secondo voci di corridoio, NVIDIA dovrebbe annunciare il suo primo chip grafico compatibile DirectX 10, entro la metà di Novembre. Si tratta del modello GeForce 8800, meglio noto come G80.
Poiché le API [G] DirectX 10 funzioneranno solo con Windows Vista, o almeno questo è quello che attualmente si conosce in merito alla compatibilità all´indietro, la domanda per le nuove schede grafiche dipenderà molto dalla penetrazione del nuovo sistema operativo di casa Microsoft.
Le API DirectX 10 offriranno supporto per gli Shader Model 4.0 che saranno in grado di offrire effetti visivi e di rendering superiori a quelli degli SM 3.0 attualmente implementati sulla maggioranza delle schede di ultima generazione.
La prima scheda grafica basata su chip di casa ATI compatibile DirectX 10 (R600), invece, non dovrebbe arrivare prima di Febbraio 2007. E´ probabile che il produttore canadese faccia il suo annuncio in concomitanza con l´arrivo sul mercato della versione retail di Vista.
http://www.dinoxpc.com/News/news.asp?ID_News=11302&What=News
Skullcrusher
03-10-2006, 12:49
Ma non aveva rinviato il lancio a inizio 2007 anche Nvidia?
DakmorNoland
03-10-2006, 12:55
Le API DirectX 10 offriranno supporto per gli Shader Model 4.0 che saranno in grado di offrire effetti visivi e di rendering superiori a quelli degli SM 3.0 attualmente implementati sulla maggioranza delle schede di ultima generazione.
Superiori si fa per dire! :p Anche l'HDR di oblivion sembrava un effetti stupefacente ottenibile con i PS 3 finche' non si e'visto che utilizzando i ps 2 si otteneva lo stesso o anche meglio (fake HDR)! :asd:
Ma se Vista con molta probabilità uscirà nei negozi i primi di Dicembre (o poco prima) e G80 esce a metà Novembre, si potrà avere una piattaforma DX10 per Novembre/Dicembre ...
Anche se l'utilità in questo periodo è dubbia .
Però secondo me se G80 avrà prestazioni raddoppiate in confronto a una X1950XTX o a una 7950GX2 su DX 9 sono sicuro che molta gente la comprerà appena esce per godere di ottimi risultati su DX9 ed essere pronti alle DX10 .
Dylan BJ
04-10-2006, 12:32
prima di natale mi sento G80+vista dx10...... :p
speriamo che l'antitrust si calmi, quelli della apple integrano quasi tutto nel S.O. ma nessuno fiata.... :)
Ma se Vista con molta probabilità uscirà nei negozi i primi di Dicembre (o poco prima) e G80 esce a metà Novembre, si potrà avere una piattaforma DX10 per Novembre/Dicembre ...
Anche se l'utilità in questo periodo è dubbia .
Però secondo me se G80 avrà prestazioni raddoppiate in confronto a una X1950XTX o a una 7950GX2 su DX 9 sono sicuro che molta gente la comprerà appena esce per godere di ottimi risultati su DX9 ed essere pronti alle DX10 .
Personalmente penso che con il processo produttivo e le frequenze che sicuramente non saranno troppo elevate non vedremo chissa quali raddoppi di prestazioni.
Ricordiamoci del Geforce3 vs GeForce2 Ultra.. direi che calza a pennello. ;)
kenjcj2000
04-10-2006, 13:50
Personalmente penso che con il processo produttivo e le frequenze che sicuramente non saranno troppo elevate non vedremo chissa quali raddoppi di prestazioni.
Ricordiamoci del Geforce3 vs GeForce2 Ultra.. direi che calza a pennello. ;)
infatti... anzi penso che se il G80 rimarrà singol core come prestazioni di pura ^velocità^ non credo che andrà molto di più di una 7950gx2
opinione opinabile :eek:
Athlon 64 3000+
04-10-2006, 14:15
infatti... anzi penso che se il G80 rimarrà singol core come prestazioni di pura ^velocità^ non credo che andrà di più di una 7950gx2
opinione opinabile :eek:
Sono sicuro che in dx 9 G80 sarà molto più veloce della 7950GX2 ma non tale da arrivare al doppio(è solo una opinione personale),perchè se andasse uguale alla attuale top di gamma Nvidia ci sarebbe da spararsi visto anche che un gioco in uscita a inizio 2007 come Crysis si dice che ne una X1900/1950 e 7950GX2 sia in
grado di farlo girare al massimo dettaglio per via della sua possbile iper pesantezza.
Se fosse veloce uguale come velocità in dx 9 anche con G80 ci sarebbe il rischio di vedere Crysis andare da cani con una gpu ancora non uscita,non avrebbe alcun senso,quindi penso che sarà molto più veloce della attuali top di gamma.
Dylan BJ
04-10-2006, 14:16
infatti... anzi penso che se il G80 rimarrà singol core come prestazioni di pura ^velocità^ non credo che andrà di più di una 7950gx2
opinione opinabile :eek:
non lo so...
G80 integrera' sicuramente SM4 + Dx10... non mi sembra affatto poco.... :p
kenjcj2000
04-10-2006, 14:18
infatti la mia è solo una supposizione.... spero di sbagliarmi e nemmeno di poco :D
p.s. scritto male il mio post sopra ...pardon io intendevo molto di più ....(dimenticato di scrivere il molto :D ) nel senso che non credo che raddoppierà le prestazioni di una 7950gx2.. che andrà di più è sicuro
Crasher89
04-10-2006, 14:45
Sono sicuro che in dx 9 G80 sarà molto più veloce della 7950GX2 ma non tale da arrivare al doppio(è solo una opinione personale),perchè se andasse uguale alla attuale top di gamma Nvidia ci sarebbe da spararsi visto anche che un gioco in uscita a inizio 2007 come Crysis si dice che ne una X1900/1950 e 7950GX2 sia in
grado di farlo girare al massimo dettaglio per via della sua possbile iper pesantezza.
Se fosse veloce uguale come velocità in dx 9 anche con G80 ci sarebbe il rischio di vedere Crysis andare da cani con una gpu ancora non uscita,non avrebbe alcun senso,quindi penso che sarà molto più veloce della attuali top di gamma.
oppure semplicemente crysis nn sarà così pesante come tutti crediamo...
Mhm sarò diventato un maniaco o qualcosa del genere :sofico: ...
Mi sono appena comprato una X1900GT pagandola 190 euro e lo overcloccata ai livelli di una XTX (solo frequenze purtroppo perchè le pipe non si sbloccano) e viaggio 1 volta e mezza di + di quanto facevo con la Nvidia 7800GT...
Ovviamente non mi scatta niente (sopratutto grazie al conroe portato a 3.600mhz e alla P5B deluxe, poi sono stato molto fortunato con le memorie che salgono senza problemi oltre i 950mhz) e però non vedo l'ora di mettere gli occhi su una prima recensione di G80 o R600 per assaporarne il giorno in cui monterò l'una o l'altra per giocare a 1600x1200 a Crisys o Bioshock...
Insomma sono peggio di una bambino che aspetta il suo regalo di Natale :sofico: .
QUANDO ESCEEEEEEEEEEEEEEEEEEEEEE :nera: ...
:D :D :D .
Sono sicuro che in dx 9 G80 sarà molto più veloce della 7950GX2 ma non tale da arrivare al doppio(è solo una opinione personale),perchè se andasse uguale alla attuale top di gamma Nvidia ci sarebbe da spararsi visto anche che un gioco in uscita a inizio 2007 come Crysis si dice che ne una X1900/1950 e 7950GX2 sia in
grado di farlo girare al massimo dettaglio per via della sua possbile iper pesantezza.
Se fosse veloce uguale come velocità in dx 9 anche con G80 ci sarebbe il rischio di vedere Crysis andare da cani con una gpu ancora non uscita,non avrebbe alcun senso,quindi penso che sarà molto più veloce della attuali top di gamma.
Se G80 in Dx9 sarà veloce come una scheda con due gpu però native dx9 sarà soltanto segno che Nvidia ha lavorato non bene, ma benissimo. Ovviamente poi mi aspetto che con i filtri invece la differenza sia a favore di G80.
oppure semplicemente crysis nn sarà così pesante come tutti crediamo...
oppure crysis sarà l'unico gioco pesante, mentre tutti gli altri a cui potremo giocare andranno alla grande anche senza G80.
Athlon 64 3000+
04-10-2006, 15:45
Se G80 in Dx9 sarà veloce come una scheda con due gpu però native dx9 sarà soltanto segno che Nvidia ha lavorato non bene, ma benissimo. Ovviamente poi mi aspetto che con i filtri invece la differenza sia a favore di G80.
Sinceramente ci sarebbe da dire se G80 andasse uguale senza filtri come una 7950GX2 storcerei un po' il naso perchè mi aspetto che sia lo stesso più veloce.
Naturalmente spero che con i filtri sia molto più veloce della 7950GX2.
Potrebbe capitare una situazione come Geforce 2 Ultra vs Geforce3 dove NV20 in alcune situazioni era addirittura più lenta del top di gamma NV15 del tempo e solo successivamente con titoli più Pesanti e nuovi driver la Geforce3 prese il sopravvento.
Il doppio più veloce della gpu di punta della generazione precedente? Non si è mai visto se non i casi limite. Quindi io mi aspetto un G80 veloce ma non di sicuro quando un dual gpu, o almeno se lo deve essere lo sarà solo in casi "pesanti".
Il doppio più veloce della gpu di punta della generazione precedente? Non si è mai visto se non i casi limite. Quindi io mi aspetto un G80 veloce ma non di sicuro quando un dual gpu, o almeno se lo deve essere lo sarà solo in casi "pesanti".
infatti la scheda di generazione precedente in realtà è uno sli, quindi G80 dovrebbe andare il doppio di una 7900GTX
infatti la scheda di generazione precedente in realtà è uno sli, quindi G80 dovrebbe andare il doppio di una 7900GTX
Io non ho detto scheda, ho detto gpu... :)
Io non ho detto scheda, ho detto gpu... :)
quindi pensi che G80 non sarà a livello di uno sli tra 7900GTX ?
DakmorNoland
04-10-2006, 17:41
quindi pensi che G80 non sarà a livello di uno sli tra 7900GTX ?
Ma figurati! :p A meno che gli ingegneri nvidia non facciano un miracolo...
Skullcrusher
04-10-2006, 17:44
Io sono fiducioso....spero che G80 e R600 siano come me li aspetto io... :p
Ma figurati! :p A meno che gli ingegneri nvidia non facciano un miracolo...
quando avevo preso la 7800GTX mi ricordo che faceva quasi come le 6800 in SLI, magari anche G80 potrebbe fare altrettanto.
http://img504.imageshack.us/img504/9359/doom31fx8.png
nico88desmo
04-10-2006, 18:43
secondo me andrà più del doppio della 7950gx2.
più i giorni passano e più sono curioso di questa scheda. :D:D
DakmorNoland
04-10-2006, 18:54
secondo me andrà più del doppio della 7950gx2.
più i giorni passano e più sono curioso di questa scheda. :D:D
Sì anch'io non vedo l'ora di vedere sta 5900Ultra 2 la vendemmia! :asd:
Sulla prossima scheda ATI non mi pronuncio nemmeno che mi fa paura (inteso in senso negativo sia ben chiaro) il solo pensarci! :rolleyes:
quando avevo preso la 7800GTX mi ricordo che faceva quasi come le 6800 in SLI, magari anche G80 potrebbe fare altrettanto.
http://img504.imageshack.us/img504/9359/doom31fx8.png
Le prime due CPU Limited ?? :D :D :sofico: :sofico:
nico88desmo
04-10-2006, 19:08
fanno paura per i consumi!!! per il resto, se le informazioni fossero semi-ufficiali...bè...c'è da prendere paura lo stesso! :D
kenjcj2000
04-10-2006, 20:03
fanno paura per i consumi!!! per il resto, se le informazioni fossero semi-ufficiali...bè...c'è da prendere paura lo stesso! :D
è certo :confused: se i rumor sono uguali sia x ati che x nvidia non mi sembra che quest^ultima sia la ^porta bandiera^ del poco consumo.. :rolleyes:
Io mi ricordo l'ATI 9700 PRO la prima scheda DX9 che appena uscita era il doppio + potente di tutte le schede DX8, e così la prima scheda DX8 era il doppio piu' potente della piu' potente DX7...
Quindi la prima DX10 sarà il doppio piu' potente della piu' potente DX9 :sofico: .
Io mi ricordo l'ATI 9700 PRO la prima scheda DX9 che appena uscita era il doppio + potente di tutte le schede DX8, e così la prima scheda DX8 era il doppio piu' potente della piu' potente DX7...
Quindi la prima DX10 sarà il doppio piu' potente della piu' potente DX9 :sofico: .
il tuo "sillogismo" non fa una piega.
Il doppio più veloce della gpu di punta della generazione precedente? Non si è mai visto se non i casi limite. Quindi io mi aspetto un G80 veloce ma non di sicuro quando un dual gpu, o almeno se lo deve essere lo sarà solo in casi "pesanti".
Concordo,forse molti non si ricordano che la 7950 NON e' una scheda video da considerarsi come tale. Sono 2 le gpu ricordo.. ;)
Non si e' mai visto appunto un raddoppio di prestazioni. Giusto l'NV40 e l'R300 hanno fatto vedere dei grandi passi avanti.
Chi se lo ricorda il confronto tra la prima DX9 (ATI 9700PRO) contro la piu' potente DX8 (GF 4 TI 4600) ?
Vi rinfresco la memoria :cool: .
http://next.videogame.it/html/foto.php?tabella=articoli&id=3273&i=15 :read:
http://next.videogame.it/html/foto.php?tabella=articoli&id=3273&i=8 :read:
:sofico: .
Geforce 4
VS
3DFX 5 DUAL GPU
http://www.ixbt.com/video/images/gf4/gf4-voodoo5.jpg :read:
Geforce 3
VS
3DFX 5 DUAL GPU
http://pierrelegrand.net/papadocs-flight-sims-and-games-site/v5vsgf3/
Il primo esempio che una singola scheda ottimizzata e costruita per librerie superiori può essere piu' veloce di una scheda DUAL GPU :sofico: .
Marko#88
04-10-2006, 20:34
mi iscrivo al 3d...sono curioisissimo! :D
Geforce 4
VS
3DFX 5 DUAL GPU
http://www.ixbt.com/video/images/gf4/gf4-voodoo5.jpg :read:
Geforce 3
VS
3DFX 5 DUAL GPU
http://pierrelegrand.net/papadocs-flight-sims-and-games-site/v5vsgf3/
Il primo esempio che una singola scheda ottimizzata e costruita per librerie superiori può essere piu' veloce di una scheda DUAL GPU :sofico: .
Il paragone non esiste... il VSA100 non e' mai nato con l'intenzione di essere un chip highend singolarmente. Il 7900GT invece e' un chip high end singolarmente. La soluzione sli in single board e' un qualcosa nato penso piu' come esperimento che come reale soluzione.
Chi se lo ricorda il confronto tra la prima DX9 (ATI 9700PRO) contro la piu' potente DX8 (GF 4 TI 4600) ?
Vi rinfresco la memoria :cool: .
http://next.videogame.it/html/foto.php?tabella=articoli&id=3273&i=15 :read:
http://next.videogame.it/html/foto.php?tabella=articoli&id=3273&i=8 :read:
:sofico: .
Stesso discorso.. benche' l'R300 sia stato il miglior chip di sempre per collocazione temporale e tecnologica, non avrebbe potuto raddoppiare le prestazioni di una ipotetica soluzione Ge4 Ti4600 "in SLI single board". ;)
Il paragone non esiste... il VSA100 non e' mai nato con l'intenzione di essere un chip highend singolarmente. Il 7900GT invece e' un chip high end singolarmente. La soluzione sli in single board e' un qualcosa nato penso piu' come esperimento che come reale soluzione.
Quello che dici è giusto però è bene ricordare anche che:
Nelle intenzioni di 3dfx non c'era l'dea di costruire il VSA100 come GPU di fascia bassa però, ed è per questo che tirò fuori la:
3dfx Voodoo 5 6000 :eek: :eek: :eek:
http://www.pcinpact.com/images/bd/news/17125.jpg :read:
La prima scheda video con 4 GPU!!!
Nonostante questo però la scheda si rivelò di poco inferiore a una GeForce 2 GTS su con una sol GPU
http://www.x86-secret.com/articles/divers/v5-6000/v56kfr-7.htm :read:
Detto questo bisognerà solo aspettare, ma la morale è:
Non è detto che 2 o + GPU siano piu' potenti di 1
:sofico: .
Quello che dici è giusto però è bene ricordare anche che:
Nelle intenzioni di 3dfx non c'era l'dea di costruire il VSA100 come GPU di fascia bassa però, ed è per questo che tirò fuori la:
3dfx Voodoo 5 6000 :eek: :eek: :eek:
http://www.pcinpact.com/images/bd/news/17125.jpg :read:
La prima scheda video con 4 GPU!!!
Nonostante questo però la scheda si rivelò di poco inferiore a una GeForce 2 GTS su con una sol GPU
http://www.x86-secret.com/articles/divers/v5-6000/v56kfr-7.htm :read:
Detto questo bisognerà solo aspettare, ma la morale è:
Non è detto che 2 o + GPU siano piu' potenti di 1
:sofico: .
Infatti
* Doom 3
Doom 3 n'est pas vraiment jouable de manière satisfaisante sur la Voodoo 5 6000 faute de T&L (et la carte a surtout 5 ans), le mieux que l'on puisse obtenir en terme de fluidité est de l'ordre de 5-10 fps en 640x480 et c'est par conséquent injouable. Comme nous sommes un peu vicieux, nous avons poussé les options à fond juste pour le fun afin de voir la qualité maximale que peut fournir la carte. A ce stade on est proche des 0.5 fps ;) Cliquez sur les images pour les voir en 1280x1024
Flying Tiger
04-10-2006, 22:35
Quelli che invece mi pare nessuno abbia considerato sono i prezzi :
"Altre specifiche sono invece più precise:
* GeForce 8800GTX: 7 chip TCP, interfaccia di memoria 384-bit, dissipatore ibrido con ventola e raffreddamento a liquido, con quest'ultimo da utilizzare in caso di overclocking. $649
* GeForce 8800GT: 6 chip TCP, interfaccia di memoria 320-bit, dissipatore con ventola. US$449-499"
Che , come oramai sappiamo tutti , in Italia sono destinati ad aumentare ancora , francamente proprorre a 700€ una scheda video , che funzionera' nella sua interezza , DX10 , solo con Vista ,con tutto cio' che comporta a livello di sostituzione di sistema operativo , costi , ecc... , pur con tutte le novita' e prestazioni queste ancora per la verita' da appurare , mi sembra davvero senza senso e francamente , per me , anche improponibile , una vera ladrata per dirla tutta , per quanto mi riguarda se la possono pure tenere , mai spederei una cifra del genere adesso per un prodotto che potro' usare con DX10 tra sei mesi a andar bene.....
Poi e' chiaro che ognuno fa' come meglio crede .
Chip TCP ?? Cosa sono ?? :confused: :confused:
Quello che dici è giusto però è bene ricordare anche che:
Nelle intenzioni di 3dfx non c'era l'dea di costruire il VSA100 come GPU di fascia bassa però, ed è per questo che tirò fuori la:
3dfx Voodoo 5 6000 :eek: :eek: :eek:
http://www.pcinpact.com/images/bd/news/17125.jpg :read:
La prima scheda video con 4 GPU!!!
Nonostante questo però la scheda si rivelò di poco inferiore a una GeForce 2 GTS su con una sol GPU
http://www.x86-secret.com/articles/divers/v5-6000/v56kfr-7.htm :read:
Detto questo bisognerà solo aspettare, ma la morale è:
Non è detto che 2 o + GPU siano piu' potenti di 1
:sofico: .
La V5 6000 la conosco bene.. ce l'ho! :D
Piu' che altro il discorso e' complesso poiche' in quel tempo l'SLI (cosi' come al tempo del Voodoo2) offriva si prestazioni alte ma la stessa vecchia tecnologia nel 2000/2001 non bastava piu'.
Il problema in quel caso era la netta inferiorita' del chip VSA100 come gia' detto mille volte. Sarebbe stato il perfetto Voodoo3 per collocazione temporale ma e' uscito invece troppi anni dopo.
Al giorno d'oggi il discorso e' diverso. L'SLI e il Crossfire permettono una ripartizione del lavoro con tecnologie all'avanguardia e davvero c'e' un raddoppio (o quasi) delle prestazioni nelle situazioni in cui una single board non basta. Questo anche grazie al PCI Express che permette soluzioni simili senza incontrare le problematiche che avevano afflitto tutte le implementazioni precedenti su bus AGP.
E poi c'e' anche un discorso puramente temporale come appunto anticipato: un Voodoo5 5500 era comunque piu' lento e di un bel po' rispetto al GeForce2 GTS soprattutto nei giochi che vedevano largo uso di geometrie complesse ed effetti avanzati in hardware. Raddoppiare questa soluzione e tardare anni nel presentarla al mercato non fu certo una mossa intelligente se paragonata alla concorrenza che sforno' Radeon vari e Geforce2 (GTS, Ultra)/ Geforce3, chip mostruosamente piu' avanzati sotto tutti i punti di vista.
Ma e' risaputo che il Voodoo5 6000 e' stato piu' un esercizio tecnico per spendere ancora un po' di soldi che altro.
JoeLatino
05-10-2006, 07:29
:cry:
sono uscite delle news su dailytech....
a quanto sembra ci saranno per ora solo le gddr3 e non le tanto attese gddr4!
News : GPUs & Graphic Cards : GeForce 8800GTX & GTS Details
DailyTech has gotten some juicy details on the GeForce 8 flagship products and it has confirmed some of the leaked specs earlier on. We have mentioned about G80 being unified back in July 2005. Expect GeForce 8800GTX and 8800GTS products to launch the second week of November 2006.
GeForce 8800GTX : 575MHz core clock, 900MHz memory clock, 768MB of GDDR3, 384-bit memory interface, 86GB/s memory bandwidth, 128 unified shaders clocked at 1350 MHz, HDCP compliant, 450W for single and 800W for SLI
GeForce 8800GTS : 500MHz core clock, 900MHz memory clock, 640MB of GDDR3, 320-bit memory interface, 64GB/s memory bandwidth, 96 unified shaders clocked at 1200MHz, HDCP compliant, 400W for single and 800W for SLI
:confused: 128 unified shaders clocked at 1350 MHz non lo trovate un po' curiosa sta' cosa???
Quelli che invece mi pare nessuno abbia considerato sono i prezzi :
"Altre specifiche sono invece più precise:
* GeForce 8800GTX: 7 chip TCP, interfaccia di memoria 384-bit, dissipatore ibrido con ventola e raffreddamento a liquido, con quest'ultimo da utilizzare in caso di overclocking. $649
* GeForce 8800GT: 6 chip TCP, interfaccia di memoria 320-bit, dissipatore con ventola. US$449-499"
Che , come oramai sappiamo tutti , in Italia sono destinati ad aumentare ancora , francamente proprorre a 700€ una scheda video , che funzionera' nella sua interezza , DX10 , solo con Vista ,con tutto cio' che comporta a livello di sostituzione di sistema operativo , costi , ecc... , pur con tutte le novita' e prestazioni queste ancora per la verita' da appurare , mi sembra davvero senza senso e francamente , per me , anche improponibile , una vera ladrata per dirla tutta , per quanto mi riguarda se la possono pure tenere , mai spederei una cifra del genere adesso per un prodotto che potro' usare con DX10 tra sei mesi a andar bene.....
Poi e' chiaro che ognuno fa' come meglio crede .
Ricordiamoci i prezzi del Geforce2 Ultra e dei primi Geforce3 appunto.. ;)
Tutti intorno il milione e duecento mila lire... ;)
Skullcrusher
05-10-2006, 08:11
:cry:
sono uscite delle news su dailytech....
a quanto sembra ci saranno per ora solo le gddr3 e non le tanto attese gddr4!
News : GPUs & Graphic Cards : GeForce 8800GTX & GTS Details
DailyTech has gotten some juicy details on the GeForce 8 flagship products and it has confirmed some of the leaked specs earlier on. We have mentioned about G80 being unified back in July 2005. Expect GeForce 8800GTX and 8800GTS products to launch the second week of November 2006.
GeForce 8800GTX : 575MHz core clock, 900MHz memory clock, 768MB of GDDR3, 384-bit memory interface, 86GB/s memory bandwidth, 128 unified shaders clocked at 1350 MHz, HDCP compliant, 450W for single and 800W for SLI
GeForce 8800GTS : 500MHz core clock, 900MHz memory clock, 640MB of GDDR3, 320-bit memory interface, 64GB/s memory bandwidth, 96 unified shaders clocked at 1200MHz, HDCP compliant, 400W for single and 800W for SLI
:confused: 128 unified shaders clocked at 1350 MHz non lo trovate un po' curiosa sta' cosa???
Ma come, niente gddr4? Ma se sono uno dei cavalli di battaglia delle nuove schede dx10...questa news poi ridimensiona il clock della gpu rispetto a quello che si era sentito, ma non mi convince neppure questa... :p
Marko#88
05-10-2006, 08:13
a me sembra un mucchio di cacchiate....il bus a 384bit?768MB di memoria?? :confused: :confused: mi sembrano valori un po' sballati...
L'unica cosa su cui si può essere sicuri sono i prezzi :doh:
il bus sarebbe 256+128, quindi un 50% in più dell'attuale, idem per la ram, 512+256.... :mbe:
bah staremo a vedere
Ricordiamoci i prezzi del Geforce2 Ultra e dei primi Geforce3 appunto.. ;)
Tutti intorno il milione e duecento mila lire... ;)
si infatti se ricordo bene quando uscì la 6800ultra,architettura completamente nuova rispetto alla serie fx in italia ste schede si trovavano inizialmente ad un prezzo superiore alle 600 euro,successivamente invece la 7800gtx venne proposta ad un costo più basso "circa 550 euro"..
Marko#88
05-10-2006, 08:52
il bus sarebbe 256+128, quindi un 50% in più dell'attuale, idem per la ram, 512+256.... :mbe:
bah staremo a vedere
si l'avevo capito ma mi sembrano valori strani.... :confused: boh, chi civrà vedrà... :D
Chi se lo ricorda il confronto tra la prima DX9 (ATI 9700PRO) contro la piu' potente DX8 (GF 4 TI 4600) ?
Vi rinfresco la memoria :cool: .
http://next.videogame.it/html/foto.php?tabella=articoli&id=3273&i=15 :read:
http://next.videogame.it/html/foto.php?tabella=articoli&id=3273&i=8 :read:
:sofico: .
Il salto più che altro è stato nella nella gestione del fsaa, che in R200 e derivati era scandalosamente lento, ed in generale nei chip pre dx9 era tutt'altro che performante.
:cry:
sono uscite delle news su dailytech....
a quanto sembra ci saranno per ora solo le gddr3 e non le tanto attese gddr4!
News : GPUs & Graphic Cards : GeForce 8800GTX & GTS Details
DailyTech has gotten some juicy details on the GeForce 8 flagship products and it has confirmed some of the leaked specs earlier on. We have mentioned about G80 being unified back in July 2005. Expect GeForce 8800GTX and 8800GTS products to launch the second week of November 2006.
GeForce 8800GTX : 575MHz core clock, 900MHz memory clock, 768MB of GDDR3, 384-bit memory interface, 86GB/s memory bandwidth, 128 unified shaders clocked at 1350 MHz, HDCP compliant, 450W for single and 800W for SLI
GeForce 8800GTS : 500MHz core clock, 900MHz memory clock, 640MB of GDDR3, 320-bit memory interface, 64GB/s memory bandwidth, 96 unified shaders clocked at 1200MHz, HDCP compliant, 400W for single and 800W for SLI
:confused: 128 unified shaders clocked at 1350 MHz non lo trovate un po' curiosa sta' cosa???
:confused: e che sarebbe sta schifezza, ma chi le da le notizie a DailyTech, PINOCCHIO ?
Per me sono bufale sopratutto la 8800GTS 640mb ? ma che dimensione di memoria è... 512 + 128... Boh cmq se è vero mi aspettavo meglio ;) .
Non vedo l'ora di una recensioooneee :muro: :D :cool: .
EDIT 450W SINGLE 800W SLI :eek: .
Chip TCP ?? Cosa sono ?? :confused: :confused:
Thread Control Processor.
E' simile all' Ultra Threading Dispatch Processor di R5xx.
Thread Control Processor.
E' simile all' Ultra Threading Dispatch Processor di R5xx.
Ora sì che è chiaro :asd: :muro:
JoeLatino
05-10-2006, 12:12
NVIDIA is ready to counter the Triple Play
With the release of the G80, NVIDIA will also release a new engine dubbed Quantum physics engine. Quantum Effects Technology is similar (at least in spirit) to NVIDIA's PureVideo Technology -- a dedicated layer on the GPU for physics calculations. A few documents alluding to this new engine appeared on public FTP mirrors late last week.
Quantum utilizes some of the shaders from NVIDIA's G80 processor specifically for physics calculations. Physics calculations on GPUs are nothing new; ATI totes similar technology for its Stream Computing initiative and for the Triple Play physics.
NVIDIA and Havok partnered up this year claiming that SLI systems would get massive performance gains by utilizing additional GeForce GPUs as physics processors. Quantum may be the fruits of that partnership, though NVIDIA documentation clearly states that Quantum will work just fine without SLI.
NVIDIA's documentation claims Quantum will specifically compete with AGEIA's PhysX, yet does not mention who is providing the middleware. Given that there are only two acts in town right now, it would be safe to say Havok has a hand in the Quantum engine.
Skullcrusher
05-10-2006, 12:15
Oddio...con la fisica c'è da impazzire....tra Ageia, Nvidia, Ati, chissà quale sarà lo standard...o si decidono in fretta o saranno guai :mbe:
nico88desmo
05-10-2006, 12:39
più i giorni passano e più mi sto rendendo conto che il salto generazionale sarà moltooo evidente...sempre secondo me.
l'architettura di g80 sembra veramente innovativa...tcp?! quantum effects?!
sono sempre più incuriosito!!..manca un mesetto ormai! :sbav:
JoeLatino
05-10-2006, 12:49
Visto che le prime schede usciranno con la gddr3,penso che entro marzo ci saranno gia' delle versioni ultra con la gddr4 e processo produttivo inferiore....
Che ne pensate?
Ps se Nvidia ma messo un layer per la fisica,probabilmente allora la memoria aggiuntiva sara' per quello.... :)
Un dubbio.... se il core e' a 675mhz e le pipeline a 1350mhz,non e' che ci saranno effettivamente due core???? :D :D
Marko#88
05-10-2006, 12:55
più i giorni passano e più mi sto rendendo conto che il salto generazionale sarà moltooo evidente...sempre secondo me.
l'architettura di g80 sembra veramente innovativa...tcp?! quantum effects?!
sono sempre più incuriosito!!..manca un mesetto ormai! :sbav:
stando a quel che dicono si....ma non mi fiderei piu di tanto...già tempo addietro avevo letto che G80 sarebbe stata ritardata ai primi del 2007...come è giusto che sia visto che vista (giochino di parole.. :D ) è previsto per il primo trimestre 2007...
Skullcrusher
05-10-2006, 12:56
Mi sa che prima di passare a G80, aspetterò che qualcuno la provi a fondo..non vorrei ricapitasse il caso Geffo FX....prima però, voglio vedere le reali specifiche tecniche della nuova vga....Nvidia comunque qualche giorno fa ha detto che la immetterà nel mercato nel 2007 e non più a novembre...dovè che avete trovato notizia di un altro cambiamento?
Ora sì che è chiaro :asd: :muro:
Sono o non sono bravo a spiegare?:D
Skullcrusher
05-10-2006, 13:01
stando a quel che dicono si....ma non mi fiderei piu di tanto...già tempo addietro avevo letto che G80 sarebbe stata ritardata ai primi del 2007...come è giusto che sia visto che vista (giochino di parole.. :D ) è previsto per il primo trimestre 2007...
Per l'appunto...inizialmente era prevista per metà novembre, poi è stata posticipata assieme a R600 ad inizio/primavera 2007... :rolleyes:
Marko#88
05-10-2006, 13:05
Per l'appunto...inizialmente era prevista per metà novembre, poi è stata posticipata assieme a R600 ad inizio/primavera 2007... :rolleyes:
già infatti....imho prima di marzo aprile 2007 non vedremo ne G80 ne R600 sul mercato...mi sa che anch'io aspetto la seconda generazione di vga dx10, oppure in ogni caso aspetto delle prove ufficiali delle suddette vga...
nico88desmo
05-10-2006, 13:51
vedremo...
secondo me la presentazione sarà a novembre..
ultimamente nVidia anticipa la concorrenza sulla presentazione di nuove schede video...forse in questo nn ci sarebbe un valido motivo, causa win vista, però ci sono sempre gli utenti che comprano 'l'ultimo arrivo'..e quindi un minima fetta di mercato alla nVidia penso non faccia male...tutt'altro..
E se la ram fosse divisa appunto per permettere ad una parte di GPU di calcolare la fisica?
512MB per la grafica.. 128 o 256 per la fisica.
Skullcrusher
05-10-2006, 16:35
vedremo...
secondo me la presentazione sarà a novembre..
ultimamente nVidia anticipa la concorrenza sulla presentazione di nuove schede video...forse in questo nn ci sarebbe un valido motivo, causa win vista, però ci sono sempre gli utenti che comprano 'l'ultimo arrivo'..e quindi un minima fetta di mercato alla nVidia penso non faccia male...tutt'altro..
Staremo a vedere....se esce a novembre, tanto meglio... :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.