PDA

View Full Version : G80: le prime immagini della nuova GPU NVIDIA


Redazione di Hardware Upg
29-09-2006, 16:38
Link alla notizia: http://www.hwupgrade.it/news/skvideo/18744.html

Emergono on line le prime foto di una reference board basata su chip G80 di NVIDIA; in una versione anche un sistema di raffreddamento a liquido

Click sul link per visualizzare la notizia.

mArCo1928
29-09-2006, 16:43
che bidone di vga, è enorme, brutta e ha un sistema di raffreddamento grande quanto casa mia, in più ste schede consumano sempre di più

shark79
29-09-2006, 16:43
Che brutta!!!!
Non mi convince questa notizia, e poi due connettori di alimentazione, ma dico siamo matti.
No no se questa notizia è vera, la mia prossima scheda video non sarà questa, si aspetta la prossima generazione magari a 55 nanometri

Thejudge
29-09-2006, 16:45
AMD e Intel l'hanno capito che si devono contenere i consumi pur incrementando le prestazioni, ma nVidia e ATI, a quanto pare, continuano a produrre schede succhia sangue!! a quando la svolta?? mah...

al135
29-09-2006, 16:47
nvidia che il sukaggio sia con te. sempre

lol

PsyCloud
29-09-2006, 16:59
non mi pare di aver visto la foto della GPU con scritto sopra il modello, a mio parere si tratta di una vecchia 7950 GX, non la GX2, quella che aveva 2 chip sulla stessa scheda invece che su 2 schede differenti collegati dal pci-e pompato, moddata con un nuovo dissipatore

Manwë
29-09-2006, 16:59
Dopo questa mezza fregatura di G80 uscirà il G85 (come sempre) che consumerà meno e renderà poco di più. La storia insegna!

G80 = alti consumi e temperature magmatiche.
G85 = consumi moderati e temperature terrestri.

3dmark '06
G80 = 10.500
G85 = 11.000

PhoEniX-VooDoo
29-09-2006, 17:01
mi ricorda tanto il GePhoon FX :asd:

capitan_crasy
29-09-2006, 17:02
Che brutta!!!!
Non mi convince questa notizia, e poi due connettori di alimentazione, ma dico siamo matti.
No no se questa notizia è vera, la mia prossima scheda video non sarà questa, si aspetta la prossima generazione magari a 55 nanometri
per caso si tratta di una VGA oppure di un modello in concorso ad una sfilata di bellezza?
Si tratta di una "Presunta reference board" dopo tutto abbiate un pò di pazienza... :O

Dylan BJ
29-09-2006, 17:02
Che brutta!!!!
Non mi convince questa notizia, e poi due connettori di alimentazione, ma dico siamo matti.
No no se questa notizia è vera, la mia prossima scheda video non sarà questa, si aspetta la prossima generazione magari a 55 nanometri

se ATI nn ne utilizza 3 proprio R600 poco ci manca... :p

jp77
29-09-2006, 17:04
Peccato non si veda la cosa più interessante....la gpu!!!

Dylan BJ
29-09-2006, 17:04
per caso si tratta di una VGA oppure di un modello in concorso ad una sfilata di bellezza?
Si tratta di una "Presunta reference board" dopo tutto abbiate un pò di pazienza... :O

Parole sascrosantissime!!!
sai quanto puo' interessare alla stragrande maggioranza se e' brutto il sample? scommettiamo che con qalke adesivo verde sopra e performance stratosferike diventa subito bellissima?? :D

Sgt. Bozzer
29-09-2006, 17:05
non mi pare di aver visto la foto della GPU con scritto sopra il modello, a mio parere si tratta di una vecchia 7950 GX, non la GX2, quella che aveva 2 chip sulla stessa scheda invece che su 2 schede differenti collegati dal pci-e pompato, moddata con un nuovo dissipatore

no la prima scheda si chiamava 7900gx2 (quella per il mercato retail è la 7950gx2) era sempre su due pcb ma molto più lunghi..

Dumah Brazorf
29-09-2006, 17:27
Sembra consumare tanto ed è male, di contro neanche la concorrenza sembra essere messa meglio...

8kikko2
29-09-2006, 17:29
le vga consumano troppo potrebbero fare tutti i componenti in modo da funzionare alla perfezione con un ali max da 500w..
fra un po' giro il potenziometro delle ventole e vedi il mio paese che rimane al buoi finche nn rallento le ventole..

monsterman
29-09-2006, 17:31
come per il wii e la ps3 prima la vedo in commercio la provo e poi giudico; così com'è adesso è ovviamente brutta essendo un prototipo :fagiano:

The_misterious
29-09-2006, 17:35
è un presunto sample e commentate pure sulla bellezza estetica..

Niiid
29-09-2006, 17:40
ok visto che non piace a nessuno ed e' pure brutta da vedere se vela regalano la potete regalare a me...?
Grazie

:blah: :blah: :blah: :blah:

Alexdibi
29-09-2006, 17:49
il mio alimentatore seasonic s12 600w ha solo 2 connettori pcix questa scheda ne ha 2 quindi immagino ci voglia un alimentatore da 1000 w per 2 schede di questo tipo in SLI....
Voi che ne pensate?
Onestamente fanno di tutto per ridurre l'inquinamento e poi progettano hardware che consuma diversi kw, forse sarebbe ora che facessero anche dei forni elettrici, tanto ormai la tecnica giusta l'hanno acquisita

c1-p8
29-09-2006, 17:55
Mi ricordo alla presentazione della 5800 settimane di critiche e prese in giro per il dissipatore a doppio slot, sembrava che nessuno mai e poi mai avrebbe accettato una scheda cosi nel proprio case :rolleyes:
Ormai sappiamo tutti che per quanto brutta, rumorosa o assetata di watt sia la scheda video, se alla fine i conti tornano (vedi un 12000 al 3dmark) facciamo tutti alle corse per prenderla. :p

bonzuccio
29-09-2006, 17:58
2 connettori per l'alimentazione.. non è possibile :Puke:
sembra tutta bruciacchiata perchè al primo stress test è andata a fuoco :asd:

Bulz rulez
29-09-2006, 17:59
ma ke bidone di vga...ma sara' almeno lunga 30cm!!!
e pensare ke io sxperavo quantomeno in genialate tipo la 7950gx2...-.-
delusione...se son queste la skede dx 10 siam belli ke fritti

DOCXP
29-09-2006, 18:00
Mi sa tanto di un falso, non capisco perchè sarebbero necessari 2 connettori di alimentazione, uno dovrebbe bastare ad erogare la potenza necessaria, fossero anche 250watt

dwfgerw
29-09-2006, 18:00
a me da la stessa sensazione di potenza dei prototipi di 6800Ultra...
Comunque è ovvio che risulti brutta a primo impatto dato che il dissi non ha neanche gli adesivi... Alla fine stica delle immagini speriamo che sia una bomba

athlon xp 2400
29-09-2006, 18:01
mi sa che me ne staro' per un bel po con la 7950gx2::::::::::

athlon xp 2400
29-09-2006, 18:03
mi sa ke me ne staro' per un bel po con la 7950gx2............

bonzuccio
29-09-2006, 18:13
mi sa ke me ne staro' per un bel po con la 7950gx2............
mi sa ke me ne staro' per un bel po con la 7950gx2............

Hai 2 gx2 in parallelo :)
Non è possibile dai per fare lo sli servono 2 alimentatori!!
E' una bufala (ben fatta) di sicuro

Catan
29-09-2006, 18:22
signori è pur sempre un sample...evidentemente hanno messo 2 alimentatori per fare le prove...
non credo che sia la versione finale

fede27
29-09-2006, 18:23
tralasciando il fattore estetico (e quoto chi dice che se c'avessero messo 2 adesivi si sarebbe invece detto che era bellissima :D ) davvero non mi tornano i 2 connettori. sarebbe oltremodo esagerato...

comunque un conto è il dissi doppio slot..ma non si può continuare a fare schede con pcb da 40 cm!!! cavolo i pc dovrebbero diventare sempre più piccoli, qui si torna ai computer grandi come mezza stanza!!!!!!!!!!!!!!!! :(

southerntrendkiller
29-09-2006, 18:24
bè giudicare proima d aver provato qualcosa mi sembra un atteggiamento molto intelliggente. cmq vediamo se questi d nvidia hanno già progettato la vga con raffreddamento a liquido xrenderla ultra clokkabile quanti poi la criticano.

fede27
29-09-2006, 18:25
bè giudicare proima d aver provato qualcosa mi sembra un atteggiamento molto intelliggente. cmq vediamo se questi d nvidia hanno già progettato la vga con raffreddamento a liquido xrenderla ultra clokkabile quanti poi la criticano.

si giudica in base a quello che si ha in mano. altrimenti non avrebbe nessun senso commentare alcuna news. e per quel poco che si sa mi pare che una o due pecche ci siano in questa scheda..

Kharonte85
29-09-2006, 18:40
tralasciando il fattore estetico (e quoto chi dice che se c'avessero messo 2 adesivi si sarebbe invece detto che era bellissima :D ) davvero non mi tornano i 2 connettori. sarebbe oltremodo esagerato...

comunque un conto è il dissi doppio slot..ma non si può continuare a fare schede con pcb da 40 cm!!! cavolo i pc dovrebbero diventare sempre più piccoli, qui si torna ai computer grandi come mezza stanza!!!!!!!!!!!!!!!! :(
Quoto...e l'enel ringraziera'... :(

Brightblade
29-09-2006, 18:41
2 connettori per l'alimentazione.. non è possibile :Puke:
sembra tutta bruciacchiata perchè al primo stress test è andata a fuoco :asd:

Si' in realta' il dissi e' nero perche' e' carbonizzato :asd: e in realta' quelli che sembrano i raccordi per il raffreddamento a liquido sono le rotelle del carrello che sta sotto e che e' servito al tizio per portarsela via :asd: :asd:

Scherzi a parte, mi interessano soprattutto le performance ( :eek: ) perche' di DX10 andro' al prossimo giro (cioe' il refresh), quando si spera che consumi e dimensioni siano ridotti e le performance uno zic incrementate rispetto a G80.

dragonheart81
29-09-2006, 18:42
:muro: 2 connettori a 6 pin :doh: e dopo subito in fila un ali da 1100W :D se é così veramente altro che processi produttivi inferiori e minor consumi...

Kerosene
29-09-2006, 18:50
Ecco la vera Foto della G80!!!

http://www.zmphoto.it/forum/files/g80_619.jpg

Lelevt
29-09-2006, 18:50
Che noia che siete ragazzi, esce qualcosa di nuovo e subito a lamentarsi.... mamma mia che roba.
Ho capito che consumerà tanto, ma guardate anche i lati positivi!

NightStalker
29-09-2006, 18:52
mah sembra una taroccata :|

Pashark
29-09-2006, 18:52
Che freddino... Oramai questo è l'andazzo per la fascia high-end.

athlon xp 2400
29-09-2006, 18:57
Che noia che siete ragazzi, esce qualcosa di nuovo e subito a lamentarsi.... mamma mia che roba.
Ho capito che consumerà tanto, ma guardate anche i lati positivi!


lati positivi?puo fare 12.000 punti al 3d marck ma in fondo al mese me la paghi te la bolletta' :sofico:

Lo ZiO NightFall
29-09-2006, 18:58
Non vale la pena nemmeno discuterne. E' palesemente un fake. Se non si hanno problemi a smontare il dissipatore, non si hanno nemmeno per fotografare la gpu. Non fotografare proprio il particolare fondamentale (i pcb non sono le schede video, sono le gpu che contano) vuol dire parlare di un qualcosa che non si conosce.

Sgt. Bozzer
29-09-2006, 19:06
ragazzi vi ricordo questa scheda:

http://eur.news1.yimg.com/eur.yimg.com/xp/p3/20060403/16/3523414419.jpg

7900gx2.. praticamente la reference board della 7950gx2.. aveva 2 connettori di alimentazione..

la 7950gx2 invece è molto più piccola.. un solo connettore... e consuma meno della x1900xtx... quindi aspettiamo un attimo prima di dare giudizi affrettati...

Matrix_Genesis
29-09-2006, 19:07
Secondo me c'è poco da sparlare tanto...
l'unico problema potrebbe essere che sia una fake...

se così non fosse potete stare tranquilli che gli ingegneri che lavorano a questi progetti sono tutt'altro che stupidi...

halduemilauno
29-09-2006, 19:13
Non vale la pena nemmeno discuterne. E' palesemente un fake. Se non si hanno problemi a smontare il dissipatore, non si hanno nemmeno per fotografare la gpu. Non fotografare proprio il particolare fondamentale (i pcb non sono le schede video, sono le gpu che contano) vuol dire parlare di un qualcosa che non si conosce.

http://img134.imageshack.us/img134/2987/1159518316603yj6.jpg

i PCB sono le schede video insieme alla gpu. nessuno ha notato le 12 piazzole per la ram?
;)

I love OC!!
29-09-2006, 19:42
Anche le 6800ultra hanno 2 connettori per l'alimentazione, ma nessuno si è mai lamentato.

Per quanto riguarda i consumi, nVidia consuma molto meno di Ati, ma a mio parere è cmq troppo.

Ci vogliono nuovi processi produttivi

Alexdibi
29-09-2006, 19:57
2 connettori le 6800ultra li hanno ma per versione agp per pcx è uno il connettore

@ Kerosene
sembra interessante il phase della whirlpool e anche capiente

Chilea
29-09-2006, 20:05
Ma Voi il pc lo usate per lavorare/giocare oppure cacciate la testa nel case per "rimirar" la bellezza dell'hardware???

Commenti davvero "tecnici"!!

oscuroviandante
29-09-2006, 20:52
Io davvero non capisco questi commenti stupidi.... quella scheda è un prototipo (se non è un fake) e tutti i prototipi sono grezzi.. :rolleyes:

nickdc
29-09-2006, 20:56
Ma quant'è brutta sta cosa. :Puke:
Anche se credo che la versione definitva sarà un po' diversa...

E poi due connettori a 6 pin. :eek: Non ci vorrà mica una centrale elettrica per alimentarla... :rolleyes:

SilverLian
29-09-2006, 21:01
tra un po la apple farà delle gf4mx tutte bianche e targate apple e tutti a corrergli dietro perchè è bella :asd:

Crysis90
29-09-2006, 21:07
Io non ho ancora capito una cosa, ma se io metto Windows Vista nel mio PC con una X1900 XTX, posso giocare a Crysis con Le DirectX 10 oppure devo per forza comprare G80 o R600? Se qualcuno sa qualcosa mi risponda!!!!!!!!!!!

fede27
29-09-2006, 21:10
tra un po la apple farà delle gf4mx tutte bianche e targate apple e tutti a corrergli dietro perchè è bella :asd:

:D QUOTE

capitan_crasy
29-09-2006, 21:16
Io non ho ancora capito una cosa, ma se io metto Windows Vista nel mio PC con una X1900 XTX, posso giocare a Crysis con Le DirectX 10 oppure devo per forza comprare G80 o R600? Se qualcuno sa qualcosa mi risponda!!!!!!!!!!!
la tua X1900 XTX va più che bene per Crysis...

nickdc
29-09-2006, 21:19
la tua X1900 XTX va più che bene per Crysis...
Non credo che potremo godercelo al max con quella scheda...

Kharonte85
29-09-2006, 21:25
tra un po la apple farà delle gf4mx tutte bianche e targate apple e tutti a corrergli dietro perchè è bella :asd:
Dove dove? :sbav: :sbonk:

capitan_crasy
29-09-2006, 21:38
Non credo che potremo godercelo al max con quella scheda...
su, un pò di ottimismo...

MaBru
29-09-2006, 22:17
ma ke bidone di vga...ma sara' almeno lunga 30cm!!!
Infatti il nome Geforce verrà abbandonato.

Si chiamerà nVidia RoccoSiffredi 8800 GTX.:D

nickdc
29-09-2006, 22:21
su, un pò di ottimismo...
Non è questione di ottimismo, ma di essere realisti...molto probabilmente crisis saraà giocabile al massimo solo su vga dx10. ;)

Narmo
29-09-2006, 22:43
A occhio è anche più lunga delle ati X1000... mi sa che se in versione finale è ancora così inizieranno a girare i pc aperti stile motore 150cc su vespa 50

Luposardo
29-09-2006, 23:28
date un occhiata: G80 (http://www.megagames.com/news/html/hardware/nvidiag80specsleaked.shtml)

MiKeLezZ
30-09-2006, 00:59
I problemi sono parecchi, intanto io non ho 2 connettori PCI-E usabili, e neppure mi piace quello che significa (si arriverà fino al doppio dei consumi attuali). Se inoltre è, come sembra, più lunga delle attuali serie 7, non mi ci sta nel case (che non è microATX).
Che dire? Carine le specifiche leaked, a parte che non sembra nulla di davvero innovativo, mi auguro queste nuove schede siano un bel flop.
Così come è successo con le CPU, anche ATI e nVidia magari si svegliano e guardano un po' più all'efficienza e al risparmio energetico.

Kerosene
30-09-2006, 01:32
VERRA UN giorno che ci venderanno un altro computer al posto della SG!!!

.:AbboZ:.
30-09-2006, 06:18
Scandaloso..per me stanno scherzando! é impensabile che quel prototipo richieda addirittutra due connettori di alimentazione. Se adesso si riesce a fare lan in 8,di questo passo la si fa in 3 e si rischia lo stesso di far saltare il contatore.

the.smoothie
30-09-2006, 07:29
Ciò che non mi sfagiola della scheda con raffreddamento a liquido è la posizione dei connettori per il liquido, uno che va da una parte e l'altro nella opposta direzione, che tra l'altro risulta in mezzo poichè diretto verso la placca posteriore del case e costretto secondo me a delle curve assurde al'interno del suddetto (a meno di montare il sistema di raffreddamento esterno, però la posizione mi sfagiola sempre meno...).

Altra cosa è sempre il raffreddamento, a cosa serve la ventola nel caso di dissipazione a liquido? Non ci pensa già il liquido stesso a rimuovere il calore in eccesso? Il bello del liquido non è quello di ridurre gli ingombri dei dissipatori previo l'utilizzo di waterblock e il rumore delle ventole attraverso l'uso di radiatori dalle ventole più grandi e quindi meno rumorose? Quei due connettori mi sembrano appiccicati li alla buona, senza nessun nesso logico; io pensavo che avrebbero reingegnerizzato completamente il sistema di raffreddamento per sfruttare a dovere il liquido e i vantaggi che esso offre (magari lasiciando sempre un corpo radiante a basso profilo per smaltire ulteriormente calore e per le memorie) e invece sfruttano il vecchio design del blocco con raffreddamento ad aria per inserirci due prese per un eventuale sistema a liquido! Mah... mi sembra la classica trovata pubblicitaria tanto per dire che uno ha la possibilità di sfruttare al meglio o il raffreddamento ad aria o quello a liquido nello stesso comodo package (ma alla fine non ne funzion bene nessuno dei due!)!

Spero solo che rimanga una reference board!

(Attenzione: il sistema solamente ad aria e ventola mi va anche bene, tanto ora come ora ci hanno abituato a soluzioni così ingombranti, l'importante è che fccia il suo dovere e smaltisca al meglio l'eccesso di calore creato dalla gpu e dalle memorie [qualcosa in più è sempre gradito per eventuali margini di overclock!]; bisogna pensare che al giorno d'oggi stanno progettando schede madri in grado di ospitare schede video con ingombri del genere senza creare troppi problemi alle altre periferiche preseti dentro il case di un pc)

Per i due connettori relativi all'alimentazione forse mi sembra un pò esagerato! Magari quella che vediamo è solo un sample di prova interno, uno di quei modelli di preproduzione, che all'atto della produzione di massa vera e propria avrannno avuto una ulteriore fase di ingegnerizzazione per ridurre i consumi a valori più umani (per esempio un solo connetore!).

Comunque quello che mi chiedo è questo: cosa serve alla fine la linea di alimentazione nello slot pci-express relativo alla scheda grafica quando la maggiore parte delle schede in commercio richiede una linea di alimentazione specifica esterna e dedicata, poichè lo stesso slot pci-express non riesce ad erogare la potenza sufficiente ad alimentare questi mostri di potenza (infatti integrano sul loro pcb la circuiteria di alimentazione!)? Non converrebbe standardizzare il tutto togliendo l'alimentazione dallo slot di interconnessione della scheda video (semplificando così il progetto della scheda madre e riducendo anche i rumori provocati dal passaggio di linee di alimentazione aggiuntive sulla stessa) e spostando la circuiteria di alimentazione definitivamente sulla scheda video creando una linea di alimentazione dedicata (leggasi un connettore standard che dall'alimentatore porta la corrente di alimentazione direttamente sulla scheda video) (cosa che nella magiore parte delle schede video c'è già!) (anche perchè ora come ora si trovano in giro gli alimentatori con il connettore specifico per la scheda grafica!)?

Il tutto è IMHO e magari mi sto sbagliando poichè salterà fuori appena si vedranno sugli scaffali le prime schede video g80 che le foto che stanno girando ora erano o dei fake oppure esemplari di preproduzione!

Ciauz!

Cappej
30-09-2006, 07:35
ma... strano... tra le 2 nvidia è quella le cui soluzioni di fascia alta sembravano, dai test, puppare meno corrente... (sempre nei limiti della fascia alta) che siano tornati indietro?
Concordo con coloro a cui nn piace l'estetica della scheda, ma è anche vero che una reference baord... e che la guerra con ATI(AMD) è sempre aperta... pubblicare così gratutiamente informazioni a giro per internet del loro prossimo progetto potrebbe essere un po' troppo pericoloso... magari serve solo a depistare... e poi prima di criticare... vediamola in azione... :O ... magari è davvero brutta ma ti spacca 15,000 PT sul 3Dmark 06 :eek: ... per una volta... CHI SE NE FREGA SE è ORRIBILE! :D
Ciao

fede27
30-09-2006, 07:49
Non è questione di ottimismo, ma di essere realisti...molto probabilmente crisis saraà giocabile al massimo solo su vga dx10. ;)

macché! prima di vedere un gioco full dx10 si arriverà almeno al 2008!!vuoi che le sw house siano così masochiste da tagliarsi fuori tutti i possesori di hw dx9?? cavolo CoD2 ha ancora la renderizzazione dx7!!

imho su una x1900xt crysis andrà benissimo..

aaasssdddfffggg
30-09-2006, 08:52
Crysys farà pena su una 1900xt.Per goderserlo al masimo occorrerà per forza una g80 o una r600.

aaasssdddfffggg
30-09-2006, 08:53
... ed è scontato che dietro una di queste schede si abbia un dual core.Solo così ve lo godrete al massimo delle sue possibilità.

R@nda
30-09-2006, 09:41
Passi tutto (estetica, lunghezza, rafreddamento...) ma queste schede consumeranno un botto, al di là della bolletta.
Per farmi la prossima sk dx10 dovrò sostituire il mio Ali, quindi altre 100€ minimo per qualcosa di decente.
E non criticate Nvidia perchè in Ati stanno sulla stessa barca, devono fare qualcosa.

nickdc
30-09-2006, 09:42
macché! prima di vedere un gioco full dx10 si arriverà almeno al 2008!!vuoi che le sw house siano così masochiste da tagliarsi fuori tutti i possesori di hw dx9?? cavolo CoD2 ha ancora la renderizzazione dx7!!

imho su una x1900xt crysis andrà benissimo..
Io lo spero vivamente, ma non ne sarei tanto sicuro.

Kharonte85
30-09-2006, 10:11
date un occhiata: G80 (http://www.megagames.com/news/html/hardware/nvidiag80specsleaked.shtml)

Non ti ha http://www.faccinebuffe.it/smile/varie/varie21.gif nessuno... :(


http://www.megagames.com/news/images/hrdnvdg80spclkd_l2.jpg
Description
Earlier today some information regarding the possible specs of nVidia's upcoming G80 based boards surfaced on VR-Zone, only to be "quietly" removed later. Thankfully X-bit labs managed to collect the information on the new cards and we can now present it to you below.

The most important aspect of the leaked documentation are the specs revealed:

- Unified Shader Architecture;
- Support FP16 HDR+MSAA;
- Support GDDR4 memories;
- Close to 700M transistors (G71 - 278M / G70 - 302M);
- New AA mode: VCAA;
- Core clock scalable up to 1.5GHz;
- Shader performance: 2x Pixel/12x Vertex over G71;
- 8 TCPs & 128 stream processors;
- Much more efficient than traditional architecture;
- 384-bit memory interface (256-bit+128-bit);
- 768MB memory size (512MB+256MB)

The unified shader architecture suggests, what the experts have been saying for a while now, that the cards will be support DX10.

According to the same, leaked, information the G80 will surface in November in two varieties, the GeForce 8800 GTX and GeForce 8800 GT priced at a mere USD 649 and USD 449-499 respectively. The GTX model (higher-end) will feature a 384-bit memory interface, a hybrid water and air cooler and 7 TCPs while the GT will have a 320-bit memory interface, a standard air cooler, and 6 TCPs.

No one has actually explained what TCP actually stands for although Techreport has uncovered an nVidia patent which refers to thread control processors. According to the same patent these TCPs will be used to set the function of the unified shader processors.

;)

fede27
30-09-2006, 10:17
[/SIZE]
Non ti ha http://www.faccinebuffe.it/smile/varie/varie21.gif nessuno... :(




forse perché quella non è altro che l'immagine di una 79/800gtx e quelle spec sono state postate e ripostate?? :D

leoneazzurro
30-09-2006, 10:22
forse perché quella non è altro che l'immagine di una 79/800gtx e quelle spec sono state postate e ripostate?? :D

E sono anche (molte delle caratteristiche indicate) molto inesatte ;)

nickdc
30-09-2006, 10:22
forse perché quella non è altro che l'immagine di una 79/800gtx e quelle spec sono state postate e ripostate?? :D
Appunto. :asd:

dwfgerw
30-09-2006, 10:32
certo che se venissero confermate....

- Unified Shader Architecture;
- Support FP16 HDR+MSAA;
- Support GDDR4 memories;
- Close to 700M transistors (G71 - 278M / G70 - 302M);
- New AA mode: VCAA;
- Core clock scalable up to 1.5GHz;
- Shader performance: 2x Pixel/12x Vertex over G71;
- 8 TCPs & 128 stream processors;
- Much more efficient than traditional architecture;
- 384-bit memory interface (256-bit+128-bit);
- 768MB memory size (512MB+256MB)


NVIDIA zittta zitta alla fine negli ultimi due anni ha sempre tirato fuori belle belve....

Dylan BJ
30-09-2006, 10:58
E' vero... in qesti anni sempre i riflettori puntati su Ati e poi regolarmente nvidia in sordina vinceva i match.. :p

bonzuccio
30-09-2006, 11:03
E' vero... in qesti anni sempre i riflettori puntati su Ati e poi regolarmente nvidia in sordina vinceva i match.. :p


Si.. forse le partite di calcetto tra dipendenti :asd:

Kharonte85
30-09-2006, 11:22
forse perché quella non è altro che l'immagine di una 79/800gtx e quelle spec sono state postate e ripostate?? :D
:stordita:

Pero' se somigliasse di piu' alla 7900gtx sarebbe + bella... :O

:D

aaasssdddfffggg
30-09-2006, 11:24
no no.Vince e stravince con la 7950x2 in tutto e per tutto.E poi con il g80 continuerà a stare davanti .Vedrai...

nickdc
30-09-2006, 11:24
E' vero... in qesti anni sempre i riflettori puntati su Ati e poi regolarmente nvidia in sordina vinceva i match.. :p
Mah con la serie 7 non credo abbia vinto il match. :rolleyes:

MenageZero
30-09-2006, 11:28
che bidone di vga, è enorme, brutta e ha un sistema di raffreddamento grande quanto casa mia, in più ste schede consumano sempre di più
quindi tu giudichi un s.video, in particolare un top di gamma ancora non presentata, dall' "estetica" e dalla grandezza del dissipatore ? (per il quale che sia enorme è una tua invenzione: si tratta di un normale dissi che occupa lo spazio di 2 slot, una prassi ormai consolidata da tempo per le top sia per ati che nvidia. inoltre la versione predisposta per il raff. a liquido senza dover smontare nulla direi che è una buona idea)

... w il "metodo scientifico" ... :asd:

aaasssdddfffggg
30-09-2006, 11:32
la 8800gtx avrà il raffreddamento a liquido ed ad aria (soluzione ibrida) per il semplice fatto che il raffreddamento a liquido servirà solo per chi volesse sperimentare overclock della scheda stessa,in casocontrario anche per la 8800gtx basterà la sola ventola.quindi si collega il raffreddamento a liquido solo se si vuole overcloccare di parecchio la scheda video.
Fonte Extreme tech.

aaasssdddfffggg
30-09-2006, 11:32
la 8800gtx avrà il raffreddamento a liquido ed ad aria (soluzione ibrida) per il semplice fatto che il raffreddamento a liquido servirà solo per chi volesse sperimentare overclock della scheda stessa,in casocontrario anche per la 8800gtx basterà la sola ventola.quindi si collega il raffreddamento a liquido solo se si vuole overcloccare di parecchio la scheda video.
Fonte Extreme tech.

kenjcj2000
30-09-2006, 11:33
no no.Vince e stravince con la 7950x2 in tutto e per tutto.E poi con il g80 continuerà a stare davanti .Vedrai...


il fatto è che x stare davanti sono dovuti uscire con una vga con due gpu :rolleyes: poi se la serie 80 sarà davanti non ci metterò un attimo a prendere una nVidia (visto che la maggior parte di vga avute son loro) però questa serie 1900 se devo essere sincero son fenomenali... una grossa pecca sono i consumi e il calore... ma vedendo la strada presa con queste nuove penso che non sia più una cosa da mettere in conto visto quello che tireranno fuori sia l^una che l^altra...

consumi e calore a GO-GO!!! :rolleyes:

Dylan BJ
30-09-2006, 11:35
Mah con la serie 7 non credo abbia vinto il match. :rolleyes:

beh serie 7 vs X1800 temo abbia vinto nvidia...
e se volessivo contrapporre X1900 alla 7950 nn mi sembra ati domini poi cosi' tanto ogni match... :p (te lo dico da ex possessore di 5 ati negli ultimi anni!) :D

aaasssdddfffggg
30-09-2006, 11:37
ma perchè se il tuo processore dual core è più veloce di un single core è una pecca?No ,alla fine è il prodotto finale che conta e la 7950x2 rappresenta oggi la scheda singola più veloce del mondo.

MenageZero
30-09-2006, 11:44
AMD e Intel l'hanno capito che si devono contenere i consumi pur incrementando le prestazioni, ma nVidia e ATI, a quanto pare, continuano a produrre schede succhia sangue!! a quando la svolta?? mah...

apparte che non è detto che consumi molto di più di una 7900gtx se useranno un processo produttivo più "piccolo"...

nelle cpu è "bastato" abbandonare la scalata in frequenza, puntare tutto sull'aumentare l'ipc tramite l'efficenza architetturale (quindi pipe "corta", singole unità di calcolo il più possibile performanti e migliorie specifiche varie...), assieme ad funzionalità di risparmio energetico sempre più ampie (in particolare per le cpu per portatili) ed il tutto insieme alla continua miniaturizzazione ha permesso anche di aumentare i core in modo non troppo doloroso dal pdv del calore/consumi (almeno per ora)

nelle gpu non c'è ad ora una simile "gallina dalle uova d'oro" da prendere al volo per il collo...

le gpu già ora non sono certo delle architetture votate ai GHz, mentre sono già architetture estemamente parallelizzate (mai sentito parlare delle 24 pixel pipes di nv e dell 8 vertex units, o delle 16 pixel pipes di ati con ognuna 3 pixel units, e le credo 8 vertex units pure per ati... ?)
non so come sono messe ora le gpu a funzionalità di risparmio energetico, ma in ogni caso anche spingere su questo tasto risolve poco perché quando la gpu è usata per davvero i problemi di consumo rimangono tutti e probabilmente il caso in cui si necessiti di una "potenza intermedia" dalla gpu è molto più raro rispetto alla cpu, quando si va ad usare una gpu nel 3d di solito le si chiede tutto...
(nel prossimo futuro al limite potrebbe essere interessante una sorta di "regime ridotto" quando la gpu è usata per compiti leggeri come può essere renderizzare una gui, come su vista o xgl&co su linux)

fede27
30-09-2006, 11:47
beh serie 7 vs X1800 temo abbia vinto nvidia...
e se volessivo contrapporre X1900 alla 7950 nn mi sembra ati domini poi cosi' tanto ogni match... :p (te lo dico da ex possessore di 5 ati negli ultimi anni!) :D

mi sa che abbaimo sempre letto recensioni diverse allora..

7800 vs x1800-->x1800

7900 vs x1900-->x1900

quindi su questo direi nettamente ati. nvidia ha stravinto con altre schede secondo me (vedi 6800gs/gt/ultra) ;)

ma perchè se il tuo processore dual core è più veloce di un single core è una pecca?No ,alla fine è il prodotto finale che conta e la 7950x2 rappresenta oggi la scheda singola più veloce del mondo.

su questo si potrebbe discutere dato che la 7950gx2 non è proprio una scheda singola. in pratica non è altro che uno "sli ridotto" ad uno slot pci-e ;)

kenjcj2000
30-09-2006, 11:51
ma perchè se il tuo processore dual core è più veloce di un single core è una pecca?No ,alla fine è il prodotto finale che conta e la 7950x2 rappresenta oggi la scheda singola più veloce del mondo.

mai detto il contrario.... infatti se leggi post in cui chiedono la più veloce vga del momento consiglio sempre la 7950gx2.. dico solo che Ati questa volta è stata non più veloce in termini assoluti (7900gtx frulla parecchio) ma è avanti in termini di architettura tutto li ... hdr-aa insieme secondo me è una pecca che con la serie 7900 dovevano togliere .... il fatto è che pultroppo (almeno x me) sono le stesse identiche vga della serie 7800... migliorato i consumi.... e visto che possedevo una 7800 a gusto mio personale devo dire di essere pienamente soddisfatto delle 1900

tutto questo chiaro fino alle prossime uscite che magari ribalteranno completamente i nmiei gusti.... :D


aggiungo che come fede saprà :D tutte le volte che esce una vga più veloce la prendo sempre.... questa volta con la 7900gx2 non l^ho fatto....

ripeto velo è veloce ma non mi convince in pieno

nickdc
30-09-2006, 11:54
beh serie 7 vs X1800 temo abbia vinto nvidia...
e se volessivo contrapporre X1900 alla 7950 nn mi sembra ati domini poi cosi' tanto ogni match... :p (te lo dico da ex possessore di 5 ati negli ultimi anni!) :D
Ah si? Vabbe va contento te... :rolleyes:

MenageZero
30-09-2006, 11:55
ma perchè se il tuo processore dual core è più veloce di un single core è una pecca?No ,alla fine è il prodotto finale che conta e la 7950x2 rappresenta oggi la scheda singola più veloce del mondo.

si ok scheda singola. quindi primato indubbio dal pdv dell'offerta commerciale o del acquirente con un sacco di soldi da spendere per la sua scheda video

ma dal punto di vista dell'appassionato di tecnologia e relativi confronti (ed eventuali "guerre" per stabilire chi ha il prodotto migliore tecnologicamente :D) sono sempre 2 gpu vs 1, inutile nascondersi dietro un dito... ;)

cmq se non ricordo male la recensione nv riesce con la schedozza a doppia gpu riesce a mantenersi su consumi analoghi alla top di ati, e questo è cmq un gran merito per la soluzione nv...
(solo mi pare costasse pure abbastanza di più della top di ati e questo imho non è bene, sicuramenetb non per l'eventuale acquirente, ma imho neanche per loro per il volume di vendite)

bonzuccio
30-09-2006, 12:04
Chi ha preso una ati, qualunque essa fosse dalla 1600 in su, in confronto a chi ha nvidia ha una scheda mediamente + longeva imo
certo che spendere 500 600 euro per una gx2 significa farsi un elisir di lunga vita ma diciamo una vita con stenti che si faranno sempre + sentire e col portafoglio vuoto

leoneazzurro
30-09-2006, 12:17
Chi ha preso una ati, qualunque essa fosse dalla 1600 in su, in confronto a chi ha nvidia ha una scheda mediamente + longeva imo
certo che spendere 500 600 euro per una gx2 significa farsi un elisir di lunga vita ma diciamo una vita con stenti che si faranno sempre + sentire e col portafoglio vuoto

Mah, la 1600 è una scheda con troppi compromessi. IMHO la X1600 per essere realmente competitiva sarebbe dovuta nascere con 8 TMU e 4-8 ROPs e 8 PS, per poi passare a 8 TMU - 8 ROPS e 24 PS in una sua successiva incarnazione come "X1700". Così com'è è una buona soluzione solo su portatili.

Luposardo
30-09-2006, 12:20
forse perché quella non è altro che l'immagine di una 79/800gtx e quelle spec sono state postate e ripostate?? :D Avete ragione, mi sono accorto solo ora... comunque meglio scoprirlo in questo modo.. e meglio tardi che mai :mc:

Kharonte85
30-09-2006, 12:21
hdr-aa insieme secondo me è una pecca che con la serie 7900 dovevano togliere ....
Megaquotone... ;)

aggiungo che come fede saprà :D tutte le volte che esce una vga più veloce la prendo sempre.... questa volta con la 7900gx2 non l^ho fatto....

:ncomment: beato te che te lo puoi permettere... :sob:

fede27
30-09-2006, 12:36
aggiungo che come fede saprà :D tutte le volte che esce una vga più veloce la prendo sempre.... questa volta con la 7900gx2 non l^ho fatto....



in effetti stavo cominciando a preoccuparmi seriamente.. :D

Dylan BJ
30-09-2006, 12:49
Classifiche di parte o meno, quel che mi sembra oggettivamente indiscutibile e' che con l'uovo di colombo (7950X2) nvidia e' davanti ad ati occupando un solo slot e consumando pure di meno.
Le ati che scaldano sempre di +, le ati che manco con un super ventolone scendono sotto gli 80° etcetc..... nvidia si e' andata proprio in direz opposta: ottimizz consumi e processo costruttivo tali da giocare sto inaspettato skerzetto.... 2 piccole inutili 7900gt che insieme fanno cadere la "facciotuttoio X1900XTX P.E. ghost contro ghost edition" :D
dai skerzo... nn scateniamo flame ora...... il mio vuole solo essere un modo costruttivo x far notare,a chi e' ati fan boy, come ci siano diversi modi x concepire una sk.video vincente... :ciapet:

kenjcj2000
30-09-2006, 12:54
Classifiche di parte o meno, quel che mi sembra oggettivamente indiscutibile e' che con l'uovo di colombo (7950X2) nvidia e' davanti ad ati occupando un solo slot e consumando pure di meno.
Le ati che scaldano sempre di +, le ati che manco con un super ventolone scendono sotto gli 80° etcetc..... nvidia si e' andata proprio in direz opposta: ottimizz consumi e processo costruttivo tali da giocare sto inaspettato skerzetto.... 2 piccole inutili 7900gt che insieme fanno cadere la "facciotuttoio X1900XTX P.E. ghost contro ghost edition" :D
dai skerzo... nn scateniamo flame ora...... il mio vuole solo essere un modo costruttivo x far notare,a chi e' ati fan boy, come ci siano diversi modi x concepire una sk.video vincente... :ciapet:

tiri il sasso e poi levi la mano :rolleyes: di fanboy cè questo tuo post... io quando parlo cerco sempre di argomentare in termini civili....

Re-voodoo
30-09-2006, 12:59
dalle immagini viste su internet mi sembra anche più lunga rispetto alle 7900gtx e x1950 che ci sono ora

MiKeLezZ
30-09-2006, 13:01
Io mi auguro solo che abbiano migliorato AA e AF.
Altrimenti potrà esser veloce, ma non rientrerebbe a pieno nelle mie necessità.
Non parlo solo performance-hit ma anche qualità.
ATI è davvero una spanna sopra in questo, e lo è sempre stato.

bonzuccio
30-09-2006, 13:16
Classifiche di parte o meno.. cut.. di colombo (7950X2) cut.. sotto gli 80° etcetc..... nvidia si e' andata proprio in direz opposta: ottimizz cut.. skerzetto.... cut.."facciotuttoio cut..ghost edition" :D
dai skerzo... nn scateniamo flame cut.. costruttivo ati fan boy,
come ci siano diversi modi x concepire una sk.video vincente... cut

Ti dico solo che se con le future schede dx10 verrà preso a termine di paragone nei bench una scheda da 500 600 euro come la gx2 allora verrà dimostrata la strabiliante superiorità delle dx10
ma noi sapremo che i titoli futuri e le nuove implementazioni deprezzeranno di molto la gx2 in confronto al top di gamma ati, dato che a livello di trattamento delle ombre e delle luci (oltre che dei filtri) le nvidia lasciano da sempre a desiderare o sono addirittura assenti,
vedremo invece se questa scheda nuova peserà solo 25 chili e consumerà troppo per dimostrarsi cpu limited con qualsiasi procio che non costi 1000 euro o se migliorerà in quello su cui nvidia è sempre stata deficitaria: il realismo dell'immagine e la qualità in sistemi bilanciati e intelligenti
io lo spero

DjLode
30-09-2006, 13:21
E sono anche (molte delle caratteristiche indicate) molto inesatte ;)

Posso insultarti? Tu sai già qualcosa vero? :)

aaasssdddfffggg
30-09-2006, 14:15
La totalità delle caratteristiche indicate sono esatte.La g80 uscirà proprio con quelle caratteristiche.

aaasssdddfffggg
30-09-2006, 14:19
Unified Shader Architecture;
- Support FP16 HDR+MSAA;
- Support GDDR4 memories;
- Close to 700M transistors (G71 - 278M / G70 - 302M);
- New AA mode: VCAA;
- Core clock scalable up to 1.5GHz;
- Shader performance: 2x Pixel/12x Vertex over G71;
- 8 TCPs & 128 stream processors;
- Much more efficient than traditional architecture;
- 384-bit memory interface (256-bit+128-bit);
- 768MB memory size (512MB+256MB) m proceso

Gli 8 tcp & 128 strem processor lasciano pensare ad un supporto semihardware per gli shader unificati e totalmente unificato a livello software.
Comunque credo che sarà un vero missile.

Dylan BJ
30-09-2006, 14:23
ati ha la stima di tutti (e pure la mia), qui si tratta di ammettere che 3mesi prima rispetto ad ati nvidia sparera' fuori G80, in tempo pure x un refresh + pompato qando uscira' la bestiolina R600..... pure tra 7900gtx e 7950X2 son passati se nn erro poco + di 3 mesi.....
:p il tutto a vantaggio di noi utenti finali....
spero ke ad ati nn capiti x R600 qel che ha appena vissuto x il nuovo (rispetto ad allora) progetto R520 (mesi su mesi di ritardo, e vita del prodotto praticamente a zero con R580 gia' in presample e pronta al lancio)

leoneazzurro
30-09-2006, 14:31
Posso insultarti? Tu sai già qualcosa vero? :)

Non tantissimo, basta però andare a farsi un giro su quello che dicono parecchi esperti del settore su forum tipo Beyond3D. (perchè dovresti insultarmi :confused: :mbe: )

x nemesisElite, visto che sai che quelle specifiche sono esatte e non sono fake, potresti anche spiegarci cortesemente cosa significano "clock scalable up to 1.5 ghZ", "TCP" e "stream processor" e "VCAA", grazie? Nonchè come faccia una GPU a 700 MHz e 128 "stream processors" (prendiamo per buono che siano equivalenti a dei PS) ad avere SOLO il doppio della potenza di un chip che ne ha 24 (x2) ed è molto meno efficiente. Quante TMU ha?

Dylan BJ
30-09-2006, 14:36
Non tantissimo, basta però andare a farsi un giro su quello che dicono parecchi esperti del settore su forum tipo Beyond3D. (perchè dovresti insultarmi :confused: :mbe: )

x nemesisElite, visto che sai che quelle specifiche sono esatte e non sono fake, potresti anche spiegarci cortesemente cosa significano "clock scalable up to 1.5 ghZ", "TCP" e "stream processor" e "VCAA", grazie? Nonchè come faccia una GPU a 700 MHz e 128 "stream processors" (prendiamo per buono che siano equivalenti a dei PS) ad avere SOLO il doppio della potenza di un chip che ne ha 24 (x2) ed è molto meno efficiente. Quante TMU ha?
:D apro le orecchie x udire meglio la risposta....

bs82
30-09-2006, 15:01
Nessuno se ne è accorto ma quello che io non vedo sono i reparti di filtraggio con condensatori e bobine.... più buoni sono più grossi sono....e vedendo che il dissipatore o li compre o proprio non ci sono mi vien da dire che come sempre le nvidia sono carenti dal lato del fitlraggio sull'alimentazione e sulle uscite....

bs82
30-09-2006, 15:20
Ma ragazzi quelle specifiche sono settimane che sono in giro e lo sa pure il mio cane che sono OLD&FAKE

Ma è divertente leggere quei fanboy nvidia che purtroppo non hanno nessuna base tecnica.
G80 PURTROPPO non sarà a US ma saranno comunque dx10 compliant. Le frequenze del core ...semplicemente cavolate, spcialmente se uno legge il numero di transistor (falso pure quello, dovrebbero mettere 128mb di edram per arrivare a un numero tale di tranistor). L'AA VCAA non è esiste, non c'è niente di documentato e non esistono tanti modi "teorici" per effetuare l'antialiasing...quindi ...altra cazzata! Bus di memoria ibridi come indicati dalla spec sono stronate una dopo l'altra, i bus dati e indirizzi verso la ram grafica non ha bus di quel tipo, specie se è GDDR4....per non parlare del quantitativo di memoria, numeri campati in aria.

E questo solo per precisare a quei pochi che cadono come pere cotte sui fake.....e siamo nel 2006!!!!

leoneazzurro
30-09-2006, 15:30
Nessuno se ne è accorto ma quello che io non vedo sono i reparti di filtraggio con condensatori e bobine.... più buoni sono più grossi sono....e vedendo che il dissipatore o li compre o proprio non ci sono mi vien da dire che come sempre le nvidia sono carenti dal lato del fitlraggio sull'alimentazione e sulle uscite....

Sarà per quello che molte board nvidia recenti sono parecchio overcloccabili :p

MenageZero
30-09-2006, 15:46
Non tantissimo, basta però andare a farsi un giro su quello che dicono parecchi esperti del settore su forum tipo Beyond3D. (perchè dovresti insultarmi :confused: :mbe: )

x nemesisElite, visto che sai che quelle specifiche sono esatte e non sono fake, potresti anche spiegarci cortesemente cosa significano "clock scalable up to 1.5 ghZ", "TCP" e "stream processor" e "VCAA", grazie? Nonchè come faccia una GPU a 700 MHz e 128 "stream processors" (prendiamo per buono che siano equivalenti a dei PS) ad avere SOLO il doppio della potenza di un chip che ne ha 24 (x2) ed è molto meno efficiente. Quante TMU ha?

è anche curiosa quella "doppia vram", 512 + 256 MB e 256 +128 bit per il bus, se fosse una feature attendibile, che potrebbe significare ?
(tra l'altro perché uscirebbero con meno di 1GB di memoria quando ci sono schede che già lo montano ?)
:confused:

Dylan BJ
30-09-2006, 15:48
Ma ragazzi quelle specifiche sono settimane che sono in giro e lo sa pure il mio cane che sono OLD&FAKE

Ma è divertente leggere quei fanboy nvidia che purtroppo non hanno nessuna base tecnica.
G80 PURTROPPO non sarà a US ma saranno comunque dx10 compliant. Le frequenze del core ...semplicemente cavolate, spcialmente se uno legge il numero di transistor (falso pure quello, dovrebbero mettere 128mb di edram per arrivare a un numero tale di tranistor). L'AA VCAA non è esiste, non c'è niente di documentato e non esistono tanti modi "teorici" per effetuare l'antialiasing...quindi ...altra cazzata! Bus di memoria ibridi come indicati dalla spec sono stronate una dopo l'altra, i bus dati e indirizzi verso la ram grafica non ha bus di quel tipo, specie se è GDDR4....per non parlare del quantitativo di memoria, numeri campati in aria.

E questo solo per precisare a quei pochi che cadono come pere cotte sui fake.....e siamo nel 2006!!!!

anche prima che uscisse AVIVO di ati nessuno ne sapeva nulla, tutti pensavano ad un nuova interfaccia di I/O (facendosi trarre in inganno dalla somiglianza con VIVO) e invece la novita' era principalmente legata alle presunte migliorie di riproduz filmati...
Stiamo parlando di rumors questo e' chiaro, penso ti stia invidiando mezzo pianeta vista la certezza che hai nel confutare ogni singola voce su G80... :p

leoneazzurro
30-09-2006, 15:54
è anche curiosa quella "doppia vram", 512 + 256 MB e 256 +128 bit per il bus, se fosse una feature attendibile, che potrebbe significare ?
(tra l'altro perché uscirebbero con meno di 1GB di memoria quando ci sono schede che già lo montano ?)
:confused:

Starebbero a significare (ma qui sto dando una mano a qualcun altro :p ) che ci sarebbe un die per i VS/GS e un die per i PS/ROPS, ognuno con il suo bus separato verso la memoria. Comunque le schede attuali con 1 giga di memoria sono in realtà 512x2, in SLI, oppure schede professionali). Questo contraddirrebbe il fatto che G80 si au'architetura unificata in HW.

MenageZero
30-09-2006, 16:20
Starebbero a significare (ma qui sto dando una mano a qualcun altro :p ) che ci sarebbe un die per i VS/GS e un die per i PS/ROPS, ognuno con il suo bus separato verso la memoria. Comunque le schede attuali con 1 giga di memoria sono in realtà 512x2, in SLI, oppure schede professionali). Questo contraddirrebbe il fatto che G80 si au'architetura unificata in HW.

grazie :)

ma che vantaggio si avrebbe a separare i die ? :mbe:
(voglio dire, se serve più banda verso la mem l'ampiezza del bus si può aumentare cmq, se serve un'accesso più "concorrente" alla mem, non si possono implememtare soluzione adeguate sempre sullo stesso die, tipo mc "multithreaded/multicore" o semplicemente più mc nello stesso die ?)

ps: che significa che stai aiutando qualcun'altro ? :wtf:
ps2(che non è la playstation2 :D -ok tirami pure una sassata):
ma non c'erano anche delle ati x1900(o x1950) e/o nv 7900 con un 1GB di mem. ? (singola gpu intendo)

bs82
30-09-2006, 16:23
dilan bj... forse TU non sapevi cosa fosse avivo appena uscito....ma quelli che sanno dove informarsi sapevano che altro non erano che le evoluzioni "integrate" dei chip theater... E cmq le mie confuzatione sono derivate non tanto da notizie che posso o non posso avere, ma da semplici collegamenti logici con quel "poco" che posso sapere sulle archittetture attuali...

dwfgerw
30-09-2006, 16:25
12 pagine di commenti solo per le prime foto.... immagino il giorno della rece cosa accadrà ai server di hwupgrade :D

leoneazzurro
30-09-2006, 16:35
grazie :)

ma che vantaggio si avrebbe a separare i die ? :mbe:
(voglio dire, se serve più banda verso la mem l'ampiezza del bus si può aumentare cmq, se serve un'accesso più "concorrente" alla mem, non si possono implememtare soluzione adeguate sempre sullo stesso die, tipo mc "multithreaded/multicore" o semplicemente più mc nello stesso die ?)

ps: che significa che stai aiutando qualcun'altro ? :wtf:
ps2(che non è la playstation2 :D -ok tirami pure una sassata):
ma non c'erano anche delle ati x1900(o x1950) e/o nv 7900 con un 1GB di mem. ? (singola gpu intendo)


Dividere i die-> rese più alte, semplicità costruttiva, minore dissipazione sul singolo die. Contro: devi avere 2 die, PCB più complessi, 2 linee produttive per i chip.

PS: ho fatto una domanda sopra a qualcun altro :)
PS2: Potrebbero esserci (al momento non ne ho notizia se non su Quadro/Fire GL di fascia alta), sicuramente non sono card reference .

DjLode
30-09-2006, 17:45
Non tantissimo, basta però andare a farsi un giro su quello che dicono parecchi esperti del settore su forum tipo Beyond3D.

Ah, quindi siamo nel campo delle "ipotesi" (o dei ragionamenti), pensavo avessi già qualche dato in mano. Giravano voci di presentazioni non tanto lontane nel tempo...
Comunque credo pure io che i 2/3 siano cose campate per aria...

(perchè dovresti insultarmi :confused: :mbe: )


Era per dire :) Pensando sapessi già qualcosa ero invidioso, tutto qua!

DjLode
30-09-2006, 17:49
è anche curiosa quella "doppia vram", 512 + 256 MB e 256 +128 bit per il bus, se fosse una feature attendibile, che potrebbe significare ?
(tra l'altro perché uscirebbero con meno di 1GB di memoria quando ci sono schede che già lo montano ?)
:confused:

Ho letto pure la risposta di Leonazzurro che in effetti non avevo pensato ma queste specifiche sono posteriori ad una "notizia" uscita su The Inquirer tempo fa che dava G80 come composto da due die, uno per le dx9 e uno per le dx10 (ovviamente cavolata paurosa secondo me) e quindi la ram "doppia" potrebbe anche essere stata messa per dare un pò di credibilità al doppio die...

leoneazzurro
30-09-2006, 19:37
Ho letto pure la risposta di Leonazzurro che in effetti non avevo pensato ma queste specifiche sono posteriori ad una "notizia" uscita su The Inquirer tempo fa che dava G80 come composto da due die, uno per le dx9 e uno per le dx10 (ovviamente cavolata paurosa secondo me) e quindi la ram "doppia" potrebbe anche essere stata messa per dare un pò di credibilità al doppio die...

Il doppio die avrebbe senso solo come processore geometrico + processore PS e ROPS. Avere 2 core, uno DX 9 e uno DX 10, significherebbe solo replicare molto hardware inutilmente.

leoneazzurro
30-09-2006, 19:44
Ah, quindi siamo nel campo delle "ipotesi" (o dei ragionamenti), pensavo avessi già qualche dato in mano. Giravano voci di presentazioni non tanto lontane nel tempo...
Comunque credo pure io che i 2/3 siano cose campate per aria...

La presentazione dovrebbe esserci a Novembre, di dati certi in mano ce ne sono pochi, ma sicuramente 700 Milioni di transistor (seppure su 2 die) a 80 nm e 700MHz (scalabili a 1,5 GHz) IMHO sono fuori dal mondo. Senza parlare del fatto dei "128 stream processors" (cos'è? un Cell moltiplicato per 16?). E del fatto che avere 2 die per GPU IMHO complicherebbe un pò le cose per un eventuale SLI.
Inoltre, per stessa ammissione Nvidia, G80 non sarebbe stata un'architettura del tutto unificata, per cui il claim "12x vertex shading power", avendo senso solo se si parla di potenza di picco di una architettura unificata, contraddice le dichiarazioni della stessa azienda sviluppatrice.

fede27
30-09-2006, 19:47
La presentazione dovrebbe esserci a Novembre, di dati certi in mano ce ne sono pochi, ma sicuramente 700 Milioni di transistor (seppure su 2 die) a 80 nm e 700MHz (scalabili a 1,5 GHz) IMHO sono fuori dal mondo. Senza parlare del fatto dei "128 stream processors" (cos'è? un Cell moltiplicato per 16?). E del fatto che avere 2 die per GPU IMHO complicherebbe un pò le cose per un eventuale SLI.
Inoltre, per stessa ammissione Nvidia, G80 non sarebbe stata un'architettura del tutto unificata, per cui il claim "12x vertex shading power", avendo senso solo se si parla di potenza di picco di una architettura unificata, contraddice le dichiarazioni della stessa azienda sviluppatrice.

quoto. basterebbe questo a confermare la palese falsità di quelle spec. prima di fare una simile affermazione un progettatore di hw è ben certo di non poter in alcun modo soddisfare quel requisito ;)

halduemilauno
30-09-2006, 20:00
quoto. basterebbe questo a confermare la palese falsità di quelle spec. prima di fare una simile affermazione un progettatore di hw è ben certo di non poter in alcun modo soddisfare quel requisito ;)

"Inoltre, per stessa ammissione Nvidia, G80 non sarebbe stata un'architettura del tutto unificata"

ma perchè quell'ammissione non poteva esser stata fatta in un primo momento o fatta per depistare? parlo solo di quanto tu hai ora affermato su quell'ammissione. che sia chiaro non parlo del resto.

leoneazzurro
30-09-2006, 20:09
"Inoltre, per stessa ammissione Nvidia, G80 non sarebbe stata un'architettura del tutto unificata"

ma perchè quell'ammissione non poteva esser stata fatta in un primo momento o fatta per depistare? parlo solo di quanto tu hai ora affermato su quell'ammissione. che sia chiaro non parlo del resto.

Potrebbe, ma dopo aver dichiarato in lungo e in largo che adesso non serviva un'architettura totalmente unificata, perchè le unità specializzate andavano meglio per i giochi legacy, ecc, cambiare rotta di 180° darebbe modo ai PR di ATI di avere di che parlare per un bel pò :D
E poi in un certo senso in questo dò ragione a Kirk: per i giochi Dx9 è presumibile che un'architettura non unificata possa avere prestazioni migliori.

fede27
30-09-2006, 20:36
"Inoltre, per stessa ammissione Nvidia, G80 non sarebbe stata un'architettura del tutto unificata"

ma perchè quell'ammissione non poteva esser stata fatta in un primo momento o fatta per depistare? parlo solo di quanto tu hai ora affermato su quell'ammissione. che sia chiaro non parlo del resto.

l'ho vista in termini economici ;)

un'azienda, quando fa delle dichiarazioni ufficali, cerca sempre di prendersi il più ampio spazio di manovra dando al contempo pochissime informazioni riguardo i limiti negativi di un proprio progetto.

questo per poter usufruire di una pubblicità "non dichiarata" su quello che il prodotto finale potrebbe avere. una volta che si ammette una caratteristica negativa si perde una possibile features pubblicitaria più che creare un diversivo a discapito della concorrenza..

è un'ipotesi e nulla più ma sul mercato generalmente le cose vanno così ;)

capitan_crasy
30-09-2006, 20:37
vorrei approfittare della gentilezza di leoneazzurro per un idea che mi gira per la mente da parecchio tempo:
e se il G80 non fosse solamente una "semplice" GPU?
Mi spiego:
Da qualche tempo a questa parte si parla della grossa potenza e scalabilità delle GPU moderne.
ATI ha annunciato la tecnologia "Stream Computing" in grado di far eseguire alla GPU "calcolo complesso generico" in poche parole un vero co-processore per la CPU!!! (qualche mese fa ho letto che ATI era riuscita ad usare una GPU come "scheda audio")
ATi afferma che Stream Computing migliorerà le prestazioni del sistema per un max di 40 volte!
La mia ipotesi è che il G80 e R600 non saranno destinate al solo calcolo di un semplice gioco, ma avranno un evoluzione come un co-processore per la CPU...
Naturalmente questa è solo una mia personale ipotesi...

leoneazzurro
30-09-2006, 21:03
vorrei approfittare della gentilezza di leoneazzurro per un idea che mi gira per la mente da parecchio tempo:
e se il G80 non fosse solamente una "semplice" GPU?
Mi spiego:
Da qualche tempo a questa parte si parla della grossa potenza e scalabilità delle GPU moderne.
ATI ha annunciato la tecnologia "Stream Computing" in grado di far eseguire alla GPU "calcolo complesso generico" in poche parole un vero co-processore per la CPU!!! (qualche mese fa ho letto che ATI era riuscita ad usare una GPU come "scheda audio")
ATi afferma che Stream Computing migliorerà le prestazioni del sistema per un max di 40 volte!
La mia ipotesi è che il G80 e R600 non saranno destinate al solo calcolo di un semplice gioco, ma avranno un evoluzione come un co-processore per la CPU...
Naturalmente questa è solo una mia personale ipotesi...

Questo è certo, tanto è vero che è notizia fresca che ATI ha annunciato la sua tecnologia per lo stream computing:

http://ir.ati.com/phoenix.zhtml?c=105421&p=irol-newsArticle&ID=910519&highlight=

e si parlava di schede Firestram deicate a questi calcoli, che montano una GPU R580 che può venire utilizzata per calcoli FP "generici" e sistemi con una scheda video + Firestream dedicata alla fisica. Ovviamente questo approccio verrebbe poi espanso con la tecnologia Torrenza e con le future GPU di classe R600.
Nvidia ovviamente non starà a guardare, ed aveva già annunciato di lavorare a qualcosa di simile. Tuttavia è probabile che prima di G80 non esca nulla del genere, IMHO.
Immagino però che quello che vuoi dire è che G80 potrebbe avere una PPU (physical processing unit) integrata sulla scheda video.
Potrebbe essere così, e quindi si avrebbe 1 die PPU+ 1 die GPU (con VS/GS+PS) ma ho i miei dubbi.

leoneazzurro
30-09-2006, 21:16
Ho dei dubbi anch'io, propendo più per una quantità abnorme di notizie false :>

Ma quella di Torrenza è sicuramente una delle strade più promettendi del momento :)

I dubbi vertono sul fatto che avere una PPU + una GPU innalzerebbe i costi, ma non è detto che innalzerebbe il framerate massimo (su cui si basa il 99% del marketing di ATI e Nvidia), oppure si dovrebbero avere differenti versioni delle schede, con e senza PPU, con conseguente confusione a livello logistico e degli utenti. Oltretutto con SLI Nvidia è stata abile ad utilizzare sin dall'inizio l'approccio "standardizziamo il più possibile" contro ATI che richiedeva due schede, una standard e una master, per il Crossfire. Strano che cambi ora.

capitan_crasy
30-09-2006, 23:34
Questo è certo, tanto è vero che è notizia fresca che ATI ha annunciato la sua tecnologia per lo stream computing:

http://ir.ati.com/phoenix.zhtml?c=105421&p=irol-newsArticle&ID=910519&highlight=

e si parlava di schede Firestram deicate a questi calcoli, che montano una GPU R580 che può venire utilizzata per calcoli FP "generici" e sistemi con una scheda video + Firestream dedicata alla fisica. Ovviamente questo approccio verrebbe poi espanso con la tecnologia Torrenza e con le future GPU di classe R600.
Nvidia ovviamente non starà a guardare, ed aveva già annunciato di lavorare a qualcosa di simile. Tuttavia è probabile che prima di G80 non esca nulla del genere, IMHO.
Immagino però che quello che vuoi dire è che G80 potrebbe avere una PPU (physical processing unit) integrata sulla scheda video.
Potrebbe essere così, e quindi si avrebbe 1 die PPU+ 1 die GPU (con VS/GS+PS) ma ho i miei dubbi.
Esatto, può essere una possibilità!
Però Nvidia ha presentato la nuova roadmap dei suoi chipset e il T65 abbinato all'MCP65 può gestire ben 52 linee pci-express; questo vuol dire che la fisica almeno in principio dovrebbe essere gestita da una scheda separata abbinata alla configurazione SLI ( 2x16 per lo SLi e 1x16 per la fisica.)
IMHO:
Può darsi che il G80 sia la prima GPU studiata per essere programmata come un co-processore per encoder video HD 1080 (per i futuri masterizzatori HD-DVD e Blue-Ray )

Fausto_ManMade
30-09-2006, 23:46
Ma da quando un componente elettronico si giudica dall' estetica ?
Brutto è un aggettivo veramente fuori luogo !
ROBA DA MATTI...
Mi sembra di sognare a sentire simili scicchezze.

Dylan BJ
01-10-2006, 02:20
dilan bj... forse TU non sapevi cosa fosse avivo appena uscito....ma quelli che sanno dove informarsi sapevano che altro non erano che le evoluzioni "integrate" dei chip theater... E cmq le mie confuzatione sono derivate non tanto da notizie che posso o non posso avere, ma da semplici collegamenti logici con quel "poco" che posso sapere sulle archittetture attuali...
ci mancherebbe... in materia lascio volentieri campo a chi ne mastica davvero di elettronica e architteture... :p

Jon_Snow
01-10-2006, 11:35
Le caratterische sono presumibilmente dei fake*, mentre le foto potrebbero anche essere affidabili perché è nella normale prassi progettare prototipi estremante differenti dalle versioni finali.
Mi auguro sul serio che la doppia alimentazione sparisca del tutto e che i consumi saranno quanto meno in linea con quelli attuali già di per sè abbondantemente sopra i limiti del regionevole.

non conosco nessun nuovo metodo analitico di antialiasing

Crysis90
01-10-2006, 12:44
Io dico che G80 sarà migliore di R600, perchè secondo me quando NVidia ha creato la serie 7900 ha solo creato una versione più veloce della serie 7800, così si è potuta concentrare su G80 e DirectX 10 e viste quelle specifiche tecniche sembra non avere rivali.

Free Gordon
01-10-2006, 12:46
Classifiche di parte o meno, quel che mi sembra oggettivamente indiscutibile e' che con l'uovo di colombo (7950X2) nvidia e' davanti ad ati occupando un solo slot e consumando pure di meno.
Le ati che scaldano sempre di +, le ati che manco con un super ventolone scendono sotto gli 80° etcetc..... nvidia si e' andata proprio in direz opposta: ottimizz consumi e processo costruttivo tali da giocare sto inaspettato skerzetto.... 2 piccole inutili 7900gt che insieme fanno cadere la "facciotuttoio X1900XTX P.E. ghost contro ghost edition" :D
dai skerzo... nn scateniamo flame ora...... il mio vuole solo essere un modo costruttivo x far notare,a chi e' ati fan boy, come ci siano diversi modi x concepire una sk.video vincente... :ciapet:


Prima di dire qual è la più veloce, bisognerebbe perlomeno vedere Crysis girarci sopra, ad una buona res e con un buon uso di filtri.:D

Intendo tra 1950xtx e 7950x2.. ;)

Sarà un bella sfida e per me sarà quelle decisiva per capire il lavoro fatto da entrambe le case.

frankt79
01-10-2006, 12:57
Mah.... veramente grossa, ingombrante ed esteticamente pesante.
Ormai nel 2007 dovrebbero puntare a ridurre le dimensioni oltre che i consumi. invece questi ci aggiungono un connettore x l'alimentazione.... DA PAZZI!!!

Nvidia sta per morire, Evviva ATI!!

Mister Tarpone
01-10-2006, 13:07
Queste schede avranno una tale riserva di potenza da far paura..
Ho letto in molti siti che queste schede saranno delle vere console potentissime da schiaffare dentro i pc.E' poco importerà se dietro avremo un 3200+ o un dual core come cpu centrale!!che questa SV e R600,permetteranno calcoli complessissimi tanto a livello grafico che a livello di fisica e ai..riducendo quasi a 0 i compiti di cpu centrale e memoria di sistema..e questo,anche grazie alle nuove DX10 e il nuovo OS(e anche grazie a un ali con i contro caz..).
Direi che è una vera e propria manna dal cielo per chi non vuole (o non può)spendere un'altra valanga di euro per un PC!!! è positiva la cosa,perchè se cosi fosse,si potrebbe giocare bene con Crisis e company pur non avendo un pc stratosferico..ma anzi.
Per quanto riguarda i commenti letti qui..beh..concordo con chi dice che sono abbastanza assurdi.
Cos'è???avete preso da poco una x1900 e ve rode non aver dato retta a chi vi consiglava di risparmiare e aspettare le DX10???(imho nettamente superiori,non attacchiamoci alle minchiate please)
Mi spiace per voi..ma credo che abbiate fatto un "brutto affare di questi tempi"(discreta schedozza cmq :) )"che queste schede già arrancano con gli ultimi giochi usciti" ultimamente(e sono in DX9!!)figuriamoci con Crisis,UT2007 e soci!!!!
Ma per piacere...e poi G80 non è "l'ennesima e inutile" sv dx9..
Qui si parla di dx10..non c'è paragone,ci scommetterei..sarebbe come paragonare una sv dx8 con una dx9 e cioè..
NON C'E PARAGONE

Ciao raga

Free Gordon
01-10-2006, 13:09
E poi in un certo senso in questo dò ragione a Kirk: per i giochi Dx9 è presumibile che un'architettura non unificata possa avere prestazioni migliori.


Questa è una certezza. :D
Gli shader dedicati sono più efficienti di quelli generici.
E' una cosa che si osserva già su 360: R. Huddy di ATI ha affermato che Xenos, se programmato in modo tradizionale, perde fino al 25% di shader performance rispetto ad un'architettura classica. ;)

leoneazzurro
01-10-2006, 13:54
Mah.... veramente grossa, ingombrante ed esteticamente pesante.
Ormai nel 2007 dovrebbero puntare a ridurre le dimensioni oltre che i consumi. invece questi ci aggiungono un connettore x l'alimentazione.... DA PAZZI!!!

Nvidia sta per morire, Evviva ATI!!

Evitiamo fanboysmi inutili, per favore...

leoneazzurro
01-10-2006, 13:56
Questa è una certezza. :D
Gli shader dedicati sono più efficienti di quelli generici.
E' una cosa che si osserva già su 360: R. Huddy di ATI ha affermato che Xenos, se programmato in modo tradizionale, perde fino al 25% di shader performance rispetto ad un'architettura classica. ;)

Vero, ma quello è anche perchè per programmarlo "in modo tradizionale" assegnano fisse 16 unità ALU al vertex shading e le restanti 32 al pixel shading (Xenos ha le ALU suddivise in 3 blocchi da 16). ;)

Dylan BJ
01-10-2006, 15:21
Prima di dire qual è la più veloce, bisognerebbe perlomeno vedere Crysis girarci sopra, ad una buona res e con un buon uso di filtri.:D

Intendo tra 1950xtx e 7950x2.. ;)

Sarà un bella sfida e per me sarà quelle decisiva per capire il lavoro fatto da entrambe le case.

son d'accordo con te.... alla fine anch'io mi basero' proprio sull'impatto reale dato da Crysis x valutare la bonta della skeda... sopratutto in 1900x1200 :p

P.S: complimenti x l'avatar :D

mjordan
02-10-2006, 02:17
Rieccoci alle solite. Altro giro altra corsa, vai con i premi :rolleyes:
Le tipiche speculazioni da tech magazine web da 4 soldi per portare click :rolleyes:

Ghiacciolo=ITA=
02-10-2006, 07:20
Ma per favore!
Dai, i connettori per i tubi di raffreddamento sembrano essere stati incollati all cazzo sul sistema di raffreddamento ad aria, solo per poter scrivere una cavolo di notizia!!
mi puzza molto di fake
ah....i giornalisti, veri o presunti tali....

5c4rn4g3
02-10-2006, 08:29
che bello!!!! sono l'unico con la ge-force fx 5700!!!! e nn la cambio tanto gioco tranquillo a oblivion con la grafica medio bassa e mi basta... cmq com'è che tutti hanno i soldi per farsi g80, sli, xfire ecc super procio da 2 4 8 core ecc. sinceramente penso che oggi con i giochi odierni anche una serie 6 o proprio per esagerare 7 vadano più che bene per giocare a 1280*1024 o sbaglio? bhe nn credo che tutti abbiano monitor da 1900*++++! io ho il mio 19" e gia occupa spazio. queste nuove g80 dx10 ecc saranno solo degli abbassa prezzi per i vecchi pezzi che se es. la 6800 o simili mi verranno a costare 80€ comprerò solo per giocare moltobene ai giochi odierni e spero sufficentemente ai gochi futuri e sarò grato alle g80....
cmq tornando alla scheda.... bhe prototipo sembra ma nn di gpu ma di dissi! poi 2 connettori magari servono certo a chi ha una centrale atomica vicino casa.....dissi ad aqua?? bhe si almeno con tutti kw e l'acqua vedi il botto se c'è una piccola perdita(nn voglio iellare ma nn si sa mai)

leoneazzurro
02-10-2006, 08:29
Ma visto che non vi piace questo sito web e le sue "notizie da 4 soldi", come mai sprecate tempo a commentarle e a passare tempo nel forum di un sito "che cerca solo click"? Inoltre, se si volese criticare "costruttivamente" perchè non scrivere all'autore delle news, invece di farlo qui? Forse perchè si sa che gli autori (che non sono giornalisti a presunti tali, a quanto pare) in genere non leggono tutti i commenti alle news?

(tra parentesi, queste foto no sono circolate solo qui, e anzi hanno fatto il giro di mezzo pianeta, in decine di siti di rlevanza internazionale. C'è anche la fonte a cui si riferisce...)

MenageZero
02-10-2006, 10:59
che bello!!!! sono l'unico con la ge-force fx 5700!!!! e nn la cambio tanto gioco tranquillo a oblivion con la grafica medio bassa e mi basta... cmq com'è che tutti hanno i soldi per farsi g80, sli, xfire ecc super procio da 2 4 8 core ecc. sinceramente penso che oggi con i giochi odierni anche una serie 6 o proprio per esagerare 7 vadano più che bene per giocare a 1280*1024 o sbaglio? bhe nn credo che tutti abbiano monitor da 1900*++++! io ho il mio 19" e gia occupa spazio. queste nuove g80 dx10 ecc saranno solo degli abbassa prezzi per i vecchi pezzi che se es. la 6800 o simili mi verranno a costare 80€ comprerò solo per giocare moltobene ai giochi odierni e spero sufficentemente ai gochi futuri e sarò grato alle g80....
cmq tornando alla scheda.... bhe prototipo sembra ma nn di gpu ma di dissi! poi 2 connettori magari servono certo a chi ha una centrale atomica vicino casa.....dissi ad aqua?? bhe si almeno con tutti kw e l'acqua vedi il botto se c'è una piccola perdita(nn voglio iellare ma nn si sa mai)

ovviamente ognuo gioca come crede e con quello che crede (o anche con gioca affatto), ma non è che per questo si possa fermare l'evoluzione tecnologica che va avanti nelle gpu come in tutti gli altri settori, o etichettare +/- inutile intrinsecamente tutto quello che esce per n anni dopo il proprio acquisto, finché non si cambia componenti...

se a te piace giocare ma anche comprare a schede video a poco, imho orami dovresti considerare di prenderti una s.video che vada molto meglio con i giochi recenti, cosa che rispetto all fx5700 puoi trovare ad ottimo prezzo nell'usato o cmq a buon prozzo nella fascia medio-bassa (basta una 9700/9800 per fare molto meglio o anche una 7300gt, fascia bassa attuale, probabilmente surclassa la fx5700 su titioli recenti)

g80 o no, una 6800 nuova a 80€ credo che non accadrà mai, i crolli dei prezzi su quello che è già in commercio all'uscita di una nuova top sono per lo più leggenda metropolitana, di solito ci sono al max delle riduzioni sulle schede di stessa fascia immediatamente precedenti (che rimangono cmq schede da diverse centinaia di euro); ciò che è "più vecchio" finché "circola", lo fa con prezzi sempre sopra un certo livello, poi sparisce non rimane in produzione/vendita a prezzi stracciati..
certo poi nell'usato tutto è possibile (ma io credo che se intendevi unma gt o ultra, non ti sarà facile trovare qualcuno che ti dia la sua 6800, magari pagata 400€ o più, per 80€, prima di qualche altro anno, a meno che non gli avanzino in generale molti soldi...)

ah occhio a non farti piacere troppo i futuri giochi dx10 prima di diversi anni da quando iniziano ad essercene, perché con il sw dx10, no gpu dx10 no party: :D

o giochi con la versione "povera" in dx9 all'inizio(si dice che per un periodo iniziale tutti avranno anche un engine dx9, che diveterà sempre più la versione meno "curata")

o se c'è solo un engine dx10 non giochi affatto.

JohnPetrucci
02-10-2006, 22:41
Questo è un presunto sample, io aspetterei le vga vere prima di trarre conclusioni.

mjordan
03-10-2006, 16:50
Ma visto che non vi piace questo sito web e le sue "notizie da 4 soldi", come mai sprecate tempo a commentarle e a passare tempo nel forum di un sito "che cerca solo click"? Inoltre, se si volese criticare "costruttivamente" perchè non scrivere all'autore delle news, invece di farlo qui? Forse perchè si sa che gli autori (che non sono giornalisti a presunti tali, a quanto pare) in genere non leggono tutti i commenti alle news?

(tra parentesi, queste foto no sono circolate solo qui, e anzi hanno fatto il giro di mezzo pianeta, in decine di siti di rlevanza internazionale. C'è anche la fonte a cui si riferisce...)

Se ti riferisci al mio post, hai confuso quello che volevo dire (effettivamente mi sono spiegato da cani). Non intendevo dire che HWUpgrade è un sitarello da 4 soldi cercatore di click. Quello che intendevo dire è che all'inizio del ciclo di vita di una nuova scheda (e non solo le schede, anche altro) trapelano "news", foto e altro materiale non ufficiale e di pura invenzione, che iniziano a far circolare i sitarelli da 4 soldi. Materiale che comincia a fare il giro del mondo, portando un numero di click elevato alle fonti.
Devo cominciare a lavorare all'immagine del Playstation 3 Upgrade Pack 1 con PhotoShop :asd: :D :sofico:

leoneazzurro
03-10-2006, 17:19
Se ti riferisci al mio post, hai confuso quello che volevo dire (effettivamente mi sono spiegato da cani). Non intendevo dire che HWUpgrade è un sitarello da 4 soldi cercatore di click. Quello che intendevo dire è che all'inizio del ciclo di vita di una nuova scheda (e non solo le schede, anche altro) trapelano "news", foto e altro materiale non ufficiale e di pura invenzione, che iniziano a far circolare i sitarelli da 4 soldi. Materiale che comincia a fare il giro del mondo, portando un numero di click elevato alle fonti.
Devo cominciare a lavorare all'immagine del Playstation 3 Upgrade Pack 1 con PhotoShop :asd: :D :sofico:

Che nascano questi tipi di "leak", artificiosi o meno, è una cosa normale, purtroppo, l'argomento interessa parecchi e si può solo cercare di essere accorti nell'interpretare il materiale che viene fornito. Il 90% dele notizie in rete è riportata da altri siti, purtroppo spesso si può solo riportare il rumor, classificandolo come tale.

davide-1
04-10-2006, 10:57
Certo però che questi due connettori di alimentazione non li mando proprio giù... :Puke:

Free Gordon
04-10-2006, 14:52
Cmq non ci sarebbe nulla di anormale se avesse due connettori per l'alimentazione... ;)

Prima delle Geforce4 non c'erano VGA con connettori d'alimentazione ausiliari (forse l'ultimo modello della 3dfx, quello lunghissimo, 5500 mi pare), ora da uno potremmo anche passare a due...non vedo dove sia il problema.

Non volete spendere soldi in bolletta? Allora comprate una VGA di fascia media ed evitate di spendere 450 euro per un componente che, ai fini del funzionamento del pc come macchina da lavoro, non ha ragione d'esistere.... :)


Ps. discorso a parte per chi lavora con la grafica, ma anche lì non credo che sia la spesa di energia elettrica ad incidere sui guadagni!!!

Window Vista
04-10-2006, 15:19
Sembra che non avete mai visto una gpu in vita vostra :Prrr:

fede27
04-10-2006, 15:58
Sembra che non avete mai visto una gpu in vita vostra :Prrr:

1- la gpu non si vede :D

2- "sembra che non avete"???? :eek:

mjordan
04-10-2006, 17:13
2- "sembra che non avete"???? :eek:

:mbe:
Scusa dove sta il problema? :wtf:

fede27
04-10-2006, 17:23
:mbe:
Scusa dove sta il problema? :wtf:

"che non abbiate" ;)

ps: ma non ero in ignore? :D

I love OC!!
04-10-2006, 17:25
:mbe:
Scusa dove sta il problema? :wtf:

Nello sbagliato uso del congiuntivo :)

mjordan
04-10-2006, 18:21
ps: ma non ero in ignore? :D

Pare di no, ma se vuoi provvedo subito.
In genere odio i Thesaurus umani, soprattutto quelli che fanno passare per sbagliate cose che non lo sono, come "l'errato uso del congiuntivo" quando li il congiuntivo non ce lo ha messo per niente (e non è obbligatorio).


non sono infrequenti frasi come “credo che hai capito”, “non voglio che fai storie” (sarebbe meglio dire, e soprattutto scrivere: che abbia capito, che faccia storie) (cfr. LEONE 2002: 130).
Si può dunque sottoscrivere la raccomandanzione di Altieri Biagi: “se, [...] dopo aver studiato il congiuntivo, e sapendolo usare, voi deciderete di «farne a meno», di sostituirlo con altri modi, questa sarà una scelta vostra. Ciò che importa, in lingua, non è scegliere il modo più elegante, più raffinato, ma poter scegliere, adeguando le scelte alle situazioni comunicative” (ALTIERI BIAGI 1987: 770).

desmacker
05-10-2006, 08:22
Una reference board con già un sistema di raffreddamento a liquido di serie,forse sarebbe meglio abbassare un pochino le frequenze visti i 90nm,per rendere le schede più fresche nelle soluzioni con raffreddamento a ventola, non mi và di sudare quando gioco.

capitan_crasy
05-10-2006, 10:44
Ragazzi, il sito "DailyTech" ha rilasciato importanti notizie sul progetto G80:
La scheda con questa GPU si chiamerà GeForce 8800 e sarà presentata in due versioni; GTX e GTS (chi ha detto Geforce2? :D )
La versione 8800GTX avrà una frequenza di 575Mhz per la GPU e le memorie saranno 768MB GDDR3 operanti a 900Mhz (1.8Ghz).
Il bus sarà di 384bit per una banda totale di 86GByte/s.
La versione 8800GTS avrà una frequenza di 500Mhz per la GPU e le memorie
saranno 640MB GDDR3 operanti a 900Mhz (1.8Ghz)
Il bus sarà di 320bit per una banta totale di 64GByte/s
Una cosa mi lascia perplesso:

GeForce 8800GTX graphics cards are equipped with 128 unified shaders clocked at 1350 MHz. The theoretical texture fill-rate is around 38.4 billion pixels per second.
............................
96 unified shaders clocked at 1200 MHz are available on GeForce 8800GTS graphics cards.
Clicca qui... (http://dailytech.com/article.aspx?newsid=4441)
:eek:
AIUTO leoneazzurro...

fede27
05-10-2006, 10:48
mi lasciano perplesso pure queste spec....memorie gddr3?? :wtf:

non dovrebbe montare gddr4?

Freisar
05-10-2006, 10:56
GTS magari AGP?


:cry: lasciatemi sognare almeno.....

capitan_crasy
05-10-2006, 10:57
Sul sito "hardware-mania" ce la notizia di "DailyTech" in italiano:

Da queste informazioni si deduce che il chip sarà composto da una logica principale che potrebbe essere affidata ai core TCP integrati, dei quali ancora non si conoscono le funzioni, mentre la catena di chip stream opererà come un'architettura unificata a frequenza sensibilmente maggiorata.
Inoltre si parla di "Quantum Effects Technology" destinata al calcolo della fisica nei giochi...
Clicca qui... (http://www.hardware-mania.it/index.php)

leoneazzurro
05-10-2006, 11:07
Ragazzi, il sito "DailyTech" ha rilasciato importanti notizie sul progetto G80:
La scheda con questa GPU si chiamerà GeForce 8800 e sarà presentata in due versioni; GTX e GTS (chi ha detto Geforce2? :D )
La versione 8800GTX avrà una frequenza di 575Mhz per la GPU e le memorie saranno 768MB GDDR3 operanti a 900Mhz (1.8Ghz).
Il bus sarà di 384bit per una banda totale di 86GByte/s.
La versione 8800GTS avrà una frequenza di 500Mhz per la GPU e le memorie
saranno 640MB GDDR3 operanti a 900Mhz (1.8Ghz)
Il bus sarà di 320bit per una banta totale di 64GByte/s
Una cosa mi lascia perplesso:

Clicca qui... (http://dailytech.com/article.aspx?newsid=4441)
:eek:
AIUTO leoneazzurro...

128 shader unit a 80/90 nm con un computo totale di transistor probabile sopra i 500 milioni e a 1350 MHz? Magari...

Resto parecchio dubbioso su questi numeri. E sugli "shader unificati"
Più probabile si tratti di unità ALU individuali (e se non erro, ma Yossarian lo sa di certo, le unità PS attuali contengono 2 ALU o più, quindi R580 avrebbe 96 ALU) .

Possibile comunque che vi siano due die. Ma se ci sono due die con tutta probabilità uno è per i Vertex e geometry shader, uno è per i Pixel shader/ROPS (quindi il discorso di architettura unificata va un pò a farsi benedire). Quello che non si capisce è che c'è un "clock per la GPU" di 575 MHz e "un clock per gli shader" a 1350 MHz (oltretutto gli shader dovrebbero detenere la quasi totalità dei transistor in un'architettura del genere). Stranissima poi la scelta d DDR3 per il lancio, quando oramai c'è già la GDDR4 a disposizione :confused:

Poi, un pò di matematica: si parla di 38.4 miliardi di pixel al secondo. Questo, con 128 PS, porterebbe ad un clock di 300 MHz. Quindi o si hanno 2 PS unit per TMU, e si parla di texel, o sono 64 unità di shading. Oltretutto difficile che si abbiano 64 TMU, più probabili i numeri 16 e 32.

In ogni caso i 1350 MHz sono fuori dal mondo.

desmacker
06-10-2006, 07:17
L'articolo mi lascia perplesso, i numeri sembrano da fantaG80,considerato il processo produttivo a 90nm e cosa dire poi degli sharder unificati,forse si sono confusi con l'R600,senza parlare poi delle memorie Gddr3 utilizzate al posto delle Gddr4.

Free Gordon
06-10-2006, 10:40
128 shader unit a 80/90 nm con un computo totale di transistor probabile sopra i 500 milioni e a 1350 MHz? Magari...

Perchè dici così tanto? Da R520 a R580 ci sono 64 ALU di differenza e "solamente" 50mln di transistor.



Resto parecchio dubbioso su questi numeri. E sugli "shader unificati"
Più probabile si tratti di unità ALU individuali (e se non erro, ma Yossarian lo sa di certo, le unità PS attuali contengono 2 ALU o più, quindi R580 avrebbe 96 ALU).

96 PS + 8 ALU per i vertex, o sbaglio?

Xenos ne ha 96 anch'esso e sono più grosse, nonostante questo, il mother die occupa solo 230mln di transistor.

Yossarian è sparito... :cry: :cry: :cry:



Possibile comunque che vi siano due die. Ma se ci sono due die con tutta probabilità uno è per i Vertex e geometry shader, uno è per i Pixel shader/ROPS (quindi il discorso di architettura unificata va un pò a farsi benedire).

Cosa vuoi dire con questo?
Stando a quanto si diceva sui brevetti, G80 aveva delle unità vertex che all'occorrenza potevano processare anche i pixel, tutto quì. Nulla di completamente unificato.



Quello che non si capisce è che c'è un "clock per la GPU" di 575 MHz e "un clock per gli shader" a 1350 MHz (oltretutto gli shader dovrebbero detenere la quasi totalità dei transistor in un'architettura del genere). Stranissima poi la scelta d DDR3 per il lancio, quando oramai c'è già la GDDR4 a disposizione. :confused:

Le frequenze in effetti sono assurde, ma ammetto che queste nuove architetture potrebbero stravolgere tutti i canoni che abbiamo acquisito in questi anni, in fatto di GPU!!! :sofico: Bellissimo!! :oink:



Poi, un pò di matematica: si parla di 38.4 miliardi di pixel al secondo. Questo, con 128 PS, porterebbe ad un clock di 300 MHz. Quindi o si hanno 2 PS unit per TMU, e si parla di texel, o sono 64 unità di shading. Oltretutto difficile che si abbiano 64 TMU, più probabili i numeri 16 e 32.
In ogni caso i 1350 MHz sono fuori dal mondo.

I 128 PS, imho sono in realtà 64.
64 x 600 = 38.4
Se dicono 575 per la GPU nel complesso e 600 per il settore PS allora ci capiamo meglio! :D

Un pò come G70 che ha i vertex che girano a 50mhz in più circa.


Se ho detto tavanate, scusatemi. :D Non so resistere dall'entrare in discussioni tecniche... :rotfl:

leoneazzurro
06-10-2006, 11:13
Perchè dici così tanto? Da R520 a R580 ci sono 64 ALU di differenza e "solamente" 50mln di transistor.

Perchè c'è anche tutta la logica di controllo e se ci sono nuove caratteristiche da implementare in HW costano anch'esse transistor. Io direi che sia G80 che R600 sono abbondantemente sopra i 400 Milioni di transistor, probabilmente anche più di 500.


96 PS + 8 ALU per i vertex, o sbaglio?

Xenos ne ha 96 anch'esso e sono più grosse, nonostante questo, il mother die occupa solo 230mln di transistor.


Mi riferivo ovviamente solo ai PS. Se G80 ha due die separati a queste 128 ALU vanno aggiunte quelle dei VS/GS. Il mother die è 230 milioni di transistor ma non c'è ring bus controller nè integra le ROPS (che presumibilmente in R600 e G80 non saranno 8).


Yossarian è sparito... :cry: :cry: :cry:

No, è tornato nell'altro thread :D






Cosa vuoi dire con questo?
Stando a quanto si diceva sui brevetti, G80 aveva delle unità vertex che all'occorrenza potevano processare anche i pixel, tutto quì. Nulla di completamente unificato.

Appunto, sto dicendo che G80 non è unificato, se poi VS e GS sono su 2 die differenti, non credo che VS/GS possano processare -efficientemente- i pixel.



:confused:

Le frequenze in effetti sono assurde, ma ammetto che queste nuove architetture potrebbero stravolgere tutti i canoni che abbiamo acquisito in questi anni, in fatto di GPU!!! :sofico: Bellissimo!! :oink:

Purtroppo sono IMHO veramente troppo strane





I 128 PS, imho sono in realtà 64.
64 x 600 = 38.4
Se dicono 575 per la GPU nel complesso e 600 per il settore PS allora ci capiamo meglio! :D

Un pò come G70 che ha i vertex che girano a 50mhz in più circa.

Possibile, del resto lo supponevo anche io su. Per Yoss potrebbero essere addirittura 32x4...

Free Gordon
06-10-2006, 11:43
Perchè c'è anche tutta la logica di controllo e se ci sono nuove caratteristiche da implementare in HW costano anch'esse transistor. Io direi che sia G80 che R600 sono abbondantemente sopra i 400 Milioni di transistor, probabilmente anche più di 500.

Dicevo che imho non sarà per le unità shader aumentate che il numero di transistor sarà così alto, perchè guardando quanto pesano le ALU di Xenos, si fa presto a capirlo.



Mi riferivo ovviamente solo ai PS. Se G80 ha due die separati a queste 128 ALU vanno aggiunte quelle dei VS/GS. Il mother die è 230 milioni di transistor ma non c'è ring bus controller nè integra le ROPS (che presumibilmente in R600 e G80 non saranno 8).

8 rops sono 25mln di transistor, se mettiamo che in G80 possano essere 20rops (24 sarebbero inutili), vuol dire aggiungerne 25+13 = 38mln, per un totale di 60-65mln.

Xenos ha un controller di memoria a crossbar?? :confused: Mi pare difficile crederlo!


No, è tornato nell'altro thread :D

Dove dove dove?? :eek:



Possibile, del resto lo supponevo anche io su. Per Yoss potrebbero essere addirittura 32x4...

Uhmm strana cosa..
Link link link.. :sofico:
Cerco anch'io và. :p

leoneazzurro
06-10-2006, 12:03
Dicevo che imho non sarà per le unità shader aumentate che il numero di transistor sarà così alto, perchè guardando quanto pesano le ALU di Xenos, si fa presto a capirlo.

In R580 le ALU hanno pasato relativamente poco perchè la logica di controllo in pratica è rimasta la stessa. Calcolare semplicemente i transistor delle ALU IMHO ha poco senso perchè non ci sono solo le ALU (e poi dipende da come le ALU sono fatte, le ALU di R580 sono diverse da quelle di G70 e quelle di G80 sembrerebbero "a naso" ancora differenti.





8 rops sono 25mln di transistor, se mettiamo che in G80 possano essere 20rops (24 sarebbero inutili), vuol dire aggiungerne 25+13 = 38mln, per un totale di 60-65mln.

E sono pochi? :p Poi dipende se le ROPS sono state migliorate, ad esempio se hanno ampliato l'HDR a FP32 blending e supportano AA più complessi/metodi di compressione dei dati più avanzati magari peseranno ancora di più.



Xenos ha un controller di memoria a crossbar?? :confused: Mi pare difficile crederlo!

Beh, non crederci! :D Scherzi a parte, non mi pare sia tra le feature di R500, e del resto mi sembra ragionevole, dato che il ring bus è una feature che "pesa" in termini di transistor e R500 doveva ridurre al minimo i costi.

MiKeLezZ
06-10-2006, 13:18
Qualcuno sa qualcosa di più su questo fantomatico VCAA (very correct anti aliasing) ?