PDA

View Full Version : Aspettando R600 [Thread ufficiale]


Pagine : 1 2 [3] 4 5 6 7 8 9 10

Dylan BJ
30-11-2006, 12:37
Sento gia' che a breve apriremo un thread "Aspettando S3 dx11"
:p

Foglia Morta
01-12-2006, 13:24
http://uk.theinquirer.net/?article=36091
IF YOU REMEMBER the GDDR-4 story back in September, Samsung was telling everybody that GDDR-4 is going to rock. However, companies were worried that yields are not going to be good, and rumours about Samsung screwing up forced affected companies to spend thousands of dollars to invest in the development of alternatives.

In the end, Nvidia went with GDDR-3 memory in its G80 line-up, but DAAMIT continued to develop both GDDR-4 (Pele) and GDDR-3 (UFO) variants. Being late on the market enabled ATI to optimise. However, bean counters at AMD recently gave a "go ahead" signal for full-GDDR-4 line-up. So, forget about the dual-SKUs, 1Gig and 2Gig versions, GDDR-4 is the only way DAAMIT will go .

Also, the product formerly known as FireSTREAM, conveniently renamed the AMD Stream Processor (GPGPU board) is also in the works. We are unsure of the name for this R600 based one, but one of our sources was caught saying: "With their level of imagination, I don't see why not to go AMD Stream Processor 2 - The New Degeneration". If AMD will be gunning for the price, introduction of 2GB UFO board sounds perfectly reasonable, but our sources are telling us that the GPGPU board is a GDDR-4 baby as well.

Memory layout remains the same, as does the GPU. The chip itself is rotated at 45 degree angle – not the 60 degree this tired hack wrote a week ago. Also, the chip whose pictures were leaked was not a functional chip, but rather a mechanical "dummy".

The traditional layout of ATI boards calls for DVI-DIN-DVI arrangement. However, this might change and R600 could end up with G80-style DIN-DVI-DVI, with the HD connector located at the top of the PCB, not in the middle. Just a bit over two months to go. µ

Foglia Morta
01-12-2006, 13:26
http://uk.theinquirer.net/?article=36106
IF AMD manages to stick to its latest plan, it will launch ATI's R600 in February. The original postponed plan indicated that the chip would be launched in Q1 but we got a slightly more precise date.

ATI has been pushing hard for January but it seems it won't make it. Nvidia is also preparing the faster version of G80 for around Cebit time but this is nothing new, as Nvidia traditionally likes to spoil ATI's launches.

The launch and availability will take place together, so as soon as DAAMIT officially introduces the card it should be widely available. It is an 80 nanometre part and should prove to be very powerful DX 10 hardware. It will arrive around the time of Microsoft's Vista DirectX 10 announcement, or shortly thereafter. µ

Defragg
01-12-2006, 13:55
Sento gia' che a breve apriremo un thread "Aspettando S3 dx11"
:p
già aperto :asd:

Dylan BJ
01-12-2006, 17:34
già aperto :asd:
:cincin:

MonsterMash
04-12-2006, 12:27
Nessuna novità? :stordita:

Dexther
04-12-2006, 12:38
Nessuna novità? :stordita:

tutto tace :O

gianlu75xp
04-12-2006, 13:00
Massimo riserbo.

Skullcrusher
05-12-2006, 10:53
Già si sa, ma un'ulteriore conferma non fa mai male... :

ATI dovrebbe associare l sua prossima VPU R600 unicamente alla memoria GDDR4 ed inoltre versioni di schede con la GDDR3 sono sempre in programma.
Riguardo al suo competitor, NVIDIA offrirà la GDDR4 sul suo G80 dal prossimo anno. La casa di Santa Clara ha sviluppato infatti un GPU compatibile con entrambi i tipi di memoria.
Tra qualche mese, le prime schede grafiche basate sull'R600 faranno la loro apparizione sul mercato e rilanceranno la "corsa agli armamenti" per le DirectX 10.

Fonte: 3D Italia (http://hardware.multiplayer.it/)

:D

MonsterMash
05-12-2006, 20:35
Ma io avevo letto che qualche rivista aveva già ricevuto dei sample. Come mai non c'è nessuna fuga di notizie? :D
Che so, un grafico in cinese, un punteggio 3d mark in arabo :D

Dannazione! Io speravo di sapere qualcosa prima di natale!

P.S. Tra l'altro mi chiedo come mai ati non si sia impegnata per far uscire la sua scheda prima di natale. Sarebbe sicuramente finita sotto molti alberi... vabe', nel mio caso non ci sarebbe passata sotto l'albero, sarebbe finita direttamente nel case :D

Ciao

Alberello69
05-12-2006, 23:54
Ma io avevo letto che qualche rivista aveva già ricevuto dei sample. Come mai non c'è nessuna fuga di notizie? :D
Che so, un grafico in cinese, un punteggio 3d mark in arabo :D.....


perché é ancora un prototipo....appena danno il via alla produzione si saprá qualcosa...

ugruhell
08-12-2006, 13:50
scusate che versione di atitool funziona con vista?
ho rivatuner?

fede27
08-12-2006, 14:11
scusate che versione di atitool funziona con vista?
ho rivatuner?

..se non lo sai tu se ce l'hai o no...

ugruhell
08-12-2006, 14:18
..se non lo sai tu se ce l'hai o no...

voglio solo sapere che versione funziona di atitool ho rivatuner su vista

MonsterMash
08-12-2006, 14:35
voglio solo sapere che versione funziona di atitool ho rivatuner su vista

Scusa tanto, ma commettere due volte lo stesso errore non può essere solo un caso :D

Per il resto, scusa, ma non so risponderti.

Ciao

Alexkidd85
08-12-2006, 21:50
Mi iscrivo...sono tristemente con il case spogliato della mia vecchia his 1900xtx iceq3 da favola...ero tentato dal verde...ma voglio restare rosso(in tutti i sensi) :D
Spero di riuscire a resistere al richiamo del g80...mi potete convincere di non passare a lui nel frattempo che discutiamo e aspetiamo!? :D

Dylan BJ
08-12-2006, 21:59
Mi iscrivo...sono tristemente con il case spogliato della mia vecchia his 1900xtx iceq3 da favola...ero tentato dal verde...ma voglio restare rosso(in tutti i sensi) :D
Spero di riuscire a resistere al richiamo del g80...mi potete convincere di non passare a lui nel frattempo che discutiamo e aspetiamo!? :D
e' difficile nn cedere al rikiamo dei 128 stream processors..... :p

Kharonte85
08-12-2006, 22:02
Mi iscrivo...sono tristemente con il case spogliato della mia vecchia his 1900xtx iceq3 da favola...ero tentato dal verde...ma voglio restare rosso(in tutti i sensi) :D
Spero di riuscire a resistere al richiamo del g80...mi potete convincere di non passare a lui nel frattempo che discutiamo e aspetiamo!? :D
Impossibile...io fossi in te sarei gia' al verde... :D

Cmq ATI non è piu' rossa...è verde pure lei http://ati.amd.com/ ...:asd:

Gli ultimi rumors parlano di Febbraio x R-600... ;)

Dylan BJ
08-12-2006, 22:11
Impossibile...io fossi in te sarei gia' al verde... :D
:D :D

Alexkidd85
08-12-2006, 22:22
Mamma mia,l'avevo già vista...non si può guardare quella pagina "verde" :D
Il pcb resterà spero rosso. :p Il discorso è che non sono un fanboy ma ovviamente perdere 100 e passa euro(iva + svalutazione)ad andar bene, per poi passare ad un r600 che a quanto ho sentito ha i suo 512bit con 1gb di ddr4 e speriamo una gpu degna di tante migliorie(indi sulla carta un prodotto migliore,sapendo sempre che la vera top di gamma,nvidia la presenterà verso marzo anch'ella),non fa piacere.Ma siamo "al solito" per noi che seguiamo le perenni evoluzioni del pc.
Comunque staremo a vedere.Vorrà dire che per ora...metterò la coperta al mio stacker ed attenderò qua con voi :D
Resto con il muletto che sempre un 3200+ con 512x2 e una x800gto2 ha...almeno a sensible soccer ci posso giocare :muro: Di sti tempi!!

belin
09-12-2006, 00:37
...R600 sarà tutto rosso, altro che verde!!! :O :D


http://www.techpowerup.com/img/06-12-04/ati-newlogo.png


(nuovo probabile logo AMD ATI Radeon)

Dexther
09-12-2006, 00:44
...R600 sarà tutto rosso, altro che verde!!! :O :D


http://www.techpowerup.com/img/06-12-04/ati-newlogo.png


(nuovo probabile logo AMD ATI Radeon)

:cool:

Kharonte85
09-12-2006, 00:52
...R600 sarà tutto rosso, altro che verde!!! :O :D


http://www.techpowerup.com/img/06-12-04/ati-newlogo.png


(nuovo probabile logo AMD ATI Radeon)
Ma se non è neanche nominata AMD in quel logo... :D

non ci credo... :Prrr:

Catan
09-12-2006, 08:48
Ma se non è neanche nominata AMD in quel logo... :D

non ci credo... :Prrr:

io ci credo intato bellino il loro il fatto che adesso il nome ati non starà + ad indicare la casa produttrice del prodotto ma diventerà perte integrante del prodotto.
cioè mentre prima dicevameno ho un radeonxxx di ati
adesso da r600 in poi si dirà ho un atiradeonxxx di amd

Kharonte85
09-12-2006, 11:21
io ci credo intato bellino il loro il fatto che adesso il nome ati non starà + ad indicare la casa produttrice del prodotto ma diventerà perte integrante del prodotto.
cioè mentre prima dicevameno ho un radeonxxx di ati
adesso da r600 in poi si dirà ho un atiradeonxxx di amd
Stavo scherzando, per ora è probabile che il marchio resti...pero' in futuro sembra essere destinato a sparire http://www.hwupgrade.it/forum/showpost.php?p=14644695&postcount=228

nickdc
09-12-2006, 11:21
Dai non è male...speriamo conservi il rosso. :D

DVD2005
09-12-2006, 11:23
Ma se non è neanche nominata AMD in quel logo... :D

non ci credo... :Prrr:


qualcosa di verde dovrebbe esserci :stordita:

wiltord
09-12-2006, 11:26
qualcosa di verde dovrebbe esserci :stordita:

credo anch'io..

Skullcrusher
09-12-2006, 11:30
qualcosa di verde dovrebbe esserci :stordita:

Molto probabile, dato che ora fa parte di Amd...magari ci sarà qualcosa sul dissipatore :stordita:

Alexkidd85
09-12-2006, 11:31
Anche perché non credo che possano metterci troppo verde...le radeon hanno una loro affermazione mondiale...e la loro fama è ROSSA :D
Il brand ci sarà ed anche grosso...a quanto so è come dice CATAN: Amd Radeon x1xxxx o forse.... x2xxxx...a proposito...si sa qualcosa in merito!? :p

Catan
09-12-2006, 14:43
tanto per fare una cronistoria dei nomi gia dopo l'acquisizione di ati da parte di amd,amd affermo che il brand radeon e ati vista l'affermazione mondiale non sarebbero spariti.
i chipser prima noti come ati sarebbero passati in toto sotto il marchio amd
quindi invece di ati3200 si sarebbe parlato di amd3200.
per la parte grafica un marchio tra ati e radeon sicuramente sarebbe stato tenuto... evidentemente tenerli entrambi e far entrare il nome ati nn + come produttore ma come parte integrante del nome della scheda non è male.
sopratutto per gli assets annunciati da amd.
al divisione chipset sarebbe stata inglobata in toto da amd per ovviamente migliorere la sinergia tra chipset e processori mentre la parte graphics sarebbe rimasta per il prossimo anno abb libera nelle decisioni costruttive ovviamente restando legata a quelle finanziarie

Defragg
09-12-2006, 15:08
rosso, verde o a pois azzurri non me ne frega...basta che vada forte, consumi poco e costi pochissimo :D :sofico:

Catan
09-12-2006, 16:26
rosso, verde o a pois azzurri non me ne frega...basta che vada forte, consumi poco e costi pochissimo :D :sofico:

anche xè sapphire in primis i suoi pcb li fa blu quindi come giustamente dice drefragg sia che il pcb sia verde o blu o rosso non cambia nulla...poi nsomma cambia solo l'adesivo sopra^^

Dylan BJ
09-12-2006, 18:00
amd e' verde da sempre.... oserei dire dalla notte dei tempi......
e nell'ego di amd c'e' di mangiarsi pure nvidia sulla riconoscibilita' cromatica delle sk.video ma qui temo caschi l'asino..... da un decennio il verde e' nvidia, cercate seullo zingarelli!!! :D

DVD2005
09-12-2006, 18:21
amd e' verde da sempre.... oserei dire dalla notte dei tempi......
e nell'ego di amd c'e' di mangiarsi pure nvidia sulla riconoscibilita' cromatica delle sk.video ma qui temo caschi l'asino..... da un decennio il verde e' nvidia, cercate seullo zingarelli!!! :D


hai ragione, però con tutto quello che hanno speso..

nicola1985
09-12-2006, 18:52
ho letto tutto il thread :sofico: :sofico:
peccato che non me la potrò permettere! :D

Neo_
09-12-2006, 19:02
a proposito di colori di pcb mi avete fatto ricordare una cosa:

R600 disporrà di un pcb a 12strati estrememente complesso che sarà il più costoso mai ordinato per una gpu,alla faccia del costare pochissimo :sofico:

Alberello69
09-12-2006, 19:07
a proposito di colori di pcb mi avete fatto ricordare una cosa:

R600 disporrà di un pcb a 12strati estrememente complesso che sarà il più costoso mai ordinato per una gpu,alla faccia del costare pochissimo :sofico:
dove lo hai letto?

Neo_
09-12-2006, 19:12
dove lo hai letto?

eh,bella domanda mentre navigavo a destra e a manca per cercare info...
appena ri-trovo un link da postarvi ve lo faccio leggere

DjLode
09-12-2006, 19:18
dove lo hai letto?

Punto su The Inquirer :)
Lo avevo letto pure io e tutte le "notizie" avute finora su R600 vengono da lì.

Neo_
09-12-2006, 19:35
fosse stato the inquirer me lo sarei ricordato subito,ne sparano di b....te non lo considero una fonte attendibile, era sicuramente altrove,cmq nel frattempo ho trovato accenno anche qui:

http://www.cnpcie.com/pcdt/77915.html

perfettamente leggibile se avete translator su firefox ;)

Kharonte85
09-12-2006, 19:37
perfettamente leggibile se avete translator su firefox ;)
Non me lo potresti traslare tutto tu please? :D

Neo_
09-12-2006, 19:55
Ho dovuto fare in modo barbaro,se incollavo direttamente metà delle parole restavano in cinese :confused: :mc:

http://show.imagehosting.us/show/1808394/0/nouser_1808/T1_-1_1808394.JPG (http://www.imagehosting.us/index.php?action=show&ident=1808394)

Kharonte85
09-12-2006, 20:01
Ho dovuto fare in modo barbaro,se incollavo direttamente metà delle parole restavano in cinese :confused: :mc:

http://show.imagehosting.us/show/1808394/0/nouser_1808/T1_-1_1808394.JPG (http://www.imagehosting.us/index.php?action=show&ident=1808394)
:eek: lo hai fatto per davvero!

Grazie ;)

Neo_
09-12-2006, 20:13
cmq personalmente sono scettico al riguardo,oggi come oggi non superiamo i 6/8 strati che io sappia,a 12 sarà spessa come un loaker e quanto costerà all'arrivo sugli scaffali?mah... :confused:

Kharonte85
09-12-2006, 20:15
cmq personalmente sono scettico al riguardo,oggi come oggi non superiamo i 6/8 strati che io sappia,a 12 sarà spessa come un loaker e quanto costerà all'arrivo sugli scaffali?mah... :confused:
Secondo me e' inutile sperare che costi meno di 600 euro... :(

AMD-ATI, se siete all'ascolto smentitemi pure... :read: :sperem:

MonsterMash
09-12-2006, 20:19
Ma se la versione xtx costasse 600 euro, e la xt 450 io farei i salti di gioia!

Athlon 64 3000+
09-12-2006, 20:34
nel link che hai postato c'è scritto che R600 sarà a 65 nm.
:confused:

Neo_
09-12-2006, 20:41
Se andate su hardspell dice più o meno le stesse cose ma sono più precisi,li parlano(correttamente) di processo a 80nm e ci sono le ormai famose foto del procio:

http://www.hardspell.com/news/showcont.asp?news_id=31823

e pure loro a parlare di pcb a 12 strati,da dove sia venuta fuori in primis la cosa francamente non saprei :boh:

edit:
qualche "guru" di qualche altro forum ha provato ad analizzare le indiscrezioni:
For instance:

512bit memory interface? No graphics card, not even G80, offers a 512bit wide memory interface. I have only seen it used on high-end workstation FireGL cards. This is a good advantage over G80 for higher resolution performance right there.

Since ATI already used GDDR4, I expect R600 to be using it, and again this will add a minimum of a few percentage points in ATI's favor over G80.

A 12 layer PCB is also within reason, either they make the PCB longer, or they make it thicker. They changed their minds and made it thicker... although motherboards are only about 6 or 7 layers thick if I recall correctly...

1gb of video memory also sounds correct, exactly double the 512bit bus width Having 2gb on the FireGL workstation boards stands to reason.

It is also nice to have confirmed that the new power connector was only needed for the early revisions of the card, again par for the course with new chips until they get the silicon tuned right. Not even mentioning the new digital Rage chip... Image quality tests are going to be hard to gauge I think

I sure can't wait until I get my hands on one of these... it's a given that it will outperform G80, I'd say the question is will it outperform G81, the "upgraded" G80 nVidia plans to try and trump R600's launch with.

Catan
09-12-2006, 23:55
io sarei curiosa anche di vederei iderivati di r600...
rigurdo la versione proibitiva xtx mi accodo ma una versione xt o pro sicuramente la prendo!

Dexther
09-12-2006, 23:56
io sarei curiosa anche di vederei iderivati di r600...
rigurdo la versione proibitiva xtx mi accodo ma una versione xt o pro sicuramente la prendo!

Catan, ti ricordavo uomo ..... :mbe: :stordita:

Xfree
09-12-2006, 23:59
io sarei curiosa anche di vederei iderivati di r600...
rigurdo la versione proibitiva xtx mi accodo ma una versione xt o pro sicuramente la prendo!

:confused: -> :idea: -> :oink:
A parte lo scherzo, aspetto di vedere i derivati di fascia media, sperando che vadano come la mia X1900XT :p

Dexther
10-12-2006, 00:05
:confused: -> :idea: -> :oink:

:asd:

nico88desmo
10-12-2006, 12:48
ricapitolando quindi, secondo gli ultimi rumors, ormai le caratteristiche dell'R600 sarebbero queste:
- 1GB GDDR4;
- 512bits di bus verso le memorie;
- 12 layer di pcb;
- 64 Unità di Pixel/Vertex/Geometry Shading;
- chip costruito a 80nm;
- frequenze intorno ai 600Mhz o poco di più;

se fosse così secondo me surclasserà il G80 come prestazioni, mah...qui la palla passa a nVidia che non aspetterà AMD/ATI è farà uscire la revision, il G81;
l'unico "errore" (per modo di dire) di AMD/ATI sono i 3 mesi di ritardo dell'uscita del R600;

Ce ne saranno delle belle tra febbraio e marzo :D

Intanto io aspetto le midrange.. :D :D

MonsterMash
10-12-2006, 12:52
Purtroppo la ati non è nuova a questo genere di ritardi. La x1800 uscì con 6 mesi di ritardo, se vi ricordate

nico88desmo
10-12-2006, 12:56
si è vero, quello della x1800 è un ritardo;

ma qui chiamarlo ritardo, non è propriamente corretto, sarebbe più corretto dire anzi che nVidia è uscita in anticipo; ricordiamo che le 8800 sono schede per directx10, finora quindi non sfruttate pienamente e di cui non si sà ancora il reale potenziale.

Alberello69
10-12-2006, 13:04
ricapitolando quindi, secondo gli ultimi rumors, ormai le caratteristiche dell'R600 sarebbero queste:
- 1GB GDDR4;
- 512bits di bus verso le memorie .......

----> questa ultima cosa, come abbiamo detto piu' volte, é sicuramente improbabile.

Neo_
10-12-2006, 13:35
il tizio di sopra ritiene i 512bit probabili a fronte del giga di memoria che è esattamente il doppio :confused:
e giustifica i 12 layer del pcb come risposta al problema lunghezza eccessiva :confused:

se fosse tutto confermato g80 se lo mangerebbe a colazione :mc:

visto il duopolio in atto non credo sarà così, le 2 case devono rimanere sostanzialmente allineate perchè il gioco funzioni IMHO.

Alberello69
10-12-2006, 13:39
molti esperti dicono che il bus a 512 bit non é fattibile a livello di eccessiva complessitá... soprattutto con le ddr4... in futuro si, ma adesso no

Neo_
10-12-2006, 13:58
Veramente 3dlabs l'ha già fatto esiste una scheda con queste specifiche,la Wildcat,solo che ha il piccolo difetto di costare 2k€:asd:, il che unito al pcb più costoso mai richiesto ci porta a pensare che è Molto più economico farsi un quad sli di g80 :sofico:

Alexkidd85
10-12-2006, 14:15
Mamma mia...troppa evoluzione e troppo veloce,non trovate?

Catan
10-12-2006, 14:24
molti esperti dicono che il bus a 512 bit non é fattibile a livello di eccessiva complessitá... soprattutto con le ddr4... in futuro si, ma adesso no

se è per questo molti divevano e credevano(me compreso)che g80 non fosse a shader unificati e invece...

Neo_
10-12-2006, 14:43
se è per questo molti divevano e credevano(me compreso)che g80 non fosse a shader unificati e invece...

ma anche ai tempi di r300 si credevano i 256bit impossibili? :confused:

Dylan BJ
10-12-2006, 14:43
io so solo ke nvidia da 1 mese ha fuori G80 ke sta letteralmente portando a zero le vendite di R580... e non c'e' concorrenza quindi sull'alta gamma!!!
ati svegliaaaaaaaa!! :D :D

Neo_
10-12-2006, 14:48
io so solo ke nvidia da 1 mese ha fuori G80 ke sta letteralmente portando a zero le vendite di R580... e non c'e' concorrenza quindi sull'alta gamma!!!
ati svegliaaaaaaaa!! :D :D

bisognerebbe dire 2 paroline a quelli del reparto marketing Ati...http://rivermenforum.net/images/smiles/kick%20in%20ass.gif
:asd:

Catan
10-12-2006, 15:06
bisognerebbe dire 2 paroline a quelli del reparto marketing Ati...http://rivermenforum.net/images/smiles/kick%20in%20ass.gif
:asd:

varamente ad oggi le schede + vendute sono le x1900xt da 256mb seguite dalle 7950gtx da 256mb...
che nvidia abbia g80 fuori da 1 mese quando la scheda costa ancora 600E non rappresenta un reale problema anche xè chi si puo permettere g80 adesso tra 2 mesi si puo permettere di rivenderlo e comprare r600.
diciamo la verità che vogliamo subito un altra scheda su cui sbavare e farci i nostri sogni sopra.
alla fine r600 esce a fine gennaio godiamoci le feste natalizie godiamoci il capodanno e epifania...poi forse da 7 gennaio potremo sbavare veramente su un prodotto al lancio di 3 settimane

Dexther
10-12-2006, 15:07
varamente ad oggi le schede + vendute sono le x1900xt da 256mb seguite dalle 7950gtx da 256mb...
che nvidia abbia g80 fuori da 1 mese quando la scheda costa ancora 600E non rappresenta un reale problema anche xè chi si puo permettere g80 adesso tra 2 mesi si puo permettere di rivenderlo e comprare r600.
diciamo la verità che vogliamo subito un altra scheda su cui sbavare e farci i nostri sogni sopra.
alla fine r600 esce a fine gennaio godiamoci le feste natalizie godiamoci il capodanno e epifania...poi forse da 7 gennaio potremo sbavare veramente su un prodotto al lancio di 3 settimane

pur di potermela permettere guardate un pò che triste la mia sign con la x300 :sob:

Neo_
10-12-2006, 15:19
io direi che sarebbe oltremodo saggio aspettare la fascia media e pregare di averne di nuovo una all'altezza della 9500pro,cosa che non si è più vista almeno in casa ATI.
Una volta le schede top di gamma costavano intorno ai 300€(ricordo che salasso fu la mia 9800) ora 600-700,a me spendere una cifra del genere per una VGA fa piangere il cuore.
con quei soldi si fanno parecchie altre cosehttp://www.pctuner.net/forum/images/smilies/sisi.gif
è bello sbavarci sopra,sognarci sopra e restare ammirati dalle evoluzioni della tecnica ma stop.
il tutto rigorosamente IMHO.

ATi7500
10-12-2006, 15:31
io direi che sarebbe oltremodo saggio aspettare la fascia media e pregare di averne di nuovo una all'altezza della 9500pro,cosa che non si è più vista almeno in casa ATI.
Una volta le schede top di gamma costavano intorno ai 300€(ricordo che salasso fu la mia 9800) ora 600-700,a me spendere una cifra del genere per una VGA fa piangere il cuore.
con quei soldi si fanno parecchie altre cosehttp://www.pctuner.net/forum/images/smilies/sisi.gif
è bello sbavarci sopra,sognarci sopra e restare ammirati dalle evoluzioni della tecnica ma stop.
il tutto rigorosamente IMHO.
come non essere d'accordo ;) mai seguiti i pecoroni e mai lo farò, anche se questa è la mia più grande passione :)

bYeZ!

Dexther
10-12-2006, 15:34
io direi che sarebbe oltremodo saggio aspettare la fascia media e pregare di averne di nuovo una all'altezza della 9500pro,cosa che non si è più vista almeno in casa ATI.
Una volta le schede top di gamma costavano intorno ai 300€(ricordo che salasso fu la mia 9800) ora 600-700,a me spendere una cifra del genere per una VGA fa piangere il cuore.
con quei soldi si fanno parecchie altre cosehttp://www.pctuner.net/forum/images/smilies/sisi.gif
è bello sbavarci sopra,sognarci sopra e restare ammirati dalle evoluzioni della tecnica ma stop.
il tutto rigorosamente IMHO.

Già , in effetti il costo delle vga top di gamma è diventato veramente troppo alto. Io tutte le VGA top di gamma che ho avuto le ho prese sul mercatino, tanto qualche pazzoide che la rivenderà dopo un mese ci sarà sicuramente :sofico: .

Defragg
10-12-2006, 16:49
io non sono disposto a spendere così tanto per una VGA...però mi fanno gola...

non mi resta che attendere la fascia media sperando che surclassi almeno le prestazioni della serie 78xx - X18xx

sperando

luciferme
10-12-2006, 17:42
io direi che sarebbe oltremodo saggio aspettare la fascia media e pregare di averne di nuovo una all'altezza della 9500pro,cosa che non si è più vista almeno in casa ATI.
Una volta le schede top di gamma costavano intorno ai 300€(ricordo che salasso fu la mia 9800) ora 600-700,a me spendere una cifra del genere per una VGA fa piangere il cuore.
con quei soldi si fanno parecchie altre cosehttp://www.pctuner.net/forum/images/smilies/sisi.gif
è bello sbavarci sopra,sognarci sopra e restare ammirati dalle evoluzioni della tecnica ma stop.
il tutto rigorosamente IMHO.


beh...di schede con un buon rapporto prezzo prestazioni ce ne sono...io ho preso la x1900gt e direi che nn è affatto male...certo l'xt va meglio,ma costa anche 100 euro in +.io vedo che ha 1280 gioco a tutto senza grossi compromessi...a nfscarbon poi gioco a 1600x1200 tutto attivo attorno ai 40 fps...nn saranno 60, ma mi accontento!!
parlando di schede meno recenti,anche l'x800gto e la 6600gt avevano un ottimo rapporto prezzo/prestazioni.
certo...se vuoi spendere 70€ e avere uno schedone...beh...mi sa che te lo puoi sognare...insomma...qualcosina lo devi spendere...sennò come fanno a sopravvivere ati e nvidia?? :sofico:
poi mi ricordo che le gf3,appena uscite costavano tra le 900k e 1.200k lire...
il problema è che i pezzi si svalutano in fretta e di novità ce ne sono sempre...e chi come noi nn sa resistere è sempre tentato e a volte fa delle follie...o no??

Catan
10-12-2006, 18:11
ragazzi da possessore di una x1950pro credo sia questa al vera erede della 9500pro...con 200E avete una vga che fa andare tutto e dico tutto senza problemi

Dexther
10-12-2006, 18:14
ragazzi da possessore di una x1950pro credo sia questa al vera erede della 9500pro...con 200E avete una vga che fa andare tutto e dico tutto senza problemi

daccordissimo :)

gianlu75xp
10-12-2006, 19:37
ragazzi da possessore di una x1950pro credo sia questa al vera erede della 9500pro...con 200E avete una vga che fa andare tutto e dico tutto senza problemi

anche la 1900xt-x fa andare tutto senza problemi ;) anche se, a differenza della 9500Pro dei tempi d'oro, penso avrà vita più breve quando usciranno le features legate alle nuove API

Foglia Morta
10-12-2006, 20:41
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f168%2f168302.shtml

DVD2005
10-12-2006, 23:19
pur di potermela permettere guardate un pò che triste la mia sign con la x300 :sob:


la noto ora, ma non avevi in firma un'altra vga ? :what:

Neo_
10-12-2006, 23:34
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f168%2f168302.shtml

vale a dire? :confused:

Catan
10-12-2006, 23:36
non dice nulla di + di quello che sapevamo
+ transistor di g80 in minor spazio dati gli 80nm
interessante questi 800mhz con soli 1.2v(mah su questo sono un po scettico)
secondo me possono anche essere 800mhz ma non meno di 1.4v
ovviamente come sapevamo chip che puo andare sia in gddr3 che gddr4.
questo apre una questione interessante cmq si presume che abbia una banda superiore a g80.
allora se sono gddr4 stra pompate cioè superiori ai 1000mhz di x1950xtx si presume siano almeno clokkate a 1200 se non 1400mhz per una banda di 76-90gb con bus a 256bit.
se invece monta gddr3 l'unica per superare g80 è avere per forza un bus a 512bit con ram diciamo della frequenza di 750-800mhz con banda compresta i i 96-102gb...
entrambe le soluzioni cmq mantengono alte bande ora bisogna vedere se costa meno implementare un controler a 512bit per la memoria e utilizzari normali gddr3 oppure se costa meno comprare lotti di veloci gdd4 e lasciare il controler a 256bit...
il fatto è che se riescono a implementare il tutto cioè accoppiata gddr4+512bit di bus magari le gddr4 da 1400mhz no ma le gddr4 da 1200mhz per la versione pompata e le gddr4 da 1000 per la versione "normale" vorrebbero dire bande mostruose comprese tra i 128gb e i 153gb.
a questo punto effettivamente la dicitura AA 4x always on sarebbe davvero giustificabile.
cmq per gli amanti del prezzo prestazioni questa situazione in alto vorrebe dire schede del range di 200-250E con gddr4 da 1000mhz e bus da 256bit...
praticamente un chip + performante di x1950xtx e la stessa banda ad un prezzo da regalo!

LCol84
10-12-2006, 23:41
cmq per gli amanti del prezzo prestazioni questa situazione in alto vorrebe dire schede del range di 200-250E con gddr4 da 1000mhz e bus da 256bit...
praticamente un chip + performante di x1950xtx e la stessa banda ad un prezzo da regalo!


E sarà la mia prox scheda :ciapet:

Neo_
10-12-2006, 23:54
che Ati mantenga il bus a 256 bit non è ipotizzabile,sarebbe un collo di bottiglia esagerato, e questo proposito c'è qualcosa che non mi torna,se davvero useranno 16 cip per raggiungere il famoso giga allora è altrettanto probabile che il bus sia davvero a 512bit,g80 utilizza 12 moduli da qui il bus anomalo a 384bit e la relativa anomala quantità di memoria a questo punto è ipotizzabile anche che in un refresh di g80 da qui a tre mesi nvidia possa decidere di aggiungere i 4 chip mancanti?detto così però mi suona quasi di fantascienza,significherebbe che il progetto di g80 era già predisposto per una cosa del genere,per essere compatibile con le GDDR4 e che addirittura nvidia ha già pronta una revision del pcb ben più complessa dell'attuale... :mc:

hiroshi976
11-12-2006, 00:10
..salve ragazzi mi iscrivo a questa discussione in quanto probabilmente diventera' la mia vga futura....
spero di poter fare un abbinamento quadcore/r600...............
Spero che ati rilasci un prodotto di fascia *abbordabile* ......chiaramente non come ha fatto nvidia con il suo g80 ed i modelli gts.....ho sempre odiato l'hardware castrato!!! :D
Mi scoccia cmq dover sostituire il mio fido s12!!! :(

saluti
hiro!!

Foglia Morta
11-12-2006, 10:16
non dice nulla di + di quello che sapevamo
+ transistor di g80 in minor spazio dati gli 80nm
interessante questi 800mhz con soli 1.2v(mah su questo sono un po scettico)
secondo me possono anche essere 800mhz ma non meno di 1.4v
ovviamente come sapevamo chip che puo andare sia in gddr3 che gddr4.
questo apre una questione interessante cmq si presume che abbia una banda superiore a g80.
allora se sono gddr4 stra pompate cioè superiori ai 1000mhz di x1950xtx si presume siano almeno clokkate a 1200 se non 1400mhz per una banda di 76-90gb con bus a 256bit.
se invece monta gddr3 l'unica per superare g80 è avere per forza un bus a 512bit con ram diciamo della frequenza di 750-800mhz con banda compresta i i 96-102gb...
entrambe le soluzioni cmq mantengono alte bande ora bisogna vedere se costa meno implementare un controler a 512bit per la memoria e utilizzari normali gddr3 oppure se costa meno comprare lotti di veloci gdd4 e lasciare il controler a 256bit...
il fatto è che se riescono a implementare il tutto cioè accoppiata gddr4+512bit di bus magari le gddr4 da 1400mhz no ma le gddr4 da 1200mhz per la versione pompata e le gddr4 da 1000 per la versione "normale" vorrebbero dire bande mostruose comprese tra i 128gb e i 153gb.
a questo punto effettivamente la dicitura AA 4x always on sarebbe davvero giustificabile.
cmq per gli amanti del prezzo prestazioni questa situazione in alto vorrebe dire schede del range di 200-250E con gddr4 da 1000mhz e bus da 256bit...
praticamente un chip + performante di x1950xtx e la stessa banda ad un prezzo da regalo!
G80 è alimentato a 1,275V a 90nm , R600 a 80nm potrebbe anche stare a 1,2V , non sarebbe poì così strano.

Dice anche che la circuiteria di alimentazione è sovradimensionata di molto. Magari significa che avrà ampi margini di o/c

Catan
11-12-2006, 10:24
che Ati mantenga il bus a 256 bit non è ipotizzabile,sarebbe un collo di bottiglia esagerato, e questo proposito c'è qualcosa che non mi torna,se davvero useranno 16 cip per raggiungere il famoso giga allora è altrettanto probabile che il bus sia davvero a 512bit,g80 utilizza 12 moduli da qui il bus anomalo a 384bit e la relativa anomala quantità di memoria a questo punto è ipotizzabile anche che in un refresh di g80 da qui a tre mesi nvidia possa decidere di aggiungere i 4 chip mancanti?detto così però mi suona quasi di fantascienza,significherebbe che il progetto di g80 era già predisposto per una cosa del genere,per essere compatibile con le GDDR4 e che addirittura nvidia ha già pronta una revision del pcb ben più complessa dell'attuale... :mc:

in questo c'è un problema di fondo che ho evidenziato nelle prime pagine di questo tread.
purtroppo nvidia è rimasta ancora ancorata su un controler di tipo crossbar classico che sicuramente molto semplice da implemetare(32bit di bus ogni quad di ram)ma poi per aumentare banda l'unica soluzione è vare guazzabugli da 640 o 768mb di ram.
ovvettivamente finche costa meno comprare ram è la scelta + giusta per quel tipo di controler comprando ram aumento banda senza dover ricercare un altro bus o riprogettare lil pcb.
g80 gia dalle primi anticipazioni cmq risulta essere compatibile con le gddr4,una sua revision con ram da 1gb e bus a 512 potrebbe essere possibile ma secondo me l'archidettura crossbar è al limite già adesso.
che tra 3 mesi ci sia un dieshrink di g80 è palese a 80nm e sicuramente per sistemare ed accorciare il pcb faranno rientrare il tmds dentro il chip,quindi protrebbero provare se l'archidettura crossbar riesca a gestire i 512bit di bus mettendo 1gb di ram.
ati ha agirato il problema già da r520 sostituendo al crossbar il sistema ringbus esterno(non sto parlando di quello interno già a 512bit)ergo un sistema sicuramente + difficile da realizzare ma una volta realizzato + facilmente ampliabile e flessibile.
la riprova ci sarà cmq visto che ati deve vendere anche schede di fascia media e alta ma + abbordabili se ci saranno r600 con 512mb di ram(sicuramente) e bus di 512bit.
sicuramente nella fascia media ci saranno versioni da 256mb con bus da 256bit.

Neo_
11-12-2006, 15:45
è per questo che c'è chi sostiene che la X1950XT non sia altro che un progetto laboratorio(magari qualcuno con la vista extra lunga l'aveva pure già ipotizzato).
Certo che se va così(e la cosa comincia a sembrare reale) sarà un salto generazionale esagerato,fascia media con bus a 256bit...slurp :D
in pratica le x1950 di adesso :)

G80 è alimentato a 1,275V a 90nm , R600 a 80nm potrebbe anche stare a 1,2V , non sarebbe poì così strano.

Dice anche che la circuiteria di alimentazione è sovradimensionata di molto. Magari significa che avrà ampi margini di o/c

Probabile,il limite delle GDDR4 è 3.2Ghz siamo ancora lontanucci,bisogna vedere quanto scalda la GPU(e se ne sono lette di cotte e di crude)... :fagiano:

yossarian
11-12-2006, 15:54
che Ati mantenga il bus a 256 bit non è ipotizzabile,sarebbe un collo di bottiglia esagerato, e questo proposito c'è qualcosa che non mi torna,se davvero useranno 16 cip per raggiungere il famoso giga allora è altrettanto probabile che il bus sia davvero a 512bit,g80 utilizza 12 moduli da qui il bus anomalo a 384bit e la relativa anomala quantità di memoria a questo punto è ipotizzabile anche che in un refresh di g80 da qui a tre mesi nvidia possa decidere di aggiungere i 4 chip mancanti?detto così però mi suona quasi di fantascienza,significherebbe che il progetto di g80 era già predisposto per una cosa del genere,per essere compatibile con le GDDR4 e che addirittura nvidia ha già pronta una revision del pcb ben più complessa dell'attuale... :mc:

l'architettura crossbar tradizionale (a 4 bracci, ciascuno dedicato ad un gruppo di chip di ram) è nata per gestire nel modo migliore l'impiego di 4 chip. Questo perchè ogni chip ha un suo collegamento dedicato (un braccio del crossbar) tramite cui transitano i dati in ingresso e in uscita dalla ram. Un memory controller non fa altro che ricevere le richieste di accesso alla ram da parte dei vari utilizzatori (che in un chip grafico sono le singole pipeline) e indirizzarle al corrispettivo banco di ram, decidendo l'ordine di priorità in caso di richieste di accesso contemporaneo alle stesse risorse. All'aumentare del numero delle pipeline di un chip e del numero di banchi di ram, si riduce l'efficienza di questo tipo di connessione; immagina una situazione in cui ogni braccio del crossbar serve 2 o 4 banche di ram, con un chip con, ad esempio, 16 pipeline. Aumenta di molto la probabilità che quel braccio sia interessato da più richieste di accesso contemporanee: questo significa creazione di una coda con relativo aumento delle latenze negli accessi in memoria.
Il ring bus è un sistema abbastanza economico (anche a livello di complessità circuitale) per risolvere o minimizzare questo problema (non a caso è stata la soluzione scelta anche da IBM per il cell).In un ring bus ogni banco e ciascun "utilizzatore" sono connessi direttamente all'anello tramite i cosiddetti ring stop. Quando c'è una chiamata di accesso alla ram, il controller individua il banco di ram e il relativo ring stop a cui è connesso, invia la richiesta. A questo punto è libero di occuparsi della successiva richiesta di accesso. I dati sono messi in circolo nell'anello è, quando arrivano al ring stop a cui è connesso l'utilizzatore che ha inoltrato la richiesta vengono smistati (senza ulteriori interventi da parte del menmory controller). Qui emerge un altro limite dell'architettura crossbar: il controller si occupa di tutte e 4 le fasi relative alla gestione di invio richiesta e smistamento dei dati (mentre con un ring bus si occupa solo delle prime due, relative all'inoltro della richiesta di accesso).
Ovviamente, all'aumentare del numero degli "utilizzatori", anche il ring bus inizia a presentare delle criticità. La soluzione teoricamente migliore sarebbe una connessione dedicata di ogni singolo utilizzatore con ciascun banco di ram; questa è però anche di gran lunga la soluzione più dispendiosa e complessa a livello circuitale.

Neo_
11-12-2006, 17:14
Bella Yoss spiegazione degna di te :)

Se tutto quello che stiamo dicendo non è aria fritta questa è la volta buona che ci divertiamo davvero,roba che non si vedeva dai tempi di r300 :cool:

peddu84
11-12-2006, 18:52
Ho un dubbio.
Mi domandavo se fosse possibile che dopo l'acquisizione da parte di AMD di ATI, si fosse aperta la possibilità di avere a breve termine (entro un anno o due) chipset grafici progettati secondo una logica di progetto full-custom, così come avviene per i microprocessori, invece che semi-custom.

Se ciò si concretizasse porterebbe enormi benefici in termini di ottimizzazzione dello spazio, ottimizzazione dei consumi e velocità.
Certo i costi di progettazzione sarebbero enormemente più alti...

appleroof
11-12-2006, 19:18
Ho un dubbio.
Mi domandavo se fosse possibile che dopo l'acquisizione da parte di AMD di ATI, si fosse aperta la possibilità di avere a breve termine (entro un anno o due) chipset grafici progettati secondo una logica di progetto full-custom, così come avviene per i microprocessori, invece che semi-custom.

Se ciò si concretizasse porterebbe enormi benefici in termini di ottimizzazzione dello spazio, ottimizzazione dei consumi e velocità.
Certo i costi di progettazzione sarebbero enormemente più alti...


secondo il mio parere questa è proprio la direzione in cui và quell'acquisizione e gli altri "movimenti" di mercato (intel) ma credo (con un immenso beneficio d'inventario, :D visto l'approccio di Nvidia con G80 ) che ci vorranno più di un paio d'anni per vedere concreti e tangibili risultati cioè un unico "mega processore" che si occupa di tutto coniugando le caratteristiche delle gpu con quelle delle cpu in un unico chip e di farlo in maniera ottima e a livelli eccellenti...

T3d
11-12-2006, 19:24
io so solo ke nvidia da 1 mese ha fuori G80 ke sta letteralmente portando a zero le vendite di R580... e non c'e' concorrenza quindi sull'alta gamma!!!
ati svegliaaaaaaaa!! :D :D
:rolleyes:

ammazza aho :asd:

LCol84
11-12-2006, 19:35
:rolleyes:

ammazza aho :asd:

:sofico:

peddu84
11-12-2006, 19:53
secondo il mio parere questa è proprio la direzione in cui và quell'acquisizione e gli altri "movimenti" di mercato (intel) ma credo (con un immenso beneficio d'inventario, :D visto l'approccio di Nvidia con G80 ) che ci vorranno più di un paio d'anni per vedere concreti e tangibili risultati cioè un unico "mega processore" che si occupa di tutto coniugando le caratteristiche delle gpu con quelle delle cpu in un unico chip e di farlo in maniera ottima e a livelli eccellenti...


L'integrazione nel core della cpu di un chipset grafico si vedrà fra molto tempo, ma io parlavo di uno sviluppo del solo core grafico con un approccio full-custom...

appleroof
11-12-2006, 21:32
L'integrazione nel core della cpu di un chipset grafico si vedrà fra molto tempo, ma io parlavo di uno sviluppo del solo core grafico con un approccio full-custom...

ok evidentemente ho capito male io, pensavo ti riferissi alla possibilità di "usare" la gpu per compiti via via sempre più ampli (partendo dagli attuali timidi approci GP-GPU) fino addirittura a dar vita ad unico processore per tutte le funzioni (la tecnologia multicore unita a processi costruttivi sempre più affinati potrebbe rendere la cosa fattibile forse)...è chiaro che la cosa si potrebbe fare solo nel lungo periodo ma chissà che tra un quinquennio assisteremo ad un'evoluzione del genere e l'acquisizione di Ati da parte di Amd potrebbe avere un significato di questo tipo, ripeto, nel lungo periodo...

Kharonte85
11-12-2006, 21:48
ok evidentemente ho capito male io, pensavo ti riferissi alla possibilità di "usare" la gpu per compiti via via sempre più ampli
MAGARI!

Una scheda video che faccia il lavoro anche di questi:

http://imago.techtop.it/d/1804-1/060620-onkyo-TX-SA604.jpg

Potrebbe diventare davvero il must... :sofico: :asd:

appleroof
11-12-2006, 21:53
MAGARI!

Una scheda video che faccia il lavoro anche di questi:

http://imago.techtop.it/d/1804-1/060620-onkyo-TX-SA604.jpg

Potrebbe diventare davvero il must... :sofico: :asd:


aspettiamo....


:asd: :asd: :asd:

peddu84
11-12-2006, 22:09
ok evidentemente ho capito male io, pensavo ti riferissi alla possibilità di "usare" la gpu per compiti via via sempre più ampli (partendo dagli attuali timidi approci GP-GPU) fino addirittura a dar vita ad unico processore per tutte le funzioni (la tecnologia multicore unita a processi costruttivi sempre più affinati potrebbe rendere la cosa fattibile forse)...è chiaro che la cosa si potrebbe fare solo nel lungo periodo ma chissà che tra un quinquennio assisteremo ad un'evoluzione del genere e l'acquisizione di Ati da parte di Amd potrebbe avere un significato di questo tipo, ripeto, nel lungo periodo...

Provo a spegarmi...
I circuiti integrati vengono realizzati su un wafer di silicio.
I transistor e le interconnessioni metalliche che costituiscono il chipset sono realizzate su vari strati costruiti uno sopra all’altro.
Ogni strato viene realizzato mediante una maschera che permette di definire la disposizione dei componenti o le connessioni metalliche.

Ora, nell'approccio full-custom chi progetta il chipset si occupa per l'appunto di personalizzare per il proprio prodotto tutte le maschere (da qui il termine full-custom). In pratica si progetta e si decide la disposizione anche del singolo transitor.
Il vantaggi principali sono ottimizzazzione delle prestazioni, otiimizzazzione dell'area occupata, ottimizzazzione dei consumi e un utilizzo completo delle risorse (il progettista utilizza solo i componenti di cui ha bisogno, cosa che non avviene nell'approccio semi-custom)

Nell'approccio semi-custom la personalizzazzione avviene solo per le maschere di più alto livello. In pratica esistono delle librerie di componenti, chiamate "celle" già pre-progettate dalla fonderia che poi si occuperà della produzione. Per esempio esitono celle che svolgono specifiche funzioni logiche (per esempio AND OR NOT e così via...). Queste celle non possono essere ulteriormente riprogettate ed la fonderia stessa che deve preoccuparsi di aggiornare la propria libreria con le ultime tecnologie produttive.
Sostanzialmente chi progetta un circuito integrato sceglie le celle di cui ha bisogno, le dispone e progetta le varie interconnessioni.
I vantaggi principali sono una sensibile riduzione del tempo di sviluppo ma il circuito non risulta ottimizzato a causa dell’uso di componenti prefabbricati (maggior occupazione d'area, maggiori consumi e minori prestazioni)

peddu84
11-12-2006, 22:21
Esistono vari approcci semi-cutom, alcuni che consentono un aprroccio ibrido tra le soluzioni di progetto descritte prima (cioè esiste la possibilità di utilizzare celle pre-progettate insieme a alcune macro-celle progettate in maniera full-custom, che devono compiere operazioni particolarmete complesse e per questo devono garantire le miglori prestazioni possibili).

Comunque in pratica i costi di sviluppo e il cosidetto "time to market" dell'approccio full-custom sono così elevati che sono giustificati solo in caso di una produzione su vasta scala.
Per questo motivo l'approccio full-custom è tipico della progettazione dei moderni microprocessori di AMd e Intel per esempio.
Mentre per le schede video a quanto ne sò si preferisce adottare un approccio semi-custom, ottenendo una soluzione sub-ottima.

appleroof
11-12-2006, 22:30
Ottima spiegazione ;) evidentemente pensavamo a due cose completamente diverse... :)

Neo_
11-12-2006, 22:40
è bello vedere che teste che alzano il livello medio del forum ce ne sono ancora,non ho letto tutto il 3d ma le ultime pagine danno spettacolo :)

Simon82
12-12-2006, 08:17
Provo a spegarmi...
I circuiti integrati vengono realizzati su un wafer di silicio.
I transistor e le interconnessioni metalliche che costituiscono il chipset sono realizzate su vari strati costruiti uno sopra all’altro.
Ogni strato viene realizzato mediante una maschera che permette di definire la disposizione dei componenti o le connessioni metalliche.

Ora, nell'approccio full-custom chi progetta il chipset si occupa per l'appunto di personalizzare per il proprio prodotto tutte le maschere (da qui il termine full-custom). In pratica si progetta e si decide la disposizione anche del singolo transitor.
Il vantaggi principali sono ottimizzazzione delle prestazioni, otiimizzazzione dell'area occupata, ottimizzazzione dei consumi e un utilizzo completo delle risorse (il progettista utilizza solo i componenti di cui ha bisogno, cosa che non avviene nell'approccio semi-custom)

Nell'approccio semi-custom la personalizzazzione avviene solo per le maschere di più alto livello. In pratica esistono delle librerie di componenti, chiamate "celle" già pre-progettate dalla fonderia che poi si occuperà della produzione. Per esempio esitono celle che svolgono specifiche funzioni logiche (per esempio AND OR NOT e così via...). Queste celle non possono essere ulteriormente riprogettate ed la fonderia stessa che deve preoccuparsi di aggiornare la propria libreria con le ultime tecnologie produttive.
Sostanzialmente chi progetta un circuito integrato sceglie le celle di cui ha bisogno, le dispone e progetta le varie interconnessioni.
I vantaggi principali sono una sensibile riduzione del tempo di sviluppo ma il circuito non risulta ottimizzato a causa dell’uso di componenti prefabbricati (maggior occupazione d'area, maggiori consumi e minori prestazioni)


;)


Semi-custom arrays consist of ready-made devices: transistors; fixed value resistors; and usually a few capacitors and diodes. Functionality is defined using one or more metal interconnect layers. Silicon foundries usually keep a stock of the arrays they support in the form of "mirrors" (i.e. wafers completed up to first metallization, and held prior to patterning of the first interconnect layer). The only processing steps involve interconnect and passivation layers - just two layers for single level metal interconnect. The main advantages of the semi-custom solution is lower engineering costs, faster turnaround of both the prototyping and production phases, and relative ease and low cost of implementing revisions. The main disadvantages are a die size which is usually between 20% and 100% larger than could be achieved using a full-custom layout approach, and the inability to change device geometries to achieve optimal circuit performance. Semi-custom may be the only viable option if production quantities do not meet foundry requirements for accepting a full custom production commitment. Examples of both approaches are shown below:

http://www.atd-ic.com/semic-a.gif
Small Section of a Semi-custom Base Array Without Interconnect

http://www.atd-ic.com/semic-b.gif
Section of Semi-custom Array with Single Level Metal Interconnect

http://www.atd-ic.com/fullc.gif
Small Section of a Typical Full Custom Layout

peddu84
12-12-2006, 09:54
;)




Grazie, un pò di immagini ci volevano. ;)

http://img208.imageshack.us/img208/962/fulltl4.th.jpg (http://img208.imageshack.us/my.php?image=fulltl4.jpg)
Esempio di wafer di silicio composto da circuiti integrati full-custom

http://img72.imageshack.us/img72/2263/senzainterconnessioniug5.th.jpg (http://img72.imageshack.us/my.php?image=senzainterconnessioniug5.jpg)
Esempio di componente prefabbricato (Gate-Array Semi-custom)

http://img72.imageshack.us/img72/3089/coninterconnessionibo9.th.jpg (http://img72.imageshack.us/my.php?image=coninterconnessionibo9.jpg)
Ed infine l ' IC Semi-custom finito realizzando le interconnessioni fra le varie celle (da notare l'enorme spreco di occupazione d'area e lo sfruttamento incompleto delle risorse)

Simon82
12-12-2006, 10:44
Grazie, un pò di immagini ci volevano. ;)

http://img208.imageshack.us/img208/962/fulltl4.th.jpg (http://img208.imageshack.us/my.php?image=fulltl4.jpg)
Esempio di wafer di silicio composto da circuiti integrati full-custom

http://img72.imageshack.us/img72/2263/senzainterconnessioniug5.th.jpg (http://img72.imageshack.us/my.php?image=senzainterconnessioniug5.jpg)
Esempio di componente prefabbricato (Gate-Array Semi-custom)

http://img72.imageshack.us/img72/3089/coninterconnessionibo9.th.jpg (http://img72.imageshack.us/my.php?image=coninterconnessionibo9.jpg)
Ed infine l ' IC Semi-custom finito realizzando le interconnessioni fra le varie celle (da notare l'enorme spreco di occupazione d'area e lo sfruttamento incompleto delle risorse)
Credo che visto l'andamento della complessita' raggiunta non solo dai processori ma soprattutto dalle attuali GPU, una archittettura full custom potrebbe essere preferibile in base ai costi per sfruttare completamente l'area disponibile nel futuro prossimo. C'e' da capire quanto l'evoluzione degli array semi custom possa andare di pari passo con le richieste dei produttori di chipset. Con salti mostruosi quali il passo a G80 (per num. di transistor) e probabilmente R600 sarei curioso di sapere quali scelte sono state fatte in questo ambito.

Skullcrusher
12-12-2006, 12:51
è bello vedere che teste che alzano il livello medio del forum ce ne sono ancora,non ho letto tutto il 3d ma le ultime pagine danno spettacolo :)

Quoto, mancavano da tempo discussioni così tecniche :D

Athlon 64 3000+
12-12-2006, 13:24
http://www.tomshw.it/news.php?newsid=8547

james_het
12-12-2006, 13:25
wow questo ti fa capire quanto avvilente per un costruttore/programmatore ATI o nVidia possa essere tipo:

Che me**a o che schifo sta scheda nn sale nemmeno di 40 mhz, oppure preferisco la XXX perchè fa 300 punti in + al 3dmarkXX......

:read:


complimenti per il 3d

fede27
12-12-2006, 13:56
http://www.tomshw.it/news.php?newsid=8547

80A???? e da dove cavolo li prende??

yossarian
12-12-2006, 14:00
all'aumentare della complessità dei circuiti, l'eventualità di un approccio full custom è sempre più remota. La scelta più frequente è quella di far ricorso ad un approccio semi custom di tipo cell based, con l'utilizzo di macrocelle progettate full custom

Simon82
12-12-2006, 14:20
all'aumentare della complessità dei circuiti, l'eventualità di un approccio full custom è sempre più remota. La scelta più frequente è quella di far ricorso ad un approccio semi custom di tipo cell based, con l'utilizzo di macrocelle progettate full custom
Non ritieni pero' che all'aumentare della complessita' le soluzioni disponibili semi custom possano "non bastare" rispetto a cio' che sarebbe possibile progettare ottimizzando gia' a cosi' basso livello sia lo spazio che tutta l'intera architettura?
Secondo te con le nuove architetture unificate la complessita' aumenta davvero o per certi versi si semplifica al punto da ritenere quindi piu' opportuna la logica semi custom? :)

Defragg
12-12-2006, 15:26
è bello vedere che teste che alzano il livello medio del forum ce ne sono ancora,non ho letto tutto il 3d ma le ultime pagine danno spettacolo :)
ce l'ho duro!!! :D :D :D :asd:
bravi ragazzi!

Luke80
12-12-2006, 15:27
80A???? e da dove cavolo li prende??


80A a 1,2v (tensione del core)... ;)

a 12v saranno circa 10A

Simon82
12-12-2006, 15:28
http://www.hexus.net/content/item.php?item=7436

;)

zorco
12-12-2006, 16:05
80A???? e da dove cavolo li prende??
dal :ciapet:

fede27
12-12-2006, 16:10
dal :ciapet:

ah ecco! mi pareva a me :D

Dexther
12-12-2006, 16:25
:asd:

Neo_
12-12-2006, 16:36
Al massimo compo la batteria di un Ducato... :sofico:

DVD2005
12-12-2006, 16:36
dal :ciapet:

ho provato ma non ci arrivo a 80A :sofico:

con questi ultimi post abbiamo riabassato il livello del 3D :asd:

Defragg
12-12-2006, 16:41
ho provato ma non ci arrivo a 80A :sofico:

con questi ultimi post abbiamo riabassato il livello del 3D :asd:
ci voleva :asd:

bell'avatar :D

Neo_
12-12-2006, 16:42
Gli shader integrati saranno 64 contro i 128 di nVidia ma attenzione perchè gli shader Ati saranno i nuovi 4-Ways SIMD che sono diversi dai vecchi shader usati sulle G80. Infatti ognuna di queste unità è in grado di calcolare in contemporanea il risultato di 4 unità scalari rendendo una capacità di calcolo effettiva pari a quella di 256 shader del tipo usato da nVidia.

La memoria integrata sarà compresa fra i 1024 ed i 2048 mb di GDDR4 ( è prevista anche una versione GDDR3 cmq) ed ogni modulo integrerà una connessione privilegiata con il chipset in grado di generare una banda passante totale di 140 Gb al secondo(il doppio di g80 ricordo bene? :confused: )

Defragg
12-12-2006, 16:47
Gli shader integrati saranno 64 contro i 128 di nVidia ma attenzione perchè gli shader Ati saranno i nuovi 4-Ways SIMD che sono diversi dai vecchi shader usati sulle G80. Infatti ognuna di queste unità è in grado di calcolare in contemporanea il risultato di 4 unità scalari rendendo una capacità di calcolo effettiva pari a quella di 256 shader del tipo usato da nVidia.

La memoria integrata sarà compresa fra i 1024 ed i 2048 mb di GDDR4 ( è prevista anche una versione GDDR3 cmq) ed ogni modulo integrerà una connessione privilegiata con il chipset in grado di generare una banda passante totale di 140 Gb al secondo(il doppio di g80 ricordo bene? :confused: )
speriamo :rolleyes:

DVD2005
12-12-2006, 16:49
bell'avatar :D

grazie ;)

Neo_
12-12-2006, 16:57
l'avevate notato questo? :mbe:

http://img206.imageshack.us/img206/3720/a1622frb7.jpg

DVD2005
12-12-2006, 17:00
l'avevate notato questo? :mbe:
CUT



non lo avevo notato, sembra quello dei processori :mbe:

Neo_
12-12-2006, 17:02
non lo avevo notato, sembra quello dei processori :mbe:

appunto... :mbe:

yossarian
12-12-2006, 18:11
Non ritieni pero' che all'aumentare della complessita' le soluzioni disponibili semi custom possano "non bastare" rispetto a cio' che sarebbe possibile progettare ottimizzando gia' a cosi' basso livello sia lo spazio che tutta l'intera architettura?
Secondo te con le nuove architetture unificate la complessita' aumenta davvero o per certi versi si semplifica al punto da ritenere quindi piu' opportuna la logica semi custom? :)

dal punto di vista dell'efficienza sicuramente è così; il problema è che le soluzioni custom aono molto più "costose" e all'aumentare della complessità dei circuiti si allarga il divario (a livello di convenienza) tra custom e semi custom. L'utilizzo di soluzioni con macrocelle custom è una via di mezzo che permette l'ottimizzazione dei circuiti a maggior criticità e, nello stesso tempo, permette di contenere i costi (quelle che peddu ha definito correttamente soluzioni ibride).
Quando si ha a che fare con dispositivi di tipo commerciale, purtroppo si deve sempre mediare tra ricerca tecnologica e convenienza economica (e quando si è costretti a scegliere, spesso si sceglie la seconda :D )

Simon82
12-12-2006, 18:21
dal punto di vista dell'efficienza sicuramente è così; il problema è che le soluzioni custom aono molto più "costose" e all'aumentare della complessità dei circuiti si allarga il divario (a livello di convenienza) tra custom e semi custom. L'utilizzo di soluzioni con macrocelle custom è una via di mezzo che permette l'ottimizzazione dei circuiti a maggior criticità e, nello stesso tempo, permette di contenere i costi (quelle che peddu ha definito correttamente soluzioni ibride).
Quando si ha a che fare con dispositivi di tipo commerciale, purtroppo si deve sempre mediare tra ricerca tecnologica e convenienza economica (e quando si è costretti a scegliere, spesso si sceglie la seconda :D )
Giustissimo. ;)

Sarebbe curioso sapere se ci sono state soluzioni full custom nelle varie ere generazionali delle GPU e quali invece hanno adottato la logica ibrida/semicustom.

Defragg
12-12-2006, 19:30
Giustissimo. ;)

Sarebbe curioso sapere se ci sono state soluzioni full custom nelle varie ere generazionali delle GPU e quali invece hanno adottato la logica ibrida/semicustom.
diciamo che una soluzione 50% puro custom e 50% semi custom sarebbe l'ideale...per ora
o sbaglio? :stordita:

MaBru
12-12-2006, 19:41
La memoria integrata sarà compresa fra i 1024 ed i 2048 mb di GDDR4
Peccato che Samsung arrivi solo fino a 512 mb

http://www.samsung.com/Products/Semiconductor/ConsumerDRAM/index.htm

Skullcrusher
12-12-2006, 19:54
non lo avevo notato, sembra quello dei processori :mbe:

Proprio vero :mbe:

Catan
12-12-2006, 20:40
quella freccietina indica soloil verso di montaggio sul pcb ora fantasticare sulle prestazioni e specifiche si ma non scadiamo nella fantascienza.
credete che i primi sample di chip escano gia saldati sul pcb?
spero che non siate cosi ingenui...ù
i primi chip escono solo chip a piedini non saldati sui pcb in modo da poter provare il chip su + pcb per trovare la migliore collocazione di alcuni componenti ;)

Simon82
12-12-2006, 20:41
diciamo che una soluzione 50% puro custom e 50% semi custom sarebbe l'ideale...per ora
o sbaglio? :stordita:
Credo che il mercato offra diverse soluzioni semi custom con possibili diverse implementazioni di architetture full custom ma differenziarle in percentuale credo sia poco indicativo a seconda di ogni diverso chipset. ;)

Foglia Morta
12-12-2006, 20:42
http://www.hexus.net/content/item.php?item=7437

Willy boy's trawl of the back-street markets of Taipei has given us some background to the delays suffered by the R600 DirectX 10 graphics processor - All the might of the AMD/ATi combine can't deliver R600 on time - and he continues to spill the Beanz...

ATi has attempted to create good working versions of the R600 a number of times but, for various reasons, has needed to re-spin the GPU. The company is now up to spin A13.

However, that does not mean it had to do a dozen re-spins!

One of the two numerals indicates the version of the silicon spin; the other the version of the metal spin. Think of it this way - when the spin revision is designated Axy, then x is for silicon, and y is for metal.

It’s rare - close to unheard of - to get everything right first time, so re-spins are an expected and planned-for part of the design-proofing process. But, the fewer a maker can get away with the better, especially since each costs in the region of one million US dollars!

That, of course, is small beer when the building of a fabrication plant can cost many billions of dollars but every penny saved helps the bottom line.

Far more important, though, the fewer re-spins there are, the earlier mass production can start - and the sooner the GPU can come to market and money can start flowing in towards the maker's piggy-bank.

The reasons why a re-spin might be need can be highly technically convoluted. They can also be ultra simple. Humans, remember, are involved in the production decisions.

With A11, as we understand it, the issue was very, very simple. Someone forgot to connect the pins that let the GPU communicate with the outside world.

D'oh!

Bang goes your Christmas bonus, sunshine!

We don't know the state of play with the A13 spin but do understand that ATi has got A12 running at a speed of 1GHz.

That's around half the target speed of the production version, which is now set to arrive some time in "early" 2007 and not before Christmas as originally promised. That gives NVIDIA's faster-than-a-ferret-on-pheromones, DirectX 10 GPU - the G80 - a quarter's head-start or more.
se è vero qualcuno deve cambiare professione :D

Simon82
12-12-2006, 20:45
quella freccietina indica soloil verso di montaggio sul pcb ora fantasticare sulle prestazioni e specifiche si ma non scadiamo nella fantascienza.
credete che i primi sample di chip escano gia saldati sul pcb?
spero che non siate cosi ingenui...ù
i primi chip escono solo chip a piedini non saldati sui pcb in modo da poter provare il chip su + pcb per trovare la migliore collocazione di alcuni componenti ;)
Tutti i chip escono senza i piedini saldati e ovviamente anche se fossero saldati solo su un unico pcb per chip, il giusto verso di connessione non significa nulla; potrebbe benissimo essere che sul layout originale sia indicato il verso esatto in cui il chip deve essere comunque saldato (ovviamente non penso che l'errore sia possibile, ma nulla e' escluso).
Poi non mi stupirei che ci fosse davvero qualcosa di intercambiabile prima o poi per il cliente finale anche se come tutti sappiamo per una vga tutto questo e' ben diverso e i componenti sono talmente customizzati per ogni soluzione che una intercambiabilita' non e' certo di semplice implementazione e utilita'.

Simon82
12-12-2006, 20:48
http://www.hexus.net/content/item.php?item=7437


se è vero qualcuno deve cambiare professione :D
Non ci credo onestamente. :D

Foglia Morta
12-12-2006, 20:48
The deepest lung in the far east - well, our Willy D is of this parish but out east now with the HEXUS Dragon Tour 2006 - sends an electrionic emaily message from Taipei (they're all the rage, apparently) telling us the little birds have been twittering about the performance of ATi's much-delayed R600 graphic processor.

Seemingly, ATi has been aiming to achieve 11,000 3DMark scores at 750MHz. That's tasty and may mean the R600 offers a strong challenge to NVIDIA's G80 GPU given that, as we reported in HEXUS.Beanz a few hours ago, ATi's already got samples running at 1GHz and has higher targets in mind.

Currently, though, ATi has nothing approaching a challenger to the G80 and no silver bullets to immediately load to combat the Vista-readiness of NVIDIA's DirectX-10-compatible part.

So, for now, ATi's manufacturing partners - the AIBs who build its designs into final graphics cards - are left twiddling their thumbs (well, those that are ATi-only houses, anyway).

They're playing "wait and see" and aren't willing or able to chase hard for the high-end since there is no certainty in anyone's mind that ATi is onto a winner.

That might not seem so important when the volume and the sales war will be at the low-end and upwards to the mid-range - it's there, not in the rarefied atmosphere of the powerful and pricey, where the big money gets generated.

Trouble is, provably having the latest and greatest technology at any moment in time earns a maker Brownie points with its partners, distributors and resellers and also generates a positive impression with PC enthusiasts that carries over into boosted sales lower down the feeding chain.

Right now, all the positives are with NVIDIA. Things are going to stay that way until ATi gets round to delivering close-to-finished product into the hands of reviewers. And that's presuming that what ATi delivers does top out NVIDIA offerings.

But, between now and whenever ATi does get its act together, NVIDIA is going to be working away furiously to enhance its current performance leadership - hoping to take away some of whatever wind ATi has in its sails when R600 does finally hit the test benches.

With the G80, NVIDIA is majoring on texture units. The G80 pre-calculates loads of answers and stores them in a texture unit. This will be the best way for NVIDIA to overcome the G80's lack of maths power compared to R600 and we await with more than a little interest how well it can achieve that aim.

Oh, it's so very spicy down the back streets of Taipei!
http://www.hexus.net/content/item.php?item=7439

Defragg
12-12-2006, 20:49
Credo che il mercato offra diverse soluzioni semi custom con possibili diverse implementazioni di architetture full custom ma differenziarle in percentuale credo sia poco indicativo a seconda di ogni diverso chipset. ;)
capisco :)

Foglia Morta
12-12-2006, 20:49
Non ci credo onestamente. :D
Io non voglio crederci, meriterebbe frustate nella schiena uno così :D

Defragg
12-12-2006, 20:50
Io non voglio crederci, meriterebbe frustate nella schiena uno così :D
traduzione per i poveri pigri? :D :D :D

Foglia Morta
12-12-2006, 20:53
traduzione per i poveri pigri? :D :D :D
stando all'articolo nella revisione A11 si sarebbero dimenticati i collegamenti input output... ;)

yossarian
12-12-2006, 20:54
Gli shader integrati saranno 64 contro i 128 di nVidia ma attenzione perchè gli shader Ati saranno i nuovi 4-Ways SIMD che sono diversi dai vecchi shader usati sulle G80. Infatti ognuna di queste unità è in grado di calcolare in contemporanea il risultato di 4 unità scalari rendendo una capacità di calcolo effettiva pari a quella di 256 shader del tipo usato da nVidia.



questa cosa dei vecchi e nuovi shader fa un po' sorridere. G80 ha 128 unità scalari, R600, stando a quelle specifiche, 256 unità scalari organizzate in gruppi di 4. La differenza principale sta nell'organizzazione logica del chip (che su R600 dovrebbe avere più livelli rispetto a G80). Ciascuno dei due modelli ha le sue peculiarità e, come è ovvio, i suoi pro e contro.
Questo deto in maniera molto semplicistica, poichè anche in G80 l'organizzazione non è di tipo perfettamente superscalare ma ha una logica a più livelli

Defragg
12-12-2006, 20:56
stando all'articolo nella revisione A11 si sarebbero dimenticati i collegamenti input output... ;)
:asd:

grazie caro

MaBru
12-12-2006, 21:03
Nell'ultimo quote su Hexus c'è scritto che Ati avrebbe dei campioni di R600 che girano a 1 ghz e che punterebbe a clock ancora maggiori.

Qua si va nella fantascienza.

Alberello69
12-12-2006, 21:20
Nell'ultimo quote su Hexus c'è scritto che Ati avrebbe dei campioni di R600 che girano a 1 ghz e che punterebbe a clock ancora maggiori.

Qua si va nella fantascienza.
Perché dici questo, puoi giustificarlo tecnicamente?

fede27
12-12-2006, 21:23
Perché dici questo, puoi giustificarlo tecnicamente?

beh dai, in effetti..1GHz... forse a 45nm ma a 80 mi suona difficile

Catan
12-12-2006, 21:26
Tutti i chip escono senza i piedini saldati e ovviamente anche se fossero saldati solo su un unico pcb per chip, il giusto verso di connessione non significa nulla; potrebbe benissimo essere che sul layout originale sia indicato il verso esatto in cui il chip deve essere comunque saldato (ovviamente non penso che l'errore sia possibile, ma nulla e' escluso).
Poi non mi stupirei che ci fosse davvero qualcosa di intercambiabile prima o poi per il cliente finale anche se come tutti sappiamo per una vga tutto questo e' ben diverso e i componenti sono talmente customizzati per ogni soluzione che una intercambiabilita' non e' certo di semplice implementazione e utilita'.

ci stavano alcune foto di anni fa in cui l'erede della 3dfx 5500 era fatto a piedini come un processore e si metteva su un pcb con connessione a socket ora non so se perchè era un prototipo o era davvero intercambiabile.
cmq come detto la freccia protrebbe indicare il verso di montaggio dei chip sample che vanno poi saldati su pcb differenti per vedere le migliori ingegnerizzazioni di pcb

Catan
12-12-2006, 21:29
stando all'articolo nella revisione A11 si sarebbero dimenticati i collegamenti input output... ;)


cosa possibile quando provi centinaia di samples^^ puo capitare l'importante è che lo abbiano trovato

Catan
12-12-2006, 21:31
beh dai, in effetti..1GHz... forse a 45nm ma a 80 mi suona difficile

allora di r600 si sà che avrà clock statosferici o cmq superiori a 650mhz di r580 è appurato.
in un aticolo si diceva 800mhz v-core 1.2v
secondo me 800mhz anche se a 80nm con 1.2 non è possibile andarci però mai dire mai se cosi è vero cioè un chip che presumibilmente esce di fabbrica certificato a 800mhz 1.2 vuol dire che a 1.2 fa almeno 850mhz.
ergo se lo prendi e lo mandi 1.4 sicuramente 1000-1100mhz li fà.
poi ati puo anche avere sample funzionanti a 1000mhz ma se poi non riesci a dissipare adeguatamente la cosa è inutile metterli sul mercato

Neo_
12-12-2006, 21:41
ci stavano alcune foto di anni fa in cui l'erede della 3dfx 5500 era fatto a piedini come un processore e si metteva su un pcb con connessione a socket ora non so se perchè era un prototipo o era davvero intercambiabile.
cmq come detto la freccia protrebbe indicare il verso di montaggio dei chip sample che vanno poi saldati su pcb differenti per vedere le migliori ingegnerizzazioni di pcb

L'idea del socket mi aveva sfiorato per quanto concerne le prove di pcb,ma avevo anche sentito puzza di fake con quella freccina... :p

Simon82
12-12-2006, 22:01
ci stavano alcune foto di anni fa in cui l'erede della 3dfx 5500 era fatto a piedini come un processore e si metteva su un pcb con connessione a socket ora non so se perchè era un prototipo o era davvero intercambiabile.
cmq come detto la freccia protrebbe indicare il verso di montaggio dei chip sample che vanno poi saldati su pcb differenti per vedere le migliori ingegnerizzazioni di pcb
http://www.3dfx.cz/rampage/rampage_socket.jpg

http://www.3dfx.cz/rampage/ramp_t1.jpg

;)

fede27
12-12-2006, 22:33
;)

..casa tua simon? :D

Simon82
13-12-2006, 08:14
..casa tua simon? :D
Eh eh, no no.. magari. Quelli erano i laboratori di 3dfx ai tempi dei test dei primi prototipi di Rampage. Ci sono solo poche manciate di schede complete (e comunque sempre a livello prototipi e senza supporto alcuno) che montano questa gpu in versione low end e il layout e' quello della foto sopra. ;)

Catan
13-12-2006, 10:05
Eh eh, no no.. magari. Quelli erano i laboratori di 3dfx ai tempi dei test dei primi prototipi di Rampage. Ci sono solo poche manciate di schede complete (e comunque sempre a livello prototipi e senza supporto alcuno) che montano questa gpu in versione low end e il layout e' quello della foto sopra. ;)

ultima chicca uno dei 3 rampage funzionante si trova in italia e fa girare ottimamente i giochi in opengl^^ purtroppo per le dx non c'è stato verso di farle andare

Hal2001
14-12-2006, 08:42
ultima chicca uno dei 3 rampage funzionante si trova in italia e fa girare ottimamente i giochi in opengl^^ purtroppo per le dx non c'è stato verso di farle andare

Si lo ha acquistato Paolo Chiocchio poco meno di tre anni fa.

Simon82
14-12-2006, 09:16
ultima chicca uno dei 3 rampage funzionante si trova in italia e fa girare ottimamente i giochi in opengl^^ purtroppo per le dx non c'è stato verso di farle andare
Gia', ho parlato moltissimo ai tempi con Paolo circa questa low version del Rampage, ma come gia' detto e' un prototipo, bello da vedere e da avere ma praticamente inutilizzabile se non nel 2D (a parte un 3D di dubbio supporto con drivers di dubbia provenienza e stabilita').
Un gingillo costato una mostruosita' a quanto sapevo e che attualmente non dovrebbe avere piu' se non ricordo male. ;)

fukka75
14-12-2006, 09:41
http://www.3dfx.cz/rampage/ramp_t1.jpg

;)
Che bei ricordi, la videocassetta Pentium3 :asd: :asd:

Foglia Morta
14-12-2006, 10:27
http://www.hexus.net/content/item.php?item=7455
Find out what AMD's upcoming ATI GPUs are codenamed. There are some weird'uns.

So we've told you a lot about the upcoming R600 GPU, but what are its product codenames?

Ear to the ground, we've got some R600 codenames for you, then. Oh, and how about a bit of R700 too?

OK then. The R600 XTX part is known to some as "Dragon's Head", while the XT part is "Cat's Eye". Nice. Any guesses for the XL part? "UFO", you say? Correct!

Drumroll please for R700... Wekiva. The egg heads among you will note that Wekiva is a lake in the USA. Picturesque.

And finally, a bit more availability info for you. While "Dragon's Head" and "Cat's Eye" will be available at R600 launch, we'll be waiting for an extra thirty days before "UFO" comes flying in.

Dexther
14-12-2006, 10:34
azz che brutti nomi , non era meglio un insieme di numeri e lettere :stordita: ?

belin
14-12-2006, 13:09
The R600 XTX part is known to some as "Dragon's Head", while the XT part is "Cat's Eye"

...secondo me è un nome fantastico!!!

:) :) :)

belin
14-12-2006, 13:15
ATi has looked at water-cooling and traditional air cooling. But, the speed of the processor and its resultant heat output have meant that ATi also had to consider more complex hi-tech solutions.

So, the company turned to NanoFoil cooling technology.

R600 @ Hexus (http://www.hexus.net/content/item.php?item=7436)


...ciao! :)

gianlu75xp
14-12-2006, 13:16
The R600 XTX part is known to some as "Dragon's Head", while the XT part is "Cat's Eye"

...secondo me è un nome fantastico!!!

:) :) :)

:eek:

Kharonte85
14-12-2006, 13:54
The R600 XTX part is known to some as "Dragon's Head", while the XT part is "Cat's Eye"

...secondo me è un nome fantastico!!!

:what: Insomma...mi sembra una cosa alla http://www.grudge-match.com/Images/mmpr.jpg:asd:


Cmq chissenefrega del nome! :D

appleroof
14-12-2006, 16:01
:what: Insomma...mi sembra una cosa alla http://www.grudge-match.com/Images/mmpr.jpg:asd:


Cmq chissenefrega del nome! :D


:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:

Window Vista
14-12-2006, 16:28
:what: Insomma...mi sembra una cosa alla http://www.grudge-match.com/Images/mmpr.jpg:asd:


Cmq chissenefrega del nome! :D
:asd: :asd: :asd: :asd: :asd: :asd: :asd: :asd: :asd: :asd: :asd: :asd:

DVD2005
14-12-2006, 16:34
:what: Insomma...mi sembra una cosa alla http://www.grudge-match.com/Images/mmpr.jpg:asd:


Cmq chissenefrega del nome! :D


:sbonk: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk:


e comunque :cool: :cool: :cool: :cool:

Window Vista
14-12-2006, 16:37
:sbonk: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk: cut
e mò basta però!!!! :asd: :asd: :asd: :asd: :asd: :asd: :asd: :asd: :asd:

:)

Kharonte85
14-12-2006, 16:57
e mò basta però!!!! :asd: :asd: :asd: :asd: :asd: :asd: :asd: :asd: :asd:

:)
Scusate Moderatori :ave:....non resisto :D :

http://www.youtube.com/watch?v=8E9bviSaM3I
e http://www.youtube.com/watch?v=o7IfItlfQQw&mode=related&search=

Non credevo che i power rangers avessero cosi' successo... :ops2:

Fine OT

Defragg
14-12-2006, 17:43
Scusate Moderatori :ave:....non resisto :D :

http://www.youtube.com/watch?v=8E9bviSaM3I
e http://www.youtube.com/watch?v=o7IfItlfQQw&mode=related&search=

Non credevo che i power rangers avessero cosi' successo... :ops2:

Fine OT
:asd: :rotfl:

ma queste cose le cerchi apposta? :D

wiltord
14-12-2006, 17:49
basta ora dai ;)

Defragg
14-12-2006, 17:53
basta ora dai ;)
questa la devo dire
e mobbasta veramente però!

tornando it...secondo me R600 avra di clock sui 650...i 700 per i cloccati...dubito che arriveranno a quelle frequenze già di default....anche se gli 80nm promettono bene :stordita:

Window Vista
14-12-2006, 18:01
questa la devo dire
e mobbasta veramente però!

tornando it...secondo me R600 avra di clock sui 650...i 700 per i cloccati...dubito che arriveranno a quelle frequenze già di default....anche se gli 80nm promettono bene :stordita:
tra 700 e 800 mhz, però io starei + sui 750 cmq chi vivrà vedrà!!!

:)

Dylan BJ
14-12-2006, 18:42
:what: Insomma...mi sembra una cosa alla http://www.grudge-match.com/Images/mmpr.jpg:asd:


Cmq chissenefrega del nome! :D
:p :p :p :D :D :D :Prrr: :Prrr: :Prrr:

nico88desmo
14-12-2006, 21:32
tra 700 e 800 mhz, però io starei + sui 750 cmq chi vivrà vedrà!!!

:)

Secondo me non supererà nemmeno i 700Mhz..

DVD2005
14-12-2006, 22:06
dall'articolo in home sembra che il marchio Ati nelle GPU sopravviva:

http://www.hwupgrade.it/articoli/cpu/1621/amd-analyst-day-cpu-e-piattaforme-del-futuro_index.html

Catan
14-12-2006, 22:32
dall'articolo in home sembra che il marchio Ati nelle GPU sopravviva:

http://www.hwupgrade.it/articoli/cpu/1621/amd-analyst-day-cpu-e-piattaforme-del-futuro_index.html

cosa che gia si sapeva da quel di
amd lo ha sempre detto la divisioen chipset sarebbe passata sotto diretto controllo di amd mentre la divisione schede grafiche sarebbe rimasto ad ati che avrebbe lavorato come team indipendente ma cmq il lato fiscale comune.
il mome sarebbe rimasto cmq ati e il nome delle schede lo avrebbe conglobato cioè la scheda non si chiama + solo radeon ma atiradeon.

belin
14-12-2006, 23:35
dall'articolo in home sembra che il marchio Ati nelle GPU sopravviva:

http://www.hwupgrade.it/articoli/cpu/1621/amd-analyst-day-cpu-e-piattaforme-del-futuro_index.html
http://www.techpowerup.com/img/06-12-04/ati-newlogo.png


(nuovo probabile logo AMD ATI Radeon)

...ve lo dissi...

:O

:D

Foglia Morta
15-12-2006, 09:02
http://www.beyond3d.com/images/news/AMDAD9.jpg
Riguardo il rumour che voleva R600 DX10.1: se lo fosse stato l'avrebbero scritto... Le DX10.1 penso usciranno a fine 2007.

Dave Orton promises R600 to take no prisoners and feature "new levels" of bandwidth
Speaking at yesterday's AMD Financial Analysts Day, Executive Vice President of Visual and Media Businesses, Dave Orton, appeared to throw down the performance gauntlet in favor of AMD's upcoming R600 GPU. Having had over a month to study NVIDIA's G80, Orton did not seem the least bit intimidated. In a slide entitled "R600: Why we lead in graphics", Orton promised that even if the name of the company had changed, that the commitment to GPU performance leadership had not. He promised a "take no prisoners" approach to performance leadership for AMD's new GPU.

More interestingly, in his verbal remarks Orton reported (at roughly the 1:22:30 mark of the webcast) that one of R600's key advantages would be "new levels of memory bandwidth to the graphics subsystem, and bandwidth is critical to graphics performance." As all graphics geeks know, AMD pioneered the move to GDDR4 memory with the Radeon X1950 XTX, which gave them a temporary advantage in bandwidth. However, in the period since NVIDIA has released the 384-bit GeForce 8800 GTX, whose memory bandwidth crushes the X1950 XTX by 86.4GB/s to 64.0GB/s. It is impossible that AMD could regain a significant enough advantage in bandwidth to be cited by Orton as a major competitive advantage without following NVIDIA north of the 256-bit bus that has been a mainstay of the ATI/AMD high-end products since 2002's Radeon 9700 Pro.

As such, Beyond3D now believes that the persistent rumours that R600 will feature a 512-bit bus to graphics memory are most likely true, and at any rate believes that R600 must feature an external bus greater than 256-bit in order to back up the smack AMD's Executive Vice President laid down.

In other tidbits, Orton also vowed to be first to the 65nm technology process, but did not disclose which product he had in mind for the honor, nor even product type, GPU or chipset. Our graphics-oriented notes (and a few selected slides) on the rest of the conference are included inside, if you dare to take the red pill.
mi sa che i 65nm saranno usati nella fascia bassa. Se R600 dovesse avere GDDR4 e bus 512bit allora potrebbe anche avere 130gb di banda

Alexkidd85
15-12-2006, 09:49
Nessuna data prevista però...si potrebbero sbilanciare un pochino però :(

Hal2001
15-12-2006, 10:00
Fra un mese avrai la tua bella paper-launch! :D

Catan
15-12-2006, 10:02
Nessuna data prevista però...si potrebbero sbilanciare un pochino però :(

lo hanno annunciato per fine gennaio o sbaglio?
se cosi fosse me lo aspetterei per il 31 insieme al lancio di vista consumer oppure la settimana dopo.
immaginate che bel bundle r600+vista in un unico package^^

Alexkidd85
15-12-2006, 10:06
Ah beh...allora aspetto... :D

MaBru
15-12-2006, 13:34
Quindi confermato il bus a 512 bit.:)

Skullcrusher
15-12-2006, 13:49
Quindi confermato il bus a 512 bit.:)

Speriamo :sperem:

Alexkidd85
15-12-2006, 14:22
A quanto riportano...si...


Quindi implica!?il giga di memoria o i 12 strati o niente di questo!? :D

MaBru
15-12-2006, 14:35
A quanto riportano...si...


Quindi implica!?il giga di memoria o i 12 strati o niente di questo!? :D
Se fanno una versione con un giga sarà con GDDR3, in quanto Samsung non fa tagli da un giga per GDDR4.

halduemilauno
15-12-2006, 14:37
http://www.tomshw.it/news.php?newsid=8581
;)

Defragg
15-12-2006, 14:40
immaginate che bel bundle r600+vista in un unico package^^
lo dissi tempo addietro :O :D

Neo_
15-12-2006, 14:57
io ve l'avevo detto che il collo di bottiglia è il bus,i 256bit erano impensabili,la necessità aguzza l'ingegno i 512 sono stai una scelta "obbligata",e secondo me sarà anche una scelta obbligata quella delle GDDR4,se ATi vuole giocare sulle frequenze non può permettersi il lusso di fare una scelta limitante come quella delle GDDR 3 che sono al limite delle loro capacità,avrebbe poco senso.
A me G80 alla luce di tutto questo sembra un pessimo investimento...

wiltord
15-12-2006, 14:59
io più che dai consumi e dalle prestazioni sono preoccupato dalle dimensioni..

Kharonte85
15-12-2006, 15:00
A me G80 alla luce di tutto questo sembra un pessimo investimento...
Casomai all'ombra...non alla luce...sono ancora rumors...:D

Defragg
15-12-2006, 15:01
io più che dai consumi e dalle prestazioni sono preoccupato dalle dimensioni..
:sperem:

Neo_
15-12-2006, 15:06
Quindi sono giunto a una conclusione sconcertante:G80 sarebbe un ibrido :mbe:

Foglia Morta
15-12-2006, 15:06
A quanto riportano...si...


Quindi implica!?il giga di memoria o i 12 strati o niente di questo!? :D
Nella versione di X1900 che hanno fatto per il general purpose ( stream computing mi pare ) montano le memorie nel lato opposto a quello della gpu. Per fare un gb ce ne vogliono 16 di moduli , 8 per lato del pcb e possono risparmiare anche nella lunghezza del pcb ( la 8800gtx è lunga anche perchè ha 12 moduli nello stesso lato )

I moduli GDDR3 di Samsung sono sempre a 512Mbit come le GDDR4 quindi una o l'altra non sarà questione di capacità ma prezzo/prestazioni

http://www.samsung.com/products/semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm
http://www.samsung.com/products/semiconductor/GraphicsMemory/GDDR4SDRAM/512Mbit/K4U52324QE/K4U52324QE.htm

attualmente le GDDR3 arrivano a 900Mhz ( 1800 ) , le GDDR4 1.4Ghz ( 2.8 )

Window Vista
15-12-2006, 15:14
A San Valentino quest´anno potrete regalare alla vostra ragazza una nuova e fiammante scheda grafica! Oppure potrete regalarla a voi stessi, visto che AMD dovrebbe rilasciare i primi sample delle GPU ATI R600 proprio il 14 Febbraio 2007.

Questa data, ovviamente non ufficiale, non sarà però quella dell´avvio della produzione di massa che, invece, avverrà più tardi, presumibilmente prima del CeBIT che si terrà dal 15 al 21 Marzo 2007.

Se la data o comunque il periodo risultasse esatto, ATI si troverebbe con il suo nuovo prodotto di punta disponibile dopo circa tre mesi da quello della rivale NVIDIA che ha già annunciato le schede G80 ormai da qualche settimana. Questo significa che a Marzo 2007, il produttore americano con il logo del camaleonte, potrebbe avere già a disposizione una versione avanzata di G80 da contrappore all´R600 di ATI.

LINK:http://www.dinoxpc.com/News/news.asp?ID_News=11697&What=News

appleroof
15-12-2006, 15:15
A me G80 alla luce di tutto questo sembra un pessimo investimento...


perchè secondo te arrancherà con i giochi del prossimo anno?

credi che realisticamente R600 andrà il doppio della 8800gtx? Solo in questo caso mi azzarderei a dire che G80 (8800gtx) sia un pessimo investimento.

Simon82
15-12-2006, 15:38
io più che dai consumi e dalle prestazioni sono preoccupato dalle dimensioni..
Di sicuro c'e' stato un rallentamento nell'evoluzione dei processi produttivi. Imho quando si raggiungono certi livelli di consumi e grandezze del comparto alimentazione e raffreddamento significa solamente che il progresso di integrazione e potenza accelera piu' velocemente dei processi produttivi disponibili.

DjLode
15-12-2006, 15:38
perchè secondo te arrancherà con i giochi del prossimo anno?

credi che realisticamente R600 andrà il doppio della 8800gtx? Solo in questo caso mi azzarderei a dire che G80 (8800gtx) sia un pessimo investimento.

Perchè limitarsi al doppio quando magari va il triplo? A me fate morire perchè voi gpu nuova equivale al minimo prestazioni doppie... altrimenti è un flop :asd:
Ti faccio una domanda, se andasse circa uguale ma costasse la metà a te farebbe comunque schifo...

Hal2001
15-12-2006, 15:40
A me G80 alla luce di tutto questo sembra un pessimo investimento...

Lo dico dal primo momento, non era una scheda da acquistare, specialmente nella versione GTS che, imho, ha un pessimo rapporto prezzo/prestazioni.
Una scheda da un terzo del costo di un 8800GTX oggi è più che sufficiente, se unisci il fatto che gli unici che, con buon senso, avrebbero potuto acquistarla erano i possessori di pannelli enormi, e che il chip dedicato alla gestione di TDMS e HDCP, NVIO1, è fallato, il pacco è stato totale. Euro 700, e le DX10 arriveranno fra parecchio tempo.

Simon82
15-12-2006, 15:41
Perchè limitarsi al doppio quando magari va il triplo? A me fate morire perchè voi gpu nuova equivale al minimo prestazioni doppie... altrimenti è un flop :asd:
Ti faccio una domanda, se andasse circa uguale ma costasse la metà a te farebbe comunque schifo...
Soprattutto non contando la fatica che un'azienda (e quindi 2000 e passa persone) avranno impiegato per tirare fuori anche solo un prodotto che di poco risulta piu' performante e mantiene quei canoni a cui tutti siamo abituati (es. non e' lunga 80cm e richiede 10 slot per raffreddarsi).
A volte non ci si rende conto della complessita' di questi prodotti ed il fatto che nessun'altro concorrente esiste capace di osare ad avvicinarsi ne e' la piu' semplice prova.

Neo_
15-12-2006, 15:43
Non lo possiamo dire nè tu nè io se arrancherà perchè nessuno sa le potenzialità di G80 in quell'ambito,e non sappiamo r600 di cosa è capace,se la sua architettura sia più o meno efficiente.
Detto questo,sulla carta in base a quello che sappiamo ora non sarà una soluzione competitiva,ammettiamo pure che a 1280*1024 senza filtri le 2 soluzioni siano perfettamente allineate,appena saliamo di risoluzione e abilitiamo i filtri ce lo perdiamo per strada...
ovviamente pure ipotesi in uno scenario DX10.

Simon82
15-12-2006, 15:44
Lo dico dal primo momento, non era una scheda da acquistare, specialmente nella versione GTS che, imho, ha un pessimo rapporto prezzo/prestazioni.
Una scheda da un terzo del costo di un 8800GTX oggi è più che sufficiente, se unisci il fatto che gli unici che, con buon senso, avrebbero potuto acquistarla erano i possessori di pannelli enormi, e che il chip dedicato alla gestione di TDMS e HDCP, NVIO1, è fallato, il pacco è stato totale. Euro 700, e le DX10 arriveranno fra parecchio tempo.
Ma e' sempre stato cosi' ragazzi. E' un po' come se chi avesse comprato il GeForce SDR avrebbe preteso di vedere titoli ottimizzati sul trasform&lighting da li a breve. Eppure e' stata la GPU che ha decretato la morte di TUTTI i concorrenti perfino quelli piu' agguerriti (ATI a parte).

wiltord
15-12-2006, 15:48
Di sicuro c'e' stato un rallentamento nell'evoluzione dei processi produttivi. Imho quando si raggiungono certi livelli di consumi e grandezze del comparto alimentazione e raffreddamento significa solamente che il progresso di integrazione e potenza accelera piu' velocemente dei processi produttivi disponibili.

e quindi che orizzonti vedi per il prossimo futuro?

Simon82
15-12-2006, 16:12
e quindi che orizzonti vedi per il prossimo futuro?
Vedo volatili per diabetici. :D


Sicuramente saranno obbligatorie generazioni dedicate solamente al risparmio energetico e all'integrazione cosi' come fu il caso del giusto G71. ;)

Se no finiremo con soluzioni davvero ridicole.. e c'era chi (come me) criticava le politiche di 3DFX con il Voodoo5 6000 ma ancora qualche centimetro e l'hanno superata.

Window Vista
15-12-2006, 16:14
Vedo volatili per diabetici. :D


Sicuramente saranno obbligatorie generazioni dedicate solamente al risparmio energetico e all'integrazione cosi' come fu il caso del giusto G71. ;)

Se no finiremo con soluzioni davvero ridicole.. e c'era chi (come me) criticava le politiche di 3DFX con il Voodoo5 6000 ma ancora qualche centimetro e l'hanno superata.
:fagiano:

zorco
15-12-2006, 16:16
Vedo volatili per diabetici. :D

:asd:

Sicuramente saranno obbligatorie generazioni dedicate solamente al risparmio energetico e all'integrazione cosi' come fu il caso del giusto G71. ;)

sicuramente lo faranno ma i consumi saranno sempre superiori a quelli della passate generazioni di chip...

Se no finiremo con soluzioni davvero ridicole.. e c'era chi (come me) criticava le politiche di 3DFX con il Voodoo5 6000 ma ancora qualche centimetro e l'hanno superata.
quant'era lunga 30cm ?:p

DVD2005
15-12-2006, 16:17
io più che dai consumi e dalle prestazioni sono preoccupato dalle dimensioni..


vero.

appleroof
15-12-2006, 16:50
Perchè limitarsi al doppio quando magari va il triplo? A me fate morire perchè voi gpu nuova equivale al minimo prestazioni doppie... altrimenti è un flop :asd:
Ti faccio una domanda, se andasse circa uguale ma costasse la metà a te farebbe comunque schifo...


scusa ma non hai capito nulla del mio intervento: appunto perchè sarà molto difficile (realisticamente) che R600 vada il doppio della 8800gtx che non condivido affermazioni drastiche del tipo G80 è un pessimo investimento: da quando è uscita la top nvidia tantissimi stanno lì a gufare cercando per forza di convincere (convincersi?) che sia un flop

e ora il fatto che non visualizza filmati in full-hd (io la vga la compro sopratutto per i film guarda, film che tra l'altro usciranno in massa in full HD solo tra un anno se tutto va bene, non la compro mica fondamentalmente per giocare )

poi le dimensioni o i consumi,

poi le dx10.1 che uscirebbero una settimana dopo Vista e renderebbero G80 inutile o quasi ma dai.....

Io dico soltanto che R600 sarà sicuramente una gran bella scheda (sulla carta come sappiamo le premesse ci sono tutte) ma non credo che surclasserà G80 tanto da renderlo un pessimo investimento,

cioè anche se andrà meglio in alcuni ambiti (cosa che è tutta da dimostrare allo stato) non renderà di certo G80 di colpo una fetecchia: spero di essermi fatto capire meglio ora.

quanto alla domanda finale che mi fai evidenzia ancora, appunto, che non hai capito nulla di quello che intendevo.

DjLode
15-12-2006, 17:33
scusa ma non hai capito nulla del mio intervento: appunto perchè sarà molto difficile (realisticamente) che R600 vada il doppio della 8800gtx che non condivido affermazioni drastiche del tipo G80 è un pessimo investimento: da quando è uscita la top nvidia tantissimi stanno lì a gufare cercando per forza di convincere (convincersi?) che sia un flop


Era una battuta :)
Solo perchè tutte le volte che esce qualcosa di nuovo salta fuori "... se non va almeno il doppio..." cioè l'unità di misura minima è 2x...


e ora il fatto che non visualizza filmati in full-hd (io la vga la compro sopratutto per i film guarda, film che tra l'altro usciranno in massa in full HD solo tra un anno se tutto va bene, non la compro mica fondamentalmente per giocare )


Non mi sembra una cosa da strapparsi i capelli ma nemmeno una cosa da sottovalutare. Cioè tutta sta diventando "full-hd" (dai televisori all'ipercoop alle console), perchè privarsene?


poi le dimensioni o i consumi,


Se ti paiono schede piccole e "parsimoniose"...
Ma ciò non vuol dire che R600 lo sarà di meno, sicuramente le dimensioni saranno quelle e i consumi paragonabili, perchè la tecnologia è quella e nessuno fa miracoli.


poi le dx10.1 che uscirebbero una settimana dopo Vista e renderebbero G80 inutile o quasi ma dai.....


Se così fosse e G80 non le supporta non rende G80 meno veloce o una gpu da buttare via ma la rende "vecchia" ancora prima di essere sfruttata. Un pò come quelli che ritenevano X800 vecchia perchè non supportava lo SM3. E' la stessa storia non credi?
Ah, per inciso non credo che Nvidia non abbia previsto una cosa del genere, non fa tostapani ma gpu da un sacco di tempo :)


Io dico soltanto che R600 sarà sicuramente una gran bella scheda (sulla carta come sappiamo le premesse ci sono tutte) ma non credo che surclasserà G80 tanto da renderlo un pessimo investimento,


Per me G80 e R600 sono entrambi un pessimo investimento...
Troppi soldi, troppo grandi, troppi consumi, nessun supporto attuale delle caratteristiche in più, pc che deve essere dimensionato, monitor che deve essere dimensionato... insomma aspetto la fascia media, un investimento sicuramente migliore. Per me...

Defragg
15-12-2006, 17:46
Per me G80 e R600 sono entrambi un pessimo investimento...
Troppi soldi, troppo grandi, troppi consumi, nessun supporto attuale delle caratteristiche in più, pc che deve essere dimensionato, monitor che deve essere dimensionato... insomma aspetto la fascia media, un investimento sicuramente migliore. Per me...
quoto :fagiano:

appleroof
15-12-2006, 18:15
Era una battuta :)
Solo perchè tutte le volte che esce qualcosa di nuovo salta fuori "... se non va almeno il doppio..." cioè l'unità di misura minima è 2x...

si si vedono spesso "affermazioni" o apsettattive di questo tipo, questa volta però è quasi azzeccata la pretesa dal momento in cui la 8800gtx va quasi il doppio di una x1950xtx, la più potente scheda finora in giro


Non mi sembra una cosa da strapparsi i capelli ma nemmeno una cosa da sottovalutare. Cioè tutta sta diventando "full-hd" (dai televisori all'ipercoop alle console), perchè privarsene?

sono d'accordo, però tutto deve essere calibrato sulle esigenze personali (a me di questa storia non mi importa una cippa) e cmq in media non è la visione di film il fine principale di chi compra vga


Se ti paiono schede piccole e "parsimoniose"...
Ma ciò non vuol dire che R600 lo sarà di meno, sicuramente le dimensioni saranno quelle e i consumi paragonabili, perchè la tecnologia è quella e nessuno fa miracoli.

questo purtroppo è l'andazzo e quelle cose si sono sorbite anche all'uscita della x1900 (ricordi: scalda come un forno ed è rumorosa come un reattore) per poi sgonfiarsi a mano a mano che aumentava la soddisfazione di avere una scheda prestante che garantiva soddisfazioni con qualsiasi gioco...


Se così fosse e G80 non le supporta non rende G80 meno veloce o una gpu da buttare via ma la rende "vecchia" ancora prima di essere sfruttata. Un pò come quelli che ritenevano X800 vecchia perchè non supportava lo SM3. E' la stessa storia non credi?

Se tutto và come deve andare la dx10.1 non dovrebbero uscire prima del 2008, tempo sufficiente per godersi la scheda e poi passare ad altro (quanti giocano tuttora con una 9800pro senza sm3?)...cmq questo discorso è tutto da accertare per capire bene la reale portata e i cambiamenti effettivi con le dx10


Ah, per inciso non credo che Nvidia non abbia previsto una cosa del genere, non fa tostapani ma gpu da un sacco di tempo :)

questa non l'ho capita, forse ti riferisci a G81?



Per me G80 e R600 sono entrambi un pessimo investimento...
Troppi soldi, troppo grandi, troppi consumi, nessun supporto attuale delle caratteristiche in più, pc che deve essere dimensionato, monitor che deve essere dimensionato... insomma aspetto la fascia media, un investimento sicuramente migliore. Per me...

opinioni: io l'ho presa anche perchè è la più veloce scheda dx9 in giro:ciò vuol dire, (tralasciando il piacere di giocare tipo a Fear, Oblivion e company tutto ma propio tutto al max 1680x1050, cosa che non avevo mai sperimentato) che male che vada anche i giochi della prima metà del 2007 andranno alla grande e poi anche perchè e Dx10: non credo proprio (sarebbe troppo lungo spiegare perchè non mi dilungo qui) che la 8800gtx sarà sottodimensionata per i primi giochi dx10: ciò vuol dire stare apposto per almeno un anno e mezzo a mio modo di vedere. Quanto all'upgrade ho preso solo il monitor nuovo (ma ho avuto modo di provarlo con l'lcd di prima 19" e a 1280x1024 tutto al max andava una bellezza, giocabilità massima) e come vedi non ho un X6800 scheda 680sli e tutti gli ultimi ritrovati, anzi credo proprio che rimarrò così fino a K8L saltando conroe...

ergo, non vedo dove sia il pessimo investimento.

DjLode
15-12-2006, 18:44
sono d'accordo, però tutto deve essere calibrato sulle esigenze personali (a me di questa storia non mi importa una cippa) e cmq in media non è la visione di film il fine principale di chi compra vga


Certo, però come tu non gli dai importanza, altri invece la danno... quindi non dire che è una cosa inutile :)

questo purtroppo è l'andazzo e quelle cose si sono sorbite anche all'uscita della x1900 (ricordi: scalda come un forno ed è rumorosa come un reattore) per poi sgonfiarsi a mano a mano che aumentava la soddisfazione di avere una scheda prestante che garantiva soddisfazioni con qualsiasi gioco...


Sinceramente a me se consumano un fracco possono andare anche 30 volte tanto rispetto alle altre, ma non le considero...


questa non l'ho capita, forse ti riferisci a G81?


No, mi riferivo al fatto che Nvidia non fa schede video da ieri, avrà sicuramente preventivato il fatto che in futuro possano uscire le dx10.1...
Quindi bruciarsi una gpu come G80 in questo modo non gli conviene sicuro (ad esempio esce R600 e supporta Dx10.1, G80 va uguale ma supporta solo le Dx10, i consumi e le dimensioni così come il prezzo sono simili... ti pare che G80 possa essere ancora così appetibile?)


ergo, non vedo dove sia il pessimo investimento.

Un investimento è qualcosa che a fronte di un esborso ti garantisce un ritorno... Per me 700€ spesi in una scheda video non possono garantire un ritorno tale da giustificare la spesa. Ergo, pessimo investimento...

hiroshi976
15-12-2006, 18:56
Un investimento è qualcosa che a fronte di un esborso ti garantisce un ritorno... Per me 700€ spesi in una scheda video non possono garantire un ritorno tale da giustificare la spesa. Ergo, pessimo investimento...

Io cambio configurazione ogni 8mesi al massimo....mai avuto ritorni!!! :D
Non si puo associare il termine investimento con informatica.....è tutto a fondo perduto!!

Cmq tornando in tema....quale sara' il costo piu' o meno?

saluti Hiro!

zorco
15-12-2006, 18:58
Non si puo associare il termine investimento con informatica.....è tutto a fondo perduto!!

se ci lavori nò..

Defragg
15-12-2006, 18:58
Un investimento è qualcosa che a fronte di un esborso ti garantisce un ritorno... Per me 700€ spesi in una scheda video non possono garantire un ritorno tale da giustificare la spesa. Ergo, pessimo investimento...
e riquoto :fagiano: :D
i dindi contano :rolleyes:

Neo_
15-12-2006, 19:02
Fascia media rulezhttp://www.pctuner.net/forum/images/smilies/sisi.gif

appleroof
15-12-2006, 19:02
Certo, però come tu non gli dai importanza, altri invece la danno... quindi non dire che è una cosa inutile :)

non ho detto che è inutile..leggi bene quello che affermo



Sinceramente a me se consumano un fracco possono andare anche 30 volte tanto rispetto alle altre, ma non le considero...

il tagan che ho la regge egregiamente così come reggeva la 7800gtx di prima, tu dirai che ho un alimentatore che è un'eccezione, ma sai meglio di me che gli appassionati (il 99% che girano su questo forum) hanno ali adeguati a G80 e che saranno adeguati a R600, cmq è una tua idea e come tale la rispetto


No, mi riferivo al fatto che Nvidia non fa schede video da ieri, avrà sicuramente preventivato il fatto che in futuro possano uscire le dx10.1...
Quindi bruciarsi una gpu come G80 in questo modo non gli conviene sicuro (ad esempio esce R600 e supporta Dx10.1, G80 va uguale ma supporta solo le Dx10, i consumi e le dimensioni così come il prezzo sono simili... ti pare che G80 possa essere ancora così appetibile?)

sono assolutamente d'accordo, ma mi riservo di vedere maggiori dettagli in merito (dobbiamo ancora vedere le dx10 in azione che qualcuno già se la mena con le dx10.1 :asd: )

Un investimento è qualcosa che a fronte di un esborso ti garantisce un ritorno... Per me 700€ spesi in una scheda video non possono garantire un ritorno tale da giustificare la spesa. Ergo, pessimo investimento...

Allora cambia passione: nell'hw (e in generale nell' high tech) quella regola non vale proprio ma proprio per nulla. Chi ha speso tre mesi fà 400 e passa euro per una 1950xtx tra 2 mesi (6 mesi in tutto!) la venderà si e no a 150....

Defragg
15-12-2006, 19:05
Allora cambia passione: nell'hw (e in generale nell' high tech) quella regola non vale proprio ma proprio per nulla. Chi ha speso tre mesi fà 400 e passa euro per una 1950xtx tra 2 mesi (6 mesi in tutto!) la venderà si e no a 150....
e io me la compro :D

hiroshi976
15-12-2006, 19:06
se ci lavori nò..

in ambito ludico/hobbystico/passione....penso che il mio ragionamento sia corretto.....e chiaramente parlo in termini economici e non di soddisfazione......e poi in tutta sincerita' una 8800 o la futura r600 non penso arrivera' nel computer di un professionista generico........e nell'ambito grafico spesso si preferisce altro!

E te lo dice uno che lavora nel settore dal 1996...... :)

Defragg
15-12-2006, 19:06
Fascia media rulezhttp://www.pctuner.net/forum/images/smilies/sisi.gif
sempre!!! :read:

appleroof
15-12-2006, 19:07
Fascia media rulezhttp://www.pctuner.net/forum/images/smilies/sisi.gif

per spendere alla fine quanto una medio-alta o top ma solo in 2 tempi diversi e senza godersi i giochi al max? Preferirei tirare fino ad avere i soldi per una top o quanto meno per una medio-alta poi ognuno la pensa come vuole...

hiroshi976
15-12-2006, 19:09
Allora cambia passione: nell'hw (e in generale nell' high tech) quella regola non vale proprio ma proprio per nulla. Chi ha speso tre mesi fà 400 e passa euro per una 1950xtx tra 2 mesi (6 mesi in tutto!) la venderà si e no a 150....

è la legge impietosa dell'informatica.....quoto!!

zorco
15-12-2006, 19:13
in ambito ludico/hobbystico/passione....penso che il mio ragionamento sia corretto.....e chiaramente parlo in termini economici e non di soddisfazione......e poi in tutta sincerita' una 8800 o la futura r600 non penso arrivera' nel computer di un professionista generico........e nell'ambito grafico spesso si preferisce altro!

E te lo dice uno che lavora nel settore dal 1996...... :)
no io pensavo tu dicessi in senso generale dell'informatica,sul discorso puramente hobbystico sì ha perfettamente ragione.....

poi ognuno di noi è libero di decidere fino a quando è disposto a spendere per coltivare i suoi hobbys...

Kharonte85
15-12-2006, 19:15
Non lo possiamo dire nè tu nè io se arrancherà perchè nessuno sa le potenzialità di G80 in quell'ambito,e non sappiamo r600 di cosa è capace,se la sua architettura sia più o meno efficiente.
Detto questo,sulla carta in base a quello che sappiamo ora non sarà una soluzione competitiva,ammettiamo pure che a 1280*1024 senza filtri le 2 soluzioni siano perfettamente allineate,appena saliamo di risoluzione e abilitiamo i filtri ce lo perdiamo per strada...
ovviamente pure ipotesi in uno scenario DX10.
Ma su quale carta? :p Che qui si parla ancora di rumors...e poi la teoria è meglio lasciarla per strada...quello che conta sara' anche l'efficienza... :D

Kharonte85
15-12-2006, 19:18
A San Valentino quest´anno potrete regalare alla vostra ragazza una nuova e fiammante scheda grafica! Oppure potrete regalarla a voi stessi, visto che AMD dovrebbe rilasciare i primi sample delle GPU ATI R600 proprio il 14 Febbraio 2007.

Questa data, ovviamente non ufficiale, non sarà però quella dell´avvio della produzione di massa che, invece, avverrà più tardi, presumibilmente prima del CeBIT che si terrà dal 15 al 21 Marzo 2007.

Se la data o comunque il periodo risultasse esatto, ATI si troverebbe con il suo nuovo prodotto di punta disponibile dopo circa tre mesi da quello della rivale NVIDIA che ha già annunciato le schede G80 ormai da qualche settimana. Questo significa che a Marzo 2007, il produttore americano con il logo del camaleonte, potrebbe avere già a disposizione una versione avanzata di G80 da contrappore all´R600 di ATI.

LINK:http://www.dinoxpc.com/News/news.asp?ID_News=11697&What=News
:eek:

Ma allora! Ci decidiamo o no?

Prima si parlava di Marzo...Poi di Gennaio...Poi di nuovo Marzo? :mbe:

DjLode
15-12-2006, 21:15
Allora cambia passione: nell'hw (e in generale nell' high tech) quella regola non vale proprio ma proprio per nulla. Chi ha speso tre mesi fà 400 e passa euro per una 1950xtx tra 2 mesi (6 mesi in tutto!) la venderà si e no a 150....

Sei tu che parli a sproposito di investimento :asd:
Poi mi sa che sei tu che devi rivedere il concetto di passione con quello per te connesso di "disponibilità monetaria"...
Ah, per inciso l'informatica non è una passione perchè ci spendo soldi ogni mese rivendendo gli oggetti comprati a meno della metà del suo costo...
Ci lavoro e forse se ti comincio a fare la lista di quanto l'informatica è stata la mia passione negli ultimi due anni, a metà ti sei già spaventato...
Se TU la passione la informatica la coltivi a suon di 800€ spesi, sono fatti TUOI. A me basta che la mia passione mi abbia portato a lavorare (quindi non un'uscita ma un'entrata)... Come vedi modi di vedere all'antitesi, ma quando tu non supportato dalle entrate non potrai più coltivare la passione a modo tuo... bhè io probabilmente sarò ancora qui a parlarne ;)

DjLode
15-12-2006, 21:18
per spendere alla fine quanto una medio-alta o top ma solo in 2 tempi diversi e senza godersi i giochi al max? Preferirei tirare fino ad avere i soldi per una top o quanto meno per una medio-alta poi ognuno la pensa come vuole...

Stai ancora cercando di far passare un tuo modo di pensare e di fare come IL modo di pensare e di fare ;)
Quindi io sono meno appassionato di te o l'informatica per me è meno hobby solo perchè non spendo 600€ in una scheda video ma 300€ x 2? Posso ridere fino a domani mattina o ti offendi? :rotfl:

appleroof
15-12-2006, 21:27
Stai ancora cercando di far passare un tuo modo di pensare e di fare come IL modo di pensare e di fare ;)
Quindi io sono meno appassionato di te o l'informatica per me è meno hobby solo perchè non spendo 600€ in una scheda video ma 300€ x 2? Posso ridere fino a domani mattina o ti offendi? :rotfl:

chi legge i post che ho scritto giudica se quello che ho detto corrisponde alla tua interpretazione. Poi ridi, piangi, rimani indifferente, fai quello che vuoi ;)

Kharonte85
15-12-2006, 21:33
Per me G80 e R600 sono entrambi un pessimo investimento...
Troppi soldi, troppo grandi, troppi consumi, nessun supporto attuale delle caratteristiche in più, pc che deve essere dimensionato, monitor che deve essere dimensionato... insomma aspetto la fascia media, un investimento sicuramente migliore. Per me...
Sono un pessimo investimento per chi non se li puo' permettere...ma un ottimo...anzi mi correggo, il migliore e piu' longevo per chi se lo puo' permettere... ;)

DjLode
15-12-2006, 21:33
chi legge i post che ho scritto giudica se quello che ho detto corrisponde alla tua interpretazione. Poi ridi, piangi, rimani indifferente, fai quello che vuoi ;)

Ah boh, se tu che mi hai detto di cambiare passione solo perchè non spendo 400€ per poi rivendere la cosa a 150€... Quindi mi riferivo a questo. Non l'hai detto tu?

DjLode
15-12-2006, 21:38
Sono un pessimo investimento per chi non se li puo' permettere...ma un ottimo...anzi mi correggo, il migliore e piu' longevo per chi se lo puo' permettere... ;)

Cosa ti fa pensare che non possa permettermi di spendere 800€ in una scheda video? Assunzione tua in mezzo a quello che ho detto no?
Sopratutto cosa farebbe di una scheda così un investimento migliore e più longevo ad esempio rispetto ad una scheda di fascia media? Un gusto tuo particolare nel prendere la scheda più veloce... Scelta tua, ma non per questo la migliore :)
E' la migliore per te, se adesso vi mettete pure a dire che G80 è la gpu con il miglior rapporto prezzo prestazioni andiamo bene... Più longevo? Rispetto a cosa? Cioè cosa rende un G80 più longevo rispetto ad un G81 (che sarà la fascia media sempre che ricordi a modo le diciture di Nvidia per quanto riguarda le gpu)? 50 fps in più? Ma quindi pure il discorso longevità è un'opinione tua... perchè per me è diverso :)

hiroshi976
15-12-2006, 21:39
Sei tu che parli a sproposito di investimento :asd:
Poi mi sa che sei tu che devi rivedere il concetto di passione con quello per te connesso di "disponibilità monetaria"...
Ah, per inciso l'informatica non è una passione perchè ci spendo soldi ogni mese rivendendo gli oggetti comprati a meno della metà del suo costo...
Ci lavoro e forse se ti comincio a fare la lista di quanto l'informatica è stata la mia passione negli ultimi due anni, a metà ti sei già spaventato...
Se TU la passione la informatica la coltivi a suon di 800€ spesi, sono fatti TUOI. A me basta che la mia passione mi abbia portato a lavorare (quindi non un'uscita ma un'entrata)... Come vedi modi di vedere all'antitesi, ma quando tu non supportato dalle entrate non potrai più coltivare la passione a modo tuo... bhè io probabilmente sarò ancora qui a parlarne ;)

....a parte l'OT totale della discussione........ ma in tutta sincerita' non ho mica capito cosa intendi dire........e lo dico senza offenderti...è la verita'!

In informatica è sempre stato cosi, non so' da quanto tu te ne occupi o te ne interessi, ma fin dai tempi antichi l'obsolescenza della componentistica a portato un calo dei prezzi che prima si aggirava in media annualmente..adesso un componente diventa vecchio o cmq non di prima fascia gia' dopo 3/4 mesi.

Io non so cosa intendi dire quando parli di ritorni (economici??).....ma non credo che in un 3d di questo tipo sia una cosa cmq da tirare in ballo....faccio configurazioni su misura per i clienti da un decennio...e t'assicuro che se un cliente mi chiede una macchina *a scopo di lucro* non prendo minimamente in considerazioni certi prodotti......o cmq quasi mai si *mette mano* alla fascia alta.

Ma non facevi prima a dire che sei uno di quelli che bada al compromesso prezzo/prestazioni???


saluti Emilio

Andrea deluxe
15-12-2006, 21:40
BONI

BONI



si che sto r600 scalderà, ma non accendete inutili flames in questo pacifico territorio!

Kharonte85
15-12-2006, 21:45
E' la migliore per te, se adesso vi mettete pure a dire che G80 è la gpu con il miglior rapporto prezzo prestazioni andiamo bene

Veramente non lo dico solo io... :D

http://www.hwupgrade.it/articoli/skvideo/1608/moneybench.png

Longevo nel senso che se mi prendo una 8800gtx oggi sono abbastanza sicuro del fatto che per un bel po' di tempo saro' a posto... :D

La stessa cosa varra' probabilmente per r-600 ;)

appleroof
15-12-2006, 21:46
Ah boh, se tu che mi hai detto di cambiare passione solo perchè non spendo 400€ per poi rivendere la cosa a 150€... Quindi mi riferivo a questo. Non l'hai detto tu?

No. Con il "cambia passione" mi riferivo al fatto che nell'informatica come sai (se sei un utente finale non un professionista del settore con partita Iva che compra e rivende e magari intanto prova) quello che compri oggi domani varrà molto meno. Quindi questa tua frase:


Un investimento è qualcosa che a fronte di un esborso ti garantisce un ritorno... Per me 700€ spesi in una scheda video non possono garantire un ritorno tale da giustificare la spesa. Ergo, pessimo investimento...


Non ha fondamento.

Lo avrebbe solo se io riuscissi a comprare oggi una vga che vale 100 e venderla tra tot mesi a 150: questo è un investimento.


Il resto è solo un acquisto che, in quanto tale ed in quanto irrazionale (chi ha bisogno di un pc per giocare??) è dettato solo da una passione particolare (se proponessi ad uno che non sà nemmeno cos'è il mouse di spendere 600 euro per una vga mi guarderebbe come un marziano, ma anche se gli proponessi di spenderne 100).

Se cerchi di guadagnare in questi casi, ripeto, è meglio cambiare passione (magari darti ai francobolli che davvero si rivalutano nel tempo :asd: ) ma l'elettronica non permette questo. ;)

DjLode
15-12-2006, 21:48
....a parte l'OT totale della discussione........ ma in tutta sincerita' non ho mica capito cosa intendi dire........e lo dico senza offenderti...è la verita'!


Rispondevo a chi diceva che dovevo cambiare passione facendo passare sue scelte per le scelte necessarie per potersi fregiare di appassionato.
Hai centrato il punto non ha senso proporre la fascia alta per certi usi e l'obsolescenza è anche inferiore ai 3/4 mesi su alcuni prodotti (non sai quanti progetti ho visto cambiare nel giro di quel lasso di tempo perchè un componente non era più disponibile), per questo mi permetto di far notare che far passare la scelta di componenti costosissimi per LA scelta corretta da fare è sbagliato. Uno compra quello che vuole perchè è convinto di farlo, poi sembra venga qui per convincersi del fatto di avere fatto la scelta giusta... Ed è una cosa che mi da da pensare vedere (non è successo qui ora) gente che considera schede video top di gamma come le migliori nel rapporto prezzo prestazioni solo perchè hanno le prestazioni maggiori. E poi hai ragione, siamo OT :)

appleroof
15-12-2006, 21:49
Veramente non lo dico solo io... :D

http://www.hwupgrade.it/articoli/skvideo/1608/moneybench.png

Longevo nel senso che se mi prendo una 8800gtx oggi sono abbastanza sicuro del fatto che per un bel po' di tempo saro' a posto... :D

La stessa cosa varra' probabilmente per r-600 ;)


esatto ;)

Kharonte85
15-12-2006, 21:53
No. Con il "cambia passione" mi riferivo al fatto che nell'informatica come sai (se sei un utente finale non un professionista del settore con partita Iva che compra e rivende e magari intanto prova) quello che compri oggi domani varrà molto meno. Quindi questa tua frase:


Non ha fondamento.

Lo avrebbe solo se io riuscissi a comprare oggi una vga che vale 100 e venderla tra tot mesi a 150: questo è un investimento.


Il resto è solo un acquisto che, in quanto tale ed in quanto irrazionale (chi ha bisogno di un pc per giocare??) è dettato solo da una passione particolare (se proponessi ad uno che non sà nemmeno cos'è il mouse di spendere 600 euro per una vga mi guarderebbe come un marziano, ma anche se gli proponessi di spenderne 100).

Quoto ;)

Per me la passione per l'hardware è un equilibrio quasi-stazionario in cui lavorano alcune forze: le proprie esigenze, il desiderio, e il costo...quando trovi il punto di incontro (inevitabilmente diverso per ciascuno) fra queste forze e fai un acquisto puoi dire di averlo fatto con passione :D

Se cerchi di guadagnare in questi casi, ripeto, è meglio cambiare passione (magari darti ai francobolli che davvero si rivalutano nel tempo :asd: ) ma l'elettronica non permette questo. ;)
:idea: Magari fra 10 anni qualcuno paghera' oro per la mia voodoo2 ancora funzionante...:asd:

DjLode
15-12-2006, 21:55
Veramente non lo dico solo io... :D


Nella fascia alta non c'è dubbio che tra spendere 600€ per una GTX e 600€ per una XTX è da preferire la prima. Ma come tu stesso mostri la GTS (che è sempre G80) è meno conveniente di R580...
Chi ha torto o ragione? :) Facciamo metà e metà ma quel grafico per la fascia media esiste? (non l'ho trovato)

appleroof
15-12-2006, 21:58
Quoto ;)

Per me la passione per l'hardware è un equilibrio quasi-stazionario in cui lavorano alcune forze: le proprie esigenze, il desiderio, e il costo...quando trovi il punto di incontro (inevitabilmente diverso per ciascuno) fra queste forze e fai un acquisto puoi dire di averlo fatto con passione :D


sono d'accordo, non so perchè quello che ho detto è stato interpretato come una volontà di imporre un'idea, le mie sono solo opinioni che ho maturato con il minimo di esperienza che ho e che in quanto tali potranno pure cambiare nel tempo (ma in questo caso psecifico mi sembra difficile)

un forum per definizione è un posto dove si scambiano opinioni ed io non sono d'accordo con il fatto che G80 sia un pessimo acquisto perchè tra 2 medi esce R600 perchè sennò R600 è un pessimo acquisto perchè dopo sei mesi esce G90 e via all'infinito....(oltre a tutto quanto già detto sul fatto che G80 non sarà realisticamente surclassato da R600 tanto da diventare di colpo una fetecchia)

:idea: Magari fra 10 anni qualcuno paghera' oro per la mia voodoo2 ancora funzionante...:asd:


potrebbe essere molto probabile :D

Kharonte85
15-12-2006, 22:10
Nella fascia alta non c'è dubbio che tra spendere 600€ per una GTX e 600€ per una XTX è da preferire la prima. Ma come tu stesso mostri la GTS (che è sempre G80) è meno conveniente di R580...
Assolutamente no...perche' c'è la piccola differenza che la x1950xtx è dx9 mentre la 8800gts è dx10...cosa che in quel grafico non viene contata... :D

Chi ha torto o ragione? :) Facciamo metà e metà
Bah facciamo come ti pare...mi sa pero' che la mia meta' è piu' grossa... :sofico:

ma quel grafico per la fascia media esiste? (non l'ho trovato)
purtroppo lo fanno raramente per le schede video... :(

peddu84
16-12-2006, 12:09
:eek:

Ma allora! Ci decidiamo o no?

Prima si parlava di Marzo...Poi di Gennaio...Poi di nuovo Marzo? :mbe:

probabilmente una data è riferita alla presentazione del prodotto alla stampa (e quindi distribuzione dei primi sample alle varie riviste per prove, test, benchmark ecc...) mentre l'altra è riferita alla data dell'effettivo lancio del prodotto nel mercato...

Kharonte85
16-12-2006, 12:21
probabilmente una data è riferita alla presentazione del prodotto alla stampa (e quindi distribuzione dei primi sample alle varie riviste per prove, test, benchmark ecc...) mentre l'altra è riferita alla data dell'effettivo lancio del prodotto nel mercato...
Quello lo avevo capito anche io...parlavo dei rumors vecchi... :D

Athlon 64 3000+
16-12-2006, 14:04
Sinceramente anche se esce sul mercato un mese dopo la presentazione alla stappa non mi interessa,ma nasta sapere le caratteristiche della scheda,la sua architettura e le sue prestazioni in confronto a G80.
Lo dico solo per appassionato e perchè sono molto curioso.
Se dovessi acquistare una gpu dx 10 è meglio che aspetti la revisione di R600 a 65 nm che dovrebbe calare i consumi

Catan
16-12-2006, 14:56
Sinceramente anche se esce sul mercato un mese dopo la presentazione alla stappa non mi interessa,ma nasta sapere le caratteristiche della scheda,la sua architettura e le sue prestazioni in confronto a G80.
Lo dico solo per appassionato e perchè sono molto curioso.
Se dovessi acquistare una gpu dx 10 è meglio che aspetti la revisione di R600 a 65 nm che dovrebbe calare i consumi

se dici cosi cmq non prendi nulla r600 gia a 80nm riduce i consumi rispetto a un g80 a 90nm...
se fai questo discorso io apsetterei le revision a 80nm di g80 che ad una migliore ingegnerizazione del layout finalmente rimeterrano il tmds dentro il processore grafico secondo me davvero una bestialità sul piano della tecnica(per tutti sto valutando l'eleganza delle soluzione non le sue potenzialità)
giachè avere 2 chip grafici sulla stessa scheda aumenta cmq il rischio di rottura..
che bello ho una g80 integro ma si è rotto il tmds e quindi mi va solo a 60hz di refresh...
io credo che la risposta a r600 sia propio un g80 a 80nm con migliore ingegnerizazione e frequenze cmq + alte

Athlon 64 3000+
16-12-2006, 15:15
se dici cosi cmq non prendi nulla r600 gia a 80nm riduce i consumi rispetto a un g80 a 90nm...
se fai questo discorso io apsetterei le revision a 80nm di g80 che ad una migliore ingegnerizazione del layout finalmente rimeterrano il tmds dentro il processore grafico secondo me davvero una bestialità sul piano della tecnica(per tutti sto valutando l'eleganza delle soluzione non le sue potenzialità)
giachè avere 2 chip grafici sulla stessa scheda aumenta cmq il rischio di rottura..
che bello ho una g80 integro ma si è rotto il tmds e quindi mi va solo a 60hz di refresh...
io credo che la risposta a r600 sia propio un g80 a 80nm con migliore ingegnerizazione e frequenze cmq + alte

Lo ho detto perchè sono sicuro che le revisioni a 65 nm di R600 e G80 dovrebbe calare abbastanza i consumi da renderli gpu meno calde.

Window Vista
16-12-2006, 18:16
Lo ho detto perchè sono sicuro che le revisioni a 65 nm di R600 e G80 dovrebbe calare abbastanza i consumi da renderli gpu meno calde.
Sicuro!!

:)

Catan
16-12-2006, 20:47
tecnicamente ci sono 2problemi
1 con i 65 nm dubito che sia ati che nvidia facciano versioni di g80 o r600.
caso mai forse qualche middle-end per testare il processo produttivo e ri risparmi in cosumo saranno spesi per alzare il clock con consumi che si attestano quasi a paro tra gli 80nm e i 65nm.

2 la strada di ati o nvidia non è di abbassare i consumi ma aumentare la potenza senza aumentare eccessivamente i consumi...65mn benissimo vai con gpu da 1 miliardo di transistor(presumibilmente visto che r600 sarà circa 730mln)benissimo ora abbiamo un processo che ci permette di integrare 1mld di transistor quindi + unita per calcoli,ok ora aumentiamo il clok di 100-200mhz rispetto alla precedente vga e vediamo che esce fuori capace che con i consumi siamo solo un 20% in + della vecchia generazione.

Foglia Morta
16-12-2006, 21:25
non recentissimo ma mancava...
http://translate.google.com/translate?hl=en&sl=zh-CN&u=http://digital.qianlong.com/29357/2006/10/11/2040%403455154.htm&sa=X&oi=translate&resnum=91&ct=result&prev=/search%3Fq%3Dr600%2B512%2Bbit%26num%3D100%26hl%3Den%26lr%3Dlang_zh-CN%26as_qdr%3Dall


http://www.8080.net/html/200612/n141627450.shtml
Currently, the third edition of the R600 core has been under development, and ATI Planning has begun its counterpart related products, the R600 will still use XTX top end products. ATI to take a very interesting product names Dragon 's Haed (leading); and XT versions will also be there, codenamed Cat 's eye; Pipeline will reduce the XL version codenamed R600 UFO.

The preliminary information we XTX version of the XL version of R600 will only around 60% of the computing unit they will use GDDR3 Xiancun particles; and XTX and XT version is not much difference between the R600. the main difference from the working frequency, the frequency XTX even over 1GHz. and the XT will exceed 700MHz.
同时R600发布的时候XTX以及XT版就将对应上市,而XL则要稍候才会发布。
Meanwhile R600 XTX and XT version will be released when the corresponding listing and XL will wait before publication.

appleroof
17-12-2006, 18:08
cioè è confermato: la XTX sarà "testa di...drago" la xt "occhi di gatto" e la XL "ufo"?? :D

scusate ma non resisto... :rotfl: :rotfl:

ma quando prenderanno degli uomini marketing come si deve alla Ati? Se fossero almeno la metà capaci degli ingegneri non se li sognerebbero nemmeno stì nomi :asd: :asd:

cmq 1giga di freq.. :eek:

MaBru
17-12-2006, 19:32
cioè è confermato: la XTX sarà "testa di...drago" la xt "occhi di gatto" e la XL "ufo"?? :D

scusate ma non resisto... :rotfl: :rotfl:

ma quando prenderanno degli uomini marketing come si deve alla Ati? Se fossero almeno la metà capaci degli ingegneri non se li sognerebbero nemmeno stì nomi :asd: :asd
Che c'entra il marketing. Quelli sono nomi in codice ad uso interno per gli ingegneri.

fede27
17-12-2006, 19:33
Che c'entra il marketing. Quelli sono nomi in codice ad uso interno per gli ingegneri.
infatti. mica usciranno mai sulla scatola di una vga!! :D tra l'altro mi sembra di ricordare che quelli dell'R580 fossero pure peggio..

Kharonte85
17-12-2006, 19:36
infatti. mica usciranno mai sulla scatola di una vga!! :D tra l'altro mi sembra di ricordare che quelli dell'R580 fossero pure peggio..
Ma speriamo!!!

Non vorrei dover reinvocare i Power Rangers... :eekk: :asd: