PDA

View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT


Pagine : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

appleroof
10-04-2007, 11:25
Mi sembra fino a circa 75W...sulla r-600 ce ne saranno 2 di connettori aggiuntivi...;)

lo slot pci-e è in grado di fornire 75w...

ecco ;)

TecnoWorld8
10-04-2007, 13:19
ogni notizia semi-ufficiale che si apprende circa questa scheda conferma i suoi lati negativi. Processo produttivo a 80nm, consumo folle...

e ATi in ogni intervista NON fa menzione di prestazioni sbalorditive, come ci si aspetterebbe a circa un mese dal lancio e soprattutto considerando che il prodotto (a detta loro) è pronto da tempo.

anzi, da questa intervista si desume come stiano già iniziando a parlare di una "next version", cosa mai capitata ancor prima del lancio di un prodotto. E' ovvio che tale next version sarà quella a 65nm.

A sto punto spero che i giochi DX10 tardino ad uscire, così possiamo aspettare l'uscita di questa versione a 65nm, che tanto secondo me arriverà subito dopo l'estate...o forse ancora prima.

Simon82
10-04-2007, 14:32
ogni notizia semi-ufficiale che si apprende circa questa scheda conferma i suoi lati negativi. Processo produttivo a 80nm, consumo folle...

e ATi in ogni intervista NON fa menzione di prestazioni sbalorditive, come ci si aspetterebbe a circa un mese dal lancio e soprattutto considerando che il prodotto (a detta loro) è pronto da tempo.

anzi, da questa intervista si desume come stiano già iniziando a parlare di una "next version", cosa mai capitata ancor prima del lancio di un prodotto. E' ovvio che tale next version sarà quella a 65nm.

A sto punto spero che i giochi DX10 tardino ad uscire, così possiamo aspettare l'uscita di questa versione a 65nm, che tanto secondo me arriverà subito dopo l'estate...o forse ancora prima.
Mi auguro che il ben tacere non sia sintomo di prestazioni basse bensi' di cautele commerciali. A volte il troppo sbandierare mi preoccupa piu' che altro.. vedi NV30 con tutte le mosse pro hype (movie girati all'interno, acronimo relativo a Cg e eventuali ecc ecc) a mo' di Nintendo con il Revolution a.k.a Wii.

TecnoWorld8
10-04-2007, 14:39
sicuramente potevano sfruttare il tempo perduto per portarsi avanti con il progetto a 65nm e far uscire subito quello. sicuramente avrebbe significato perdere molto dell'investimento per il chip ad 80nm, però avrebbe anche voluto dire essere davanti ad nVidia sia come prestazioni, sia come processo produttivo...e recuperare subito le perdite di cui sopra sia con le vendite, sia con il ritorno in immagine.

se invece fanno uscire una GPU pronta da mesi, che scalda più di un termosifone e non è palesemente superiore a G80 (uscito 7 mesi prima) allora secondo me quello che non perderanno economicamente lo perderanno - seriamente - come immagine.

Alexkidd85
10-04-2007, 14:58
sicuramente potevano sfruttare il tempo perduto per portarsi avanti con il progetto a 65nm e far uscire subito quello. sicuramente avrebbe significato perdere molto dell'investimento per il chip ad 80nm, però avrebbe anche voluto dire essere davanti ad nVidia sia come prestazioni, sia come processo produttivo...e recuperare subito le perdite di cui sopra sia con le vendite, sia con il ritorno in immagine.

se invece fanno uscire una GPU pronta da mesi, che scalda più di un termosifone e non è palesemente superiore a G80 (uscito 7 mesi prima) allora secondo me quello che non perderanno economicamente lo perderanno - seriamente - come immagine.

Ti Quoto e aggiungo che se fosse così e anche una 8800gtx(neanche la "ultra") si attestasse con margini di passività del 5/10 %, prenderò la 8800 considerando che quando uscirà la ultra(con,si spera e si vocifera,appareggiamento di prestazioni)scenderà di prezzo.
Insomma,se in tutto questo botta e risposta alla fine si parla di range di 15/20% di prestazioni (parlo anche della 65n ipotetica dell'r600) sicuramente prenderò la gtx,per 20% max non vale IMHO spendere 200 e passa euro in + a parità di tecnologia(directx10 non processo produttivo).

appleroof
10-04-2007, 15:15
Ti Quoto e aggiungo che se fosse così e anche una 8800gtx(neanche la "ultra") si attestasse con margini di passività del 5/10 %, prenderò la 8800 considerando che quando uscirà la ultra(con,si spera e si vocifera,appareggiamento di prestazioni)scenderà di prezzo.
Insomma,se in tutto questo botta e risposta alla fine si parla di range di 15/20% di prestazioni (parlo anche della 65n ipotetica dell'r600) sicuramente prenderò la gtx,per 20% max non vale IMHO spendere 200 e passa euro in + a parità di tecnologia(directx10 non processo produttivo).

Io lo sostengo da mesi, quando parlavo di situazione abbastanza grave, a questo giro (nulla vieta di riprendersi alla grande, come la storia del tanto citato nv30 insegna, se si è capaci). Se si parla di un 20% in più, ma anche di un 30 a mio modesto parere, non vale certo la pena spendere tanti soldi in più (fermo restando che deve essere confermato il range di differenza e il prezzo finale)

se questo semplice ragionamento è vero, non sarà sfuggito di certo nemmeno ad amd, che forse cerca processi produttivi più economici per lanciare la scheda a prezzo poco superiore alla 8800gtx....pena suicidio commerciale (chi, ripeto, a parte gli aficionados che la comprano cmq, è disposto a spendere 150/200 euro in più per il 20/30% di prestazioni medie in più?)

Simon82
10-04-2007, 15:37
Io lo sostengo da mesi, quando parlavo di situazione abbastanza grave, a questo giro (nulla vieta di riprendersi alla grande, come la storia del tanto citato nv30 insegna, se si è capaci). Se si parla di un 20% in più, ma anche di un 30 a mio modesto parere, non vale certo la pena spendere tanti soldi in più (fermo restando che deve essere confermato il range di differenza e il prezzo finale)

se questo semplice ragionamento è vero, non sarà sfuggito di certo nemmeno ad amd, che forse cerca processi produttivi più economici per lanciare la scheda a prezzo poco superiore alla 8800gtx....pena suicidio commerciale (chi, ripeto, a parte gli aficionados che la comprano cmq, è disposto a spendere 150/200 euro in più per il 20/30% di prestazioni medie in più?)

30% sarebbe gia' un buon obiettivo onestamente. Su 80fps averne 104 no nsarebbe male come differenza. ;)

TecnoWorld8
10-04-2007, 15:44
il fatto è che questa scheda dovrebbe almeno far giare ogni gioco in uscita da oggi all'anno prossimo a 1920x1200 o almeno a 1600x1200 con tutti i dettagli al massimo, AA, HDR ed effetti DX10. se così non sarà, sicuramente non meriterà comprarla.

DjLode
10-04-2007, 15:59
il fatto è che questa scheda dovrebbe almeno far giare ogni gioco in uscita da oggi all'anno prossimo a 1920x1200 o almeno a 1600x1200 con tutti i dettagli al massimo, AA, HDR ed effetti DX10. se così non sarà, sicuramente non meriterà comprarla.

Quindi se anche la 8900 non dovrebbe fare ciò che tu pronostichi, non sarebbe una scheda da comprare? Diciamo, così per dire, che un Crysis al massimo a 1920x1200 non girasse su tale scheda, la renderebbe non meritevolo di acquisto?

TecnoWorld8
10-04-2007, 16:02
sono più che certo che le schede in uscita per Crysis saranno in grado di fornire almeno 30/40 fps di media a quella risoluzione, a meno che tale titolo non sia mal programmato.

Di solito una scheda top di gamma dovrebbe essere in grado di far girare i giochi suoi contemporanei al massimo dettaglio a risoluzioni elevate (sempre rapportato all'epoca in cui ci si trova). Raramente - da quando esistono le schede 3D - sono esistiti giochi che potessero mettere in seria difficoltà configurazioni al top di gamma.

Se uno spende 500 o 600 euro per una scheda, credo si aspetti di non avere alcun limite con il software per almeno un anno. Sbaglio?

DjLode
10-04-2007, 16:17
Non hai risposto alla mia domanda :)

johnson
10-04-2007, 16:35
Ma quindi per succhiare 240/260w il connettore 8 pin ne dovrebbe fornire dai 90 ai 110w ? Oppure le specifiche d'alimentazione sono un po esagerate...

http://uk.theinquirer.net/?article=38814

Qui si parla dell'uscita della 8800Ultra, e parlano di prezzi assurdi, tipo 1000€. La cosa interessante (da verificare) è che secondo loro un prezzo così folle sarebbe giustificato solo dal fatto che anche ATI farà uscire il suo modello di punta a quel prezzo (magari intendono R600 a 65nm gddr4)

monstergames
10-04-2007, 16:45
io mi iscrivo attendo con ansia questa belva ululante da 150Gb passante il monster dei monster nell'rendering 3D per me realismo allo stato puro

TecnoWorld8
10-04-2007, 16:46
DjLode: dal mio punto di vista, dato che io cambierei scheda SOLO per giocare a QUEI giochi al massimo dettaglio, se non me lo consentisse, mi converrebbe attendere lo step successivo...

DVD2005
10-04-2007, 16:47
Ma quindi per succhiare 240/260w il connettore 8 pin ne dovrebbe fornire dai 90 ai 110w ? Oppure le specifiche d'alimentazione sono un po esagerate...

http://uk.theinquirer.net/?article=38814

Qui si parla dell'uscita della 8800Ultra, e parlano di prezzi assurdi, tipo 1000€. La cosa interessante (da verificare) è che secondo loro un prezzo così folle sarebbe giustificato solo dal fatto che anche ATI farà uscire il suo modello di punta a quel prezzo (magari intendono R600 a 65nm gddr4)

mi sembra decisamente esagerato.

johnson
10-04-2007, 16:53
il fatto è che questa scheda dovrebbe almeno far giare ogni gioco in uscita da oggi all'anno prossimo a 1920x1200 o almeno a 1600x1200 con tutti i dettagli al massimo, AA, HDR ed effetti DX10. se così non sarà, sicuramente non meriterà comprarla.

Io dico che solo una volta sono stato soddisfatto della potenza della mia nuova vga rispetto ai videogames di ultima generazione, la volta che ho preso la 8800GTX. Con la 7900GTX non ero contento, come non lo ero con la 7800GT come non lo ero con la x800xt pe... e nemmeno la prima geforce rendeva come avrei voluto. Ricordo Giants citizen of Kabuto (ricordo il nome a memoria) per non vederlo scattare dovevo giocare a 800x600 :D . [edit] forse solo la 9800pro mi ha fatto godere a suo tempo come g80[edit]
Tutto questo mi porta ad una sola conclusione. A parte il fatto che sono incontentabile, sarei rimasto ancora più deluso dalle prestazioni delle schede video di fascia minore.

Non c'è scelta Tecnoworld. Se uno vuole il massimo, prende il massimo, anche se il giochino appena uscito gli mette in ginocchio il sistema.

johnson
10-04-2007, 16:55
mi sembra decisamente esagerato.

Magari le GDDR4 costano :D

anche a me sembra esagerato... ma del discorso consumi che ne pensi? quanta alimentazione può fornire il connettore a 8pin?

appleroof
10-04-2007, 16:58
30% sarebbe gia' un buon obiettivo onestamente. Su 80fps averne 104 no nsarebbe male come differenza. ;)

come ho già detto, il mio è un parere personale: a me 80fps o 104fps non fà decisamente differenza, e se uno "spegne" fraps nemmeno se ne accorge di quella differenza, lo sai benissimo. 200 euro per avere 24fps in più? no dai...

TecnoWorld8
10-04-2007, 16:58
johnson: forse sei più esigente di me, allora :) io ho praticamente avuto ogni scheda di alto livello dalla prima VooDoo (Monster 3D) alla ATi 9700PRO (dopo di che ho smesso per alcuni anni di occuparmi di videogiochi, per riprendere solo ultimamente). Le ho sempre comprate all'uscita e almeno per 6 mesi hanno sempre fatto il loro mestiere.

Ricordo Unreal che girava a molti fps, @ 1024x768 su uno SLI di V2, per esempio...ed era un gioco pesantissimo per l'epoca.

johnson
10-04-2007, 17:14
Fudzilla ha altre news su R600

http://www.fudzilla.com/index.php?option=com_content&task=view&id=463&Itemid=1

http://www.fudzilla.com/index.php?option=com_content&task=view&id=464&Itemid=1

http://www.fudzilla.com/index.php?option=com_content&task=view&id=462&Itemid=1

In sostanza dice che R600 si chiamerà x2900, che potrà gestire 2 stream HD contemporanei e che il chip audio integrato non ha nulla a che spartire con x-fi di creative ma servirà solo per high definition video...

johnson
10-04-2007, 17:20
johnson: forse sei più esigente di me, allora :) io ho praticamente avuto ogni scheda di alto livello dalla prima VooDoo (Monster 3D) alla ATi 9700PRO (dopo di che ho smesso per alcuni anni di occuparmi di videogiochi, per riprendere solo ultimamente). Le ho sempre comprate all'uscita e almeno per 6 mesi hanno sempre fatto il loro mestiere.

Ricordo Unreal che girava a molti fps, @ 1024x768 su uno SLI di V2, per esempio...ed era un gioco pesantissimo per l'epoca.

non ricordo che scheda avevo quando usciva unreal 2, forse avevo già la geforce1, boh.
Però avevo anchio 2 voodoo2 in sli e ricordo che funzionavano a 1024 solo su alcuni giochi ... quindi IMHO un pacco.

DVD2005
10-04-2007, 17:23
Magari le GDDR4 costano :D

anche a me sembra esagerato... ma del discorso consumi che ne pensi? quanta alimentazione può fornire il connettore a 8pin?

bella domanda... possiamo provare a ragionare al contrario con l'ausilio di qualcuno più abile (di me) negli amperaggi, questa è la "targhetta" dell'infinito 650 già DXX ready con il connetore a8pin

http://img101.imageshack.us/img101/6195/immagineli1.jpg

Alexkidd85
10-04-2007, 17:37
Quindi se anche la 8900 non dovrebbe fare ciò che tu pronostichi, non sarebbe una scheda da comprare? Diciamo, così per dire, che un Crysis al massimo a 1920x1200 non girasse su tale scheda, la renderebbe non meritevolo di acquisto?

onestamente!? Se crysis non dovesse girare bene al max dei dettagli con una top sia r600 o 8800ultra,o è fatto male(ma dubito altamente perché sappiamo che i ragazzi della crytek fanno motori grafici molto ben sviluppati) o la scheda non mi da quello che voglio,ovvero almeno per 6 mesi giocare al max dei dettagli. A mio modo di vedere non sarebbe "un acquisto inutile" ma proprio un prodotto non mirato al suo fine.
Se è "la prima scheda top di gamma DX10" esigo che giri bene con ogni gioco al max dettaglio dx10 nei primi mesi della sua uscita IMHO

johnson
10-04-2007, 18:12
onestamente!? Se crysis non dovesse girare bene al max dei dettagli con una top sia r600 o 8800ultra,o è fatto male(ma dubito altamente perché sappiamo che i ragazzi della crytek fanno motori grafici molto ben sviluppati) o la scheda non mi da quello che voglio,ovvero almeno per 6 mesi giocare al max dei dettagli. A mio modo di vedere non sarebbe "un acquisto inutile" ma proprio un prodotto non mirato al suo fine.
Se è "la prima scheda top di gamma DX10" esigo che giri bene con ogni gioco al max dettaglio dx10 nei primi mesi della sua uscita IMHO

Beh non direi proprio. Pensa che i ragazzi della crytec fecero uscire farcry prima dell uscita delle 6800, e nonostante ciò la 6800ultra a 1280x1024 faceva 60 fps di media senza filtri e 39.1 con i filtri di media (quindi i minimi saranno anche sotto i 20, ingiocabile per un fps)... fai te
vedi qui http://www.hwupgrade.it/articoli/skvideo/1004/finalmente-nv40-geforce-6800-ultra_21.html

Robbysca976
10-04-2007, 18:31
Beh non direi proprio. Pensa che i ragazzi della crytec fecero uscire farcry prima dell uscita delle 6800, e nonostante ciò la 6800ultra a 1280x1024 faceva 60 fps di media senza filtri e 39.1 con i filtri di media (quindi i minimi saranno anche sotto i 20, ingiocabile per un fps)... fai te
vedi qui http://www.hwupgrade.it/articoli/skvideo/1004/finalmente-nv40-geforce-6800-ultra_21.html

Quindi vuoi dire che l'unico gioco dx10 degno di tali nuove dx girerà solo a 30fps con i top gpu r600 e n80?
Se è così allora se le possono tenere ste skede... Sono sempre + intenzionato a prendermi una ps3 e una xbox360 ed abbandonare il pc x questi continui upgrade....

johnson
10-04-2007, 18:40
Quindi vuoi dire che l'unico gioco dx10 degno di tali nuove dx girerà solo a 30fps con i top gpu r600 e n80?
Se è così allora se le possono tenere ste skede... Sono sempre + intenzionato a prendermi una ps3 e una xbox360 ed abbandonare il pc x questi continui upgrade....

Secondo me, da 1600x1200 (o 1680x1050) in su, non faranno più di 40fps di media, che equivalgono a molti meno di minimo. Ingiocabile online, ma sufficente in single player.

Ma d'altronde è sempre successo così. Non ho mai condiviso l'affermazione che chi compra un 8800/x2900 deve avere almeno un 30 pollici. I primi 6 mesi si, quando ci sono ancora giochi "vecchi". Ma appena escono le novità, per avere frame rate accettabili bisogna scendere di risoluzione.

Spero di sbagliarmi, vorrei tanto che la mia VGA facesse 60 fps di minimo fisso a 1280 su crysys :D:D:D

Alexkidd85
10-04-2007, 18:40
Beh non direi proprio. Pensa che i ragazzi della crytec fecero uscire farcry prima dell uscita delle 6800, e nonostante ciò la 6800ultra a 1280x1024 faceva 60 fps di media senza filtri e 39.1 con i filtri di media (quindi i minimi saranno anche sotto i 20, ingiocabile per un fps)... fai te
vedi qui http://www.hwupgrade.it/articoli/skvideo/1004/finalmente-nv40-geforce-6800-ultra_21.html

Ti dirò,ho giocato con il mio mulo che monta una x800gto2 e minimo tutto al max ultime patch far cry fa 25fps....secondo me è un motore grafico spettacolare il crytek engine...comunque...torniamo in topic dai :D

Simon82
10-04-2007, 18:53
come ho già detto, il mio è un parere personale: a me 80fps o 104fps non fà decisamente differenza, e se uno "spegne" fraps nemmeno se ne accorge di quella differenza, lo sai benissimo. 200 euro per avere 24fps in più? no dai...

Quel che noi abbiamo bisogno e' soggettivo e io la ragiono come te infatti.

Ma tecnologicamente parlando un 30% sarebbe un buon incremento certamente da considerare insieme al gap di tempo almeno minimo in piu' di progettazione rispetto alla concorrenza.

Simon82
10-04-2007, 18:55
Quindi vuoi dire che l'unico gioco dx10 degno di tali nuove dx girerà solo a 30fps con i top gpu r600 e n80?
Se è così allora se le possono tenere ste skede... Sono sempre + intenzionato a prendermi una ps3 e una xbox360 ed abbandonare il pc x questi continui upgrade....

Fare questo genere di "progetti" e' impossibile al momento. Non sappiamo se Crysis sara' effettivamente cosi' pesante, scalabile e se si quanto.
Non sappiamo quanto Crysis fara' uso di tutte le funzionalita' messe a disposizione delle nuove API, non sappiamo niente per fare paragoni in termini di fps.

Kharonte85
10-04-2007, 19:06
Quel che noi abbiamo bisogno e' soggettivo e io la ragiono come te infatti.

Ma tecnologicamente parlando un 30% sarebbe un buon incremento certamente da considerare insieme al gap di tempo almeno minimo in piu' di progettazione rispetto alla concorrenza.
Insomma, il 30% che potrebbe diventare 10% (ma anche 0% o -10% ecc..) a seguito della 8800ultra prevista a maggio...non mi sembra granche' (visti i consumi presunti) :mc:
Fare questo genere di "progetti" e' impossibile al momento. Non sappiamo se Crysis sara' effettivamente cosi' pesante, scalabile e se si quanto.
Non sappiamo quanto Crysis fara' uso di tutte le funzionalita' messe a disposizione delle nuove API, non sappiamo niente per fare paragoni in termini di fps.
Quoto

TecnoWorld8
10-04-2007, 19:22
in ogni caso tutte le notizie "buone" giunte finora circa questa scheda riguardano solo il settore HTPC...nulla di nulla sulle prestazioni 3D...che strano!

appleroof
10-04-2007, 20:17
Quel che noi abbiamo bisogno e' soggettivo e io la ragiono come te infatti.

Ma tecnologicamente parlando un 30% sarebbe un buon incremento certamente da considerare insieme al gap di tempo almeno minimo in piu' di progettazione rispetto alla concorrenza.

continuo a non essere d'accordo, in questo caso e visto il gap temporale tra le 2 soluzioni (che poi c'è anche da dire che bisognerà vedere in dx10 come si comporteranno, in effetti)

Fare questo genere di "progetti" e' impossibile al momento. Non sappiamo se Crysis sara' effettivamente cosi' pesante, scalabile e se si quanto.
Non sappiamo quanto Crysis fara' uso di tutte le funzionalita' messe a disposizione delle nuove API, non sappiamo niente per fare paragoni in termini di fps.

qui sono completamente d'accordo ;)

Athlon 64 3000+
10-04-2007, 22:44
http://www.fudzilla.com/index.php?option=com_content&task=view&id=471&Itemid=1

http://www.fudzilla.com/index.php?option=com_content&task=view&id=472&Itemid=1

Kharonte85
10-04-2007, 23:16
http://www.fudzilla.com/index.php?option=com_content&task=view&id=471&Itemid=1

R600 12.4 inch card has 9.5 PCB

Both cards almost the same


We had a chance to compare two cards, at least in measurements and we found out that 12.4 card PCB is almost the same like the 9.5 one. Both cards have circa 9.5 inch PCB with some different components.


This means that the cooler makes the size. The OEM card, also known as 12.4 inch one is as big because it has bunch of copper and heat pipes on a big cooler while the 9.5 inch card has much smaller cooler.


I am sure that 12.4 massive cooler can remove some massive temperature out of this horribly hot card and that is exactly what OEM's wants.


http://www.fudzilla.com/index.php?option=com_content&task=view&id=472&Itemid=1

R650 is 65 nm core

AMD's Shirked R600


We don't know much but we can confirm that ATI is working on a smaller R600 marchitecture based chip codenamed R650. It is officially messed up with R600. The R600 chip is simply too hot and it has terrible heat dissipation and this problem has to be fixed. Dissipation of 230+ Watts is simply too much for any graphic chip and any standard.


We are seeing R520 got swapped with R580 situation all over again and this can definitely confirm that R600 won't have a good and great life. R600 will be replaced as soon as possible as soon as the R650 redesign is done. This is a very expensive but desperate move.




We don't know any schedules about R650 but we are sure that it comes later than Q2.


Azz...i timori vanno confermandosi...

Alexkidd85
10-04-2007, 23:58
Azz...i timori vanno confermandosi...

Sembra che sta news/rumors sia stata creata leggendo i nostri post!! Terrificante questa cosa :muro:
Ok che si mira al mercato enthusiast con l'r600 ma l'entusiasto non è che per forza deve sfruttare tutti i 500watt minimi che ha nell'alimentatore :asd:

TecnoWorld8
11-04-2007, 00:27
l'ho detto e lo ripeto; se ATi volesse fare una bella figura, dovrebbe nemmeno mettere sul mercato R600. Dovrebbe darla SOLO agli OEM e sul mercato far uscire invece la R650 fin da subito.

Purtroppo ci sono casi illustri di schede durate pochissimo...oltre la menzionata R520, anche la nVidia 7900gx2 è stata immediatamente rimpiazzata dalla 7950gx2...

Simon82
11-04-2007, 07:18
http://www.fudzilla.com/index.php?option=com_content&task=view&id=471&Itemid=1

http://www.fudzilla.com/index.php?option=com_content&task=view&id=472&Itemid=1

Mah, siamo sempre sulle solite congetture e per lo piu' questo tipo di news non mi sembra per nulla "news" e solo per far si che il sito in questione faccia parlare un po' di se. Dalle primissime foto era chiarissimo che sulle OEM solo il dissipatore aumentava la dimensione totale della scheda basta vedere una qualsiasi foto da qualsiasi angolazione. Si vede chiaramente la fine del pcb.

Circa il die shrink ipotizzato anche qui nulla di impensabile: e' ormai ovvio che ATI dovra' al piu' presto scendere di processo produttivo e lo si capiva dalle primissime e uniche foto della GPU in cui si vede chiaramente che il die e' esageratamente ampio rispetto perfino alla cornice protettiva metallicache addirittura e' stata modificata per far si che gli angoli del die non siano troppo vicini. D'altro canto il numero di transistor e il processo produttivo sono fattori che vanno al di la' di tutte le ottimizzazioni progettuali tali che piu' di un tot e' comunque mpossibile farcene stare in un'area ridotta se il processo produttivo appunto non si evolve con la stessa proporzionalita'.

Kharonte85
11-04-2007, 09:04
l'ho detto e lo ripeto; se ATi volesse fare una bella figura, dovrebbe nemmeno mettere sul mercato R600. Dovrebbe darla SOLO agli OEM e sul mercato far uscire invece la R650 fin da subito.

Purtroppo ci sono casi illustri di schede durate pochissimo...oltre la menzionata R520, anche la nVidia 7900gx2 è stata immediatamente rimpiazzata dalla 7950gx2...
In teoria pero' la 7900gx2 non era stata "venduta al pubblico"...
Mah, siamo sempre sulle solite congetture e per lo piu' questo tipo di news non mi sembra per nulla "news" e solo per far si che il sito in questione faccia parlare un po' di se. Dalle primissime foto era chiarissimo che sulle OEM solo il dissipatore aumentava la dimensione totale della scheda basta vedere una qualsiasi foto da qualsiasi angolazione. Si vede chiaramente la fine del pcb.

Circa il die shrink ipotizzato anche qui nulla di impensabile: e' ormai ovvio che ATI dovra' al piu' presto scendere di processo produttivo e lo si capiva dalle primissime e uniche foto della GPU in cui si vede chiaramente che il die e' esageratamente ampio rispetto perfino alla cornice protettiva metallicache addirittura e' stata modificata per far si che gli angoli del die non siano troppo vicini. D'altro canto il numero di transistor e il processo produttivo sono fattori che vanno al di la' di tutte le ottimizzazioni progettuali tali che piu' di un tot e' comunque mpossibile farcene stare in un'area ridotta se il processo produttivo appunto non si evolve con la stessa proporzionalita'.
Su questo hai ragione, infatti sono tutte cose che qui si sentono un gorno si' e l'altro anche...:D

Sembra che sta news/rumors sia stata creata leggendo i nostri post!! Terrificante questa cosa :muro:

Qualcuno ci sta spiando? :eekk:

sonnet
11-04-2007, 09:36
l'ho detto e lo ripeto; se ATi volesse fare una bella figura, dovrebbe nemmeno mettere sul mercato R600. Dovrebbe darla SOLO agli OEM e sul mercato far uscire invece la R650 fin da subito.

Purtroppo ci sono casi illustri di schede durate pochissimo...oltre la menzionata R520, anche la nVidia 7900gx2 è stata immediatamente rimpiazzata dalla 7950gx2...
Non e' un attacco diretto a te ma leggendo tutti questi commenti
Premettendo alcune cose:
1)Non spendereri mai 500 euro per nessuna scheda video.
2)L'ultima ati nel mio case e' stata una bella 9550

Non capisco tutte queste storie sul discorso r600 r650 80nm vs 65nm.
Alla fine quello che conta sono le prestazini globali (intendendo non soloq uelle nei giochi) che la scheda offre(certo ora che i test non ci sono si parla di bus di connettori ausiliari frequenze per provare ad ipotizzare come andra',ma quando escono i test tutto cio' conta + niente,conta solo come va realmente). Farsi le pippe mentali su quando uscira' la scheda ancora + potente vuol dire farsi le pippe mentali di "cellodurismo", di dire "ehi ho la scheda + potente".
Allora 2 sono le cose:
1)O comprate queste schede per dire agli amici "ce l'ho + grossa della tua"e quindi temete che questa gioia duri poco.Ma cosi uno la scheda non se la godra' mai.E' come la storia delle x1800,se uno allora acquisto' la scheda e ci ha giocato felice a tutti i giochi per il periodo che si era prospettato,non vedo perche' dovrebbe sentirsi "fregato".
2)Oppure siete speculatori nel campo "compra-vendi" vga (ovviamente scherzo)
Io immagino che uno che con la scheda ci gioca,quando l'acquista quello che valuta e' che la scheda funzioni bene e faccia girare i giochi proporzionalmente bene rispetto a quanto si aspettava pagando quella somma.
Tutto il resto sono chiacchere.

Ultimo pensiero per i consumi: io voglio credere che 230-260 siano davvero una cosa inventata.Sinceramente non riesco a concepire come si possa raffreddare ad aria una scheda simile.
Pensavo e speravo che con la 8800gtx si fosse toccato il fondo, ma qui si sta davvero esagerando.
Addirittura le 8600gts sono accreditate ad un consumo di 70-80w,e le x2600 series fino a 120w e ricordo che sono la fascia "media" dove fino a qualche tempo fa andavano tranquillamente con dissy passivo.
Io tanto per fare un esempio ho una 7900gt che consuma (stando ai dati di anandtech e xbitlabs) sui 50w.
Trovo questa rincorsa ai consumi pazzesca, non so voi ma io voglioun pc tranquillo non un asciugacapelli nel case.

TecnoWorld8
11-04-2007, 10:04
sonnet: indipendentemente dal discorso che hai fatto sulle schede da 500 o più euro (lì ognuno decide secondo le proprie esigenze), hai perfettamente colto il senso di quello che ho scritto nell'ultima frase...

io NON mi lamento di un'eventuale R600 ad 80nm perchè verrà "presto" superata come prestazioni...questo è vero per OGNI pezzo hw. Io mi lamento SE la versione 80nm consumerà 250W e poi magari la 65nm ne consumerà la metà...

Simon82
11-04-2007, 10:12
Non e' un attacco diretto a te ma leggendo tutti questi commenti
Premettendo alcune cose:
1)Non spendereri mai 500 euro per nessuna scheda video.
2)L'ultima ati nel mio case e' stata una bella 9550

Non capisco tutte queste storie sul discorso r600 r650 80nm vs 65nm.
Alla fine quello che conta sono le prestazini globali (intendendo non soloq uelle nei giochi) che la scheda offre(certo ora che i test non ci sono si parla di bus di connettori ausiliari frequenze per provare ad ipotizzare come andra',ma quando escono i test tutto cio' conta + niente,conta solo come va realmente). Farsi le pippe mentali su quando uscira' la scheda ancora + potente vuol dire farsi le pippe mentali di "cellodurismo", di dire "ehi ho la scheda + potente".
Allora 2 sono le cose:
1)O comprate queste schede per dire agli amici "ce l'ho + grossa della tua"e quindi temete che questa gioia duri poco.Ma cosi uno la scheda non se la godra' mai.E' come la storia delle x1800,se uno allora acquisto' la scheda e ci ha giocato felice a tutti i giochi per il periodo che si era prospettato,non vedo perche' dovrebbe sentirsi "fregato".
2)Oppure siete speculatori nel campo "compra-vendi" vga (ovviamente scherzo)
Io immagino che uno che con la scheda ci gioca,quando l'acquista quello che valuta e' che la scheda funzioni bene e faccia girare i giochi proporzionalmente bene rispetto a quanto si aspettava pagando quella somma.
Tutto il resto sono chiacchere.

Ultimo pensiero per i consumi: io voglio credere che 230-260 siano davvero una cosa inventata.Sinceramente non riesco a concepire come si possa raffreddare ad aria una scheda simile.
Pensavo e speravo che con la 8800gtx si fosse toccato il fondo, ma qui si sta davvero esagerando.
Addirittura le 8600gts sono accreditate ad un consumo di 70-80w,e le x2600 series fino a 120w e ricordo che sono la fascia "media" dove fino a qualche tempo fa andavano tranquillamente con dissy passivo.
Io tanto per fare un esempio ho una 7900gt che consuma (stando ai dati di anandtech e xbitlabs) sui 50w.
Trovo questa rincorsa ai consumi pazzesca, non so voi ma io voglioun pc tranquillo non un asciugacapelli nel case.
Il fatto e' proprio che la maggior parte di chi compra una scheda da 500 euro lo fa non tanto per l'esigenza di giocare a 2048x1024 con AA 16X o AF o azzi e mazzi (vorrei vedere quanti utenti possiedono un monitor degno di tali risoluzioni) ma proprio per la sensazione competitiva di avere il top. Un po' come quello che compra un SUV e poi magari e' single.
Non dico sia sbagliato, ammetto che ogni volta che si aggiorna il pc per un po' si ha come la sensazione di essere "al passo con i tempi" e pronti per qualsiasi esigenza relativa a nuovi titoli sempre in arrivo ma mai abbastanza per ripagare il tutto. E allora ci si arrabbia e si fanno questi discorsi. Mi ci metto anche io dentro questo giro, sia chiaro anche se piu' di 200 euro generalmente non spendo per la VGA. ;)
La X1800XL ancora durera' a lungo e per ora non l'ho sfruttata per niente purtroppo.. non ci sono titoli che mi gustano.

sonnet
11-04-2007, 11:15
sonnet: indipendentemente dal discorso che hai fatto sulle schede da 500 o più euro (lì ognuno decide secondo le proprie esigenze), hai perfettamente colto il senso di quello che ho scritto nell'ultima frase...

io NON mi lamento di un'eventuale R600 ad 80nm perchè verrà "presto" superata come prestazioni...questo è vero per OGNI pezzo hw. Io mi lamento SE la versione 80nm consumerà 250W e poi magari la 65nm ne consumerà la metà...

Io una scheda da 200w e passa non la comprerei mai, a meno che non abbiano fatto miracoli per dissiparla al meglio avendo quindi un rumore prossimo allo zero.
Io davvero non riesco a credere che venga prodotta una scheda da 260w,cioe' ma scherziamo?Ma ci siamo dimenticati che prima della serie 78xx di nvidia e di x18xx di ati le top gamma arrivavano al max a 60w?Addirittura c'e' ha gridato al miracolo nel caso di 8800gtx perche' consumava soli 130w !
Certo io non acquisto schede da 500 euro quindi quanto consumi r600 mi interessa relativamente poco,ma il problema e' che anche la fascia media sia di nvidia che ati stanno seguendo a ruota quella alta nei consumi.
Si rumoreggia che la x26xx consumeranno fino a oltre 110watt.
Io spero sia tutto inventato.
Purtroppo credo che i 65nm non risolvano il problema,se e quando la produrranno a 65nm semplicemente aumeteranno le frequenze e saremo punto e a capo.IMHO.

VitOne
11-04-2007, 11:27
Il fatto e' proprio che la maggior parte di chi compra una scheda da 500 euro lo fa non tanto per l'esigenza di giocare a 2048x1024 con AA 16X o AF o azzi e mazzi (vorrei vedere quanti utenti possiedono un monitor degno di tali risoluzioni) ma proprio per la sensazione competitiva di avere il top. Un po' come quello che compra un SUV e poi magari e' single.
Non dico sia sbagliato, ammetto che ogni volta che si aggiorna il pc per un po' si ha come la sensazione di essere "al passo con i tempi" e pronti per qualsiasi esigenza relativa a nuovi titoli sempre in arrivo ma mai abbastanza per ripagare il tutto. E allora ci si arrabbia e si fanno questi discorsi. Mi ci metto anche io dentro questo giro, sia chiaro anche se piu' di 200 euro generalmente non spendo per la VGA. ;)
La X1800XL ancora durera' a lungo e per ora non l'ho sfruttata per niente purtroppo.. non ci sono titoli che mi gustano.

Veramente delle numerose persone che conosco in possesso di una scheda TOP moltissime hanno un monitor da 22-30" con cui la scheda è ampiamente sfruttata ed in alcuni casi si rivela addirittura insufficiente (non pariamo di tutti i giochi male ottimizzati usciti di recente...).

Come sostengo da sempre esistono prodotti per tutte le fasce di prezzo, in base al reddito personale di chi acquista ed in base soprattutto alla percentuale di soldi guadagnati dall'individuo stesso che egli decide di spendere. Se guadagno 1000€ al mese e spendo 250€ in scheda grafica, secondo il mio parere, sono più "pazzo" di uno che guadagna 10000€ e spende 500€ in scheda grafica, utilizzando altro denaro magari per atti di beneficenza e similari.

Dato che in questa discussione parlare di "utilità di schede grafiche da 500€" e argomenti simili credo sia OT ne avevo creata tempo fa una apposta per discutere di tematiche come queste: ECCOLA QUI (http://www.hwupgrade.it/forum/showthread.php?t=1408859).

Ribadisco in due righe che videogiocare è un lusso a tutti i livelli; io credo in due parole che ognuno lo può fare a modo suo: chi ha la fortuna (e anche il merito) di avere un lavoro o un impiego remunerativo è giusto che, in caso sia appassionato, spenda di più. Perché l'esperienza di gioco tra un 4:3 1280x1024 ed un 16:10 (magari anche di qualità) da 24" 1920X1200 cambia, e non cabia poco.

Ovviamente a questo mondo esistono persone che comprano il PC più potente per sentirsi superiori; ma vi assicuro che questo è vero solamente per una piccola percentuale di acquirenti, quelli meno attenti: per il semplice fatto che una volta comprato il PC "più potente" ci si rende subito conto che c'è chi lo ha meglio configurato, più veloce, più propenso all'overclock, meglio sistemato a livello di driver, e si può continuare questo elenco all'infinito: in tutti i campi (non solo a livello di scheda grafica, computer, ma in tutti i campi della vita) c'è sempre e sempre ci sarà qualcuno che ha meglio di te. Secondo me è uno sforzo inutile pensare di avere qualcosa "al top" perché non si è mai soli (ad oggi le 8800GTX vendute sono più di 500.000 MEZZO MILIONE non sono pochissime persone) e, come ho detto e ripeto, esiste sempre qualcuno che ha più di te. La prima volta che si compra una scheda TOP o un computer TOP ci si può illudere per qualche momento di avere il computer "più potente" ma è una sensazione che in tutte le persone sane di mente dura molto poco: basta guardarsi intorno. Io credo che solo una persona che non ha mai avuto un PC TOP non possa rendersi conto di questo. In ogni caso se pensate che esistano delle persone che godono ad "averlo più lungo" (magari per compensare altri tipi di carenze :D) occhio che con quello che scrivete non fate altro che fare il loro gioco perché, molto onestamente, nelle vostre parole quando si parla di hardware costoso oltre una certa soia (la soia personale di ognuno di noi) si legge sempre un pizzico di invidia che veramente non ha motivo di essere, spero che sia chiaro da quello che ho scritto.

Inoltre anche in informatica non c'è limite al lusso: esistono persone con più computer uguali, uno viene magari usato per provare i driver e come "test" di quello che si mette sull'altro, e cose simili.

Concludo con il concetto iniziale: videogiocare non è giocare, mentre la seconda attività è indispensabile per l'uomo e convive con noi da quando esistiamo, la seconda è, per la maggior parte delle persone, una necessità indotta dal sistema (proprio come comprare un computer più potente). Quando si critica una persona che spende 500 piuttosto che 250€ non ci si rende conto che, a livello di percentuali mondiali, si rientra esattamente nella stessa fascia, una percentuale bassissima di persone che possono permettersi il lusso di videogiocare spendendo simili cifre, alla portata in ogni caso di pochissimi.

Io credo che ognuno ha la coscienza di sapere quanto guadagna, quello che ha fatto per guadagnare, come spende il suo denaro, e non mi permetto di criticare chi ha di più o di meno; certo esprimo dei pareri (ripeto secondo me è peggio guadagnare 10 e spendere 2 che non guadagnare 100 e spendere 5 in computer) però cerco sempre di farlo nel rispetto degli altri. E non è mai piacevole sentire "sentenze" da parte di alcuni utenti (per carità non del messaggio che ho postato).

Posto di nuovo il link alla discussione che ho creato: ECCOLA QUI (http://www.hwupgrade.it/forum/showthread.php?t=1408859).

sonnet
11-04-2007, 11:27
Il fatto e' proprio che la maggior parte di chi compra una scheda da 500 euro lo fa non tanto per l'esigenza di giocare a 2048x1024 con AA 16X o AF o azzi e mazzi (vorrei vedere quanti utenti possiedono un monitor degno di tali risoluzioni) ma proprio per la sensazione competitiva di avere il top. Un po' come quello che compra un SUV e poi magari e' single.
Non dico sia sbagliato, ammetto che ogni volta che si aggiorna il pc per un po' si ha come la sensazione di essere "al passo con i tempi" e pronti per qualsiasi esigenza relativa a nuovi titoli sempre in arrivo ma mai abbastanza per ripagare il tutto. E allora ci si arrabbia e si fanno questi discorsi. Mi ci metto anche io dentro questo giro, sia chiaro anche se piu' di 200 euro generalmente non spendo per la VGA. ;)
La X1800XL ancora durera' a lungo e per ora non l'ho sfruttata per niente purtroppo.. non ci sono titoli che mi gustano.

Aggiungo solo che se noi acquistiamo sempre l'ultima novita' anche senza averne davvero necessita',dovremmo renderci conto che siamo noi stessi che alimentiamo (coi nostri soldi) questa rincorsa sfrenata e introdurre sul mercato l'ultima novita' ogni sei mesi o meno che alimenta ancora di + la nostra insoddisfazione e di conseguenza ci porta ancora + ad acquistare.
E + siamo aggiornati,meno gli sviluppatori di giochi hanno interesse ad ottimizzare un gioco per farlo girare su piattaforme vecchie (anche di soli2-3 anni fa).E' il cane che si morde la coda.Poi con gli LCD attuali nonsi puo' nemmeno + di tanto abbassare la risoluzione.IO ho un 22" (da 300" mica da 1000 euro) che va a 1650x1080, e questa risoluzione diventera' mainstream entro fine anno (anche i 20" hanno la stessa risoluzione).
Alla fine sono + le recensioni in rete a farmi sembrare la mia scheda lenta,che non la sensazione di quando gioco realmente.

sonnet
11-04-2007, 11:36
Ovviamente a questo mondo esistono persone che comprano il PC più potente per sentirsi superiori; ma vi assicuro che questo è vero solamente per una piccola percentuale di acquirenti, quelli meno attenti: per il semplice fatto che una volta comprato il PC "più potente" ci si rende subito conto che c'è chi lo ha meglio configurato, più veloce, più propenso all'overclock, meglio sistemato a livello di driver, e si può continuare questo elenco all'infinito: in tutti i campi (non solo a livello di scheda grafica, computer, ma in tutti i campi della vita) c'è sempre e sempre ci sarà qualcuno che ha meglio di te.

Posto di nuovo il link alla discussione che ho creato: ECCOLA QUI (http://www.hwupgrade.it/forum/showthread.php?t=1408859).

Si ma se fai questo discorso, te ne torni al mio ,che penso fosse in topice riguarda il fatto che molti dicono ,pensano r600 e' una fregatura perche' dopo poco ne esce una + potente.
Ripeto r600 potra' essere una fregatura perche' consuma troppo, o perche' non andra' tanto forte nei giochi , o perche' costera' troppo rispetto a quanto costera'.Ovviamente e' tutto da verificare.
Ma dire e' una fregatura perche' anche se va bene poi ne esce una altra dopo 3 mesi migliore, mi smebra assurdo.Se ho 500 euro da spendere in una scheda video per giocare prendo il meglio che in quel momento posso acquistare con quella somma.Comprata la scheda ci gioco e del resto me ne frego, fino a quando non mi sento + soddisfatto dalla scheda,ma non perche' vi e' un'altra + potente,ma perche' ho comprato il gioco x e la scheda che ho non ce la fa + a farlo girare come vorrei.

Alexkidd85
11-04-2007, 11:36
Io una scheda da 200w e passa non la comprerei mai, a meno che non abbiano fatto miracoli per dissiparla al meglio avendo quindi un rumore prossimo allo zero.
Io davvero non riesco a credere che venga prodotta una scheda da 260w,cioe' ma scherziamo?Ma ci siamo dimenticati che prima della serie 78xx di nvidia e di x18xx di ati le top gamma arrivavano al max a 60w?Addirittura c'e' ha gridato al miracolo nel caso di 8800gtx perche' consumava soli 130w !
Certo io non acquisto schede da 500 euro quindi quanto consumi r600 mi interessa relativamente poco,ma il problema e' che anche la fascia media sia di nvidia che ati stanno seguendo a ruota quella alta nei consumi.
Si rumoreggia che la x26xx consumeranno fino a oltre 110watt.
Io spero sia tutto inventato.
Purtroppo credo che i 65nm non risolvano il problema,se e quando la produrranno a 65nm semplicemente aumeteranno le frequenze e saremo punto e a capo.IMHO.

Bravissimo,diminuiscono il processo produttivo e aumentano le frequenze,consumando quanto la precedente generazione.Ma quindi credo sia impensabile che la "nuova" vga faccia quanto la "vecchia",ed a mio modo di vedere,io se per 3 mesi devo vedermi surclassato da una scheda che tralaltro perde anche di valore(è vero quello che dici,io prendo la top per rivendermela perdendo 200 euro e mettercene altre 200 per la nuova,è un discorso IMHO giusto),mi girano un poco. ripeto SE tutte le nostre pippe mentali vengono confermate...siamo nel campo delle ipotesi.
Insomma dai è come la 360 e la PS3,prenderla ora per averla a 80nm,quando a fine anno già si parla di 65nm e le 80nm scenderanno di brutto(si vocifera questo e credo sia così)...andranno alla stessa maniera e in quel caso a parità di prestazioni aspetto che scenda il prezzo :D
purtroppo per le VGA non la vedo alla stessa maniera,ti giuro non è per i 4 fps che magari la 65nm avrà in più alla 80nm, ma è sempre per il mio discorso primario: ok che i soldi sono "miei" e li spendo come voglio,ma neanche che,come si dice da noi "coglioneggiamo" con 600 euro!! :rolleyes: Sono tanti ou,non è che possono prendermi per il culo se hanno già i 65 nm pronti e magari(ipotizzo) devono smaltire gli 80nm!
comunque,ripeto,forse sbaglio ma io la vedo così :)

Defragg
11-04-2007, 11:39
Veramente delle numerose persone che conosco in possesso di una scheda TOP moltissime hanno un monitor da 22-30" con cui la scheda è ampiamente sfruttata ed in alcuni casi si rivela addirittura insufficiente (non pariamo di tutti i giochi male ottimizzati usciti di recente...).

Come sostengo da sempre esistono prodotti per tutte le fasce di prezzo, in base al reddito personale di chi acquista ed in base soprattutto alla percentuale di soldi guadagnati dall'individuo stesso che egli decide di spendere. Se guadagno 1000€ al mese e spendo 250€ in scheda grafica, secondo il mio parere, sono più "pazzo" di uno che guadagna 10000€ e spende 500€ in scheda grafica, utilizzando altro denaro magari per atti di beneficenza e similari.

Dato che in questa discussione parlare di "utilità di schede grafiche da 500€" e argomenti simili credo sia OT ne avevo creata tempo fa una apposta per discutere di tematiche come queste: ECCOLA QUI (http://www.hwupgrade.it/forum/showthread.php?t=1408859).

Ribadisco in due righe che videogiocare è un lusso a tutti i livelli; io credo in due parole che ognuno lo può fare a modo suo: chi ha la fortuna (e anche il merito) di avere un lavoro o un impiego remunerativo è giusto che, in caso sia appassionato, spenda di più. Perché l'esperienza di gioco tra un 4:3 1280x1024 ed un 16:10 (magari anche di qualità) da 24" 1920X1200 cambia, e non cabia poco.

Ovviamente a questo mondo esistono persone che comprano il PC più potente per sentirsi superiori; ma vi assicuro che questo è vero solamente per una piccola percentuale di acquirenti, quelli meno attenti: per il semplice fatto che una volta comprato il PC "più potente" ci si rende subito conto che c'è chi lo ha meglio configurato, più veloce, più propenso all'overclock, meglio sistemato a livello di driver, e si può continuare questo elenco all'infinito: in tutti i campi (non solo a livello di scheda grafica, computer, ma in tutti i campi della vita) c'è sempre e sempre ci sarà qualcuno che ha meglio di te. Secondo me è uno sforzo inutile pensare di avere qualcosa "al top" perché non si è mai soli (ad oggi le 8800GTX vendute sono più di 500.000 MEZZO MILIONE non sono pochissime persone) e, come ho detto e ripeto, esiste sempre qualcuno che ha più di te. La prima volta che si compra una scheda TOP o un computer TOP ci si può illudere per qualche momento di avere il computer "più potente" ma è una sensazione che in tutte le persone sane di mente dura molto poco: basta guardarsi intorno. Io credo che solo una persona che non ha mai avuto un PC TOP non possa rendersi conto di questo. In ogni caso se pensate che esistano delle persone che godono ad "averlo più lungo" (magari per compensare altri tipi di carenze :D) occhio che con quello che scrivete non fate altro che fare il loro gioco perché, molto onestamente, nelle vostre parole quando si parla di hardware costoso oltre una certa soia (la soia personale di ognuno di noi) si legge sempre un pizzico di invidia che veramente non ha motivo di essere, spero che sia chiaro da quello che ho scritto.

Inoltre anche in informatica non c'è limite al lusso: esistono persone con più computer uguali, uno viene magari usato per provare i driver e come "test" di quello che si mette sull'altro, e cose simili.

Concludo con il concetto iniziale: videogiocare non è giocare, mentre la seconda attività è indispensabile per l'uomo e convive con noi da quando esistiamo, la seconda è, per la maggior parte delle persone, una necessità indotta dal sistema (proprio come comprare un computer più potente). Quando si critica una persona che spende 500 piuttosto che 250€ non ci si rende conto che, a livello di percentuali mondiali, si rientra esattamente nella stessa fascia, una percentuale bassissima di persone che possono permettersi il lusso di videogiocare spendendo simili cifre, alla portata in ogni caso di pochissimi.

Io credo che ognuno ha la coscienza di sapere quanto guadagna, quello che ha fatto per guadagnare, come spende il suo denaro, e non mi permetto di criticare chi ha di più o di meno; certo esprimo dei pareri (ripeto secondo me è peggio guadagnare 10 e spendere 2 che non guadagnare 100 e spendere 5 in computer) però cerco sempre di farlo nel rispetto degli altri. E non è mai piacevole sentire "sentenze" da parte di alcuni utenti (per carità non del messaggio che ho postato).

Posto di nuovo il link alla discussione che ho creato: ECCOLA QUI (http://www.hwupgrade.it/forum/showthread.php?t=1408859).

quoto :O

Perché l'esperienza di gioco tra un 4:3 1280x1024 ed un 16:10 (magari anche di qualità) da 24" 1920X1200 cambia, e non cabia poco.
1280x1024 è 5:4 non 4:3 :stordita:

VitOne
11-04-2007, 11:48
Aggiungo solo che se noi acquistiamo sempre l'ultima novita' anche senza averne davvero necessita',dovremmo renderci conto che siamo noi stessi che alimentiamo (coi nostri soldi) questa rincorsa sfrenata e introdurre sul mercato l'ultima novita' ogni sei mesi o meno che alimenta ancora di + la nostra insoddisfazione e di conseguenza ci porta ancora + ad acquistare.
E + siamo aggiornati,meno gli sviluppatori di giochi hanno interesse ad ottimizzare un gioco per farlo girare su piattaforme vecchie (anche di soli2-3 anni fa).E' il cane che si morde la coda.Poi con gli LCD attuali nonsi puo' nemmeno + di tanto abbassare la risoluzione.IO ho un 22" (da 300" mica da 1000 euro) che va a 1650x1080, e questa risoluzione diventera' mainstream entro fine anno (anche i 20" hanno la stessa risoluzione).
Alla fine sono + le recensioni in rete a farmi sembrare la mia scheda lenta,che non la sensazione di quando gioco realmente.

Mi permetto di farti presente che la maggior parte dei soldi girano non nella fascia alta ma nella fascia media; le industrie lo sanno e si regolano di conseguenza: comprare una scheda di fascia media alimentata il sistema tanto quanto comprare una scheda di fascia alta. Per il resto credo fermamente, come ho detto, che videogiocare è un lusso a tutti i livelli; ovviamente c'è chi compra solo per avere il sistema più potente (ma non credo come ho detto che siano in molti). Nessuno ci obbliga a videogiocare, proprio come nessuno ci obbliga a fare le milioni di cose che ogni giorono la nostra società pubblicizza e vuole rendere "indispensabili"; questo però mi pare un discorso molto filosofico, e vale veramente a tutti i livelli. Se decidi di entrare in un mondo come quello dei giochi per PC (scelta personale e obbligata da nessuno se non da necessità indotte "dal sistema", di cui fanno parte anche amici e parenti oltre alla pubblicità "pura") ti rendi conto che esistono delle "regole", soprattutto se vuoi giocare con gli ultimi titoli (altra cosa assolutamente NON indispensabile, tanto che esistono persone che per scelta giocano sempre con giochi vecchi di un anno o più, in modo da non avere bug e da poterseli godere al massimo senza dover spendere il necessario per un sistema TOP).

Esistono vari metodi per "convivere" con il mercato dei videogame; ognuno sceglie (o almeno dovrebbe) in base alle sue possibilità. In ogni caso (anche comprando materiale usato) vai sempre ad alimentare multinazionali (in alcuni casi anche di paesi con tutela dei lavorati minima e con politiche economiche ai limiti del dittatoriale e oltre). Questo è il mercato dei videogiochi oggi; l'obbiettivo è quello di creare dipendenza. Torno sul punto di prima: perché giocare con l'ultimo gioco uscito e non ritardare di uno-due anni un videogioco? Sono tutte necessità indotte; possiamo fare qualcosa perché gli sviluppatori ed i produttori di hardware vengano più incontro alle nostre "apparenti" necessità, però dobbiamo ricordare che è un mondo nel quale si vogliono solamente fare tanti soldi; è così che funziona. Sicuramente è giusto chiedere delle condizioni migliori per gli utenti; chiedere videogame in grado di sfruttare l'hardware e di essere scalabili, in modo che tutti possano giocare indipendentemente dal budget, ma il mondo dei videogame è questo e questo rimane. Se non ci piace, basta uscire e andare a fare una partita di pallone con gli amici. Se ci siamo dentro, è inutile sputare nel piatto dove mangiamo.

halduemilauno
11-04-2007, 11:50
http://uk.theinquirer.net/?article=38837
;)

sonnet
11-04-2007, 11:53
Bravissimo,diminuiscono il processo produttivo e aumentano le frequenze,consumando quanto la precedente generazione.Ma quindi credo sia impensabile che la "nuova" vga faccia quanto la "vecchia",ed a mio modo di vedere,io se per 3 mesi devo vedermi surclassato da una scheda che tralaltro perde anche di valore(è vero quello che dici,io prendo la top per rivendermela perdendo 200 euro e mettercene altre 200 per la nuova,è un discorso IMHO giusto),mi girano un poco. ripeto SE tutte le nostre pippe mentali vengono confermate...siamo nel campo delle ipotesi.
Insomma dai è come la 360 e la PS3,prenderla ora per averla a 80nm,quando a fine anno già si parla di 65nm e le 80nm scenderanno di brutto(si vocifera questo e credo sia così)...andranno alla stessa maniera e in quel caso a parità di prestazioni aspetto che scenda il prezzo :D
purtroppo per le VGA non la vedo alla stessa maniera,ti giuro non è per i 4 fps che magari la 65nm avrà in più alla 80nm, ma è sempre per il mio discorso primario: ok che i soldi sono "miei" e li spendo come voglio,ma neanche che,come si dice da noi "coglioneggiamo" con 600 euro!! :rolleyes: Sono tanti ou,non è che possono prendermi per il culo se hanno già i 65 nm pronti e magari(ipotizzo) devono smaltire gli 80nm!
comunque,ripeto,forse sbaglio ma io la vedo così :)

Ma cosi non acquisti mai niente, scusa noi ancora non sappiamo niente di certo su r600 nonostante manchi meno di un mese al lancio (almeno credo) e credi che saprai gia' tutto di r650 (data lancio,processo produtt, prestazioni ,consumi..)quando uscira' r600 ?
ATI e Nvidia cercano di tenere nascosti segreti i loro progetti, tu potresti al limite fare un discorso del genere solo se conoscessi perfettamente come andranno le cose da qui a 6-9 mesi.Ma nemmeno nvidia e ati lo sanno quindi..

VitOne
11-04-2007, 12:00
Si ma se fai questo discorso, te ne torni al mio ,che penso fosse in topice riguarda il fatto che molti dicono ,pensano r600 e' una fregatura perche' dopo poco ne esce una + potente.
Ripeto r600 potra' essere una fregatura perche' consuma troppo, o perche' non andra' tanto forte nei giochi , o perche' costera' troppo rispetto a quanto costera'.Ovviamente e' tutto da verificare.
Ma dire e' una fregatura perche' anche se va bene poi ne esce una altra dopo 3 mesi migliore, mi smebra assurdo.Se ho 500 euro da spendere in una scheda video per giocare prendo il meglio che in quel momento posso acquistare con quella somma.Comprata la scheda ci gioco e del resto me ne frego, fino a quando non mi sento + soddisfatto dalla scheda,ma non perche' vi e' un'altra + potente,ma perche' ho comprato il gioco x e la scheda che ho non ce la fa + a farlo girare come vorrei.

Il problema è anche questo (leggi la discussione che ho linkato in precedenza se ti interessa l'argomento): videogiocare è un lusso, credo sia chiaro il motivo per cui, almeno secondo me, è così. Il fine del viodegaming è sempre il divertimento. Adesso allora per quale motivo, se uno si diverte semplicemente a poter dire "ho il sistema più potente, QX6800 e SLi 8800GTX" è meno "degno" di una persona che videogioca? In entrambi i casi (chi più chi meno) si sta rispondendo a necessità indotte dal sistema. In embrambi i casi finanziamo industrie multinazionali che sfruttano (non sempre ma spesso) i lavoratori. Magari nel primo caso si tratta di una persona che guadagna 10 e ha speso 2 per comptuer ed il resto per beni di prima necessità. Nel secondo caso una persona che guadagna 100, ha speso 5 e magari ha messo 10 in beneficenza. Sei ancora sicuro di poter criticare in modo così netto chi si compra una scheda solo per potersene vantare? Io credo che sia sempre tutto molto relativo. Il mercato è quello; cambiano i soldi spesi è vero, ma in base a cosa? Da dove vengono quei soldi? La maggior parte dei videogiocatori, secondo indagini statistiche, non si autofinanzia ma prende i soldi da genitori/parenti e compra in seguito a eventi come il compleanno o natale, dopo aver racimolato soldi. È forse una colpa o uno sbaglio avere dei genitori o uno zio più ricco degli altri?

Magari c’è chi ha 500€ ma non li vuole spendere per giocare, perché si diverte di più ad avere semplicemente il PC più potente, o a benchare, per esempio. Non credo che questo sia un atteggiamento classificabile come migliore o peggiore rispetto a chi si diverte videogiocando.

A livello personale pure io ho più volte criticato ATI /AMD per aver fatto uscire una scheda con così tanto ritardo, di cui ancora si sa poco se non la data di presentazione, e che ha consentito a Nvidia di avere il monopolio del mercato di fascia alta e adesso anche quello di fascia media (in numerosi negozi che NON vendono online la 8800GTS 320Mbyte si trova a 250-270€ iva inclusa qui a Roma).

quoto :O


1280x1024 è 5:4 non 4:3 :stordita:

Grazie per il quote e per la correzione :D.

LCol84
11-04-2007, 12:07
http://uk.theinquirer.net/?article=38837
;)

Cioè vogliono cambiare il prezzo della top di gamma con le versioni a 65nm mettendo come tetto massimo 400$?

A me sembra proprio un'utopia.
Voglio dire la gente che compra schede da 500€, lo fa adesso e lo farà anche in futuro. Quindi non vedo perchè amd dovrebbe abbassare i suoi guadagni gratuitamente.
Sempre se ho capito bene...

Kharonte85
11-04-2007, 13:04
Cioè vogliono cambiare il prezzo della top di gamma con le versioni a 65nm mettendo come tetto massimo 400$?

A me sembra proprio un'utopia.
Voglio dire la gente che compra schede da 500€, lo fa adesso e lo farà anche in futuro. Quindi non vedo perchè amd dovrebbe abbassare i suoi guadagni gratuitamente.
Sempre se ho capito bene...
Infatti, anche a me sembra una cavolata, a meno che non sappiano gia' che l'R-600 vada molto piu' lento della 8800gtx.

Alexkidd85
11-04-2007, 14:06
Ma cosi non acquisti mai niente, scusa noi ancora non sappiamo niente di certo su r600 nonostante manchi meno di un mese al lancio (almeno credo) e credi che saprai gia' tutto di r650 (data lancio,processo produtt, prestazioni ,consumi..)quando uscira' r600 ?
ATI e Nvidia cercano di tenere nascosti segreti i loro progetti, tu potresti al limite fare un discorso del genere solo se conoscessi perfettamente come andranno le cose da qui a 6-9 mesi.Ma nemmeno nvidia e ati lo sanno quindi..

Infatti il mio è sempre un discorso "ipotetico" per la serie...se così sarà...allora secondo me non conviene fare determinate cose :)

appleroof
11-04-2007, 14:25
Magari c’è chi ha 500€ ma non li vuole spendere per giocare, perché si diverte di più ad avere semplicemente il PC più potente, o a benchare, per esempio. Non credo che questo sia un atteggiamento classificabile come migliore o peggiore rispetto a chi si diverte videogiocando.


Sono d'accordo. Anche spendere 1 euro per un qualcosa di superfluo come un pc (che non serva per lavoro) è un lusso rinunciabilissimo. Il resto è moralismo spicciolo quando và male, dubbi legittimi se in buona fede, quando va bene, ma se ci si sofferma un attimo sulla prima parte di quello che ho appena scritto (chiaramente mio modesto parere :) ) ci si rende conto che nessuno, qui, può pontificare su quanto si spende per un pc, perchè ogni euro speso per un pc ripeto è un lusso. Al limite capisco chi si limita a dire "preferisco spendere meno" per scelta o necessità, ma stare a giudicare e pontificare no.

Quanto a R600 nello specifico, il discorso è legato al fatto che si prospetta un R650 (questa è l'ultima, chiamatelo come volete :D ) subito dopo R600, il chè rende l'acquisto di questo una vera presa per i fondelli (almeno la top Nvidia è durata 6 mesi, fino ad adesso e aspettando il momento in cui uscirà la nuova). Non è un avvicendamento normale, ed io mi incacchierei non poco.

Chiaramente sempre che tutto venga confermato, perchè non è scritto ancora da nessuna parte con certezza che sarà così ;)

fukka75
11-04-2007, 15:08
Quanto a R600 nello specifico, il discorso è legato al fatto che si prospetta un R650 (questa è l'ultima, chiamatelo come volete :D ) subito dopo R600, il chè rende l'acquisto di questo una vera presa per i fondelli (almeno la top Nvidia è durata 6 mesi, fino ad adesso e aspettando il momento in cui uscirà la nuova). Non è un avvicendamento normale, ed io mi incacchierei non poco.

Chiaramente sempre che tutto venga confermato, perchè non è scritto ancora da nessuna parte con certezza che sarà così ;)

*

Simon82
11-04-2007, 15:19
Sono d'accordo. Anche spendere 1 euro per un qualcosa di superfluo come un pc (che non serva per lavoro) è un lusso rinunciabilissimo. Il resto è moralismo spicciolo quando và male, dubbi legittimi se in buona fede, quando va bene, ma se ci si sofferma un attimo sulla prima parte di quello che ho appena scritto (chiaramente mio modesto parere :) ) ci si rende conto che nessuno, qui, può pontificare su quanto si spende per un pc, perchè ogni euro speso per un pc ripeto è un lusso. Al limite capisco chi si limita a dire "preferisco spendere meno" per scelta o necessità, ma stare a giudicare e pontificare no.

Quanto a R600 nello specifico, il discorso è legato al fatto che si prospetta un R650 (questa è l'ultima, chiamatelo come volete :D ) subito dopo R600, il chè rende l'acquisto di questo una vera presa per i fondelli (almeno la top Nvidia è durata 6 mesi, fino ad adesso e aspettando il momento in cui uscirà la nuova). Non è un avvicendamento normale, ed io mi incacchierei non poco.

Chiaramente sempre che tutto venga confermato, perchè non è scritto ancora da nessuna parte con certezza che sarà così ;)

C'e' anche da dire che nessuno obbliga ad acquistare nulla. Se uno vuole la scheda sa' quel che prende e se e' a conoscenza di una migliore versione in arrivo valuta su questa base. Certo, "eticamente" non e' corretto ma i commerciali e marketing non guardano a queste cose. :p

appleroof
11-04-2007, 15:41
C'e' anche da dire che nessuno obbliga ad acquistare nulla. Se uno vuole la scheda sa' quel che prende e se e' a conoscenza di una migliore versione in arrivo valuta su questa base. Certo, "eticamente" non e' corretto ma i commerciali e marketing non guardano a queste cose. :p

sono d'accordissimo, ma tieni presente che non tutti sono iperinformati come noi, e non credo sia giusto far uscire 2 versioni top a brevissima distanza l'una dall'altra: hai aspettato 6 mesi? Aspetta 8 e fai uscire direttamente la seconda, ma non puoi perchè già stai perdendo troppo in termini di immagine (e in misura minore soldi, adesso che debutta la fascia media Nvidia poi non ne parliamo). Volgio vedere però come si sentirà quello che ha speso 600 o 500 euro e dopo 2 mesi non dico 6 vede che allo stesso prezzo avrebbe preso la versione più evoluta e che ritorno d'immagine avrà Ati in ogni caso. Non ci siamo, queste sono proprio alcune delle conseguenze gravose di cui parlavo mesi fà a proposito del mega ritardo ati/dx10....

Il tutto imho e sempre in attesa di conferme/smentite, come al solito :)

davide155
11-04-2007, 15:51
Infatti, anche a me sembra una cavolata, a meno che non sappiano gia' che l'R-600 vada molto piu' lento della 8800gtx.

Vi ricordo che il sito in questione è the inquirer :O

Simon82
11-04-2007, 15:54
sono d'accordissimo, ma tieni presente che non tutti sono iperinformati come noi, e non credo sia giusto far uscire 2 versioni top a brevissima distanza l'una dall'altra: hai aspettato 6 mesi? Aspetta 8 e fai uscire direttamente la seconda, ma non puoi perchè già stai perdendo troppo in termini di immagine (e in misura minore soldi, adesso che debutta la fascia media Nvidia poi non ne parliamo). Volgio vedere però come si sentirà quello che ha speso 600 o 500 euro e dopo 2 mesi non dico 6 vede che allo stesso prezzo avrebbe preso la versione più evoluta e che ritorno d'immagine avrà Ati in ogni caso. Non ci siamo, queste sono proprio alcune delle conseguenze gravose di cui parlavo mesi fà a proposito del mega ritardo ati/dx10....

Il tutto imho e sempre in attesa di conferme/smentite, come al solito :)

Mi auguro che i 2 mesi non siano neanchi da prendere in considerazione. Certo forse a livello di immagine potrebbe salvare AMD avere finalmente una soluzione pronta qualsiasi sia il processo produttivo con un die a mo' di tavolo...a questo punto 2 mesi sono un bel guadagno per l'azienda dopo gli n passati.

appleroof
11-04-2007, 16:08
Certo forse a livello di immagine potrebbe salvare AMD avere finalmente una soluzione pronta qualsiasi sia il processo produttivo con un die a mo' di tavolo...a questo punto 2 mesi sono un bel guadagno per l'azienda dopo gli n passati.

Diciamo che vedresti il bicchiere mezzo pieno...:p

cmq sia, il tempo finalmente si avvicina, e vedremo quanto di quello che abbiamo ipotizzato in questi mesi sarà vero o meno, quanto all'immagine sappiamo che se R600 spacca (al di là della questione "versione successiva immediatamente dopo" o meno, che cmq se vera cambia non poco lo scenario) il ritardo sarà dimenticato e il danno d'immagine cancellato istantaneamente....sarà per questo che tardano? Vedremo :)

halduemilauno
11-04-2007, 16:47
http://www.pcinpact.com/actu/news/35787-R600-X2900-8800-Ultra-65-nm-R650.htm
;)

TecnoWorld8
11-04-2007, 17:28
io credo che invece il prezzo basso sia "possibile"...pensateci...il mercato dei pc si sta ridefinendo. ad agosto ho acquistato un Intel C2D E6600 a meno di 300 Euro. Un mese prima, una CPU con la stessa potenza costava oltre il doppio...

Perche` dunque la stessa cosa non puo` accadere con le GPU? Magari ci sara` una top di gamma a 600 Euro, ma altrettanto magari ce ne saranno alcune subito sotto come potenza a 400 o meno...io voglio crederci. sarebbe splendido. soprattutto ora che si fa tanto parlare di GPGPU

appleroof
11-04-2007, 17:31
io credo che invece il prezzo basso sia "possibile"...pensateci...il mercato dei pc si sta ridefinendo. ad agosto ho acquistato un Intel C2D E6600 a meno di 300 Euro. Un mese prima, una CPU con la stessa potenza costava oltre il doppio...

Perche` dunque la stessa cosa non puo` accadere con le GPU? Magari ci sara` una top di gamma a 600 Euro, ma altrettanto magari ce ne saranno alcune subito sotto come potenza a 400 o meno...io voglio crederci. sarebbe splendido. soprattutto ora che si fa tanto parlare di GPGPU

ehm....8800gtx/gts? :stordita:

Tenebra
11-04-2007, 17:35
Un abbassamento di prezzo rispetto alle ventilate 500 e passa euro per la scheda top di gamma non lo vedo così assurdo, se fate caso alla gamma nella sua totalità...
Se R600 equivale a 8800gtx, e R630 a 8600gts, rimane una grossa lacuna commerciale e prestazionale: il buco tra 8800gtx e 8600gts è coperto, quanto a prestazioni e fasce di prezzo, in casa Nvidia con 8800gts 640 e la sua versione da 320.

In casa Amd non c'è nulla, quindi i casi sono due:

-o l'abbassamento di prezzo serve a "compattare" la gamma ed a giustificare il salto assurdo di prestazioni che si avrebbe tra R630 e R600 (sempre presumendo che R600 più o meno equivalga a 8800gtx come prestazioni e R630 a 8600gts)

-oppure R630 si posizionerà più in alto in quanto a prestazioni rispetto a 8600gts (si spera, la media Nvidia è abbastanza deludente, la scusa dei driver non regge - chi ha mai visto driver finali che migliorano più del 10%?) e il "buco" sarà meno evidente

Personalmente, spero e propendo per la seconda - non bisogna dimenticare che, anche se R600 sarà a 80nm, R630 partirà direttamente da 65nm stando alle ultime dichiarazioni.

halduemilauno
11-04-2007, 17:38
http://www.fudzilla.com/images/stories/2007/April/graphics/r600_card.jpg

per carità me ne guarderò bene dal dire ammazza quant'è brutta.
;)

Defragg
11-04-2007, 17:42
http://www.fudzilla.com/images/stories/2007/April/graphics/r600_card.jpg

per carità me ne guarderò bene dal dire ammazza quant'è brutta.
;)

la OEM non deve essere bella :stordita:

tanto la avranno in 4 gatti :fagiano:

DVD2005
11-04-2007, 17:49
la OEM non deve essere bella :stordita:

tanto la avranno in 4 gatti :fagiano:

più che altro non è sempre la stessa oem che abbiamo già visto?

Free Gordon
11-04-2007, 17:52
Vi ricordo che il sito in questione è the inquirer :O

:asd:

Free Gordon
11-04-2007, 17:59
Se sono 8+6, come nella foto sopra, il tetto di alimentazione dovrebbe essere 240W se non sbaglio.
Per cui è realistico pensare ad una ventina di W in meno, in load, per R600.

halduemilauno
11-04-2007, 19:04
http://forums.vr-zone.com/showthread.php?t=143105

R600 (1GB GDDR4) will consume 240 Watts
R600 (512MB GDDR3) will consume 200 Watts


;)

Simon82
11-04-2007, 19:33
http://www.fudzilla.com/images/stories/2007/April/graphics/r600_card.jpg

per carità me ne guarderò bene dal dire ammazza quant'è brutta.
;)

Oh my... che die impressionante.. ogni volta che lo vedo ci rimango.. quello e' a 80nm ed e' cosi' che lo vedremo.

(a meno che TheInquirer questa volta non abbia avuto notizie da fonti buone e non dalle marmotte che confezionavano i pcb). :p

Athlon 64 3000+
11-04-2007, 19:48
http://forums.vr-zone.com/showthread.php?t=143108

Simon82
11-04-2007, 19:57
http://forums.vr-zone.com/showthread.php?t=143108

http://img.album.pchome.net/00/77/03/51/5a3572f8a328047f6987f09639b7596f.jpg

http://img.album.pchome.net/00/77/03/51/90a674c87b042c71fc02f43ec173224e.jpg

http://img.album.pchome.net/00/77/03/51/0601ef24713c778f8869234c6efc3a1f.jpg

Simon82
11-04-2007, 19:59
Quel 0704AAY potrebbe essere relativo a questo mese? ;)


Le memorie...


General Description
FOR 2M x 32Bit x 8 Bank GDDR4 SGRAM
The K4U52324QE is 536,870,912 bits of hyper synchronous data rate Dynamic RAM organized as 8 x 2,097,152 words by 32 bits, fabricated with SAMSUNG's high performance CMOS technology. Synchronous features with Data Strobe allow extremely high performance up to 11.2GB/s/chip.
I/O transactions are possible on both edges of the clock cycle.
Range of operating frequencies, and programmable latencies allow the device to be useful for a variety of high performance memory system applications.

Features
1.8V± 0.09V power supply for device operation
1.8V± 0.09V power supply for I/O interface
On-Die Termination (ODT)
Output Driver Strength adjustment by EMRS
Calibrated output drive
1.8V Pseudo Open drain compatible inputs/outputs
8 internal banks for concurrent operation
Differential clock inputs (CK and /CK)
Commands entered on each positive CK edge
Double pumping address
CAS latency : 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22 (clock)
Burst length : 8 only
Programmable Write latency : 1, 2, 3, 4, 5, 6 and 7 (clock)
Single ended READ strobe (RDQS) per byte
Single ended WRITE strobe (WDQS) per byte
Auto Calibration mode by ZQ pin
RDQS edge-aligned with data for READs
WDQS center-aligned with data for WRITEs
Data Mask(DM) for masking WRITE data
Multi-preamble
DBI(Data Bus Inversion) mode
Auto & Self refresh modes
Auto Precharge option
32ms, auto refresh (8K cycle)
Lead Free 136 Ball FBGA(RoHS Compliant)
Maximum clock frequency up to 1.4GHz
Maximum data rate up to 2.8Gbps/pin
DLL for edge aligned outputs
Mirror function with MF pin
Boundary scan function with SEN pin



http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR4SDRAM/512Mbit/K4U52324QE/ds_k4u52324qe_rev10.pdf

esticbo
11-04-2007, 20:05
Quel 0704AAY potrebbe essere relativo a questo mese? ;)

Dovrebbe essere cosí, il post dice ke hanno appena iniziato a venderla in cina o giappone

appleroof
11-04-2007, 20:20
Dovrebbe essere cosí, il post dice ke hanno appena iniziato a venderla in cina o giappone

o in polinesia....credo che se fosse vero la cosa sarebbe strombazzata ai 4 venti, una notizia così clamorosa non passa certo inosservata...

cmq bella bestia ;)

belin
11-04-2007, 20:30
http://img.album.pchome.net/00/77/03/51/5a3572f8a328047f6987f09639b7596f.jpg

http://img.album.pchome.net/00/77/03/51/90a674c87b042c71fc02f43ec173224e.jpg

http://img.album.pchome.net/00/77/03/51/0601ef24713c778f8869234c6efc3a1f.jpg

Le memorie...


General Description
FOR 2M x 32Bit x 8 Bank GDDR4 SGRAM
The K4U52324QE is 536,870,912 bits of hyper synchronous data rate Dynamic RAM organized as 8 x 2,097,152 words by 32 bits, fabricated with SAMSUNG's high performance CMOS technology. Synchronous features with Data Strobe allow extremely high performance up to 11.2GB/s/chip.
I/O transactions are possible on both edges of the clock cycle.
Range of operating frequencies, and programmable latencies allow the device to be useful for a variety of high performance memory system applications.

Features
1.8V± 0.09V power supply for device operation
1.8V± 0.09V power supply for I/O interface
On-Die Termination (ODT)
Output Driver Strength adjustment by EMRS
Calibrated output drive
1.8V Pseudo Open drain compatible inputs/outputs
8 internal banks for concurrent operation
Differential clock inputs (CK and /CK)
Commands entered on each positive CK edge
Double pumping address
CAS latency : 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22 (clock)
Burst length : 8 only
Programmable Write latency : 1, 2, 3, 4, 5, 6 and 7 (clock)
Single ended READ strobe (RDQS) per byte
Single ended WRITE strobe (WDQS) per byte
Auto Calibration mode by ZQ pin
RDQS edge-aligned with data for READs
WDQS center-aligned with data for WRITEs
Data Mask(DM) for masking WRITE data
Multi-preamble
DBI(Data Bus Inversion) mode
Auto & Self refresh modes
Auto Precharge option
32ms, auto refresh (8K cycle)
Lead Free 136 Ball FBGA(RoHS Compliant)
Maximum clock frequency up to 1.4GHz
Maximum data rate up to 2.8Gbps/pin
DLL for edge aligned outputs
Mirror function with MF pin
Boundary scan function with SEN pin



http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR4SDRAM/512Mbit/K4U52324QE/ds_k4u52324qe_rev10.pdf

...finalmente qualcosa di ufficiale ed interessante...:)

Le memorie delle versioni XTX saranno GDDR4, teoricamente a 2100 Mhz dovrebbero andare senza problemi. La banda passante sarebbe mostruosa. La scheda non è venduta da nessuna parte, manco su Marte. ;)

...ciao!

Simon82
11-04-2007, 20:42
...finalmente qualcosa di ufficiale ed interessante...:)

Le memorie delle versioni XTX saranno GDDR4, teoricamente a 2100 Mhz dovrebbero andare senza problemi. La banda passante sarebbe mostruosa. La scheda non è venduta da nessuna parte, manco su Marte. ;)

...ciao!
Davvero una banda passante impressionante... e' un investimento sul futuro fatto da AMD questo tipo di memoria e bus.

Defragg
11-04-2007, 21:03
niente HIS per R600 a quanto pare :stordita:

è davvero una bella bestiola, le dimensioni sono quelle di una 8800GTS

belin
11-04-2007, 21:13
Davvero una banda passante impressionante... e' un investimento sul futuro fatto da AMD questo tipo di memoria e bus.

...eh già...:)

...inoltre da queste prime foto balza agli occhi lo schema 2 + 3 + 3 per i moduli di memoria. Considerando il double-sided, possiamo quindi dare per certo il bus a 512 bit. Prima importante e concreta conferma.

...ciao!

Athlon 64 3000+
11-04-2007, 21:14
chissa invece la X2900XT se avrà almeno le memorie a 1800 mhz naturalmente gddr3.

Alexkidd85
11-04-2007, 21:40
Ohhhh...finalmente..delle prime certezze!!! Come diceva rocco siffredi: "Qualcosa si muove!!"

Molto bellamanche se senza dissi,non fa la sua figura :D

jok3r87
11-04-2007, 21:45
Ma sbaglio o ha l'alimentazione digitale ?

fede27
11-04-2007, 22:05
niente HIS per R600 a quanto pare :stordita:

è davvero una bella bestiola, le dimensioni sono quelle di una 8800GTS

Se togli il manico di sega sì, altrimenti mi sa che la doppia! :D
Comunque davvero bello il nuovo design dei dissi BBA, personali ed accattivanti.

Io dedicherei un: :eek: al sistema di raffreddamento..sta scheda tiene un dissipatore interamente in rame con 4heatpipe SOLO per la GPU..mostruoso!! Con questo credo che non ci sarà il minimo problema a tenerlo a 800MHz.

CIaO

Dexther
11-04-2007, 23:43
azz, finalmente qualche immagine!! :ave:

TecnoWorld8
12-04-2007, 01:12
240W è davvero troppo. spero davvero che una R650 da 150W circa sia dietro l'angolo

nonikname
12-04-2007, 01:39
http://we.pcinlife.com/attachments/forumid_206/20070412_44ceef5fb0a033bdd2b0Cu4PKl4txIpF.jpg

http://img.album.pchome.net/00/77/03/51/4fe986dcd47ba6afe2517393f36002ac.jpg

http://img.album.pchome.net/00/77/03/51/46ec98ff181d5966f840fdd78af7885a.jpg

http://img.album.pchome.net/00/77/03/51/7b5e12008c0d8d49c52620f6b22af8a2.jpg

http://img.album.pchome.net/00/77/03/51/46bd68a2022dfba1325135909cada7f1.jpg

http://www.tcmagazine.com/comments.php?shownews=14543&catid=2

Free Gordon
12-04-2007, 04:23
http://forums.vr-zone.com/showthread.php?t=143105
R600 (1GB GDDR4) will consume 240 Watts
R600 (512MB GDDR3) will consume 200 Watts
;)


Se così fosse, la prima scheda richiederebbe il tetto massimo dal sistema di alimentazione in full load, cosa credo molto difficile.
I consumi reali saranno almeno sulla ventina di Watt in meno per la vers con 1Gb di GDDR4. Per cui sui 220W presumo.
La versione da 512MB di GDDR3 portrebbe invece attestarsi su valori più vicini alla 8800GTX.

Simon82
12-04-2007, 07:49
http://img.album.pchome.net/00/77/03/51/a33172abda330d541b367d650cbf3033.jpg

La ventola (oem) succhia tutti i 2 Ah della 12V... alla faccia. ;)

GabrySP
12-04-2007, 07:59
...

La ventola (oem) succhia tutti i 2 Ah della 12V... alla faccia. ;)

Stavo per postare io su l'amperaggio fantozziano di questa ventola :eek:

Bisognerà giocare con i tappi nelle orecchie :D

Peggio delle peggiori ventole Delta :mad:

Da segnalere anche le 4 Heat-pipe che sembrano essere da 8mm :eekk: (se non di più :eek: :eek: :eek: )

TecnoWorld8
12-04-2007, 08:00
ormai davvero nn si bada più ai consumi manco per la ventola...non ho parole :muro:

Simon82
12-04-2007, 08:01
Stavo per postare io su l'amperaggio fantozziano di questa ventola :eek:

Bisognerà giocare con i tappi nelle orecchie :D

Peggio delle peggiori ventole Delta :mad:

Da segnalere anche le 4 Heat-pipe che sembrano essere da 8mm :eekk: (se non di più :eek: :eek: :eek: )

Beh, questa e' la oem. E' probabile che essendo costruita per case preassemblati che rimangono per lo piu' chiusi (e comunque meglio insonorizzati di altri case autocostruiti) essa sia stata ponderata a questa situazione. Non e' detto che il regime di rotazione sia comunque molto rumoroso. Sara' da vedere quale hanno scelto per la versione desktop. Comunque tutto questo non fa che avvalere sempre il fatto che la gpu scaldera' tanto cosi' come le ram da 2.2ghz e tutto questo a favore delle testi degli 80nm anche per un chip costruito probabilmente questo mese (0704). ;)
In piu' sicuramente sara' auto regolante in base alla temperature che vista la superficie esagerata del die immagino sara' altina.

GabrySP
12-04-2007, 08:21
Comunque si è capito cosa sono i 30W in più della oem rispetto la versione retail (270 vs 240).................la ventola :D

12V * 2A = 24W

24W * (1/0.8) = 30 W :winner:

Note 1/0.8 è l'efficenza dell'alimentatore (con un po' di ottimismo ;) )


PS. una ventolina del genere che consuma 24W non può fare meno di 65dB :eek: (probabilmente non girerà mai al massimo, almeno spero :D )

Simon82
12-04-2007, 08:27
Comunque si è capito cosa sono i 30W in più della oem rispetto la versione retail (270 vs 240).................la ventola :D

12V * 2A = 24W

24W * (1/0.8) = 30 W :winner:

Note 1/0.8 è l'efficenza dell'alimentatore (con un po' di ottimismo ;) )


PS. una ventolina del genere che consuma 24W non può fare meno di 65dB :eek: (probabilmente non girerà mai al massimo, almeno spero :D )

Sarei curioso di togliere dalla differenza quella della desktop per capire quanto assorbe la GPU e la RAM.
Comunque ipotizzando un valore inferiore (o superiore chi lo sa.. :p), dobbiamo anche considerare che a massimo regime non ci si e' sempre, anche sui consumi totali. Certo con un Crysis o un 3DMark.. ;)

TecnoWorld8
12-04-2007, 08:57
GabrySP: la tua considerazione sarebbe corretta se la verisone retail fosse priva di ventola ;) ma così non è...

Simon82
12-04-2007, 08:58
GabrySP: la tua considerazione sarebbe corretta se la verisone retail fosse priva di ventola ;) ma così non è...

Invece no, se consideriamo che i valori di cui abbiamo parlato nelle pagine indietro sono comprensive di ventole e non SENZA ventola.. quanto si parla di consumi di una scheda si intende tutta. Per cui ci puo' anche stare che la desktop consumi 200w circa COMPRESA la ventola differente. ;)

GabrySP
12-04-2007, 09:06
Ma sbaglio o ha l'alimentazione digitale ?

Sembrerebbe proprio di si ;) anche se da un punto di vista pratico non c'è alcun vantaggio rispetto ad una "alimentazione classica", penso che che questa cosa l'hanno fatta solo per poter montare quel "coso" enorme di rame :)

GabrySP: la tua considerazione sarebbe corretta se la verisone retail fosse priva di ventola ;) ma così non è...

La mia era più una battuta comunque il conto torna visto che un ali normale sta sul 70% di efficienza (il mio su 80%-85% :Prrr: ), e quindi andiamo sui 34W e una ventola "normale" consuma giusto su 1-4W quindi :
34 watt - qualche watt = a circa 30 W

PS. la miseria che precisini :D

halduemilauno
12-04-2007, 09:53
http://www.fudzilla.com/index.php?option=com_content&task=view&id=499&Itemid=1

Due to high OEM demands

It looks like AMD will have to skip one more deadline. It is likely that it won't launch the RV630 and RV610 alongside the highly anticipated R600. Radeon X2900 series will officially launch in May and the NDA presentation will take place in Tunisia on the 23rd and 24th of April.


This is just one in a series of delays at ATI so we are not really surprised. RV630 and RV610 are 65 nanometres and TSMC still have some problems ramping up the production volume and yields. It is now certain that the mainstream and entry level DX 10 parts from ATI won't arrive until June, if not later.

We've also learned that Dell, HP, FSC and other big OEM's have ordered a bunch of these cards and this will also cause a delay in the retail and etail channels. We wonder what exactly ATI's partners are going to sell as ATI has delayed every single chip in the last six+ months.

;)

halduemilauno
12-04-2007, 09:54
http://www.fudzilla.com/index.php?option=com_content&task=view&id=500&Itemid=1
;)

Simon82
12-04-2007, 10:02
http://www.fudzilla.com/index.php?option=com_content&task=view&id=500&Itemid=1
;)

Mi verrebbe da dire che sarebbe anche l'ora dopo tutti questi anni avere un minimo di FSAA free. Non dico un 16x, basterebbe un 4X. ;)

Certo sappiamo tutti quanto dispendioso sia in termini computazionali questo genere di filtraggio, ma lo spero tanto onestamente.

johnson
12-04-2007, 10:17
Mi verrebbe da dire che sarebbe anche l'ora dopo tutti questi anni avere un minimo di FSAA free. Non dico un 16x, basterebbe un 4X. ;)

Certo sappiamo tutti quanto dispendioso sia in termini computazionali questo genere di filtraggio, ma lo spero tanto onestamente.

Sarebbe veramente una bella cosa.

belin
12-04-2007, 10:30
FSAA e AF sempre attivi in certe situazioni...mmm...c'è sempre più Xenos in questo R600...e chi l'avrebbe mai detto...:O

Sarebbe una grande cosa, forse la vera "secret weapon" su cui s'è tanto favoleggiato. E poi dato che Fudzilla non ne è sicuro al 100% scommettiamo che questa caratteristica ci sarà veramente??? :D

fukka75
12-04-2007, 10:31
Sarebbe una gran bella cosa, ma bisogna vedere a che risoluzioni

belin
12-04-2007, 10:32
Mi verrebbe da dire che sarebbe anche l'ora dopo tutti questi anni avere un minimo di FSAA free. Non dico un 16x, basterebbe un 4X. ;)

Certo sappiamo tutti quanto dispendioso sia in termini computazionali questo genere di filtraggio, ma lo spero tanto onestamente.

...quei 512 bit dovranno pure saturarli in qualche modo! :)

...ciao!

jp77
12-04-2007, 10:45
FSAA e AF sempre attivi in certe situazioni...mmm...c'è sempre più Xenos in questo R600...e chi l'avrebbe mai detto...:O

Sarebbe una grande cosa, forse la vera "secret weapon" su cui s'è tanto favoleggiato. E poi dato che Fudzilla non ne è sicuro al 100% scommettiamo che questa caratteristica ci sarà veramente??? :D

se non sbaglio quello dell fsaa x4 free è stato uno dei primi rumors su questa nuova architettura quindi è probabile che sia implementato....poi dipende tutto da come....

GabrySP
12-04-2007, 10:51
"...but at some resolutions and settings you should not see any real penalties when you enable FSAA and AF..."

Volevo solo segnalare che l'AA è quasi free su schede ATI dai tempi delle X800, almeno se seguiamo quello che dice la frase sopra ;) "a certe risoluzioni......." :muro:

Xenos non ha AA 4x free :doh: (basta vedere che quasi tutti i giochi del X360 sono belli scalettati :D )

Basta fare 1280x720x3 per capire che quei 10MB non servono a nulla se non al marketing :read: (per aver AA4x ce ne vuole molta di più di memoria a meno di usare risoluzioni come la 640x480 :D )

Fudzilla è credibile quanto inquirer :sofico:


PS: con la vecchia X800XT PE non ho mai disabilitato l'AA 4x e il calo anche a 1920x1200 non era mai superiore al 20% rispetto a NO AA (il 2x era praticamente free, mai più di un 5% di cali di FPS)
E' evidente che l'AA 4x non faccai un baffo a R600 visto che le GTX neanche se ne accorgono di un ormai banale AA4x (parlo di semplice MSAA)
I problemi ci sono e ci saranno col pesantissimo TAAA (o AAA per ATI)

Angolo del pessimista : tanto è inutili farsi vane speranze quando l'UE3 usa quello schifo di "deferred shading" così l'AA non lo vedrà nessuno neanche col binocolo :grrr:

Dexther
12-04-2007, 10:57
GabrySP, ho quotato una tua osservazione nella discussione sulla news , :p
Spero non me ne vorrai :D.

Simon82
12-04-2007, 10:58
"...but at some resolutions and settings you should not see any real penalties when you enable FSAA and AF..."

Volevo solo segnalare che l'AA è quasi free su schede ATI dai tempi delle X800, almeno se seguiamo quello che dice la frase sopra ;) "a certe risoluzioni......." :muro:

Xenos non ha AA 4x free :doh: (basta vedere che quasi tutti i giochi del X360 sono belli scalettati :D )

Basta fare 1280x720x3 per capire che quei 10MB non servono a nulla se non al marketing :read: (per aver AA4x ce ne vuole molta di più di memoria a meno di usare risoluzioni come la 640x480 :D )

Fudzilla è credibile quanto inquirer :sofico:

I 10 MB su Xenos non penso fossero stati messi solo (vista la spesa) per l'AA. C'e' anche da dire che l'algoritmo di filtraggio non e' dispendioso in termini di banda e quantita' di memoria richiesta come lo erano i vecchi metodi di supersampling. ;)

Kharonte85
12-04-2007, 11:00
http://www.pcinpact.com/actu/news/35787-R600-X2900-8800-Ultra-65-nm-R650.htm
;)
Questo sarebbe interessante ma stranissimo...per capirci mi sono affidato al traduttore :D

Secondo alcune delle nostre informazioni raccolte questa mattina presso partner di AMD, solo Radeon X2900XT potrebbe arrivare sul mercato il mese prossimo. La sua tariffa sarebbe di 399 $ all'uscita, cosa che ne calzava un concorrente diretto del GeForce 8800GTS 640 Mo. Il produttore esiterebbe infatti a vendere direttamente il suo modello XTX, la ragione più logica essendo l'arrivo abbastanza vicino alla sua versione 65 nm che alcuni chiamano già R650. X2900XTX: il dilemma del sostituto in 65 nm Permettendo di ottenere un riscaldamento inferiore, ed eventualmente migliori prestazioni, questa pulce potrebbe essere molto più attraente della versione attuale. AMD vorrebbe anche evitare di ricominciare l'errore del lancio del Radeon X1800 sostituite dal X1900 soltanto un mese dopo il loro arrivo reale sul mercato. Mentre AMD esita sul suo di gran lusso, NVIDIA prepara il sua contre-attaque Nulla è ancora deciso, e si saprà certamente più dopo la conferenza che si terrà a Tunisi da qui a un po'meno di due settimane, ma le cose sembrano certamente ben complicate per la generazione DirectX 10 di gran lusso del fondatore. Inoltre, NVIDIA veglia al grano con suo GeForce 8800 ultra, che si vorrà efficiente soprattutto, e che potrebbe bene nascere ancora prima che le notizie inferiori Radeon non siano annunciate.

http://forums.vr-zone.com/showthread.php?t=143105

R600 (1GB GDDR4) will consume 240 Watts
R600 (512MB GDDR3) will consume 200 Watts


;)
Eccoli li' i soliti dati mai smentiti...:mc:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=499&Itemid=1

Due to high OEM demands

It looks like AMD will have to skip one more deadline. It is likely that it won't launch the RV630 and RV610 alongside the highly anticipated R600. Radeon X2900 series will officially launch in May and the NDA presentation will take place in Tunisia on the 23rd and 24th of April.


This is just one in a series of delays at ATI so we are not really surprised. RV630 and RV610 are 65 nanometres and TSMC still have some problems ramping up the production volume and yields. It is now certain that the mainstream and entry level DX 10 parts from ATI won't arrive until June, if not later.

We've also learned that Dell, HP, FSC and other big OEM's have ordered a bunch of these cards and this will also cause a delay in the retail and etail channels. We wonder what exactly ATI's partners are going to sell as ATI has delayed every single chip in the last six+ months.

;)
E il tanto declamato lancio all'unisono di tutte le fasce? Se è vero poverini...:(
Sarebbe una gran bella cosa, ma bisogna vedere a che risoluzioni
Quoto.

Speriamo trapeli qualcosa fra 2 settimane...

Alexkidd85
12-04-2007, 11:04
Faccio il gnubbo (in quanto su certe cose lo sono :asd:) ma il "free" sta per tipo "12x di Fsaa attivati di suo e forzati su ogni gioco ed il restante 4 x da attivare a scelta!?"

Ho detto una porcheria vero!? :muro:

jp77
12-04-2007, 11:07
Faccio il gnubbo (in quanto su certe cose lo sono :asd:) ma il "free" sta per tipo "12x di Fsaa attivati di suo e forzati su ogni gioco ed il restante 4 x da attivare a scelta!?"

Ho detto una porcheria vero!? :muro:

significa che sino a 4x non causa perdita di prestazioni...

Alexkidd85
12-04-2007, 11:07
Questo sarebbe interessante ma stranissimo...per capirci mi sono affidato al traduttore :D

[I]Secondo alcune delle nostre informazioni raccolte questa mattina presso partner di AMD, solo Radeon X2900XT potrebbe arrivare sul mercato il mese prossimo. La sua tariffa sarebbe di 399 $ all'uscita, cosa che ne calzava un concorrente diretto del GeForce 8800GTS 640 Mo. Il produttore esiterebbe infatti a vendere direttamente il suo modello XTX, la ragione più logica essendo l'arrivo abbastanza vicino alla sua versione 65 nm che alcuni chiamano già R650. X2900XTX: il dilemma del sostituto in 65 nm Permettendo di ottenere un riscaldamento inferiore, ed eventualmente migliori prestazioni, questa pulce potrebbe essere molto più attraente della versione attuale. AMD vorrebbe anche evitare di ricominciare l'errore del lancio del Radeon X1800 sostituite dal X1900 soltanto un mese dopo il loro arrivo reale sul mercato.

Guarda se AMD facesse una cosa del genere pensando anche ai consumatori (dispendio non eccellente dei soldi se dovesse essere sostituita in un lampo),l'amd/ati meriterebbe la mia stima più di quanto ora la ha. :)

Alexkidd85
12-04-2007, 11:09
significa che sino a 4x non causa perdita di prestazioni...

Ahh...perfetto,grazie :D
E quindi migliorerebbe le prestazioni sui 16x!? Non credo...

overjet
12-04-2007, 11:11
FSAA e AF sempre attivi in certe situazioni...mmm...c'è sempre più Xenos in questo R600...e chi l'avrebbe mai detto...:O

Sarebbe una grande cosa, forse la vera "secret weapon" su cui s'è tanto favoleggiato. E poi dato che Fudzilla non ne è sicuro al 100% scommettiamo che questa caratteristica ci sarà veramente??? :D

Perdonate l'ignoranza... Xenos ovvero ?!?

Alexkidd85
12-04-2007, 11:14
Perdonate l'ignoranza... Xenos ovvero ?!?

Mi butto: Chip grafico della 360....
Lapidatemi se ho sbagliato :asd:

TecnoWorld8
12-04-2007, 11:16
lo dico da tempo. secondo me ATi farebbe una GRAN BELLA FIGURA, dati i mesi e mesi di ritardo, a far uscire subito un prodotto a 65nm per il top di gamma. I consumi citati non hanno veramente senso. A quel punto conviene la 8800GTX anche se andrà il 20% più lenta!!!

fukka75
12-04-2007, 11:23
Angolo del pessimista : tanto è inutili farsi vane speranze quando l'UE3 usa quello schifo di "deferred shading" così l'AA non lo vedrà nessuno neanche col binocolo :grrr:

Mi hai tolto le parole di bocca: bisogna sperare che si mettano di buzzo buono per cercare una soluzione a questa incompatibilità, soprattutto per chi non ha la possibilità di acquistare le schede top di gamma e conseguenti super-mega monitor da 2500X1600 in cui AA si può tranquillamente dimenticare, ma è costretto a limitarsi a più "umane" 1280X1024 in cui l'aliasing è visibilissimo e fastidiosissimo :mad:

VitOne
12-04-2007, 11:28
Personalmente non mi interessa moltissimo della ventola anche se spero che nella versione retail non si superi una soia di rumore accettabile) perché se vale la pena di prenderla si potrebbe (parlo a titolo personale) metterla a liquido, così da risparmiare pure un po' sulla corrente consumata :D.

overjet
12-04-2007, 11:32
Se ati facesse uscire subito la versione a 65nm sarebbe concorrenziale... Per quanto mi riguarda se dovesse debuttare con la versione a 80 o 90 nm a quanti sono... Bhè... Spero non l'acquisti nessuno... Così almeno si daranno una svegliata...

Si ripete la solita storia di R520... :muro: :muro: :muro: :muro: :muro:

Ati non capisce più niente !

Kharonte85
12-04-2007, 11:33
Mi hai tolto le parole di bocca: bisogna sperare che si mettano di buzzo buono per cercare una soluzione a questa incompatibilità, soprattutto per chi non ha la possibilità di acquistare le schede top di gamma e conseguenti super-mega monitor da 2500X1600 in cui AA si può tranquillamente dimenticare, ma è costretto a limitarsi a più "umane" 1280X1024 in cui l'aliasing è visibilissimo e fastidiosissimo :mad:
Stra-Quoto.

Trovo scandaloso che oggi ci siano giochi incompatibili con L'AA...:mad: /OT

VitOne
12-04-2007, 11:43
Se ati facesse uscire subito la versione a 65nm sarebbe concorrenziale... Per quanto mi riguarda se dovesse debuttare con la versione a 80 o 90 nm a quanti sono... Bhè... Spero non l'acquisti nessuno... Così almeno si daranno una svegliata...

Si ripete la solita storia di R520... :muro: :muro: :muro: :muro: :muro:

Ati non capisce più niente !

Non capisco francamente cosa possa importare all'utente la tecnologia con cui è prodotta la scheda: la cosa importante è che vada meglio di Nvidia e costi meno, o no?

overjet
12-04-2007, 11:47
A quel punto mi ricrederò...
Buon per loro se ci riescano... Anche se il processo produttivo inferiore avrebbe dato un punto in più ad ati...

Alexkidd85
12-04-2007, 11:47
Non capisco francamente cosa possa importare all'utente la tecnologia con cui è prodotta la scheda: la cosa importante è che vada meglio di Nvidia e costi meno, o no?

All'utente importa non comprare un prodotto sicuramente ottimo,ma nato già "surclassato" ;)

halduemilauno
12-04-2007, 12:02
http://we.pcinlife.com/thread-747857-1-1.html
immagini tolte.
11232 in 3dmark06 at 1600x1200.
;)

darek
12-04-2007, 12:05
http://www.tomshw.it/news.php?newsid=9694
:cool:

halduemilauno
12-04-2007, 12:07
http://www.tomshw.it/news.php?newsid=9694
:cool:

gia postate.

Alexkidd85
12-04-2007, 12:07
http://we.pcinlife.com/thread-747857-1-1.html
immagini tolte.
11232 in 3dmark06 at 1600x1200.
;)

Quanto si pensa siano attendibili da 0 a 10!? :D

darek
12-04-2007, 12:10
E queste ?
http://www.techpowerup.com/index.php?29207
:cool:

jp77
12-04-2007, 12:10
Quanto si pensa siano attendibili da 0 a 10!? :D

penso poco cmq se fosse vero ottimo risultato...

halduemilauno
12-04-2007, 12:12
E queste ?
http://www.techpowerup.com/index.php?29207
:cool:

hanno gia fatto due volte il giro del mondo.
;)

Simon82
12-04-2007, 12:20
Comunque l'idea potrebbe essere questa:

Presentano a Maggio tutte e due le schede, compresa 2900XTX a 80nm solo per "esposizione" o alcuni prototipi a 65nm ma "in sordina" comparira sugli scaffali la versione XT a 80nm mentre l'XTX sara' come al solito con la dicitura Non disponibile.
Quando arrivera' sul mercato sara' la versione a 65nm R650. C'e' da capire se questo die shrink se davvero esistera' significhera' un ritocco alle frequenze del core gia' in questa release tralasciando un futuro refresh semestrale, cosa ormai inutile a questo punto a tutti gli effetti. ;)

Kharonte85
12-04-2007, 12:22
11232 in 3dmark06 at 1600x1200.
;)
Bè non sarebbe affatto male...

Foglia Morta
12-04-2007, 12:28
Comunque l'idea potrebbe essere questa:

Presentano a Maggio tutte e due le schede, compresa 2900XTX a 80nm solo per "esposizione" o alcuni prototipi a 65nm ma "in sordina" comparira sugli scaffali la versione XT a 80nm mentre l'XTX sara' come al solito con la dicitura Non disponibile.
Quando arrivera' sul mercato sara' la versione a 65nm R650. C'e' da capire se questo die shrink se davvero esistera' significhera' un ritocco alle frequenze del core gia' in questa release tralasciando un futuro refresh semestrale, cosa ormai inutile a questo punto a tutti gli effetti. ;)

non penso sia una die shrink R650... ma stessa architettura con molte più unità di calcolo almeno Orton ha lasciato intendere questo

Simon82
12-04-2007, 12:41
non penso sia una die shrink R650... ma stessa architettura con molte più unità di calcolo almeno Orton ha lasciato intendere questo

Potrebbe anche essere, ma e' difficile perche' tutto dipende dalle decisioni in fatto di marketing in casa AMD poiche' essendosi posticipato tutto potrebbero essere prese scelte "alternative" anche a quello che la nostra logica ci lascia intendere. ;)

Comunque o innalzamento frequenza o aumento unita' di calcolo.
Certo che R650 sin da subito sarebbe una bella mossa se sono in grado di fornire le GPU in numero adeguato visti i tempi ormai stretti. Tutto si giochera' sulle scelte di Nvidia che di sicuro non restera' a guardare.
Un ipotetico 8X00GX2 al momento oscurerebbe davvero tutto e tutti. Sicuramente Nvidia si trova in una posizione di favore in cui ormai potra' a breve avere qualcosa da mostrare. Gia' le vedo le prime news after R600 launch in cui Nvidia lancera' i primi dettagli del refresh e delle nuove soluzioni.

giopro
12-04-2007, 13:06
Potrebbero fare un die shrink di R600 a 65 per i consumi e dopo introdurre R650 con più potenza?

Ciao :)

overjet
12-04-2007, 13:22
All'utente importa non comprare un prodotto sicuramente ottimo,ma nato già "surclassato" ;)

quoto e straquoto.

belin
12-04-2007, 13:37
Perdonate l'ignoranza... Xenos ovvero ?!?

Mi butto: Chip grafico della 360....
Lapidatemi se ho sbagliato :asd:

...messaggio scritto tempo fa: View Single Post (http://www.hwupgrade.it/forum/showpost.php?p=16490429&postcount=1102)

:)

halduemilauno
12-04-2007, 14:06
Bè non sarebbe affatto male...

immaginatela a 1280x1024. ti aiuto bandwidth.
;)

Defragg
12-04-2007, 14:17
Se togli il manico di sega sì, altrimenti mi sa che la doppia! :D
Comunque davvero bello il nuovo design dei dissi BBA, personali ed accattivanti.
no io intendo solo il pcb :D

http://we.pcinlife.com/attachments/forumid_206/20070412_44ceef5fb0a033bdd2b0Cu4PKl4txIpF.jpg

che ficata di fianco a hellboy :D :O

Free Gordon
12-04-2007, 14:22
http://www.fudzilla.com/index.php?option=com_content&task=view&id=500&Itemid=1
;)


Grosse imprecisioni scritte in questa news, tanto per mostrare quanta professionalità abbia questo sito... :rotfl:

halduemilauno
12-04-2007, 14:28
Grosse imprecisioni scritte in questa news, tanto per mostrare quanta professionalità abbia questo sito... :rotfl:

li per li ho pensato che ti eri confuso nel quotarmi. non credevo di averla postata io. perchè quando letta ho pensato proprio di non postarla.

Free Gordon
12-04-2007, 14:28
FSAA e AF sempre attivi in certe situazioni...mmm...c'è sempre più Xenos in questo R600...e chi l'avrebbe mai detto...:O
Sarebbe una grande cosa, forse la vera "secret weapon" su cui s'è tanto favoleggiato. E poi dato che Fudzilla non ne è sicuro al 100% scommettiamo che questa caratteristica ci sarà veramente??? :D


Sono invenzioni.
Quello che scrive Fudzilla non ha senso... come spesso accade. :D

L'AF 8X di cui parla, ad esempio, non c'entra nulla.. e i meccanismi che permettono di perdere un max di 5% (sempre in teoria) su Xenos a 1280x720, non sono implementati in R600.

Free Gordon
12-04-2007, 14:29
Sarebbe una gran bella cosa, ma bisogna vedere a che risoluzioni

Ovviamente è sempre un discorso di carico e risoluzione.

Free Gordon
12-04-2007, 14:30
li per li ho pensato che ti eri confuso nel quotarmi. non credevo di averla postata io. perchè quando letta ho pensato proprio di non postarla.


;)

ipertotix
12-04-2007, 16:30
un po di foto :

http://www.techpowerup.com/index.php?29207

sempre che non sono gia state postate....:)

Grey 7
12-04-2007, 17:58
bella sventola di scheda, non c'è che dire :asd:

A.L.M.
12-04-2007, 18:38
Non so se è già stato postato, ma sul sito Realtek ci sono già i drivers per il chip HD Audio delle R600. :stordita:
http://www.realtek.com.tw/downloads/downloadsView.aspx?Langid=1&PNid=24&PFid=24&Level=4&Conn=3&DownTypeID=3&GetDown=false#High%20Definition%20Audio%20Codecs

halduemilauno
12-04-2007, 18:58
http://www.fx57.net/?p=576
;)

Athlon 64 3000+
12-04-2007, 19:07
http://www.fudzilla.com/index.php?option=com_content&task=view&id=506&Itemid=1

jok3r87
12-04-2007, 19:23
Non so se è già stato postato, ma sul sito Realtek ci sono già i drivers per il chip HD Audio delle R600. :stordita:
http://www.realtek.com.tw/downloads/downloadsView.aspx?Langid=1&PNid=24&PFid=24&Level=4&Conn=3&DownTypeID=3&GetDown=false#High%20Definition%20Audio%20Codecs

Ma non doveva essere un chip 2.1 ? Di solito i chip HD di realtek sono 5.1.

Kharonte85
12-04-2007, 20:02
http://www.fx57.net/?p=576
;)
Riporto:

ATi R600 vs. GeForce 8800GTX- 3DMark 2006


- İşlemci: Conroe 2.93GHz
- Anakart: i975 yonga setli
- Bellek: 2GB DDR2-800
- Sürücü: ATI Catalyst 7.1 (8.33) - Nvidia Forceware 97.44

Windows Vista skorları-3DMark 2006

ATi R600XTX 1GB’lık model: Ortalama: 12k - GeForce 8800GTX 768MB: Ortalama: 10,5K

- ATi R600XT 512MB’lık Model: Ortalama: 10k - GeForce 8800GTS: Ortalama: 9K

Ma che lingua è?

Defragg
12-04-2007, 20:07
Riporto:

ATi R600 vs. GeForce 8800GTX- 3DMark 2006


- İşlemci: Conroe 2.93GHz
- Anakart: i975 yonga setli
- Bellek: 2GB DDR2-800
- Sürücü: ATI Catalyst 7.1 (8.33) - Nvidia Forceware 97.44

Windows Vista skorları-3DMark 2006

ATi R600XTX 1GB’lık model: Ortalama: 12k - GeForce 8800GTX 768MB: Ortalama: 10,5K

- ATi R600XT 512MB’lık Model: Ortalama: 10k - GeForce 8800GTS: Ortalama: 9K

Ma che lingua è?

turco ;)

Alexkidd85
12-04-2007, 20:14
turco ;)

ma guarda un poco se sti turchi adesso sono così importanti.... :asd:
E FFXII prende ambientazione in scenari "turchi" dove la square ha anche passato settimane per studiare bene la sceneggiatura,e l'r600 sta nascendo lì...che è!? :D

Alexkidd85
12-04-2007, 20:16
Riporto:

ATi R600 vs. GeForce 8800GTX- 3DMark 2006


- İşlemci: Conroe 2.93GHz
- Anakart: i975 yonga setli
- Bellek: 2GB DDR2-800
- Sürücü: ATI Catalyst 7.1 (8.33) - Nvidia Forceware 97.44

Windows Vista skorları-3DMark 2006

ATi R600XTX 1GB’lık model: Ortalama: 12k - GeForce 8800GTX 768MB: Ortalama: 10,5K

- ATi R600XT 512MB’lık Model: Ortalama: 10k - GeForce 8800GTS: Ortalama: 9K

Ma che lingua è?

Dai su consideriamo che quei catalyst non si calcolano di striscio l'r600...anzi,ora che ci penso,potrebbe essere motivo per gridare al "fake"!?:stordita:
E se se li calcolano un pochino,sicuramente sono poco ottimizzati,quindi o in un modo o in un altro...ancora siamo solo all'inizio ;)

belin
12-04-2007, 20:50
...perchè non usare i 7.2 o 7.3? mistero...

:D

Simon82
12-04-2007, 21:08
http://www.fudzilla.com/index.php?option=com_content&task=view&id=506&Itemid=1

Come immaginavo... se e' vero vedremo imho entrambe al lancio e "passera' inosservato" invece sugli scaffali il fatto che la XTX sara' disponibile n mesi dopo. ;).

Kharonte85
12-04-2007, 21:15
Come immaginavo... se e' vero vedremo imho entrambe al lancio e "passera' inosservato" invece sugli scaffali il fatto che la XTX sara' disponibile n mesi dopo. ;).
Io non credo che passera' tanto inosservato dopo tutto questo ritardo...

Alexkidd85
12-04-2007, 21:48
Dove "HD" evidenzia le qualità della scheda nei nuovi standard(forse nelle tv) dell'alta definizione!?

mrt75
12-04-2007, 21:50
Io non credo che passera' tanto inosservato dopo tutto questo ritardo...
quoto
E da quasi 9 mesi che si vocifera dell'R600 dicendo che sarebbe stata un mostro,ora come ora sentendo i RUMORS non pare tutta sta potenza,cmq stamo a vede',se in + ci mettiamo che e' in ritardo sull lancio preventivato, e pare che si prolunghi l'attesa x un possibile chip a 65..... ummmmm ,non so' come la gente la puo' prendere, togliendo i fanboy .... Certo che se supera i 200w io non la piglio,gia' mi era incaz... x la 1900 figuriamoci se scalda di+ .

LCol84
12-04-2007, 22:11
quoto
E da quasi 9 mesi che si vocifera dell'R600 dicendo che sarebbe stata un mostro,ora come ora sentendo i RUMORS non pare tutta sta potenza,cmq stamo a vede',se in + ci mettiamo che e' in ritardo sull lancio preventivato, e pare che si prolunghi l'attesa x un possibile chip a 65..... ummmmm ,non so' come la gente la puo' prendere, togliendo i fanboy .... Certo che se supera i 200w io non la piglio,gia' mi era incaz... x la 1900 figuriamoci se scalda di+ .

Già e la x1900 stava sulle 120watt, questa è quasi il doppio :eek: (e ci mancherebbe se non andasse il doppio)
Detto questo spero che esca una versione sulle 150watt (troppi cmq per i miei gusti) che me la piglio per natale :D

zorco
12-04-2007, 22:49
http://www.pctuner.info/up/results/_200704/th_20070412234734_gfxinscaleeg1.jpg (http://www.pctuner.info/up/image.php?src=_200704/20070412234734_gfxinscaleeg1.jpg)

;)

davide155
12-04-2007, 23:01
La 8800gtx è mostruosa....eccessivamente lunga :O
Nvidia ha perso parecchi clienti per via dell'eccessiva lunghezza della scheda e quindi dell'impossibilità di installarla ovunque......

La x2900 sembra decente.......

Kharonte85
12-04-2007, 23:06
;)
Ottimo...;)

Athlon 64 3000+
12-04-2007, 23:26
quoto
E da quasi 9 mesi che si vocifera dell'R600 dicendo che sarebbe stata un mostro,ora come ora sentendo i RUMORS non pare tutta sta potenza,cmq stamo a vede',se in + ci mettiamo che e' in ritardo sull lancio preventivato, e pare che si prolunghi l'attesa x un possibile chip a 65..... ummmmm ,non so' come la gente la puo' prendere, togliendo i fanboy .... Certo che se supera i 200w io non la piglio,gia' mi era incaz... x la 1900 figuriamoci se scalda di+ .

Tutto da Vedere.
:D

Athlon 64 3000+
12-04-2007, 23:27
http://www.pctuner.info/up/results/_200704/th_20070412234734_gfxinscaleeg1.jpg (http://www.pctuner.info/up/image.php?src=_200704/20070412234734_gfxinscaleeg1.jpg)

;)

secondo quell'immagine il pcb definitivo delle X2900 addirittura sarebbe più corto di quello della mia X1900XT.

mrt75
12-04-2007, 23:49
Tutto da Vedere.
:D

Giusto! :O ,ma come ho scritto,i fanboy come te non li considero.... :D
Cmq lo sai quel che spero io.... dopo poi :cry:

mrt75
13-04-2007, 00:25
Non so se e' gia stata postata:

All AMD R6xx chips are 65 nanometre chips, now

The 80 nanometre chip was bleeding current like a slaughtered pig bleeds blood as said quadruped heads to the Munchner Halle to be served up as a sausage or two. Squealing.

However, we did not know then that AMD did not order just a respin, but the company got an attack of bravery, didn't take the R520/R580 route, and scrapped the R600 altogether. Things change.

The 80nm R600 die - as it was leaked - will now come to life only in a very limited amount of chips, since AMD decided to solve its problems by pulling all resources to go 65 nano across the board, including this 720 million trannie heavy monster. This drastically reduces power consumption and lets AMD clock the R600 to 1GHz or even more. The mass production R600 will be made on a 65 nanometre process.

That means that even though AMD is more than six months behind in terms of the G80 vs. R600 battle, AMD actually now has a six month levy over the NV55, better known to people as ex-G81, currently known about as G90 - or the NV55 in the halls of Satan Clara.

We have talked with several high-ranking AMD executives and confirmed this rumour. So, from March 16th at 19:59 CET - the R600 which you will buy in stores in May will be 65nm, and will consume almost one third less power than the 80 nanometre one.

http://www.theinquirer.net/default.aspx?article=38292

TecnoWorld8
13-04-2007, 00:29
purtroppo era una news di quasi 1 mese fa...quando le cose parevano migliori di come paiono ora :)

se facessero come scritto nella news, la comprerei di certo.

Free Gordon
13-04-2007, 01:26
http://www.fx57.net/?p=576
;)


Io non credo sia possibile fare un bench sensato su R600, con dei driver che non riconoscono la scheda (7.1).
Imho è un mega-fake.

Simon82
13-04-2007, 06:56
Io non credo che passera' tanto inosservato dopo tutto questo ritardo...

Beh diciamo che purtroppo e' gia' stata presa in passato dalle varie storie di effettiva indisponibilita' delle schede dopo il lancio questa politica, e in un modo e nell'altro (a loro) ha sempre fatto guadagnare o comunque salvare la faccia.
Certo, ora la situazione diventa di giorno in giorno piu' pressante ma ne usciranno bene anche a questo giro.

Ieri sera mi sono scaricato i drivers audio postati e ho cercanto nei file di configurazione informazioni relative al discorso dell'audio hdmi, ma non si vede nulla di "utile".

darek
13-04-2007, 08:11
http://www.tomshw.it/news.php?newsid=9699
:cool:

Skullcrusher
13-04-2007, 08:14
http://www.tomshw.it/news.php?newsid=9699
:cool:

320 stream processor? AA24x? :sofico:

DjLode
13-04-2007, 08:35
320 stream processor?

Bhè questa non è di certo una novità ;)

zorco
13-04-2007, 08:38
secondo quell'immagine il pcb definitivo delle X2900 addirittura sarebbe più corto di quello della mia X1900XT.
si è un risultato ottimo..

wiltord
13-04-2007, 08:45
cominciano a prudermi le mani :D

Simon82
13-04-2007, 08:54
320 stream processor? AA24x? :sofico:

Sul primo gia' si sapeva, mentre sull'AA.. beh.. imho per quanto impressionante a livello di "marketing" direi abbastanza inutile sul piano visivo. Gia' un 16x e' un esagerazione. Manco dovessimo giocare a 320x240 su un 32 pollici full hd.

Apix_1024
13-04-2007, 08:57
320 stream processor? AA24x? :sofico:

nella fascia media potrebbero essercene 160 o anche al limite 128...:sofico: :sofico: :eek: :eek:

Dexther
13-04-2007, 08:58
secondo quell'immagine il pcb definitivo delle X2900 addirittura sarebbe più corto di quello della mia X1900XT.

nonchè anche più corta della GTS...speriamo sia tutto vero :)

Apix_1024
13-04-2007, 08:58
cominciano a prudermi le mani :D

ed il portafoglio inizia a nascondersi vero???:D :D

Kharonte85
13-04-2007, 09:02
ed il portafoglio inizia a nascondersi vero???:D :D
:asd:
sull'AA.. beh.. imho per quanto impressionante a livello di "marketing" direi abbastanza inutile sul piano visivo. Gia' un 16x e' un esagerazione. Manco dovessimo giocare a 320x240 su un 32 pollici full hd.
Quoto

Tenebra
13-04-2007, 09:28
nella fascia media potrebbero essercene 160 o anche al limite 128...:sofico: :sofico: :eek: :eek:

Diciamo che è lecito attendersene più dei 32 che viaggiano sulla 8600gts di Nvidia... sarebbe ridicolo se Amd mettesse sulla fascia media UN DECIMO degli stream processor della fascia alta (ma non si sa mai). E se i prezzi sono quelli già ventilati, R630 sarebbe più che desiderabile...

Deschutes
13-04-2007, 09:31
cominciano a prudermi le mani :D

ed il portafoglio inizia a nascondersi vero???:D :D

Già ........ :)
con quello che costerà R600XTX e con quello che costa un'ali super cazzuto per alimentarla, mi sa meglio andare in farmacia e comprarsi una bella pomata per farsi passare il prurito alle mani :D :D altrimenti si mette mano al portafoglio e la si compra il prurito passa alla grande ma poi viene ...........

Ciao

P.S. consiglio: comprando la R600XTX meglio andare uguale in farmacia e comprare un mini frigorifero e dei bei tappi x le orecchie :eek: 200 W e passa :eek: da dissipare con l'arrivo dei calori estivi .....

Foglia Morta
13-04-2007, 09:51
P.S. consiglio: comprando la R600XTX meglio andare uguale in farmacia e comprare un mini frigorifero e dei bei tappi x le orecchie :eek: 200 W e passa :eek: da dissipare con l'arrivo dei calori estivi .....

chi la sta provando dice che in full load è più silenziosa della X1950 .

http://www.fudzilla.com/index.php?option=com_content&task=view&id=512&Itemid=1

http://www.fudzilla.com/index.php?option=com_content&task=view&id=513&Itemid=1

Dexther
13-04-2007, 09:54
http://www.hwupgrade.it/news/skvideo/ati-radeon-hd-2900-svelata-la-gpu-r600_20799.html

wiltord
13-04-2007, 10:06
rumors in prima pagina aggiornati.

Dexther
13-04-2007, 10:09
rumors in prima pagina aggiornati.

da un punto di vista "marketing" credo che questo cambio della X con HD sia una buona trovata :)

adesso però vogliamo la sostanza :read: :D

Deschutes
13-04-2007, 10:12
chi la sta provando dice che in full load è più silenziosa della X1950 .

http://www.fudzilla.com/index.php?option=com_content&task=view&id=512&Itemid=1

http://www.fudzilla.com/index.php?option=com_content&task=view&id=513&Itemid=1

Non ho la presunzione di dire come va a rumorosità ecc ecc ecc senza averla tra le mani, ma 200 e passa watt :eek: se saranno confermati son 200 watt.

Anke in presenza di un'ottimo raffredamento ad aria, bisogna tener presente che il calore dissipato nonostante il tunnel ke convoglia l'aria calda all'esterno del case rimane in parte all'interno e contribuisce molto all'innalzamento temperature generale dei componenti e di conseguenza della rumorosità ... generale; forse con un raffreddamento a liquido molto performante e col radiatore montato dietro al case nn ci sarebbe qs problema.

Quindi rimango molto scettico, riguardo le notizie sulla rumorosità di R600XTX addirittura minore di una X1950

ciao

darek
13-04-2007, 10:19
Radeon HD 2900 XT costs $ / € 399 :mbe: :sofico:

Athlon 64 3000+
13-04-2007, 10:27
Radeon HD 2900 XT costs $ / € 399 :mbe: :sofico:

se lo faranno sarebbe un prezzo veramente concorrenziale visto che a quel prezzo in italia si trovano le 8800GTS 640.

wiltord
13-04-2007, 10:30
ma ho capito male io o a maggio escono le XT e a giugno le XTX?

halduemilauno
13-04-2007, 10:41
Radeon HD 2900 XT costs $ / € 399 :mbe: :sofico:

è la numero 2 non la numero 1 che verrà presentata dopo maggio.
;)

gianni1879
13-04-2007, 10:42
Radeon HD 2900 XT costs $ / € 399 :mbe: :sofico:

vabbè ho capito a maggio cambio sk video :asd:

speriamo sia quello il prezzo effettivo e magari la xtx a 450

belin
13-04-2007, 10:43
AMD ATI Radeon HD 2900 series features 320 stream processors, 512-bit memory interface with eight channels, 128-bit HDR rendering, 24x anti-aliasing, HDMI output capabilities with 5.1 surround sound.

...se le 320 unità scalari saranno divise in 64 gruppi ed ogni gruppo con una unità Vec4 + una scalare per un totale di 5 ALU, il tutto operante @ 800 MHz, signori miei ci troviamo di fronte, almeno sulla carta, ad un mostro di potenza. Interessante anche quel "eight channels" per i 512 bit.

...non ci resta che aspettare ancora un pò, ma come dice wiltord, le mani cominciano a prudere...:D

Deschutes
13-04-2007, 10:53
http://www.dinoxpc.com/News/news.asp?ID_News=12302&What=news
fonte originaria http://www.fx57.net/

Ecco le specifiche del TDP (Thermal Design Power) della gamma Ati R6xx:

Fascia high-end

* R600 / 1GB GDDR4: 240 Watt
* R600 / 512MB GDDR3: 200 Watt


Fascia mainstream

* RV630XT / 256/512MB GDDR4: 125 Watt
* RV630XT / 256MB GDDR3: 93 Watt
* RV630Pro/ 256/512MB DDR2: 75 Watt


Fascia entry-level

* RV610PRO / 256MB GDDR3: 35 Watt
* RVPRO/LE / 256MB GDDR3 LP 25/35 Watt
* RV610LE / 256MB DDR2: 25 Watt

sperando non sia un fake :D
Ciao

P.S. spero non era già stato postato ....

Athlon 64 3000+
13-04-2007, 10:53
è la numero 2 non la numero 1 che verrà presentata dopo maggio.
;)

se è per questo fudzilla dice anche che la Radeon HD 2900XT sarebbe veloce quanto la 8800GTX e quindi di conseguenza la Radeon HD 2900XTX sarebbe più veloce.
Tutto naturalmente a livello di rumors.

Simon82
13-04-2007, 10:58
se è per questo fudzilla dice anche che la Radeon HD 2900XT sarebbe veloce quanto la 8800GTX e quindi di conseguenza la Radeon HD 2900XTX sarebbe più veloce.
Tutto naturalmente a livello di rumors.

Beh, potrebbe essere in effetti. Se avessero deciso di potenziare la XT per farla avvicinare o sorpassare chi sa la 8800GTX (ipotesi) avrebbe un senso vedere la ultra top di gamma XTX leggermente piu' in la e sicuramente farebbe meno danni a livello di immagine e soddisfazione del cliente.

Se no mi sa che l'unica altra alternativa sara' appunto una XT effettivamente un po' piu' lenta in tutto e paragonabile alla GTS e una XTX fantasma vista solo al lancio.

halduemilauno
13-04-2007, 11:08
se è per questo fudzilla dice anche che la Radeon HD 2900XT sarebbe veloce quanto la 8800GTX e quindi di conseguenza la Radeon HD 2900XTX sarebbe più veloce.
Tutto naturalmente a livello di rumors.

io ho solo detto che quella del 24 aprile è la numero 2 appunto la xt. la numero 1 appunto la xtx verrà presentata più tardi dopo maggio.
tutto qui.
;)

halduemilauno
13-04-2007, 11:10
Beh, potrebbe essere in effetti. Se avessero deciso di potenziare la XT per farla avvicinare o sorpassare chi sa la 8800GTX (ipotesi) avrebbe un senso vedere la ultra top di gamma XTX leggermente piu' in la e sicuramente farebbe meno danni a livello di immagine e soddisfazione del cliente.

Se no mi sa che l'unica altra alternativa sara' appunto una XT effettivamente un po' piu' lenta in tutto e paragonabile alla GTS e una XTX fantasma vista solo al lancio.

vuoi per il consumo vuoi per il prezzo si son presi una pausa di riflessione anche per magari aspettare la contromossa di nvidia che sarà rappresentata dalla 8800 ultra.
;)

askani
13-04-2007, 11:21
Finalmente sta arrivando il mostriciattolo (resto sintonizzato:)

johnson
13-04-2007, 11:28
se è per questo fudzilla dice anche che la Radeon HD 2900XT sarebbe veloce quanto la 8800GTX e quindi di conseguenza la Radeon HD 2900XTX sarebbe più veloce.
Tutto naturalmente a livello di rumors.

Beh mi pare il minimo... Ormai sulle prestazioni sembra non ci siano più tanti dubbi, i rumors si intrecciano e più o meno si capisce che la xt va come la gtx mentre l'ammiraglia dovrebbe essere un 15/20% piu veloce.

Sicuramente il raòpporto watt/performance resterà saldamente nelle mani di nvidia. Ma a questo punto, se la scheda ATI va meglio, chissenefrega :D

Alexkidd85
13-04-2007, 11:43
Ok se consideriamo però che ci sono le vacanze a luglio e che io certamente punterò alla xtx,per quanto mi riguarda se ne parla dopo le vancanze.
Qua non posso dare colpa ad amd perché giustamente se la ultra esce in quel periodo...deve contrastare la ultra avendo IMHO limato il divario con la gtx addirittura con la xt.

A questo punto,se così fosse,gli scettici possono incominciare a sobbalzare dalla sedia :D

Apix_1024
13-04-2007, 11:48
http://www.dinoxpc.com/News/news.asp?ID_News=12302&What=news
fonte originaria http://www.fx57.net/

Ecco le specifiche del TDP (Thermal Design Power) della gamma Ati R6xx:

Fascia high-end

* R600 / 1GB GDDR4: 240 Watt
* R600 / 512MB GDDR3: 200 Watt


Fascia mainstream

* RV630XT / 256/512MB GDDR4: 125 Watt
* RV630XT / 256MB GDDR3: 93 Watt
* RV630Pro/ 256/512MB DDR2: 75 Watt


Fascia entry-level

* RV610PRO / 256MB GDDR3: 35 Watt
* RVPRO/LE / 256MB GDDR3 LP 25/35 Watt
* RV610LE / 256MB DDR2: 25 Watt

sperando non sia un fake :D
Ciao

P.S. spero non era già stato postato ....

be se fossero confermati nella fascia media e bassa i consumi sarebbero molto accettabili per gli 80nm!!!:D in attesa dei 65:read: :read:

halduemilauno
13-04-2007, 11:59
be se fossero confermati nella fascia media e bassa i consumi sarebbero molto accettabili per gli 80nm!!!:D in attesa dei 65:read: :read:

* RV630XT / 256/512MB GDDR4: 125 Watt
* RV630XT / 256MB GDDR3: 93 Watt
* RV630Pro/ 256/512MB DDR2: 75 Watt

no. perchè per la numero 1 di nvidia la 8600gts si parla di 71 watt. ovvero meno della più bassa di ati della stessa fascia media.
;)

Kharonte85
13-04-2007, 12:00
be se fossero confermati nella fascia media e bassa i consumi sarebbero molto accettabili per gli 80nm!!!:D in attesa dei 65:read: :read:
Insomma, Nvidia sembra che con le sue medie stia facendo molto meglio...

EDIT: ecco lo ha detto anche HAL...

Skullcrusher
13-04-2007, 12:02
In effetti stavolta non hanno badato tanto ai consumi mi sa :p

Athlon 64 3000+
13-04-2007, 12:04
Se il 24 aprile AMD presenterà ufficialmente la Radeon HD 2900XT e non una presentazione alla stampa sotto NDA è sarà veloce quanto la 8800GTX e costasse 400 euro sarebbe un prezzone.
Poi i primi di maggio Nvidia presenterà la Geforce 8800Ultra che magari sarà a 80 nm.

Skullcrusher
13-04-2007, 12:06
Se il 24 aprile AMD presenterà ufficialmente la Radeon HD 2900XT e non una presentazione alla stampa sotto NDA è sarà veloce quanto la 8800GTX e costasse 400 euro sarebbe un prezzone.
Poi i primi di maggio Nvidia presenterà la Geforce 8800Ultra che magari sarà a 80 nm.

Con un prezzo di 400€ per la XT, Ati farebbe una gran colpo...specie se veramente l'XT è come la GTX....speriamo... :D

T3d
13-04-2007, 12:06
* RV630XT / 256/512MB GDDR4: 125 Watt
* RV630XT / 256MB GDDR3: 93 Watt
* RV630Pro/ 256/512MB DDR2: 75 Watt

no. perchè per la numero 1 di nvidia la 8600gts si parla di 71 watt. ovvero meno della più bassa di ati della stessa fascia media.
;)

che c'è hal... tutto bene? :read:

darek
13-04-2007, 12:07
* R600 / 1GB GDDR4: 240 Watt
* R600 / 512MB GDDR3: 200 Watt

Basta un ali da 400W weri.:)

Kharonte85
13-04-2007, 12:11
In effetti stavolta non hanno badato tanto ai consumi mi sa :p
Eh gia'...pero' la cosa se confermati i valori (230-40w :mbe: ) è davvero esagerata...questo mi convince sempre di piu' che nvidia abbia fatto un ottimo lavoro sulle sue vga per quanto riguarda i consumi (ricordo che G80 è a 90nm :eek: eppure la 8800gtx consuma circa 145w inFull)...

halduemilauno
13-04-2007, 12:13
che c'è hal... tutto bene? :read:

oddio si perchè? faccio scongiuri.

Simon82
13-04-2007, 12:13
* RV630XT / 256/512MB GDDR4: 125 Watt
* RV630XT / 256MB GDDR3: 93 Watt
* RV630Pro/ 256/512MB DDR2: 75 Watt

no. perchè per la numero 1 di nvidia la 8600gts si parla di 71 watt. ovvero meno della più bassa di ati della stessa fascia media.
;)

Speriamo non faccia alcuni sbagli delle precedenti fascie medie perche' da questo punto di vista Nvidia ha sempre offerto un po' piu' potenza e minore spesa rispetto alle concorrenti. ;)

zorco
13-04-2007, 12:13
* R600 / 1GB GDDR4: 240 Watt
* R600 / 512MB GDDR3: 200 Watt

Basta un ali da 400W weri.:)

non credo proprio,240w è più o meno il consumo di due x1900xtx quindi ne dubbito

T3d
13-04-2007, 12:14
Eh gia'...pero' la cosa se confermati i valori (230-40w :mbe: ), è davvero esagerata...questo mi convince sempre di piu' che nvidia abbia fatto un ottimo lavoro sulle sue vga per quanto riguarda i consumi (ricordo che G80 è a 90nm :eek: eppure la 8800gtx consuma circa 145w inFull)...

si ma la storia dei consumi non incide come può incidere sui processori.
nelle cpu una maggior quantità di calore da dissipare si traduceva in minori prestazioni nel medio periodo... dato che il processore arrivati a certe frequenze non poteva essere spremuto di più a causa dell'eccessivo calore

sulle gpu questo non avviene. se la gpu consuma 250w oppure 150w alla fine per il gamer non cambia assolutamente nulla.

LCol84
13-04-2007, 12:15
si ma la storia dei consumi non incide come può incidere sui processori.
nelle cpu una maggior quantità di calore da dissipare si traduceva in minori prestazioni nel medio periodo...

sulle gpu questo non avviene. se la gpu consuma 250w oppure 150w alla fine per il gamer non cambia assolutamente nulla.

Non ho capito che intendi.
Puoi spiegarti meglio :stordita:

Simon82
13-04-2007, 12:15
non credo proprio,240w è più o meno il consumo di due x1900xtx quindi ne dubbito

Visto il numero di transistor e il processo produttivo potrebbe anche essere. ;)

zorco
13-04-2007, 12:18
Visto il numero di transistor e il processo produttivo potrebbe anche essere. ;)
si non lo metto indubbio che possa consumare tanto, visto il grado di complessità della gpu ecc..ma quello che volevo dire è che mi sembra difficile che essa possa essere alimentata senza problemi da un'ali da 400w anche se di marca...

Robbysca976
13-04-2007, 12:21
* R600 / 1GB GDDR4: 240 Watt
* R600 / 512MB GDDR3: 200 Watt

Basta un ali da 400W weri.:)

Ma stiamo skerzando? 200W x la più economica r600? :eek:

Mi sa ke a sto giro tradirà Ati e passero a Nvidia con una bella 8800gts da 320.

darek
13-04-2007, 12:21
Non possono aumentare consumo al infinito.Cosi tra 10 anni arriwano a 5KW :D

Kharonte85
13-04-2007, 12:23
si ma la storia dei consumi non incide come può incidere sui processori.
nelle cpu una maggior quantità di calore da dissipare si traduceva in minori prestazioni nel medio periodo... dato che il processore arrivati a certe frequenze non poteva essere spremuto di più a causa dell'eccessivo calore
E chi ha parlato di ciò? :mbe:
se la gpu consuma 250w oppure 150w alla fine per il gamer non cambia assolutamente nulla.
Insomma...come minimo la scheda che consuma molto di piu' deve andare molto di piu' altrimenti hanno fatto un lavoro non va affatto bene...;)

Poi ovvio che l'Hardcore Gamers se ne frega e si piglia un ali da 1000w ecc...

LCol84
13-04-2007, 12:25
Non possono aumentare consumo al infinito.Cosi tra 10 anni arriwano a 5KW :D

Effettivamente siamo passati dalla ex vga top di gamma ati (x1950xtx) sui 120watt a 240watt delle nuove r600.
Raddoppio spaccato dei consumi.
la cosa mi intristisce parekkio devo essere sincero.
Però alla fine penso sia conseguenza diretta dal doppio della ram montata a bordo, e della maggiore complessità.
Peccato che il processo produttivo inferiore di 10nm non sia servito ad contenere i consumi... :cry:

T3d
13-04-2007, 12:26
E chi ha parlato di ciò? :mbe:

Insomma...come minimo la scheda che consuma molto di piu' deve andare molto di piu' altrimenti hanno fatto un lavoro non va affatto bene...;)

Poi ovvio che l'Hardcore Gamers se ne frega e si piglia un ali da 1000w ecc...

eh?

il metro di paragone è il prezzo non i consumi :mbe:

LCol84
13-04-2007, 12:29
eh?

il metro di paragone è il prezzo non i consumi :mbe:

Mah, non sono d'accordo pienamente.
I consumi sono un fattore importante al giorno d'oggi da tenere in considerazione.
K, se si tratta magari di 20-30watt in più per una scheda va bene, ma qui si parla di raddoppio di consumi con 120watt in più.
Perdonami ma non sono proprio bruscoline :D

darek
13-04-2007, 12:30
ELT400AWT . Enermax.
+3.3V: 26A
+5V: 28A
+12V1: 20A*
+12V2: 20A*
-12V - 0.6A
+5Vsb - 3.0A
* -non + di 30A, 360W

Basta e avanza.:)

zorco
13-04-2007, 12:31
penso che già siamo arrivati quasi al limite con il silicio forse è ora che si cambi tecnologia e materiali per realizzare sti chip ultra maledettamente complessi...

Kharonte85
13-04-2007, 12:32
eh?

il metro di paragone è il prezzo non i consumi :mbe:
Insomma, se si parlasse di una 20 di w potrei anche essere d'accordo...ma qui si parla di valori allucinanti (che costringerebbero molti a cambiare alimentatore)
ELT400AWT . Enermax.
+3.3V: 26A
+5V: 28A
+12V1: 20A*
+12V2: 20A*
-12V - 0.6A
+5Vsb - 3.0A
* -non + di 30A, 360W

Basta e avanza.:)
Dipende anche dal resto del sistema che si ha...non si possono fare i conti cosi' ad cazzum...cmq speriamo che basti anche perche' è pur sempre un alimentatore da 80 euri...:mc:

halduemilauno
13-04-2007, 12:32
http://www.vr-zone.com/?i=4898

la r600xt ovvero la hd2900xt 750/1640.

;)

darek
13-04-2007, 12:32
penso che già siamo arrivati quasi al limite con il silicio forse è ora che si cambi tecnologia e materiali per realizzare sti chip ultra maledettamente complessi...

Sorpresa.:)
http://www.tomshw.it/news.php?newsid=9705

zorco
13-04-2007, 12:34
Sorpresa.:)
http://www.tomshw.it/news.php?newsid=9705
bella notizia si vede che mi hanno ascoltato:D

Deschutes
13-04-2007, 12:35
* R600 / 1GB GDDR4: 240 Watt
* R600 / 512MB GDDR3: 200 Watt

Basta un ali da 400W weri.:)

Certo certo ... :D :D x es l'enermax liberty da 400 watt son veri, ma vorrei vederti quando giochi e spremi gpu e cpu come te la cavi ... con 400 W :D
Anch'io credo che un'ottimo ali da 400W regge R600XTX ma come......e quanto?
200 watt la gpu + watt cpu + watt HD + watt scheda madre + watt ecc stiamo abbondantemente oltre i 300 watt insomma ti fai 2-3 ore tirate di gioco con l'ali a pieno carico :eek:
Per non parlare poi se vai di overclock ... :)

Ciao

darek
13-04-2007, 12:38
bella notizia si vede che mi hanno ascoltato:D

:sbonk: Pare proprio di si.

zorco
13-04-2007, 12:39
Dipende anche dal resto del sistema che si ha...non si possono fare i conti cosi' ad cazzum...cmq speriamo che basti anche perche' è pur sempre un alimentatore da 80 euri...:mc:
infatti,se prendiamo già solo sto mostro di x2900xt( 240W )+ un Q6700 (130w) sono 370W senza contare lettori e hd ecc..

darek
13-04-2007, 12:42
infatti,se prendiamo già solo sto mostro di x2900xt( 240W )+ un Q6700 (130w) sono 370W senza contare lettori e hd ecc..

Ma dai ,non stavo parlando di top.Qualcosina + leggero :D

Simon82
13-04-2007, 12:43
Certo certo ... :D :D x es l'enermax liberty da 400 watt son veri, ma vorrei vederti quando giochi e spremi gpu e cpu come te la cavi ... con 400 W :D
Anch'io credo che un'ottimo ali da 400W regge R600XTX ma come......e quanto?
200 watt la gpu + watt cpu + watt HD + watt scheda madre + watt ecc stiamo abbondantemente oltre i 300 watt insomma ti fai 2-3 ore tirate di gioco con l'ali a pieno carico :eek:
Per non parlare poi se vai di overclock ... :)

Ciao

Gia', a questo punto quasi si spende meno ad alimentare il pc con l'aiuto di un secondo alimentatore ATX opportunatamente hackato. Non mi stupisco se qualcuno gia' non sta facendo cosi' perche' comprare un Tagan da 1000w e' come comprare la scheda video stessa.

T3d
13-04-2007, 12:44
http://www.vr-zone.com/?i=4898

la r600xt ovvero la hd2900xt 750/1640.

;)

non male :) soprattutto per il prezzo.

quindi lo scontro finale è rimandato vero? :)

darek
13-04-2007, 12:47
Poi 360W sono di linia 12V ,,+3.3V +5V sono altri 150W
So ke e strano.Almeno cosi scrivono.A quanto pare va oltre 400 W

Deschutes
13-04-2007, 12:49
Ma dai ,non stavo parlando di top.Qualcosina + leggero :D

ma mandi i posto a casaccio :D ? anke considerando la sorta di cpu ke hai ....
dicendo ke basta un'ali da 400 W veri per la R600XTX come ti ho risposto sopra condivido ma bisogna vedere come .....
poi abbinandoci il tuo mostro di cpu QX6700 direi ke manco ti parte il pc :eek: :D

ciao

Kharonte85
13-04-2007, 12:53
http://www.vr-zone.com/?i=4898

la r600xt ovvero la hd2900xt 750/1640.

;)
In sostanza:

Per ora (Maggio) esce la HD2900xt [320 stream processors 750/1640] (che pero' sembra sufficiente per stare davanti alla 8800gtx) con un prezzo che si aggira sui 400$.

A questo punto credo che la sorella maggiore uscira' probabilmente solo quando gli R600 saranno pronti con i 65nm (in effetti se facessero cosi' sarebbero da "ammirare")...

darek
13-04-2007, 12:55
ma mandi i posto a casaccio :D ? anke considerando la sorta di cpu ke hai ....
dicendo ke basta un'ali da 400 W veri per la R600XTX come ti ho risposto sopra condivido ma bisogna vedere come .....
poi abbinandoci il tuo mostro di cpu QX6700 direi ke manco ti parte il pc :eek: :D

ciao

Non ho intenzione di prendere r600.Ma se un giorno dovessi farlo cambio ali e lo verifico :D

Athlon 64 3000+
13-04-2007, 13:04
nella notizia di vr-zone si dice che sia la versione XT a fare 12000 punti al 3d mark 2006 e non la XTX.
Finche si parla di rumors di notizie ne vengono fuori sempre diverse e quindi tutto è possibile.

Alexkidd85
13-04-2007, 13:06
In sostanza:

Per ora (Maggio) esce la HD2900xt [320 stream processors 750/1640] (che pero' sembra sufficiente per stare davanti alla 8800gtx) con un prezzo che si aggira sui 400$.

A questo punto credo che la sorella maggiore uscira' probabilmente solo quando gli R600 saranno pronti con i 65nm (in effetti se facessero cosi' sarebbero da "ammirare")...

Ti quoto e ti confermo il mio pensiero in linea con il tuo se così fosse ;)

Alexkidd85
13-04-2007, 13:08
nella notizia di vr-zone si dice che sia la versione XT a fare 12000 punti al 3d mark 2006 e non la XTX.
Finche si parla di rumors di notizie ne vengono fuori sempre diverse e quindi tutto è possibile.

Mah,per quanto mi riguarda,anche se sta scheda viaggerà stupendamente,mi tengo stretta la vga in firma fino all'arrivo della sorella maggiore...
Anche se comunque....con quei driver,ribadisco o qualcosa mi puzza...o sono moooolto poco ottimizzati :)

Apix_1024
13-04-2007, 13:12
* RV630XT / 256/512MB GDDR4: 125 Watt
* RV630XT / 256MB GDDR3: 93 Watt
* RV630Pro/ 256/512MB DDR2: 75 Watt

no. perchè per la numero 1 di nvidia la 8600gts si parla di 71 watt. ovvero meno della più bassa di ati della stessa fascia media.
;)

Insomma, Nvidia sembra che con le sue medie stia facendo molto meglio...

EDIT: ecco lo ha detto anche HAL...

be nvidia ci ha messo uno sputo di sp... vedremo quanti ne ha ati dentro alle medie e a quelle di fascia bassa...:D

Kharonte85
13-04-2007, 13:13
nella notizia di vr-zone si dice che sia la versione XT a fare 12000 punti al 3d mark 2006 e non la XTX.
Si', perche' la xtx uscira' dopo (non si sa di quanto pero')

In sostanza avremo:

8800gtx Vs HD2900xt

8800Ultra (o gx2 o quel che sara') Vs HD2900xtx



Finche si parla di rumors di notizie ne vengono fuori sempre diverse e quindi tutto è possibile.
Certamente. ;)

mrt75
13-04-2007, 13:15
Radeon HD 2900 XT costs $ / € 399 :mbe: :sofico:

se lo faranno sarebbe un prezzo veramente concorrenziale visto che a quel prezzo in italia si trovano le 8800GTS 640.

Si si... che in Italia aggiunti mazzi e caz... diventano 499€ come minimo :)

Kharonte85
13-04-2007, 13:16
Si si... che in Italia aggiunti mazzi e caz... diventano 499€ come minimo :)
Ovviamente, sarebbe cmq un buon prezzo dato che la 8800gtx si trova mediamente a http://www.trovaprezzi.it/prezzo_schede-grafiche_8800gtx.aspx anche se probabilmente Nvidia tagliera' un po' a Maggio (specie se esce davvero la 8800ULTRA) ;)

Soulbringer
13-04-2007, 13:20
Ma io non ho capito 1 cosetta: La hd2900 xtx avrà si o no le gddr4?
Cmq per la xt 1600Mhz circa per le ram mi sembrano pochini..

Deschutes
13-04-2007, 13:21
Gia', a questo punto quasi si spende meno ad alimentare il pc con l'aiuto di un secondo alimentatore ATX opportunatamente hackato. Non mi stupisco se qualcuno gia' non sta facendo cosi' perche' comprare un Tagan da 1000w e' come comprare la scheda video stessa.

Beh no, scelta non ottimale ...
In base alle mie conoscenze ... (potrei sbagliarmi) meglio spendere € in un'ottimo o eccellente e singolo ali, che in 2 ali discreti o addirittura mediocri, parlo di qualità costruttiva e tecnologica, senza considerare i watt.
Riguardo i watt x es meglio un'eccellente ali da 600 watt che uno discreto da 850 watt

Non credo ci sia bisogno di ali da 1 KW per X2900XTX neanche mettendone 2 in crossfire :eek: , considerando ke l'eccellente corsair HX620 regge 2 8800gtx in sli, un'ali tipo enermax infiniti 720 watt dovrebbe reggere 2 X2900XTX in crossfire addiritura forse anke HX620 le regge ..... vedasi cosa dice a riguardo il guru
http://www.jonnyguru.com/forums/showpost.php?p=14501&postcount=1
http://www.jonnyguru.com/forums/showpost.php?p=838&postcount=1

Ciao

Kharonte85
13-04-2007, 13:23
Ma io non ho capito 1 cosetta: La hd2900 xtx avrà si o no le gddr4?
Cmq per la xt 1600Mhz circa per le ram mi sembrano pochini..
Dovrebbe avere solo 512mb ddr3....