PDA

View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

davide155
23-04-2007, 12:16
pare il 14 maggio.
;)

Ok, e domani c'è la presentazione a porte chiuse?
Oppure domani non c'è nulla?

halduemilauno
23-04-2007, 12:18
Ok, e domani c'è la presentazione a porte chiuse?
Oppure domani non c'è nulla?

domani c'è la presentazione alla stampa specializzata.
;)

davide155
23-04-2007, 12:20
domani c'è la presentazione alla stampa specializzata.
;)

Capisco........speriamo trapeli qualcosa :(

A.L.M.
23-04-2007, 12:32
io l'ho vista a 189 e a 186€. questo per la precisione per carità.

Ok, correggo:
Se in 20 giorni perderanno il 20-21% del loro valore mi sa che non sono un grande acquisto...

:asd: :asd:

belin
23-04-2007, 13:17
http://img340.imageshack.us/img340/2291/atitunisww6.jpg (http://imageshack.us)


:fiufiu:

LCol84
23-04-2007, 13:18
http://img340.imageshack.us/img340/2291/atitunisww6.jpg (http://imageshack.us)


:fiufiu:

Cos'è? :confused:

TecnoWorld8
23-04-2007, 13:19
foto da tunisi, immagino

Alexkidd85
23-04-2007, 13:20
Per la cronaca,ho chiesto agli amici del 3d ufficiale di infernal di darmi un salvataggio vicino o comunque ad inizio secondo livello,sfrutto quello o se non avrò risposte,mi armo di fucile e parto dall'inizio :D Almeno vediamo quanto serve st'ageia :muro:

Alexkidd85
23-04-2007, 13:22
http://img340.imageshack.us/img340/2291/atitunisww6.jpg (http://imageshack.us)


:fiufiu:

Oh mio Dio... :sofico:
Qualcosa si muove (sempre "come disse Cicciolina")

belin
23-04-2007, 13:22
Cos'è? :confused:

foto da tunisi, immagino

Tunis Press Briefing


ps. qualcuno sa quali testate italiane sono state invitate??? :fiufiu:

TecnoWorld8
23-04-2007, 13:23
pc professionale, sicuramente. ma credo anche altre...

Soulbringer
23-04-2007, 13:24
Oh mio Dio... :sofico:
Qualcosa si muove (sempre "come disse Cicciolina")

Speriamo di avere almeno i dettagli certi per r600 tra oggi o domani..

LCol84
23-04-2007, 13:25
Speriamo di avere almeno i dettagli certi per r600 tra oggi o domani..

Ah voi dite che le specifiche saranno rivelate o saranno anch'esse sotto nda?

Kharonte85
23-04-2007, 13:26
Oh mio Dio... :sofico:
Qualcosa si muove (sempre "come disse Cicciolina")
Casomai Eppur si muove! :asd: (Galileo Galilei) ;)

Tunis Press Briefing
ps. qualcuno sa quali testate italiane sono state invitate??? :fiufiu:
:O

Kharonte85
23-04-2007, 13:26
Ah voi dite che le specifiche saranno rivelate o saranno anch'esse sotto nda?
NDA rulez (purtroppo :( )

Cmq ormai le specifiche piu' o meno saranno quelle che sentiamo da un po'...

belin
23-04-2007, 13:27
Speriamo di avere almeno i dettagli certi per r600 tra oggi o domani..

...impossibile. Unica possibilità: qualcuno che non ha più voglia di farsi invitare alle prossime presentazioni AMD-ATi fa trapelare foto e caratteristiche. Un pazzo.

:D

Kharonte85
23-04-2007, 13:28
...impossibile. Unica possibilità: qualcuno che non ha più voglia di farsi invitare alle prossime presentazioni AMD-ATi fa trapelare foto e caratteristiche. Un pazzo.

:D
:asd:

Soulbringer
23-04-2007, 13:28
Ah voi dite che le specifiche saranno rivelate o saranno anch'esse sotto nda?

Non saprei dire..la mia era solo una (vana? :D ) speranza.. Cmq credo che almeno qualche foto della scheda retail la vedremo di sicuro.

A.L.M.
23-04-2007, 13:31
Per la cronaca,ho chiesto agli amici del 3d ufficiale di infernal di darmi un salvataggio vicino o comunque ad inizio secondo livello,sfrutto quello o se non avrò risposte,mi armo di fucile e parto dall'inizio :D Almeno vediamo quanto serve st'ageia :muro:

Ottimo! :)

...impossibile. Unica possibilità: qualcuno che non ha più voglia di farsi invitare alle prossime presentazioni AMD-ATi fa trapelare foto e caratteristiche. Un pazzo.

:D

Oppure qualcuno presente a Tunisi passa le info a qualche amico che scrive su forum/blog... :Perfido:

belin
23-04-2007, 13:33
Oppure qualcuno presente a Tunisi passa le info a qualche amico che scrive su forum/blog... :Perfido:

Mi offro volontario. Assicuro professionalità e silenzio assoluto. Muto come un pesce. Lasciate il mio nick alla redazione e a tutte le testate italiane invitate a Tunisi.

Grazie per la collaborazione.



:D

TecnoWorld8
23-04-2007, 13:36
di solito, dopo un evento mediatico sotto NDA, iniziano a trapelare notizie. Le case produttrici lo sanno...e lo accettano...ovvio che ancora non saranno notizie sicure al 100%, ma cmq saranno forse già + sicure di ora...

Simon82
23-04-2007, 13:43
...impossibile. Unica possibilità: qualcuno che non ha più voglia di farsi invitare alle prossime presentazioni AMD-ATi fa trapelare foto e caratteristiche. Un pazzo.

:D
O un pazzo (ce ne sono stati in passato) o qualcuno che inventera'. ;)

Simon82
23-04-2007, 13:44
di solito, dopo un evento mediatico sotto NDA, iniziano a trapelare notizie. Le case produttrici lo sanno...e lo accettano...ovvio che ancora non saranno notizie sicure al 100%, ma cmq saranno forse già + sicure di ora...

Fughe controllate... imho e' plausibile siano le stesse aziende a preventivarle.

Alexkidd85
23-04-2007, 13:50
...impossibile. Unica possibilità: qualcuno che non ha più voglia di farsi invitare alle prossime presentazioni AMD-ATi fa trapelare foto e caratteristiche. Un pazzo.

:D

Ma anche di beccarsi una bella querela direi :asd:

TecnoWorld8
23-04-2007, 13:54
sì, anche perchè un NDA va sottoscritto ed ha valore legale...

Alexkidd85
23-04-2007, 14:00
Si ma se si diffonde non è che c'è scritto "l'ha diffuso Alexkidd,presente alla presentazione".
Cioé si diffonde e basta...che bannano dalle manifestazioni tutte le testate del mondo!? :D

TecnoWorld8
23-04-2007, 14:02
no, dico solo che non dobbiamo attenderci notizie ufficiali da subito...magari trapeleranno news, ma continueranno ad essere da prendere con il beneficio del dubbio...

Portocala
23-04-2007, 14:31
Mi offro volontario. Assicuro professionalità e silenzio assoluto. Muto come un pesce. Lasciate il mio nick alla redazione e a tutte le testate italiane invitate a Tunisi.

Grazie per la collaborazione.



:D
non ascoltatelo, scrive l'"h" dove non serve.
io sono molto più meglio di lui, mandate me :sofico:

:D

runk
23-04-2007, 14:39
Raga sono rimasto indietrissimo,almeno 30pag...qualcuno mi può fare il sunto nei nuovi rumors ecc? :ave:

halduemilauno
23-04-2007, 14:46
Raga sono rimasto indietrissimo,almeno 30pag...qualcuno mi può fare il sunto nei nuovi rumors ecc? :ave:

hd2900xt & hd2600xt verranno annunciate/presentate domani. 800/1600 & 800/2200 con i rispettivi annessi & connessi. va bene come sunto?
;)

belin
23-04-2007, 14:51
non ascoltatelo, scrive l'"h" dove non serve.
io sono molto più meglio di lui, mandate me :sofico:

:D

:confused:

:mbe:

ugruhell
23-04-2007, 14:51
hd2900xt & hd2600xt verranno annunciate/presentate domani. 800/1600 & 800/2200 con i rispettivi annessi & connessi. va bene come sunto?
;)

allora domani pure la rece?

runk
23-04-2007, 14:51
hd2900xt & hd2600xt verranno annunciate/presentate domani. 800/1600 & 800/2200 con i rispettivi annessi & connessi. va bene come sunto?
;)

bene,grazie mille hal!si sa niente di nuovo sui dissy,consumi o altro?

belin
23-04-2007, 14:52
allora domani pure la rece?

...no, l'abbiamo scritto più volte la pagina precedente!

;)

Simon82
23-04-2007, 14:53
no, dico solo che non dobbiamo attenderci notizie ufficiali da subito...magari trapeleranno news, ma continueranno ad essere da prendere con il beneficio del dubbio...

In un modo o nell'altro lo vengono a sapere. Credo a seconda della gravita' della fuga (non controllata) e dei danni (a volte enormi) ricevuti le azioni saranno molteplici anche legate a scoprire il possibile sull'accaduto.

halduemilauno
23-04-2007, 15:09
allora domani pure la rece?

no. l'nda dovrebbe scadere il 14 maggio.
;)

ugruhell
23-04-2007, 15:09
no. l'nda dovrebbe scadere il 14 maggio.
;)

ok grazie ;)

TecnoWorld8
23-04-2007, 15:09
credo che ATi stia cercando, per quanto possibile, di tenere ancora nascoste le specifiche finali di R600 per impedire ad nVIDIA di precederla con una Ultra più potente. Tuttavia, credo che lo spionaggio industriale esista anche in quei settori...

A.L.M.
23-04-2007, 15:19
credo che ATi stia cercando, per quanto possibile, di tenere ancora nascoste le specifiche finali di R600 per impedire ad nVIDIA di precederla con una Ultra più potente. Tuttavia, credo che lo spionaggio industriale esista anche in quei settori...

Boh? Imho ATi non ha molto da temere sulle prestazioni della 8800Ultra... Se, come penso, le informazioni mostrate per sbaglio da Dell sono vere, la Ultra sarà solo una GTX pompata.
Piuttosto mi preoccuperei di arrivare al 14 Maggio con dei drivers stabili e abbastanza performanti, almeno per evitare scenette lollose come questa: http://www.nvidiaclassaction.info/ :asd:

halduemilauno
23-04-2007, 15:21
Boh? Imho ATi non ha molto da temere sulle prestazioni della 8800Ultra... Se, come penso, le informazioni mostrate per sbaglio da Dell sono vere, la Ultra sarà solo una GTX pompata.
Piuttosto mi preoccuperei di arrivare al 14 Maggio con dei drivers stabili e abbastanza performanti, almeno per evitare scenette lollose come questa: http://www.nvidiaclassaction.info/ :asd:

:D ovviamente non mi riferisco al link.

TecnoWorld8
23-04-2007, 15:21
Consideriamo che la Ultra andrà comunque un 10%-15% circa in più di una GTX, pur essendo "solamente" un overclock, di fatto.

Quindi se la XT va più o meno come una GTX, si troverà subito ad essere sorpassata da una scheda nVidia.

Non so, non capisco perchè ATi non punti ad avere la scheda più veloce sul mercato almeno per qualche mese, dato il tempo di attesa...

halduemilauno
23-04-2007, 15:24
Consideriamo che la Ultra andrà comunque un 10%-15% circa in più di una GTX, pur essendo "solamente" un overclock, di fatto.

Quindi se la XT va più o meno come una GTX, si troverà subito ad essere sorpassata da una scheda nVidia.

Non so, non capisco perchè ATi non punti ad avere la scheda più veloce sul mercato almeno per qualche mese, dato il tempo di attesa...

beh subito. si parla sempre di un giorno. di un lungo giorno.
;)

T3d
23-04-2007, 15:28
Consideriamo che la Ultra andrà comunque un 10%-15% circa in più di una GTX, pur essendo "solamente" un overclock, di fatto.

Quindi se la XT va più o meno come una GTX, si troverà subito ad essere sorpassata da una scheda nVidia.

Non so, non capisco perchè ATi non punti ad avere la scheda più veloce sul mercato almeno per qualche mese, dato il tempo di attesa...

forse perché non gli frega nulla? ;)

TecnoWorld8
23-04-2007, 15:29
forse perché non gli frega nulla? ;)

boh, da che mondo è mondo, quando c'è concorrenza, il prodotto high end è sempre stata la vetrina per la bontà di una tecnologia.

Intel ed AMD lottano per le prestazioni al top. Così facevano 3dfx ed nVidia e ora da anni nVidia ed ATi...

Se ad ATi non frega più nulla di avere un prodotto top, allora secondo me è un bruttissimo segno.

A.L.M.
23-04-2007, 15:43
Consideriamo che la Ultra andrà comunque un 10%-15% circa in più di una GTX, pur essendo "solamente" un overclock, di fatto.

Quindi se la XT va più o meno come una GTX, si troverà subito ad essere sorpassata da una scheda nVidia.

Non so, non capisco perchè ATi non punti ad avere la scheda più veloce sul mercato almeno per qualche mese, dato il tempo di attesa...

beh subito. si parla sempre di un giorno. di un lungo giorno.
;)

Considerando che si tratterà di una scheda che, stando ai si dice, andrà un pelo meglio di una GTX OC Liquid Cooled, presumo che costerà ancorà più delle liquid cooled: ossia si attesterà sui 599€.
A prescindere dalla disponibilità reale o fittizia di questa scheda (c'è chi dice che sarà in serie limitata), sinceramente non credo che avrà un grossissimo mercato, visto che una GTX di buona qualità, che potrebbe costare un centinaio di € in meno, in OC ad aria arriverebbe a risultati del tutto paragonabili.
Sinceramente, se la HD 2900XT andrà come una GTX e costerà 400-450€, credo che sarà un investimento molto migliore di una scheda che va il 10-15% in più ma costa 150-200€ in più...

maeco84
23-04-2007, 15:51
Consideriamo che la Ultra andrà comunque un 10%-15% circa in più di una GTX, pur essendo "solamente" un overclock, di fatto.

Quindi se la XT va più o meno come una GTX, si troverà subito ad essere sorpassata da una scheda nVidia.

Non so, non capisco perchè ATi non punti ad avere la scheda più veloce sul mercato almeno per qualche mese, dato il tempo di attesa...

Non credo sia un problema, voglio dire se mi coprassi la 2900XT anche se R600 venisse superato tra qualche mese da una nuova nVidia non sarebbe successo nulla di strano... francamente preferisco comprare ora una 2900XT a 400€-450€ (se sono vere le voci che circolano) che una 8800GTX a 600€-650€ (questi sono i prezzi che trovo nei maggiori negozi), senza contare che la X2900XT dovrebbe andare un po' più della 8800GTX! Considerate poi che io da ottobre ho una X1900XT pagata 260€, gioco fluidamente a tutti i giochi usciti fino ad ora, prendere una 8800GTX non mi avrebbe cambiato per niente la vita videoludica... ora se trovo una 2900XT che va di più e costa 200€ in meno W la vita ca**o...

halduemilauno
23-04-2007, 15:56
Considerando che si tratterà di una scheda che, stando ai si dice, andrà un pelo meglio di una GTX OC Liquid Cooled, presumo che costerà ancorà più delle liquid cooled: ossia si attesterà sui 599€.
A prescindere dalla disponibilità reale o fittizia di questa scheda (c'è chi dice che sarà in serie limitata), sinceramente non credo che avrà un grossissimo mercato, visto che una GTX di buona qualità, che potrebbe costare un centinaio di € in meno, in OC ad aria arriverebbe a risultati del tutto paragonabili.
Sinceramente, se la HD 2900XT andrà come una GTX e costerà 400-450€, credo che sarà un investimento molto migliore di una scheda che va il 10-15% in più ma costa 150-200€ in più...

se andrà come una gtx il confronto va fatto con una gtx. quindi quali 150/200€ in meno? sarà sui 50/100€ di meno al massimo. giustificati dai 256 mega di ram in più.

T3d
23-04-2007, 16:00
se andrà come una gtx il confronto va fatto con una gtx. quindi quali 150/200€ in meno? sarà sui 50/100€ di meno al massimo. giustificati dai 256 mega di ram in più.

giustificati non credo.
se va di meno e costa di più la quantità di ram non fa differenza.

belin
23-04-2007, 16:04
se andrà come una gtx il confronto va fatto con una gtx. quindi quali 150/200€ in meno? sarà sui 50/100€ di meno al massimo. giustificati dai 256 mega di ram in più.

...le vga non si vendono ad etti come il prosciutto o la mortadella. Che faccio signora, lascio 256 mega di ram in più? va bene lo stesso? ok, sono 100€ in più di prima.

:D

halduemilauno
23-04-2007, 16:04
giustificati non credo.
se va di meno e costa di più la quantità di ram non fa differenza.

azz. non fa la differenza. dillo a tutti quelli che sbavavano per il giga. poi le rece si fanno anche a 2048x1536.




ps in questi casi non si dice se va si dice se andrà.

halduemilauno
23-04-2007, 16:05
...le vga non si vendono ad etti come il prosciutto o la mortadella. Che faccio signora, lascia 256 mega di ram in più? va bene lo stesso? ok, sono 100€ in più di prima.

:D

aspetta le rece.

belin
23-04-2007, 16:11
aspetta le rece.

Ovvio che l'aspetto, e la leggerò con interesse come tutte le altre. Lapalissiano.

Ma col prosciutto che c'entra? :D

Tornando seri, imho è altamente riduttivo dire che una vga costa più di un'altra solo perchè ha 256 mb di ram in più. Sarebbe un discorso sensato se si parlasse di due vga identiche come architettura\chip\pcb, ma non è questo caso.

;)

A.L.M.
23-04-2007, 16:20
se andrà come una gtx il confronto va fatto con una gtx. quindi quali 150/200€ in meno? sarà sui 50/100€ di meno al massimo. giustificati dai 256 mega di ram in più.

Infatti i 150-200€ in meno sono rispetto alla Ultra, dato che il mio ragionamento era fatto su quello.
E la banda più ampia? Anche quella si paga. ;)

azz. non fa la differenza. dillo a tutti quelli che sbavavano per il giga. poi le rece si fanno anche a 2048x1536.

Infatti. Se hai uno schermo enorme (da 2048x1536 compresi in su) i 256-512MB in più potrebbero tornarti utili. Ma per la stragrande maggioranza dell'utenza probabilmente no. Altrimenti non si spiegherebbe come sia possibile che chi, come te, ha una scheda con 320MB, riesca (e riuscirà) a giocare comunque bene a tutto per un bel po' di tempo.

halduemilauno
23-04-2007, 16:23
Infatti i 150-200€ in meno sono rispetto alla Ultra, dato che il mio ragionamento era fatto su quello.
E la banda più ampia? Anche quella si paga. ;)



Infatti. Se hai uno schermo enorme (da 2048x1536 compresi in su) i 256-512MB in più potrebbero tornarti utili. Ma per la stragrande maggioranza dell'utenza probabilmente no. Altrimenti non si spiegherebbe come sia possibile che chi, come te, ha una scheda con 320MB, riesca (e riuscirà) a giocare comunque bene a tutto per un bel po' di tempo.

siete voi che avete esaltato il giga di ram e i 150 giga di banda. io invece parlavo della gtx che poi è l'unica di queste che c'è.

halduemilauno
23-04-2007, 16:24
Ovvio che l'aspetto, e la leggerò con interesse come tutte le altre. Lapalissiano.

Ma col prosciutto che c'entra? :D

Tornando seri, imho è altamente riduttivo dire che una vga costa più di un'altra solo perchè ha 256 mb di ram in più. Sarebbe un discorso sensato se si parlasse di due vga identiche come architettura\chip\pcb, ma non è questo caso.

;)

non la. le.

halduemilauno
23-04-2007, 16:54
http://it-review.net/index.php?option=com_content&task=view&id=1288&Itemid=1
;)

Athlon 64 3000+
23-04-2007, 16:57
http://it-review.net/index.php?option=com_content&task=view&id=1288&Itemid=1
;)

in questa presunta review hanno scritto che R600 è a 65 nm e addirittura il G80 a 80 nm.
:confused:

A.L.M.
23-04-2007, 17:08
in questa presunta review hanno scritto che R600 è a 65 nm e addirittura il G80 a 80 nm.
:confused:

Infatti temo che il sito sia poco affidabile. In un'altra news parlano della possibile presenza di una Programmable Tessellation Unit in R600... :confused:
http://it-review.net/index.php?option=com_content&task=view&id=1289&Itemid=105

Chi è più esperto potrebbe spiegare meglio cos'è? :help:

EDIT: pare sia una feature già vista in Xenos, ma dalla spiegazione di Beyond3D non ci ho capito una mazza... :fagiano:

An additional functional element that Xenos provides to developers is a Geometry Tessellation Unit. The tessellation unit is a fixed function engine that accepts triangles, rectangles and quads as its primitive input, along with a tessellation level per edge such that the level of tessellation is completely variable across the surface of the original primitive.

Current graphics processor architectures can mark to "kill" a pixel in the pixel shader and this is the case with Xenos. However, as the architecture unifies the shaders the capabilities of both the shader program types (vertex and pixel) are available to each other, so the kill command will also operate for vertices. Although the vertex isn't retired in the ALU as it goes through the rest of the geometry pipeline to be set up vertices marked as killed will be ignored, effectively reducing the level of detail in the resultant geometry.

Although 4000 is a reasonably large number of instructions to support in a single code block, this is a limitation on the number of instructions that can be applied to a single shader program because the full program is stored on the chip and never partially retrieved from memory. However, should the developer wish to exceed that in a single block then ATI's F-Buffer technology is included to increase the shader length. Alternatively ATI's "MEMEXPORT" (see "MEMEXPORT" section) could be used to increase the length of a shader program beyond the nominal 4000 instructions.

The combination of the shader array and tessellation unit can now make the, oft spoken of but rarely seen, capability of displacement mapping an attainable method to use as this truly becomes a single pass algorithm for Xenos. A simple primitive can be sent to the tessellation unit which is then subdivided into a vertex mesh and then that can be applied to a vertex shader program that does displacement map lookups via the vertex fetch texture units and then the geometry mesh altered according to the sampled values from the texture sampler. Alternatively, if the screen-space projection of the input primitive to the tessellation unit is calculated prior to tessellation then the per-edge tessellation level can be figured out dependant on that projection such that displacement mapping with correct, dynamic level of detail can be achieved.

halduemilauno
23-04-2007, 17:09
in questa presunta review hanno scritto che R600 è a 65 nm e addirittura il G80 a 80 nm.
:confused:

è scritto ma non è una review.
;)

Athlon 64 3000+
23-04-2007, 17:10
Io penso che R600 sia a 80 nm e non a 65 nm.
Comunque credo che sul quel sito abbiano sparato parecchie balle.

Athlon 64 3000+
23-04-2007, 17:13
http://www.fudzilla.com/index.php?option=com_content&task=view&id=656&Itemid=1

f you are from UK or have anything to do with the UK you should know about www.overclockers.co.uk the biggest etailer and of the most important companies selling the gprahic cards. Anyway these guys slipped and pre announced " ATI Radeon HD 2900 XT TURBO SILENT Heatpipe 512MB GDDR3 VIVO TV-Out/Dual DVI (PCI-Express) - Retail " this one comes from HIS.


If you are lucky enough it will be on the webpage when you show up if not enjoy our screenshot. Oh, BTW Overclockers just confirmed the name again and we wrote about it a while ago here.

The link is here and the picture is below.

Athlon 64 3000+
23-04-2007, 17:14
http://www.fudzilla.com/index.php?option=com_content&task=view&id=657&Itemid=1

Picture part duo

We showed you a picture or R600 card a while ago here but since DAAMIT tries to party in Tunisia and has bunch of journos on NDA's lets leak some more and get some people scared. We waited for this specific moment to make it a special.

This is a picture of the same card R600XT so you guys can compare it and analyse it all you want but this is the real Radeon HD 2900XT Mc Coy. The version ATI is showing off in Africa today is shorter and has a smaller retail cooler and has 512 MB of memory.

Look at the size of the heatpipes it is ridiculous but this is necessary to do remove 200W+. This is an OEM card and it should be ready by middle of the May that is the day.

Oh and the second PCIe 8 pin connector is for Overdrive. Is Tunis better than roasting a lamb in the wilds, we wonder. And here is the picture.

Athlon 64 3000+
23-04-2007, 17:14
sono sicuro che a partire da domani i rumor aumenteranno esponenziamente.

Soulbringer
23-04-2007, 17:25
beh subito. si parla sempre di un giorno. di un lungo giorno.
;)

A parte il fatto che sicuramente la hd2900xt andrà DI PIU' di una gtx, non credo che a nvidia basterà la ultra per sorpassare le prestazioni di ati..al massimo le pareggerà visto che come al solito farà il solito scarso overclock..:p

halduemilauno
23-04-2007, 17:33
A parte il fatto che sicuramente la hd2900xt andrà DI PIU' di una gtx, non credo che a nvidia basterà la ultra per sorpassare le prestazioni di ati..al massimo le pareggerà visto che come al solito farà il solito scarso overclock..:p

:sofico:

A.L.M.
23-04-2007, 17:39
http://www.fudzilla.com/index.php?option=com_content&task=view&id=656&Itemid=1

f you are from UK or have anything to do with the UK you should know about www.overclockers.co.uk the biggest etailer and of the most important companies selling the gprahic cards. Anyway these guys slipped and pre announced " ATI Radeon HD 2900 XT TURBO SILENT Heatpipe 512MB GDDR3 VIVO TV-Out/Dual DVI (PCI-Express) - Retail " this one comes from HIS.


If you are lucky enough it will be on the webpage when you show up if not enjoy our screenshot. Oh, BTW Overclockers just confirmed the name again and we wrote about it a while ago here.

The link is here and the picture is below.

Neanche a farlo apposta è proprio il sito in cui lavora quel Gibbo (menzionato pure da Fuad) che aveva in preview una HD2900XT qualche settimana fa. ;)

Soulbringer
23-04-2007, 17:39
sono sicuro che a partire da domani i rumor aumenteranno esponenziamente.

Spero proprio di si..non vedo l'ora di avere qualcosa di concreto per le mani!:)

Mister Tarpone
23-04-2007, 17:44
A parte il fatto che sicuramente la hd2900xt andrà DI PIU' di una gtx, non credo che a nvidia basterà la ultra per sorpassare le prestazioni di ati..al massimo le pareggerà visto che come al solito farà il solito scarso overclock..:p

la ultra è solamente una trovata per continuare a far pagare 600€ le care gtx "occate" nonostante l'uscita di r600xt ;)

ormai l'ho detta :ops:

Soulbringer
23-04-2007, 17:50
la ultra è solamente una trovata per continuare a far pagare 600€ le care gtx "occate" nonostante l'uscita di r600xt ;)

ormai l'ho detta :ops:

Esatto..io non voglio scatenare 1 polemica infinita, xò nvidia ha questo vizio..
La ultra sarà (come in passato dalla 7800gtx 256 alla 7800gtx 512) 1 versione semplicemente overcloccata della gtx, cosa che appunto pagheremo ancora 600 euro;) . Poi dopo 7 mesi di ritardo non credo proprio (rumors a parte) che r600 vada di - o = a una gtx..andrà qualcosa di più ed ecco il "significato" di quella ultra. Basta discorso chiuso x me!:D Ciao!

CoolBits
23-04-2007, 18:04
Esatto..io non voglio scatenare 1 polemica infinita, xò nvidia ha questo vizio..
La ultra sarà (come in passato dalla 7800gtx 256 alla 7800gtx 512) 1 versione semplicemente overcloccata della gtx, cosa che appunto pagheremo ancora 600 euro;) . Poi dopo 7 mesi di ritardo non credo proprio (rumors a parte) che r600 vada di - o = a una gtx..andrà qualcosa di più ed ecco il "significato" di quella ultra. Basta discorso chiuso x me!:D Ciao!

è ovvio che r600 vada di più ci mancherebbe che dopo 7 mesi esca anche una scheda inferiore come prestazioni :doh:

per il discorso 8800ultra se è solo una gtx overcloccata e con prezzo aumentato basta non comprarla. Overclock is free :cool:

Soulbringer
23-04-2007, 18:07
è ovvio che r600 vada di più ci mancherebbe che dopo 7 mesi esca anche una scheda inferiore come prestazioni :doh:

per il discorso 8800ultra se è solo una gtx overcloccata e con prezzo aumentato basta non comprarla. Overclock is free :cool:

Più chiaro di così si muore;) :D

T3d
23-04-2007, 18:27
azz. non fa la differenza. dillo a tutti quelli che sbavavano per il giga. poi le rece si fanno anche a 2048x1536.




ps in questi casi non si dice se va si dice se andrà.

per quale motivo dovrei coniugare il verbo al futuro se le schede sono già pronte? ;)

halduemilauno
23-04-2007, 18:33
è ovvio che r600 vada di più ci mancherebbe che dopo 7 mesi esca anche una scheda inferiore come prestazioni :doh:

per il discorso 8800ultra se è solo una gtx overcloccata e con prezzo aumentato basta non comprarla. Overclock is free :cool:

la versione ultra è sempre stata la versione oc di quella che sta sotto. quindi...
esce dopo sei mesi perchè prima non poteva. non è che esce adesso perchè è sicura di vincere.

halduemilauno
23-04-2007, 18:35
per quale motivo dovrei coniugare il verbo al futuro se le schede sono già pronte? ;)

son pronte ma non si sa quanto vanno. o tu si?

Soulbringer
23-04-2007, 18:35
la versione ultra è sempre stata la versione oc di quella che sta sotto. quindi...

Sempre?a me non pare..solo ultimamente.

T3d
23-04-2007, 18:36
son pronte ma non si sa quanto vanno. o tu si?

ma che stai dicendo? :confused:
le schede sono materialmente pronte, quindi si deve usare il presente! :confused:

halduemilauno
23-04-2007, 18:37
Esatto..io non voglio scatenare 1 polemica infinita, xò nvidia ha questo vizio..
La ultra sarà (come in passato dalla 7800gtx 256 alla 7800gtx 512) 1 versione semplicemente overcloccata della gtx, cosa che appunto pagheremo ancora 600 euro;) . Poi dopo 7 mesi di ritardo non credo proprio (rumors a parte) che r600 vada di - o = a una gtx..andrà qualcosa di più ed ecco il "significato" di quella ultra. Basta discorso chiuso x me!:D Ciao!


A parte il fatto che sicuramente la hd2900xt andrà DI PIU' di una gtx, non credo che a nvidia basterà la ultra per sorpassare le prestazioni di ati..al massimo le pareggerà visto che come al solito farà il solito scarso overclock..:p

andrà più di una gtx e a nvidia non basterà la ultra per sorpassare etc etc. sai gia tutto e sai anche che la ultra sarà insufficiente.
e detto questo non vuoi scatenare polemiche.
:D

Skullcrusher
23-04-2007, 18:40
sono sicuro che a partire da domani i rumor aumenteranno esponenziamente.

Questo è praticamente certo....fino al 14 maggio sarà un crescendo di info. Speriamo che ci sia qualche piacevole sorpresa quando verrà presentata a noi comuni mortali... :D

belin
23-04-2007, 18:40
http://it-review.net/index.php?option=com_content&task=view&id=1288&Itemid=1


Infatti temo che il sito sia poco affidabile. In un'altra news parlano della possibile presenza di una Programmable Tessellation Unit in R600... :confused:
http://it-review.net/index.php?option=com_content&task=view&id=1289&Itemid=105

Chi è più esperto potrebbe spiegare meglio cos'è? :help:

...avrei letto volentieri, ma non vanno più i link. :( Mi sa che hanno fatto saltare il server. :D

halduemilauno
23-04-2007, 18:41
ma che stai dicendo? :confused:
le schede sono materialmente pronte, quindi si deve usare il presente! :confused:

hai detto

giustificati non credo.
se va di meno e costa di più la quantità di ram non fa differenza.

quindi gia sai. invece se non sai...

A.L.M.
23-04-2007, 18:41
esce dopo sei mesi perchè prima non poteva.
E chi glielo impediva a nVidia di farla uscire prima? :stordita:

belin
23-04-2007, 18:42
Questo è praticamente certo....fino al 14 maggio sarà un crescendo di info. Speriamo che ci sia qualche piacevole sorpresa quando verrà presentata a noi comuni mortali... :D

...ci saranno sicuramente delle sorprese (;))...i rumors non indovinano mai al 100% quella che sarà la verità...vedi G80 e 8600.

...ciao!

A.L.M.
23-04-2007, 18:42
...avrei letto volentieri, ma non vanno più i link. :( Mi sa che hanno fatto saltare il server. :D

A me funzionano... Non è che sei al lavoro? :confused:

Comunque tu sai qualcosa di più su queste tessellation unit, per caso? :help:

Soulbringer
23-04-2007, 18:42
andrà più di una gtx e a nvidia non basterà la ultra per sorpassare etc etc. sai gia tutto e sai anche che la ultra sarà insufficiente.
e detto questo non vuoi scatenare polemiche.
:D

Tu nn sparli invece dicendo che r600 nn andrà + di una gtx e sostenendo che la ultra andrà di più??:rolleyes:

T3d
23-04-2007, 18:44
hai detto



quindi gia sai. invece se non sai...

ma infatti ho usato il "se" :confused:

il bello che il presente l'hai usato pure tu!
son pronte ma non si sa quanto vanno. o tu si?
http://it.wikipedia.org/wiki/Periodo_ipotetico
leggiti la dicitura "Periodo ipotetico della realtà:"

Kharonte85
23-04-2007, 18:52
A me da da pensare il fatto che Nvidia si limiti a buttare fuori solo un Overclock...non credo che, con tutto il tempo di vantaggio che ha avuto, Nvidia non abbia fatto i conti per rimanere il TOP...secondo me le prestazioni della HD2900xt saranno davvero simili a quelle della 8800gtx...il tutto ovviamente e rigorosamente IMHO

fukka75
23-04-2007, 18:58
A me funzionano... Non è che sei al lavoro? :confused:


Funzionano anche a me

belin
23-04-2007, 18:58
A me funzionano... Non è che sei al lavoro? :confused:

Comunque tu sai qualcosa di più su queste tessellation unit, per caso? :help:

...no, ora sono a casa, ma non vanno lo stesso. L'unico sito che non si apre...sarà intasato! :D

Non so bene a cosa si riferisca l'articolo, quindi non so cosa dire (e non è detto che lo sappia anche una volta letto). A caso posso pensare che sia una modo per programmare di volta in volta la resa dei "tasselli" calcolati. Inserire dei tasselli (tessellation) all'interno di una superficie che definisce un oggetto 3D (quindi costituita da triangoli) significa arricchire l'oggetto di particolari grafici. Il realismo da tale soluzione è notevolmente maggiore di quello ottenuto con tecniche come il bump mapping. Il tutto non sapendo di cosa si parla nell'articolo e soprattutto non sono un programmatore.

:)

halduemilauno
23-04-2007, 19:00
E chi glielo impediva a nVidia di farla uscire prima? :stordita:

stavo parlando di ati.

halduemilauno
23-04-2007, 19:01
Sempre?a me non pare..solo ultimamente.

e quindi a maggior ragione.

Alexkidd85
23-04-2007, 19:02
Comunque,se la differenza tra xt e xtx sarà solo la memoria,prenderei da subito la xt... Anche se sarà a 65nm,basta che non mi cambiano la frequenza o se me la cambiano sia irrisoria tipo 1900xt VS 1900xtx
Facendo un discorso da "bimbo mincxxa" : "mi sono rotto di aspettare che la ati faccia l'uovo con 2 rossi!!"!

halduemilauno
23-04-2007, 19:03
Tu nn sparli invece dicendo che r600 nn andrà + di una gtx e sostenendo che la ultra andrà di più??:rolleyes:

e dove e quando l'ho detto? ho sempre detto aspettiamo le rece. a quanto pare invece tu e altri gia sapete. mostrate anche a me rece esaustive.

halduemilauno
23-04-2007, 19:05
Comunque,se la differenza tra xt e xtx sarà solo la memoria,prenderei da subito la xt... Anche se sarà a 65nm,basta che non mi cambiano la frequenza o se me la cambiano sia irrisoria tipo 1900xt VS 1900xtx
Facendo un discorso da "bimbo mincxxa" : "mi sono rotto di aspettare che la ati faccia l'uovo con 2 rossi!!"!

non stai attento. una è(o sarebbe) 800/1600 l'altra è(o sarebbe) 800/2200.

Soulbringer
23-04-2007, 19:05
Comunque,se la differenza tra xt e xtx sarà solo la memoria,prenderei da subito la xt... Anche se sarà a 65nm,basta che non mi cambiano la frequenza o se me la cambiano sia irrisoria tipo 1900xt VS 1900xtx
Facendo un discorso da "bimbo mincxxa" : "mi sono rotto di aspettare che la ati faccia l'uovo con 2 rossi!!"!

Anche secondo me se la xtx differirà dalla xt solo di poco la seconda sarà un ottimo acquisto. Però mi preoccupa il fatto dei 65nm..cosi potrebbero salire molto di più di freq e magari le gddr4 incideranno tanto..mah..vedremo.

TecnoWorld8
23-04-2007, 19:08
infatti secondo me, se veramente la versione ad 80nm dissiperà 200W, non sarà assolutamente da prendere.

halduemilauno
23-04-2007, 19:11
ma infatti ho usato il "se" :confused:

il bello che il presente l'hai usato pure tu!

http://it.wikipedia.org/wiki/Periodo_ipotetico
leggiti la dicitura "Periodo ipotetico della realtà:"


non ti contesto il se ti contesto il va. quando non si sa non si dice se va si dice se andrà. capito futuro 14 maggio. capito ora? se andrà di meno e costerà di più etc etc.

giustificati non credo.
se va di meno e costa di più la quantità di ram non fa differenza.


era solo un mettere i puntini sulle I.

T3d
23-04-2007, 19:17
non ti contesto il se ti contesto il va. quando non si sa non si dice se va si dice se andrà. capito futuro 14 maggio. capito ora? se andrà di meno e costerà di più etc etc.




era solo un mettere i puntini sulle I.

appunto, hai messo i puntini sulle i in maniera totalmente sbagliata. dato che il periodo ipoteco è quello "realtà"

io ti consiglierei di leggere una grammatica italiana per capire esattamente cos'è ;)
il futuro non centra nulla.

fukka75
23-04-2007, 19:19
Uff, continuate in MP queste discussioni filologiche? grazie :)

halduemilauno
23-04-2007, 19:20
appunto, hai messo i puntini sulle i in maniera totalmente sbagliata. dato che il periodo ipoteco è quello "realtà"

io ti consiglierei di leggere una grammatica italiana per capire esattamente cos'è ;)
il futuro non centra nulla.

vabbè lascia perde.

T3d
23-04-2007, 19:20
Uff, continuate in MP queste discussioni filologiche? grazie :)

io non continuo tranquillo ;)
è tutto nella grammatica italiana

questa sconosciuta :asd:

Kharonte85
23-04-2007, 19:20
Uff, continuate in MP queste discussioni filologiche? grazie :)
Straquoto.

Grey 7
23-04-2007, 19:27
Comunque,se la differenza tra xt e xtx sarà solo la memoria,prenderei da subito la xt... Anche se sarà a 65nm,basta che non mi cambiano la frequenza o se me la cambiano sia irrisoria tipo 1900xt VS 1900xtx
Facendo un discorso da "bimbo mincxxa" : "mi sono rotto di aspettare che la ati faccia l'uovo con 2 rossi!!"!

idem...della memoria in meno poco m'importa, visto le impostazioni con cui gioco, stessa cosa dell'oc..che me lo faccio manualmente e magari pure piu spinto ;)

Skullcrusher
23-04-2007, 19:27
...ci saranno sicuramente delle sorprese (;))...i rumors non indovinano mai al 100% quella che sarà la verità...vedi G80 e 8600.

...ciao!

Proprio per questo sono convinto che avremo una buona sorpresa...i rumors di solito sbagliano sempre, essendo per l'appunto vici di corridoio. :)

Grey 7
23-04-2007, 19:28
Uff, continuate in MP queste discussioni filologiche? grazie :)

quoto mi sembra di sentire la mia ex-prof di grammatica :asd:

TecnoWorld8
23-04-2007, 19:28
ma nessuno si sente "disturbato" dal fatto che forse consumerà 200W e oltre?

maeco84
23-04-2007, 19:29
infatti secondo me, se veramente la versione ad 80nm dissiperà 200W, non sarà assolutamente da prendere.

E' tanto? Secondo voi quanto dissipa la mia X1900XT dovrò cambiare alimentatore???

Grey 7
23-04-2007, 19:31
ma nessuno si sente "disturbato" dal fatto che forse consumerà 200W e oltre?

piu che disturbato direi alterato :asd: spero che che non sarà cosi altrimenti, boh, si salta anche questa serie, problemi a giocare ancora non ne ho :)

TecnoWorld8
23-04-2007, 19:34
ah, ok, mi fa piacere non essere l'unico a pensarla così...sinceramente se consumerà 200W o oltre, preferirei una GTX anche se costasse di più...ma pensa un po', ritardano mesi e non riescono manco ad uscire con una versione che consumi meno a parità di prestazioni???

spero sinceramente che sia un dato esageratissimo, ma temo di no.

mrt75
23-04-2007, 19:58
ah, ok, mi fa piacere non essere l'unico a pensarla così...sinceramente se consumerà 200W o oltre, preferirei una GTX anche se costasse di più...ma pensa un po', ritardano mesi e non riescono manco ad uscire con una versione che consumi meno a parità di prestazioni???

spero sinceramente che sia un dato esageratissimo, ma temo di no.

E quello che aspetto e che voglio sapere anche io,se consuma molto se la tengano pure, io dopo che ho preso la 1900 guardo molto il consumo.Preferisco un prodotto che vada un 10/15% in meno ma che consumi meno a parita di prezzo.

pierluigi86
23-04-2007, 19:58
Io non capisco una cosa perchè Ati non mostra dei grafici per dimostrare la propria superiorità rispetto ad nvidia proprio come sta facendo, attualmente, Intel su Amd. Penso proprio che Ati non abbia un buon prodotto per 2 motivi: 1) ha annunciato prezzi molto bassi rispetto la concorrenza come se avesse un prodotto inferiore.
2) non ha rilasciato nemmeno un rumor ufficiale come la data di lancio ( chi lo ha detto che usciranno il 14 maggio? Fudzilla???) le caratteristiche tecniche, i modelli ed eventuali paragoni rispetto a dei propri precedenti prodotti. Sono tutti brutti segnali.

ps se la Hd 2900xt sarà superiore alla 8800 gtx del 10% (ad essere molto ottimisti) i cosumi penderanno da parte di nvidia con un vantaggio del 15% ( 170w 8800 gtx vs 200w hd 2900gtx).

Nos89
23-04-2007, 20:00
ah, ok, mi fa piacere non essere l'unico a pensarla così...sinceramente se consumerà 200W o oltre, preferirei una GTX anche se costasse di più...ma pensa un po', ritardano mesi e non riescono manco ad uscire con una versione che consumi meno a parità di prestazioni???

spero sinceramente che sia un dato esageratissimo, ma temo di no.

mi unisco visto l'esiguo consumo della mia 8800GTs:(

davide155
23-04-2007, 20:00
ah, ok, mi fa piacere non essere l'unico a pensarla così...sinceramente se consumerà 200W o oltre, preferirei una GTX anche se costasse di più...ma pensa un po', ritardano mesi e non riescono manco ad uscire con una versione che consumi meno a parità di prestazioni???

spero sinceramente che sia un dato esageratissimo, ma temo di no.

Bè tutto è nelle mani di ati.
Può sbancare tutto facendo una soluzione potentissima, che dissipa poco calore e che non consuma un cacchio, come può fallire miseramente regalando sempre più utenti a nvidia.

Non ho problemi io.......che vinca il migliore, e la scheda del vittorioso si aggiudicherà un posto nel mio case a natale :O
Fino ad allora imparerò a memoria i test di queste vga, e fra un test e l'altro mi godrò lo xenos della x360 :O

:sofico:

TecnoWorld8
23-04-2007, 20:08
pierluigi86: è esattamente quello che dicevo io un paio di settimane fa.

ATi è stranamente poco sborona per questo lancio. Questo mi fa rimanere molto perplesso sulla bontà di R600, un chip che nascerà ad 80nm in un'epoca in cui tale tecnologia produttiva è praticamente a fine carriera...

Lo detto, stradetto e lo ripeto: se davvero questo chip consuma 200W, ATi in virtù dei tanti mesi attesi avrebbe dovuto farsi forza, buttare via il progetto ad 80nm, passare a quello a 65nm, clockare la GPU a 850Mhz o più e battere nVidia di 30% nelle prestazioni ed altrettanto nei consumi.

Probabilmente questo avrebbe comportato perdite economiche notevoli nell'immediato, ma un enorme ritorno in immagine e guadagno successivamente.

Soulbringer
23-04-2007, 20:09
Beh x quanto mi riguarda il consumo è importante ma credo però che sulla fascia alta si debbano guardare di più le prestazioni che i consumi maggiori di 30W (come tdp rispetto alla 8800gtx 170 vs 200).
Altra cosa: secondo me aspettare che la prox generazione (evoluzione) consumi di meno è 1 attesa inutile xkè i watt necessari rimarranno + o - quelli..(anche se facessero la xtx a 65nm nn credete che tra l'aumento di clock di gpu e ram pareggiassero i conti sul consumo?).
L'unica cosa è sperare che queio 200w o non siano veri o siano una stima molto eccessiva del consumo della scheda..

Soulbringer
23-04-2007, 20:11
pierluigi86: è esattamente quello che dicevo io un paio di settimane fa.

ATi è stranamente poco sborona per questo lancio. Questo mi fa rimanere molto perplesso sulla bontà di R600, un chip che nascerà ad 80nm in un'epoca in cui tale tecnologia produttiva è praticamente a fine carriera...

Lo detto, stradetto e lo ripeto: se davvero questo chip consuma 200W, ATi in virtù dei tanti mesi attesi avrebbe dovuto farsi forza, buttare via il progetto ad 80nm, passare a quello a 65nm, clockare la GPU a 850Mhz o più e battere nVidia di 30% nelle prestazioni ed altrettanto nei consumi.

Probabilmente questo avrebbe comportato perdite economiche notevoli nell'immediato, ma un enorme ritorno in immagine e guadagno successivamente.

I guadagni (poi tutto da vedere) sarebbero stati solo sulla fascia alta e cmq non sufficienti a compensare le perdite..

pierluigi86
23-04-2007, 20:21
I guadagni (poi tutto da vedere) sarebbero stati solo sulla fascia alta e cmq non sufficienti a compensare le perdite..
una società è fatta al 90% dal marchio e poivengono i prodotti, quando si fa un paragone tra Ati e Nvidia lo si fa "quasi sempre" sul top della gamma,

Soulbringer
23-04-2007, 20:26
una società è fatta al 90% dal marchio e poivengono i prodotti, quando si fa un paragone tra Ati e Nvidia lo si fa "quasi sempre" sul top della gamma,

Si, ok il prestigio è 1 cosa ma i guadagni 1 altra..e purtroppo la fascia alta rappresenta la minima parte di questi ultimi;) .

TecnoWorld8
23-04-2007, 20:28
certo, ma se si lascia cadere l'immagine, nessuno vorrà più nemmeno la fascia media. è sempre stato così...ricordiamoci di case come S3 o Matrox

The_SaN
23-04-2007, 20:28
Sicuramente spero consumi in full allineati alle 8800gtx.

Peró a pensarci bene: tutti dicono che la 8600gts consuma meno della x1950pro.
Verissimo...in full la ATI fa 20W in piú.
Peró in idle ne fa 20 in meno...e io il pc lo tengo piú in idle che in full ;)

Quindi per me r600 puó anche fare 200W in full, ma se ne fa meno della 8800 in idle é da considerarsi valido.

Nos89
23-04-2007, 20:37
Sicuramente spero consumi in full allineati alle 8800gtx.

Peró a pensarci bene: tutti dicono che la 8600gts consuma meno della x1950pro.
Verissimo...in full la ATI fa 20W in piú.
Peró in idle ne fa 20 in meno...e io il pc lo tengo piú in idle che in full ;)

Quindi per me r600 puó anche fare 200W in full, ma se ne fa meno della 8800 in idle é da considerarsi valido.

il problema non è quando la scheda è in idle visto che la si può downcloccare ma e proprio il consumo il full.non voglio immaginare i consumi di una bistecchiera nel pc.

The_SaN
23-04-2007, 20:49
il problema non è quando la scheda è in idle visto che la si può downcloccare ma e proprio il consumo il full.non voglio immaginare i consumi di una bistecchiera nel pc.

Ma la bistecchiera non ti fa andare Crysis a 1900x1200.
La x2900xt però se gli metti la bistecca sopra te la fa...:stordita:

Kharonte85
23-04-2007, 20:51
ma nessuno si sente "disturbato" dal fatto che forse consumerà 200W e oltre?
Ecco cosa era quel mal di pancia...:sofico:

effettivamente è un po' troppo...non mi stupisce che aspettino i 65nm per fare uscire la xtx

CoolBits
23-04-2007, 20:51
Sicuramente spero consumi in full allineati alle 8800gtx.

Peró a pensarci bene: tutti dicono che la 8600gts consuma meno della x1950pro.
Verissimo...in full la ATI fa 20W in piú.
Peró in idle ne fa 20 in meno...e io il pc lo tengo piú in idle che in full ;)



ma dove? :asd:

8600gts idle 21.4 full 47

x1950pro idle 23.6 full 65.7

http://www.xbitlabs.com/articles/video/display/geforce8600gts_7.html

ugruhell
23-04-2007, 20:54
Ma la bistecchiera non ti fa andare Crysis a 1900x1200.
La x2900xt però se gli metti la bistecca sopra te la fa...:stordita:

:rotfl: :rotfl: :rotfl:

Mister Tarpone
23-04-2007, 20:55
Ma la bistecchiera non ti fa andare Crysis a 1900x1200.
La x2900xt però se gli metti la bistecca sopra te la fa...:stordita:

:sbonk:

:stordita:

Nos89
23-04-2007, 21:05
Ma la bistecchiera non ti fa andare Crysis a 1900x1200.
La x2900xt però se gli metti la bistecca sopra te la fa...:stordita:

:rotfl: è 2 in 1 sta scheda video:D

The_SaN
23-04-2007, 21:10
ma dove? :asd:

8600gts idle 21.4 full 47

x1950pro idle 23.6 full 65.7

http://www.xbitlabs.com/articles/video/display/geforce8600gts_7.html

Dati presi dalla rece di HwUpgrade.
Per sbaglio ho preso i consumi della overclocked.
Quella normale sono circa 6W in meno.

TecnoWorld8
23-04-2007, 21:13
personalmente se la xtx fosse a 65nm e avesse 1GB di gddr4, sarei disposto a pagare anche 150 euro in più per averla, rispetto ad una xt. delle due cose, quella che più mi farebbe piacere sarebbe il processo produttivo migliore, che porterebbe consumi ridotti e margini di overclock molto superiori.

The_SaN
23-04-2007, 21:16
personalmente se la xtx fosse a 65nm e avesse 1GB di gddr4, sarei disposto a pagare anche 150 euro in più per averla, rispetto ad una xt. delle due cose, quella che più mi farebbe piacere sarebbe il processo produttivo migliore, che porterebbe consumi ridotti e margini di overclock molto superiori.

Io mi stavo pensando una situazione: visto che la differenza di consumi tra XT e XTX non dovrebbe essere tantissima a paritá di processo produttivo (cambia solo la memoria e poco le frequenze), e che il processo produttivo ridurrebbe a 2/3 il consumo....(dai rumor, per caritá)
Non é possibile che la XTX consumi meno della XT ?:mbe:

TecnoWorld8
23-04-2007, 21:18
se la XTX sarà a 65nm, ne sono piuttosto convinto. credo che potrebbe consumare sui 170W.

A.L.M.
23-04-2007, 21:19
ATi è stranamente poco sborona per questo lancio. Questo mi fa rimanere molto perplesso sulla bontà di R600, un chip che nascerà ad 80nm in un'epoca in cui tale tecnologia produttiva è praticamente a fine carriera...

Pssst: guarda che le 8800 sono ancora a 90nm, e la fascia media nVidia è a 80nm... :stordita:
Forse che nVidia aveva sbandierato ai 4 venti gli shader unificati delle 8800? A me pare di no. ;)
Il segreto di un grande professionista è promettere poco e poi superare le aspettative. :O

pierluigi86
23-04-2007, 21:24
dovrebbero fare il modello invernale che consuma 300 w e riscalda la cameretta e il modello estivo che invece consuma molto meno.
cmq non capisco nemmeno l' esistenza di 2 connettori se consuma al massimo 200 W bastano solo uno (pcie 75w+ 175w) ciò fa pensare ad un consumo in full addirttura superiore. Cmq queste sono solo parole perchè domani mattina qualche rivista rilascerà qualche indiscrezione. il primo giornalista che rilascia una recensione per me può vincere anche il Premio Pulitzer. Se amd sbaglia anche con le schede video la vedo proprio dura risalire la china.

Alexkidd85
23-04-2007, 21:28
non stai attento. una è(o sarebbe) 800/1600 l'altra è(o sarebbe) 800/2200.

Ahhh...allora tu sei andato alla presentzaione che sai le caratteristiche!!! E dillo :D

Ribadisco: "SE mia nonna aveva 4 ruote era un carrello" ;)
Parlo sempre con il se e se differisce solo da queste 2 caratteristiche..me la penso su,SE il prezzo viene confermato :D

pierluigi86
23-04-2007, 21:31
Il segreto di un grande professionista è promettere poco e poi superare le aspettative. :O
ma il segreto di una società quotata in borsa è quello di dire ai propri investitori le previsioni di bilancio e le future strategie di mercato.
Amd ha cercato di fare il passo più lungo della gamba e ora questo suo sbaglio andrà sicuramente a tutto discapito di noi utenti.

TecnoWorld8
23-04-2007, 21:32
Pssst: guarda che le 8800 sono ancora a 90nm, e la fascia media nVidia è a 80nm... :stordita:
Forse che nVidia aveva sbandierato ai 4 venti gli shader unificati delle 8800? A me pare di no. ;)
Il segreto di un grande professionista è promettere poco e poi superare le aspettative. :O

so bene che nVidia è a 90/80nm. Sono però convinto che su fascia alta salterà gli 80nm (che sono solo un cosidetto optical shrink dei 90nm) e passerà direttamente ai 65nm, che ormai nel mondo delle CPU sono mainstream.

Solitamente, passa circa un anno tra l'adozione di una tecnologia produttiva sulle CPU Intel e l'adozione della stessa tecnologia nelle GPU. Guarda caso, ora è circa un anno che Intel fa CPU a 65nm...

per questo ho detto che secondo me gli 80nm sono una tecnologia non più nuovissima. cmq, se a 80nm si consumassero 150w sulla XT, non direi nulla! io mi lamento se è vero il dato dei 200w!!!

maeco84
23-04-2007, 21:39
La 8800GTX dissipa solo 150W? Incredibile, mi rocordo che quando uscì trovavi scritto in giro che per avere uno SLI occorrevano alimentatori da 800W... bo, forse sto sparando una cazzata... ma per gente che come me ha un alimentatore da almeno 500W, se 200 ne succhia la scheda video.... 300 avvanzano e bastano per CPU e company... dunque che problema c'è... poi se la differenza è di soli 50W... non vale la pena spendere 200€ in più (mi riferisco alla 8800GTX) per una scheda che va pure di meno...

A.L.M.
23-04-2007, 21:53
ma il segreto di una società quotata in borsa è quello di dire ai propri investitori le previsioni di bilancio e le future strategie di mercato.
Amd ha cercato di fare il passo più lungo della gamba e ora questo suo sbaglio andrà sicuramente a tutto discapito di noi utenti.

Le società quotate in borsa dichiarano solo il necessario. Il resto se lo tengono ben nascosto. Te lo dice uno che fino a dicembre lavorava in una banca d'affari. ;)

so bene che nVidia è a 90/80nm. Sono però convinto che su fascia alta salterà gli 80nm (che sono solo un cosidetto optical shrink dei 90nm) e passerà direttamente ai 65nm, che ormai nel mondo delle CPU sono mainstream.

Solitamente, passa circa un anno tra l'adozione di una tecnologia produttiva sulle CPU Intel e l'adozione della stessa tecnologia nelle GPU. Guarda caso, ora è circa un anno che Intel fa CPU a 65nm...

per questo ho detto che secondo me gli 80nm sono una tecnologia non più nuovissima. cmq, se a 80nm si consumassero 150w sulla XT, non direi nulla! io mi lamento se è vero il dato dei 200w!!!

Secondo me si prendono i dati "rubati" con troppa serietà. Abbiamo già visto come le HD2600XT siano passate da 125W potenziali a 80W potenziali (io ho persino letto 68W su un forum). Lo stesso potrebbe accadere con la 2900...

Free Gordon
23-04-2007, 22:30
Consideriamo che la Ultra andrà comunque un 10%-15% circa in più di una GTX, pur essendo "solamente" un overclock, di fatto.
Quindi se la XT va più o meno come una GTX, si troverà subito ad essere sorpassata da una scheda nVidia.
Non so, non capisco perchè ATi non punti ad avere la scheda più veloce sul mercato almeno per qualche mese, dato il tempo di attesa...


Perchè mai... una potenziale 8800 Ultra a 650/2200 sarà più di un 15% veloce della 8800GTX? :D
Non penso sinceramente...

Questo sempre stando ai RUMORS... :fagiano:

TecnoWorld8
23-04-2007, 22:32
Perchè mai... una potenziale 8800 Ultra a 650/2200 sarà più di un 15% veloce della 8800GTX? :D
Non penso sinceramente...

Questo sempre stando ai RUMORS... :fagiano:

650Mhz è 13% più di 575Mhz
2200Mhz è 22% più di 1800Mhz...

la memoria conta meno del core, però. l'architettura è la stessa, dunque senza bound da parte di CPU, ipotizzo appunto un 15% in più, in media.

belin
23-04-2007, 22:36
ATi è stranamente poco sborona per questo lancio. Questo mi fa rimanere molto perplesso sulla bontà di R600, un chip che nascerà ad 80nm in un'epoca in cui tale tecnologia produttiva è praticamente a fine carriera...

Lo detto, stradetto e lo ripeto: se davvero questo chip consuma 200W, ATi in virtù dei tanti mesi attesi avrebbe dovuto farsi forza, buttare via il progetto ad 80nm, passare a quello a 65nm, clockare la GPU a 850Mhz o più e battere nVidia di 30% nelle prestazioni ed altrettanto nei consumi.

...l'hai già detto mille volte, lo abbiamo capito. :D
Però non "esagerare", definire un processo produttivo a 80nm "a fine carriera" è assurdo. Come pensare che un progetto del genere, frutto di anni di lavoro, possa essere buttato via in due minuti per cominciarne uno nuovo solo perchè consuma 20/30 watt più di altri progetti. Discorsi assurdi, sia che si parli di cpu che di gpu.
Tu vuoi la botte piena e la moglie ubriaca. Impossibile. Da sempre.
E sfatiamo un pò anche questo mito del processo produttivo più basso = minor calore. Un processo produttivo a 80 nanometri è un requisito indispensabile perchè ti permette di contenere i 700 milioni di transistor di R600. Tale notevole numero non avrebbe permesso di ottenere un chip di dimensioni accettabili a 90 nanometri.
Il calore ed il consumo prodotto sono una conseguenza, non un dogma.

:)

mrt75
23-04-2007, 22:41
Beh x quanto mi riguarda il consumo è importante ma credo però che sulla fascia alta si debbano guardare di più le prestazioni che i consumi maggiori di 30W (come tdp rispetto alla 8800gtx 170 vs 200).
Altra cosa: secondo me aspettare che la prox generazione (evoluzione) consumi di meno è 1 attesa inutile xkè i watt necessari rimarranno + o - quelli..(anche se facessero la xtx a 65nm nn credete che tra l'aumento di clock di gpu e ram pareggiassero i conti sul consumo?).
L'unica cosa è sperare che queio 200w o non siano veri o siano una stima molto eccessiva del consumo della scheda..

Non e' 146W in full il consumo delle 8800gtx?

TecnoWorld8
23-04-2007, 22:42
...l'hai già detto mille volte, lo abbiamo capito. :D
Però non "esagerare", definire un processo produttivo a 80nm "a fine carriera" è assurdo. Come pensare che un progetto del genere, frutto di anni di lavoro, possa essere buttato via in due minuti per cominciarne uno nuovo solo perchè consuma 20/30 watt più di altri progetti. Discorsi assurdi, sia che si parli di cpu che di gpu.
Tu vuoi la botte piena e la moglie ubriaca. Impossibile. Da sempre.
E sfatiamo un pò anche questo mito del processo produttivo più basso = minor calore. Un processo produttivo a 80 nanometri è un requisito indispensabile perchè ti permette di contenere i 700 milioni di transistor di R600. Tale notevole numero non avrebbe permesso di ottenere un chip di dimensioni accettabili a 90 nanometri.
Il calore ed il consumo prodotto sono una conseguenza, non un dogma.

:)



ci mancherebbe, è chiaro che un Tualatin a 1Ghz (130nm) è più freddo e consuma meno di un C2Q (65nm) dato che ha un decimo dei transistors...ma è anche vero che a parità di architettura, solitamente un die shrink porta benefici sia in margini di clock, sia (soprattutto) nella potenza dissipata...

unico esempio contrario fu il P4 nel passaggio tra 130nm e 90nm...

dico solo che un R600 a 65nm, a parità di TUTTO il resto, richiederebbe probabilmente meno corrente, dissipando dunque meno calore, rispetto ad uno ad 80nm...e se quello ad 80nm veramente dissipa 200w, beh...allora era meglio farlo subito a 65nm...

Free Gordon
23-04-2007, 22:46
650Mhz è 13% più di 575Mhz
2200Mhz è 22% più di 1800Mhz...
la memoria conta meno del core, però. l'architettura è la stessa, dunque senza bound da parte di CPU, ipotizzo appunto un 15% in più, in media.


A parte il calcolo imho improponibile che hai fatto... :sofico:

A questo punto, sempre seguendo il tuo calcolo, nVidia con la Ultra non tornerebbe in testa ma andrebbe in pari con la 2900XT 512...

Quindi? :D

TecnoWorld8
23-04-2007, 22:49
A parte il calcolo imho improponibile che hai fatto... :sofico:

A questo punto, sempre seguendo il tuo calcolo, nVidia con la Ultra non tornerebbe in testa ma andrebbe in pari con la 2900XT 512...

Quindi? :D

perchè improbabile? si è visto che con l'overclock la 8800gtx, con una CPU sufficientemente potente da non limitarla, sale proporzionalmente. E' chiaro che magari in alcuni casi sarà il 10%, in altri il 12%, in altri il 15%, in altri il 18%...data la memoria molto più veloce, ipotizzerei prestazioni più alte in proporzione alla GTX soprattutto alle alte risoluzioni.

In ogni caso, dubito seriamente che la XT sarà 15% più veloce di una GTX, SE veramente costerà 399$. Secondo me sarà circa veloce uguale o al massimo 5% in più nel migliore dei casi.

Felicissimo di sbagliarmi, ovviamente...vorrei che la XT a 399$ facesse 20.000 punti nel 3dMark 2006 a 1280, se potessi esprimere un desiderio :)

Athlon 64 3000+
23-04-2007, 22:51
Non e' 146W in full il consumo delle 8800gtx?

145W per l'esattezza.

belin
23-04-2007, 22:58
dico solo che un R600 a 65nm, a parità di TUTTO il resto, richiederebbe probabilmente meno corrente, dissipando dunque meno calore, rispetto ad uno ad 80nm...e se quello ad 80nm veramente dissipa 200w, beh...allora era meglio farlo subito a 65nm...

...come hai ben scritto tu siamo nel campo del probabile, non del certo. La feroce corsa al processo produttivo più basso serve per poter produrre chip molto più complessi in minor spazio. Se poi consumano e scaldano meno ancor meglio, ma non è una cosa programmabile con sicurezza. Anche perchè saresti un pò tonto se passi ad un processo produttivo minore e lo utilizzi solo per far scaldare di meno il chip. Hai più spazio e lo utilizzi. La complessità dei chip è in costante aumento. G80 ha 681 milioni di transistor, valore più che raddoppiato rispetto a G71, mentre R600 avrà 700 milioni di transistor se non di più. Tutto questo ben di Dio scalda un pò...:D

:)

TecnoWorld8
23-04-2007, 23:01
...come hai ben scritto tu siamo nel campo del probabile, non del certo. La feroce corsa al processo produttivo più basso serve per poter produrre chip molto più complessi in minor spazio. Se poi consumano e scaldano meno ancor meglio, ma non è una cosa programmabile con sicurezza. Anche perchè saresti un pò tonto se passi ad un processo produttivo minore e lo utilizzi solo per far scaldare di meno il chip. Hai più spazio e lo utilizzi. La complessità dei chip è in costante aumento. G80 ha 681 milioni di transistor, valore più che raddoppiato rispetto a G71, mentre R600 avrà 700 milioni di transistor se non di più. Tutto questo ben di Dio scalda un pò...:D

:)

non posso che quotarti...ma se ci si accorge che per dissipare 200W è necessario un impianto di raffreddamento come quello mostrato nelle foto, forse è il caso di usare il die shrink anche per altri scopi, quale per esempio ridurre i folli consumi ;)

sempre che davvero siamo di fronte a 200W (o oltre) dissipati...

belin
23-04-2007, 23:12
non posso che quotarti...ma se ci si accorge che per dissipare 200W è necessario un impianto di raffreddamento come quello mostrato nelle foto, forse è il caso di usare il die shrink anche per altri scopi, quale per esempio ridurre i folli consumi ;)

sempre che davvero siamo di fronte a 200W (o oltre) dissipati...

...da buon genovese ti dico "ovviamente"! consumare di meno non fa male! :D

...però, tornando serio, ti dico che io non metto il consumo tra le caratteristiche principali di una vga o di una cpu. Sono disposto a consumare un pò di più se l'architettura mi piace, le prestazioni sono ottime ed il prezzo adeguato. Poi sinceramente non mi sono fatto impressionare dalle dimensioni della versione OEM di R600. Le OEM bene o male sono tutte così. Sono destinate a star chiuse in case per tutta la loro vita (o quasi). Proprio oggi il "mio amico" (:D) Fudzilla ha scritto che la 8800 Ultra OEM sarà lunga 10,5 inch a causa di un dissy più lungo delle altre 8800.

:)

TecnoWorld8
23-04-2007, 23:14
hehe, a me darebbe fastidio dover cambiare alimentatore, tra l'altro...

belin
23-04-2007, 23:27
...sono riuscito a leggere il link di IT-review (i cookie di questo sito fanno casino, per leggere ho dovuto abbassare la protezione) e dice veramente nulla di concreto. Sappiamo già tutto, sono notizie note. O meglio, rumors noti. La cosa bella è che tutto è compreso tra "si dice" "ho sentito" "nostri siti amici ci hanno riferito" "i rumors parlano di". Very nice! :rolleyes:

Cestinato. :O :D

Nos89
23-04-2007, 23:33
La 8800GTX dissipa solo 150W? Incredibile, mi rocordo che quando uscì trovavi scritto in giro che per avere uno SLI occorrevano alimentatori da 800W... bo, forse sto sparando una cazzata... ma per gente che come me ha un alimentatore da almeno 500W, se 200 ne succhia la scheda video.... 300 avvanzano e bastano per CPU e company... dunque che problema c'è... poi se la differenza è di soli 50W... non vale la pena spendere 200€ in più (mi riferisco alla 8800GTX) per una scheda che va pure di meno...

Erano tu tutte cazzate fatte apposta per vendere + ali performanti.Tante che il mio alimentatore che ha 4 anni alimenta la configurazione in firma con 350w:read:

wiltord
23-04-2007, 23:51
ho capito male io o ci siamo quasi? :)

Nos89
23-04-2007, 23:53
ho capito male io o ci siamo quasi? :)

ti riferivi a me?:p

wiltord
23-04-2007, 23:55
ti riferivi a me?:p

no no alla situazione in generale :)

Simon82
24-04-2007, 06:59
...come hai ben scritto tu siamo nel campo del probabile, non del certo. La feroce corsa al processo produttivo più basso serve per poter produrre chip molto più complessi in minor spazio. Se poi consumano e scaldano meno ancor meglio, ma non è una cosa programmabile con sicurezza. Anche perchè saresti un pò tonto se passi ad un processo produttivo minore e lo utilizzi solo per far scaldare di meno il chip. Hai più spazio e lo utilizzi. La complessità dei chip è in costante aumento. G80 ha 681 milioni di transistor, valore più che raddoppiato rispetto a G71, mentre R600 avrà 700 milioni di transistor se non di più. Tutto questo ben di Dio scalda un pò...:D

:)
Beh, c'e' anche da dire che "ad architettura bella che pronta" la vedo dura sfruttare un die shrink per inserire nuove parti interne e aumentare il numero di transistor. Con le 7900 di Nvidia avevamo visto che un refresh poteva significare una rivisitazione in positivo dell'architettura addirittura semplificandola e guadagnando davvero tanto sul discorso consumi, calore e non per ultimo mantenimento/miglioramento delle prestazioni.

Visto l'andazzo se i produttori si spingessero di piu' nella ricerca e sviluppo basate sul contenimento dei consumi, sarei gia' pienamente felice perche' tra un po' le richieste di corrente agli alimentatori diventano piu' ridicole che necessarie.

giopro
24-04-2007, 07:00
Non ci sono mai stato, ma sembra la sala d'attesa di una sala parto con tanti bei paparini in trepida attesa per la nascita della loro pargoletta :D

Ciao :)

Athlon 64 3000+
24-04-2007, 08:29
http://www.fudzilla.com/index.php?option=com_content&task=view&id=660&Itemid=1

ATI's 65 nanometre part codenamed R650 is here to fight Nvidia next generation chip called G90. Nvidia will shrink its G90 and plans to make the same marchitecture faster and this is exactly what ATI plans to do.

At 65 nanometre ATI can go much faster and it will solve the thermal dissipation and power problems. G80 is a very strong and effective marchitecture and at higher clock will be a tough competition.

R650 as far as we know will just be faster version of R600 chip without any major marchitectural changes. Both of these chips are expected by the end of the year, sometimes in Q4 but don’t be so naïve and trust ATI on its deadline. It traditionally messed up the launch date of every chip in the last eighteen months.

Athlon 64 3000+
24-04-2007, 08:30
http://www.fudzilla.com/index.php?option=com_content&task=view&id=661&Itemid=1

R600XTX, the 1024 MB GDDR 4 card, has been pushed to the next quarter. This is just one in a series of ATI's failures, but of course DAAMIT will call this a strategic decision. R600XTX won't see the face of retail / etail stores till Q3 2007.

We know that something went wrong with the samples and that the there were some severe performance problems with the latest batch of GDDR 4 cards. Basically 512 MB DDR3 version with 1600 MHz memory was beating the GDDR4 version with 1024 MB of GDDR 4 memory clocked at 2200 MHz.

That cannot be good as the GDDR4 card is much more expensive to build or sell. The worst part is that there is no any big performance difference between 512 GDDR 3 card and 1024 MB GDDR. The trouble is that 1 GB of GDDR 4 at 2200 MHz costs you a lot of money, so ATI at least wants to save some money. It will launch this card after Geforce 8800 Ultra but remember, don’t expect too much.

Foglia Morta
24-04-2007, 08:30
Per una volta non è Fudzilla...

http://www.digitimes.com/mobos/a20070423PD213.html

The DirectX 10-supporting AMD R600 graphics chip made on 65nm will be available on the market on May 19 after months of delay, according to sources with Taiwan's graphics card distributors.

The R600 had originally been scheduled for release in the second half of 2006. A rescheduled launch for March this year was again delayed by a serious shortage of GDDR4 memory, the sources said.

The sources pointed out that AMD will skip the 80nm process and make the R600 at 65nm. The R610 and R630, which will also adopt a 65nm process, will also be released in June, the sources added.

Athlon 64 3000+
24-04-2007, 08:30
http://www.fudzilla.com/index.php?option=com_content&task=view&id=662&Itemid=1

We reported most of the features about R600 and we still owe you the explanation how the heck 64 Unified Shader can make the 320 stream processors but lets just say its all about vec4+1. It is a very complex part. Anyway on the fun side R600 will support 24 X Anti aliasing.

It can support 8X MSAA (Multi Sampling Anti Aliasing) and combined with FSAA can result with Anti aliasing up to 24X. This should be exciting part as G80 can do only 16X and even the 16X kills the performance. ATI might be better off due to its 512 bit memory controller.

This will only be interesting if you use more than one card in Crossfire as this is where such an Antialiasing could be useful.

Athlon 64 3000+
24-04-2007, 08:32
http://www.digitimes.com/mobos/a20070423PD213.html

The DirectX 10-supporting AMD R600 graphics chip made on 65nm will be available on the market on May 19 after months of delay, according to sources with Taiwan's graphics card distributors.

The R600 had originally been scheduled for release in the second half of 2006. A rescheduled launch for March this year was again delayed by a serious shortage of GDDR4 memory, the sources said.

The sources pointed out that AMD will skip the 80nm process and make the R600 at 65nm. The R610 and R630, which will also adopt a 65nm process, will also be released in June, the sources added.

Foglia Morta
24-04-2007, 08:33
http://www.digitimes.com/mobos/a20070423PD213.html

The DirectX 10-supporting AMD R600 graphics chip made on 65nm will be available on the market on May 19 after months of delay, according to sources with Taiwan's graphics card distributors.

The R600 had originally been scheduled for release in the second half of 2006. A rescheduled launch for March this year was again delayed by a serious shortage of GDDR4 memory, the sources said.

The sources pointed out that AMD will skip the 80nm process and make the R600 at 65nm. The R610 and R630, which will also adopt a 65nm process, will also be released in June, the sources added.

:old: :read: :D

relo@ded
24-04-2007, 08:39
A chi dare retta?!

:stordita:

Athlon 64 3000+
24-04-2007, 08:44
oggi pomeriggio a tunisi ci sarà la presentazione alla stampa sotto NDA di R600 nella sua versione definitiva.
Mentre noi dovremo aspettare il 14 maggio:mad:
Teoricamente a partire da oggi i rumors dovrebbero aumentare esponenzialmente.

relo@ded
24-04-2007, 08:47
Tanto le fughe di notizie esistono da quando esistono le notizie.

Robbysca976
24-04-2007, 08:52
ehehe :D

Sotto con le scommesse: 100E ke x2900xt sarà 65nm e ddr4 come da tempo predico. :D :D :D

A.L.M.
24-04-2007, 08:56
http://www.digitimes.com/mobos/a20070423PD213.html

The DirectX 10-supporting AMD R600 graphics chip made on 65nm will be available on the market on May 19 after months of delay, according to sources with Taiwan's graphics card distributors.

The R600 had originally been scheduled for release in the second half of 2006. A rescheduled launch for March this year was again delayed by a serious shortage of GDDR4 memory, the sources said.

The sources pointed out that AMD will skip the 80nm process and make the R600 at 65nm. The R610 and R630, which will also adopt a 65nm process, will also be released in June, the sources added.

DigiTimes di solito è molto affidabile... :stordita:

Soulbringer
24-04-2007, 09:01
si ma che macello...non si può che non si sa ancora il processo produttivo..:mad:

Soulbringer
24-04-2007, 09:02
ehehe :D

Sotto con le scommesse: 100E ke x2900xt sarà 65nm e ddr4 come da tempo predico. :D :D :D

Allora spero che vinci!:D

A.L.M.
24-04-2007, 09:08
si ma che macello...non si può che non si sa ancora il processo produttivo..:mad:

Per le 8800 non si sapeva manco l'architettura... ;)

Athlon 64 3000+
24-04-2007, 09:14
Per le 8800 non si sapeva manco l'architettura... ;)

del G80 fino al giorno prima non si sapeva se sarebbe stato a 90 nm o a 80 nm.

Foglia Morta
24-04-2007, 09:18
il die fotografato è troppo grosso per essere a 65nm e contemporaneamente 720 mln di transistors.

Imho R600 80nm , RV670 in Autunno sarà un R600 a 65nm e R650 avrà stessa architettura ma con più unità di calcolo

relo@ded
24-04-2007, 09:30
il die fotografato è troppo grosso per essere a 65nm e contemporaneamente 720 mln di transistors.

Imho R600 80nm , RV670 in Autunno sarà un R600 a 65nm e R650 avrà stessa architettura ma con più unità di calcolo

Se questo è lo scenario, in quanti correranno ad acquistarla?

Estate-Autunno sono troppo vicini come periodi, sto R600 "prima versione" servirebbe solo a riempire qualche scaffale. Ti pare che ATI due conti non se li sia fatti.

Kharonte85
24-04-2007, 09:39
http://www.fudzilla.com/index.php?option=com_content&task=view&id=661&Itemid=1

R600XTX, the 1024 MB GDDR 4 card, has been pushed to the next quarter. This is just one in a series of ATI's failures, but of course DAAMIT will call this a strategic decision. R600XTX won't see the face of retail / etail stores till Q3 2007.

We know that something went wrong with the samples and that the there were some severe performance problems with the latest batch of GDDR 4 cards. Basically 512 MB DDR3 version with 1600 MHz memory was beating the GDDR4 version with 1024 MB of GDDR 4 memory clocked at 2200 MHz.

That cannot be good as the GDDR4 card is much more expensive to build or sell. The worst part is that there is no any big performance difference between 512 GDDR 3 card and 1024 MB GDDR. The trouble is that 1 GB of GDDR 4 at 2200 MHz costs you a lot of money, so ATI at least wants to save some money. It will launch this card after Geforce 8800 Ultra but remember, don’t expect too much.
Interessante questo, peccato che la fonte sia Fudzilla :(

steckk
24-04-2007, 09:40
Ma da quello che mi pare di leggere uscira a maggio solo la versione XT giusto?
la XTX è rimandata..Sinceramente non credo che la XT con £soli" 512 MB, possa mettere in crisi la 8800 GTX..Ok costerà meno ma non credo chq questo possa bastare ad incentivare la gente..molti vorrebbero la XTx da 1 Gb, ma AMD continuando con i rinvii credo si stia scavando la fossa da sola..
MAh...

relo@ded
24-04-2007, 09:45
..molti vorrebbero la XTx da 1 Gb, ma AMD continuando con i rinvii credo si stia scavando la fossa da sola..
MAh...

Dipende.

Se quel 1gb gddr4 mi fa fare 10fps in più...stri gran c****i! ;)

ugruhell
24-04-2007, 09:46
Ma da quello che mi pare di leggere uscira a maggio solo la versione XT giusto?
la XTX è rimandata..Sinceramente non credo che la XT con £soli" 512 MB, possa mettere in crisi la 8800 GTX..Ok costerà meno ma non credo chq questo possa bastare ad incentivare la gente..molti vorrebbero la XTx da 1 Gb, ma AMD continuando con i rinvii credo si stia scavando la fossa da sola..
MAh...

io invece credo che mette in crisi la 8800 gtx per che se e vero che ha 320 stream processors, con i giochi che fanno grande uso di questo andrà meglio.
vedi qua
http://www.tweakpc.de/news/11425/hd-2900-xt-r600-benchmarks-in-crysis-demo/rdf/
non so se sarà vero :stordita:
e pure qua
http://www.techpowerup.com/?29396

halduemilauno
24-04-2007, 10:18
http://hdtvsg.blogspot.com/2007/04/ati-radeon-hd-2900xt-key-features.html

Robbysca976
24-04-2007, 10:21
http://hdtvsg.blogspot.com/2007/04/ati-radeon-hd-2900xt-key-features.html

Ecco qua: si parla cmq di 200W
[IMG]http://www.fudzilla.com/images/stories/2007/April/graphics/r600_pic_2.jpg

http://hdtvsg.blogspot.com/2007/04/more-r600-radeon-hd-2900xt-photos.html

relo@ded
24-04-2007, 10:23
questo non è il pcb della Oem?

Soulbringer
24-04-2007, 10:27
questo non è il pcb della Oem?

Anche a me sembra uguale a quello della OEM...

relo@ded
24-04-2007, 10:29
Sicuramente è quello:

la posizione della ventola e la lunghezza totale coincidono con la versione Oem.

Athlon 64 3000+
24-04-2007, 10:29
questo non è il pcb della Oem?

si,sarebbe bello vedere una foto della versione retail per farsi una prima idea.

Soulbringer
24-04-2007, 10:40
Sicuramente è quello:

la posizione della ventola e la lunghezza totale coincidono con la versione Oem.

Si, credo anche io xkè erano uscite delle foto della (presunta) versione retail che aveva i connettori x l'alimentazione rivolti a lato..

Robbysca976
24-04-2007, 10:52
Scusa ma l'articolo l'avete letto?

LCol84
24-04-2007, 10:56
Scusa ma l'articolo l'avete letto?

Scusami ma non capisco in quale foto tu abbia visto il dissipatore retail...

Soulbringer
24-04-2007, 10:56
Scusa ma l'articolo l'avete letto?

Ah già hai ragione!:D dice che la scheda è 1 versione OEM..

belin
24-04-2007, 10:59
...quella è sempre la solita versione OEM che già Fudzilla aveva fatto vedere. Niente di nuovo, non capisco cosa ci sia da stupirsi.

:)

Foglia Morta
24-04-2007, 11:00
RETAIL

http://www.dailytech.com/article.aspx?newsid=7043

http://images.dailytech.com/nimage/4534_large_R600_1.jpg

http://images.dailytech.com/nimage/4535_large_R600_2.jpg

Alexkidd85
24-04-2007, 11:02
Onestamente mi sto stancando di sto fatto delle memorie Gddr4 che se ne producono poco,che non ce ne sono. Ora o quell'articolo è vecchio,o l'amd mi stacca ad uno ad uno CON LE UNGHIA le memorie dalla 2600xt e le mette nella 2900xtx. Me ne frego delle latenze(se la differenza è questa) ma mi sembra una presa in giro che le mettono nella 2600 e nella 2900 "costi eccessivi,bassa produzione"...
Forse ho capito male dato il mio non perfetto inglese,ma sbaglio o è stato scritto anche questo nel pentolone!?

Foglia Morta
24-04-2007, 11:02
http://www.dailytech.com/article.aspx?newsid=7043

belin
24-04-2007, 11:02
...se R600 sarà a 65nm vuol dire che è una scelta fatta mesi fa, proprio per i motivi di cui parlavamo ieri. Quindi:

o i rumors sinora non ci hanno preso e sono tutti completamente sballati.

o quel rumors di Digitimes dei 65nm è completamente sballato.

...in ogni caso tutta fuffa, ognuno scrive quello che vuole. che fonti affidabili che hanno...:O :D

halduemilauno
24-04-2007, 11:03
era l'immagine gia postata.

Alexkidd85
24-04-2007, 11:03
RETAIL

http://www.dailytech.com/article.aspx?newsid=7043

http://images.dailytech.com/nimage/4534_large_R600_1.jpg

http://images.dailytech.com/nimage/4535_large_R600_2.jpg

Ma sto dissipatore non era quello della 2600xt!?O lo usano per tutte le schede!? Addirittura si disse ai tempi che era un fake una foto con sto dissi... boh...
Sto dissi mi piace se fosse così,lo dissi ai tempi,lo ribadisco ora :O

wiltord
24-04-2007, 11:04
eccola! :D

da quanti pin è il secondo connettore di alimentazione allora?

Foglia Morta
24-04-2007, 11:06
Dailytech nel link ha qualche bench dell ' XT

e dice che al lancio ci sarà anche la XTX 1GB GDDR4

http://www.dailytech.com/article.aspx?newsid=7043

belin
24-04-2007, 11:06
RETAIL

http://www.dailytech.com/article.aspx?newsid=7043

http://images.dailytech.com/nimage/4534_large_R600_1.jpg


:eek: bellissima!

...è la stessa foto che postai mesi fa, anche se quella era "photoshoppata"!

...ora leggo tutto per bene. :)

halduemilauno
24-04-2007, 11:06
Gaming: Maximum Quality, 1280x1024

Game
AMD ATI Radeon
HD 2900 XT
NVIDIA GeForce
8800 GTS 640MB

Call of Duty 2
73.5 FPS
56.7 FPS

Company of Heroes
92.1 FPS
90.1 FPS

F.E.A.R.
84.0 FPS
83.3 FPS

Half Life 2: Episode 1
112.0 FPS
57.4 FPS

Oblivion
47.9 FPS
39.5 FPS

3DMark06
11447
9836

Robbysca976
24-04-2007, 11:10
Gaming: Maximum Quality, 1280x1024

Game
AMD ATI Radeon
HD 2900 XT
NVIDIA GeForce
8800 GTS 640MB

Call of Duty 2
73.5 FPS
56.7 FPS

Company of Heroes
92.1 FPS
90.1 FPS

F.E.A.R.
84.0 FPS
83.3 FPS

Half Life 2: Episode 1
112.0 FPS
57.4 FPS

Oblivion
47.9 FPS
39.5 FPS

3DMark06
11447
9836

Be tolto HL2 gli altri mi sembrano quasi uguali alle GTS. Percui se son veri io aspetto ke cali il prezzo della gts soprattutto se la 2900 dissiperà veramente 200W

Soulbringer
24-04-2007, 11:18
Raga praticamente daily tech dice:
hd2900xt 512MB gddr3 vs 8800gts
hd2900xtx 1GB GDDR4 vs 8800gtx

e uscirà prima il modello xtx e poi a seguire gli altri! sarà vero?

Soulbringer
24-04-2007, 11:20
Be tolto HL2 gli altri mi sembrano quasi uguali alle GTS. Percui se son veri io aspetto ke cali il prezzo della gts soprattutto se la 2900 dissiperà veramente 200W

Quasi uguali? 20 fps in + in cod2, il doppio in hl2 ep 1 e quasi 10 in più in oblivion...se fosse cosi sarebbe molto meglio della gts..

appleroof
24-04-2007, 11:21
http://www.digitimes.com/mobos/a20070423PD213.html

The DirectX 10-supporting AMD R600 graphics chip made on 65nm will be available on the market on May 19 after months of delay, according to sources with Taiwan's graphics card distributors.

The R600 had originally been scheduled for release in the second half of 2006. A rescheduled launch for March this year was again delayed by a serious shortage of GDDR4 memory, the sources said.

The sources pointed out that AMD will skip the 80nm process and make the R600 at 65nm. The R610 and R630, which will also adopt a 65nm process, will also be released in June, the sources added.

già........



p.s.: potreste ridimensionare i poster? Grazie! ;)

appleroof
24-04-2007, 11:22
Quasi uguali? 20 fps in + in cod2, il doppio in hl2 ep 1 e quasi 10 in più in oblivion...se fosse cosi sarebbe molto meglio della gts..

Già, perchè sono tutti giochi dell'ultima ora...:rolleyes:

Foglia Morta
24-04-2007, 11:23
Be tolto HL2 gli altri mi sembrano quasi uguali alle GTS. Percui se son veri io aspetto ke cali il prezzo della gts soprattutto se la 2900 dissiperà veramente 200W

identici in fear e coh . 25% migliore in COD 2 , 20% oblivion e quasi il doppio HL2 E1 .

Soulbringer
24-04-2007, 11:24
Già, perchè sono tutti giochi dell'ultima ora...:rolleyes:

Sono quelli dove si fanno + benchmark ORA..e anche quelli secondo i quali tu e tutti noi ci basiamo per vedere le prestazioni di una 8800gts.;)

fukka75
24-04-2007, 11:28
p.s.: potreste ridimensionare i poster? Grazie! ;)

Ma non lo conoscete imageshack e le thumbnails? Vi costa assai scaricarvi le foto sul pc e linkarle da imageshack? :muro: :muro: :muro:

Kharonte85
24-04-2007, 11:28
Dailytech nel link ha qualche bench dell ' XT

e dice che al lancio ci sarà anche la XTX 1GB GDDR4

http://www.dailytech.com/article.aspx?newsid=7043

Se son veri quei bench mi sa che la GTX rimane superiore alla HD2900xt...se dovesse uscire la xtx invece bisognera' riparlarne...

Il prezzo ovviamente sara' adeguato alle prestazioni (altro che 399 :( ):
The ATI Radeon HD 2900 XT is poised to have a street price approximately the same as the GeForce 8800 GTS, which currently has a suggested retailer price of $499.

halduemilauno
24-04-2007, 11:29
Raga praticamente daily tech dice:
hd2900xt 512MB gddr3 vs 8800gts
hd2900xtx 1GB GDDR4 vs 8800gtx

e uscirà prima il modello xtx e poi a seguire gli altri! sarà vero?

e contro la 8800ultra?

Robbysca976
24-04-2007, 11:29
identici in fear e coh . 25% migliore in COD 2 , 20% oblivion e quasi il doppio HL2 E1 .

Si ok ma alla fin fine ki gioca più a cod2 e a HL2?

435E e 200W contro 260E della GTS320 e 350E della 640 x 140W...

halduemilauno
24-04-2007, 11:30
Ma non lo conoscete imageshack e le thumbnails? Vi costa assai scaricarvi le foto sul pc e linkarle da imageshack? :muro: :muro: :muro:

io l'ho cancellata.
;)

appleroof
24-04-2007, 11:31
Sono quelli dove si fanno + benchmark ORA..e anche quelli secondo i quali tu e tutti noi ci basiamo per vedere le prestazioni di una 8800gts.;)

Mah..veramente cod2 e sopratutto hl1 sono spariti da un bel pò dai benchmark, cmq non è quella la questione, solo vorrei giochi più recenti tipo Stalker, R6vegas, carbon ecc..

halduemilauno
24-04-2007, 11:32
Se son veri quei bench mi sa che la GTX rimane superiore alla HD2900xt...se dovesse uscire la xtx invece bisognera' riparlarne...

Il prezzo ovviamente sara' adeguato alle prestazioni (altro che 399 :( ):
The ATI Radeon HD 2900 XT is poised to have a street price approximately the same as the GeForce 8800 GTS, which currently has a suggested retailer price of $499.

per la xtx ci dovrebbe essere la 8800ultra.
;)

Soulbringer
24-04-2007, 11:32
e contro la 8800ultra?

E che ne so?:) Sul sito praticamente lascia capire questo..boh..

fukka75
24-04-2007, 11:32
Meno male che è passato alla pagina successiva, non ce la facevo più :asd: :asd:

Robbysca976
24-04-2007, 11:32
Mah..veramente cod2 e sopratutto hl1 sono spariti da un bel pò dai benchmark, cmq non è quella la questione, solo vorrei giochi più recenti tipo Stalker, R6vegas, carbon ecc..

Aggiungerei TestDriveUnlimited

appleroof
24-04-2007, 11:33
Raga praticamente daily tech dice:
hd2900xt 512MB gddr3 vs 8800gts
hd2900xtx 1GB GDDR4 vs 8800gtx

e uscirà prima il modello xtx e poi a seguire gli altri! sarà vero?

Avrebbe mooolto più senso, veremo, può essere che ora ci staimo convincendo di cose sulle quali potremmo avere grosse sorprese...(vale anche per la 8800ultra) ;)

appleroof
24-04-2007, 11:35
Aggiungerei TestDriveUnlimited

anche...

Kharonte85
24-04-2007, 11:37
Gaming: Maximum Quality, 1280x1024

Game
AMD ATI Radeon
HD 2900 XT
NVIDIA GeForce
8800 GTS 640MB

Call of Duty 2
73.5 FPS
56.7 FPS

Company of Heroes
92.1 FPS
90.1 FPS

F.E.A.R.
84.0 FPS
83.3 FPS

Half Life 2: Episode 1
112.0 FPS
57.4 FPS

Oblivion
47.9 FPS
39.5 FPS

3DMark06
11447
9836
Col bench di HL2 hanno avuto problemi:

* Our benchmarks for Half Life 2: Episode 1 showed an abnormal framerate for the NVIDIA 8800 GTS card that scaled with lower resolutions -- we are still investigating what occurred there.

Cmq gia' che c'erano potevano fare dei test a Ris + alte....:rolleyes:

mrt75
24-04-2007, 11:37
Scusate ma i connettore/i x il Crossfire ready?? :mbe:

Skullcrusher
24-04-2007, 11:39
Chissà se veramente sarà disponibile anche la XTX in volumi....sarebbe davvero un colpaccio :D

appleroof
24-04-2007, 11:41
Col bench di HL2 hanno avuto problemi:

* Our benchmarks for Half Life 2: Episode 1 showed an abnormal framerate for the NVIDIA 8800 GTS card that scaled with lower resolutions -- we are still investigating what occurred there.

Cmq gia' che c'erano potevano fare dei test a Ris + alte....:rolleyes:

Ma non si era detto che chi faceva uscire info "sicure" prima o durante l'nda era poi sgozzato in pubblico dai dirigenti Ati (in questo caso)? :D :D

Oppure sono quelle "uscite programmate" di cui parlava Simon82 tempo fà....?

Kharonte85
24-04-2007, 11:47
Ma non si era detto che chi faceva uscire info "sicure" prima o durante l'nda era poi sgozzato in pubblico dai dirigenti Ati (in questo caso)? :D :D

Oppure sono quelle "uscite programmate" di cui parlava Simon82 tempo fà....?
Bella domanda...loro dicono solo che: AMD is currently briefing select members of the press on its R600 architecture in the Tunisia, but there is no embargo date on the R600 for DailyTech -- we can show you benchmarks now. :boh:

Robbysca976
24-04-2007, 11:48
Ma non si era detto che chi faceva uscire info "sicure" prima o durante l'nda era poi sgozzato in pubblico dai dirigenti Ati (in questo caso)? :D :D

Oppure sono quelle "uscite programmate" di cui parlava Simon82 tempo fà....?

Ma dai...Stasera sapremo tutto di queste schede... Ci metto la mano sul fuoco.

Xkè ATI nn dovrebbe far trapelare queste info se le loro GPU vanno meglio di G80? In tal modo quanto meno frenerebbe chi è intenzionato a prendere una 8800. :D

safendi
24-04-2007, 11:51
mi sembra logico r600 vada di + di g80, è uscita 6-7 mesi prima la 8800. se andasse di meno o uguale sarebbe una sola

ugruhell
24-04-2007, 11:55
avete visto nelle immagini che ci sono 2 connettori per ventola?:mbe:

fukka75
24-04-2007, 11:57
Scusate ma i connettore/i x il Crossfire ready?? :mbe:

Dalle foto non si vedono perché coperti dalla base del dissipatore, ma stai tranquillo che ci sono

A.L.M.
24-04-2007, 11:58
Gaming: Maximum Quality, 1280x1024

Game
AMD ATI Radeon
HD 2900 XT
NVIDIA GeForce
8800 GTS 640MB

Call of Duty 2
73.5 FPS
56.7 FPS

Company of Heroes
92.1 FPS
90.1 FPS

F.E.A.R.
84.0 FPS
83.3 FPS

Half Life 2: Episode 1
112.0 FPS
57.4 FPS

Oblivion
47.9 FPS
39.5 FPS

3DMark06
11447
9836

Secondo me sono fake pure questi. A parte che non ci sono i settaggi di filtri e HDR, ma comunque mi pare impossibile che in certi giochi la 2900XT faccia segnare gli stessi framerates della X1950XTX (un esempio su tutti, F.E.A.R.). :rolleyes:
Tra l'altro tutti finora hanno detto che la XTX verrebbe presentata dopo le altre...
Finora tra le ultime notizie l'unica fonte "sicura" dovrebbe essere DigiTimes, visto che viene citata spesso dai professionisti del settore e dalle riviste specializzate "serie", come PC Professionale.

appleroof
24-04-2007, 11:58
Bella domanda...loro dicono solo che: AMD is currently briefing select members of the press on its R600 architecture in the Tunisia, but there is no embargo date on the R600 for DailyTech -- we can show you benchmarks now. :boh:

Ah ok...;)

Ma dai...Stasera sapremo tutto di queste schede... Ci metto la mano sul fuoco.

Xkè ATI nn dovrebbe far trapelare queste info se le loro GPU vanno meglio di G80? In tal modo quanto meno frenerebbe chi è intenzionato a prendere una 8800. :D

Bè, può essere non hai tutti i torti.....:read:

mi sembra logico r600 vada di + di g80, è uscita 6-7 mesi prima la 8800. se andasse di meno o uguale sarebbe una sola

Non fà una piega :D ;)

A.L.M.
24-04-2007, 11:59
Ma non si era detto che chi faceva uscire info "sicure" prima o durante l'nda era poi sgozzato in pubblico dai dirigenti Ati (in questo caso)? :D :D

Oppure sono quelle "uscite programmate" di cui parlava Simon82 tempo fà....?

Hai saltato la terza opzione: sono balle. ;)

appleroof
24-04-2007, 12:04
Secondo me sono fake pure questi. A parte che non ci sono i settaggi di filtri e HDR, ma comunque mi pare impossibile che in certi giochi faccia segnare gli stessi framerates della X1950XTX. :rolleyes:
Tra l'altro tutti finora hanno detto che la XTX verrebbe presentata dopo le altre...
Finora tra le ultime notizie l'unica fonte "sicura" dovrebbe essere DigiTimes, visto che viene citata spesso dai professionisti del settore e dalle riviste specializzate "serie", come PC Professionale.

Digitimes è certamente una fonte molto seria (diciamo che stà a pc professionale come the Inquirer stà ad Oggi...:asd: :asd: )

è lo stesso che ad esempio giustificava appieno le scelte progettuali di Nvidia per la posizione del chip video (per proteggerlo da interferenze magnetiche dovute a ben 128sp all'azione oltre che alla gpu e preservare la pulizia del segnale) dove altri qui sbandieravano il disastro di ingegneria...:rolleyes: e doppio :rolleyes:

;)

Free Gordon
24-04-2007, 12:06
perchè improbabile? si è visto che con l'overclock la 8800gtx, con una CPU sufficientemente potente da non limitarla, sale proporzionalmente. E' chiaro che magari in alcuni casi sarà il 10%, in altri il 12%, in altri il 15%, in altri il 18%...data la memoria molto più veloce, ipotizzerei prestazioni più alte in proporzione alla GTX soprattutto alle alte risoluzioni.

La Ultra non dovrebbe avere molta più banda della XT (105GB/s a 102..), perlomeno non in una percentuale significativa tale da generare una differenza alle alte res per quella ragione. Anzi, la bandwith della XT dovrebbe essere maggiormente sfruttabile grazie al ringbus e al bus più ampio. ;)



In ogni caso, dubito seriamente che la XT sarà 15% più veloce di una GTX, SE veramente costerà 399$. Secondo me sarà circa veloce uguale o al massimo 5% in più nel migliore dei casi.
Felicissimo di sbagliarmi, ovviamente...vorrei che la XT a 399$ facesse 20.000 punti nel 3dMark 2006 a 1280, se potessi esprimere un desiderio :)

Eri tu che parlavi del 15% in più per la XT (nel post che ho quotato o quello prima), non l'ho detto io. :p
Cmq, per quanto mi riguarda, il 3dmark non è importante, anche se mi divertirò molto a benchare! :D

Kharonte85
24-04-2007, 12:07
Hai saltato la terza opzione: sono balle. ;)

Potrebbe, ma dailytech fu anche il primo sito (con questa (http://www.dailytech.com/article.aspx?newsid=4812) notizia) a dare le caratteristiche e prestazioni di G80 azzeccate ;)

appleroof
24-04-2007, 12:09
Potrebbe, ma dailytech fu anche il primo sito (con questa (http://www.dailytech.com/article.aspx?newsid=4812) notizia) a dare le caratteristiche e prestazioni di G80 (ed erano azzeccate) ;)

Già....non sarei così certo (basandomi tra l'altro solo su personali impressioni, almeno credo) vista la fonte...è per quello che mi ponevo quelle domande, se fosse stato un altro sito non le avrei nemmeno guardati quei bench...

Foglia Morta
24-04-2007, 12:10
Potrebbe, ma dailytech fu anche il primo sito (con questa (http://www.dailytech.com/article.aspx?newsid=4812) notizia) a dare le caratteristiche e prestazioni di G80 (ed erano azzeccate) ;)

dailytech credeva veritieri anche i test di "level ed un numero che non ricordo"

non so... io mi aspetto di meglio. imho ha bisogno di driver migliori

Alexkidd85
24-04-2007, 12:10
Per quanto riguarda le comparative della ipotetica 2600 ??,che volevamo comparare qualche paghina dietro, ecco i risultati proprio in quel livello e in quella scena:

Potrei postare le immagini,ma credetemi sulla parola,non fatemi fare traffico :D

Impostazione con i dettagli tutto al MAX (ovvero pallini tutti accesi o a fondo scala)

A scheda @Default
1280x1024 no AA= 94fps
1280x1024 AA 2x= 83fps

A scheda @Firma
1280x1024 no AA= 100fps
1280x1024 AA 2x= 92fps


Voglio ringraziare l'utente RsViper che mi ha passato il savegame proprio in quel punto. Un chiarissimo segno di "ottima cooperazione" in una comunità,anche se virtuale,IMHO.

E visto quello che è successo aggiungo che io questo favore(a favore di chi so io a sto punto)l'ho fatto,gli altri,mi scuso se ho fatto allungare il 3d,saltate pure il mio post e continuate a criticare il lavoro e le schede(le ati o le nvidia?Mah...chissà quali) :)

Kharonte85
24-04-2007, 12:12
Per quanto riguarda le comparative della ipotetica 2600 ??,che volevamo comparare qualche paghina dietro, ecco i risultati proprio in quel livello e in quella scena:

Potrei postare le immagini,ma credetemi sulla parola,non fatemi fare traffico :D

Impostazione con i dettagli tutto al MAX (ovvero pallini tutti accesi o a fondo scala)

Premetto,ed è un importante premessa che fraps,secondo me scazza e evidenzierò quando.

A scheda a default (abbastanza lineare fraps inq uesto caso)
1280x1024 no AA= 47fps
1280x1024 AA 2x= 44fps

A scheda @Firma (qui fraps scazza e non poco)
1280x1024 no AA= A volte 68fps a volte 80 e passa fps
1280x1024 AA 2x= A volte 66fps a volte 80 e passa fps

Ora...o quelle non sono le impostazioni o quella scheda è veramente una bomba....che dite!?
Che hai fatto un lavoro inutile...;)

@ndre1
24-04-2007, 12:13
Per quanto riguarda le comparative della ipotetica 2600 ??,che volevamo comparare qualche paghina dietro, ecco i risultati proprio in quel livello e in quella scena:

Potrei postare le immagini,ma credetemi sulla parola,non fatemi fare traffico :D

Impostazione con i dettagli tutto al MAX (ovvero pallini tutti accesi o a fondo scala)

Premetto,ed è un importante premessa che fraps,secondo me scazza e evidenzierò quando.

A scheda a default (abbastanza lineare fraps inq uesto caso)
1280x1024 no AA= 47fps
1280x1024 AA 2x= 44fps

A scheda @Firma (qui fraps scazza e non poco)
1280x1024 no AA= A volte 68fps a volte 80 e passa fps
1280x1024 AA 2x= A volte 66fps a volte 80 e passa fps

Ora...o quelle non sono le impostazioni o quella scheda è veramente una bomba....che dite!?

dai posta immagini :eek:
sti @zzi .. è una bomba da vero.. da vedere come va in OC :eekk:

Alexkidd85
24-04-2007, 12:14
Spero la notizia non passi in secondo piano visto gli ottimi rumors che stanno uscendo fuori :D

appleroof
24-04-2007, 12:14
Che hai fatto un lavoro inutile...;)

:asd: :asd: :asd:

Kharonte85
24-04-2007, 12:14
dailytech credeva veritieri anche i test di "level ed un numero che non ricordo"
Si ma questa volta è diverso perche' non riporta altre fonti...quindi è dailytech la fonte :)

non so... io mi aspetto di meglio. imho ha bisogno di driver migliori
Probabile che i Driver siano immaturi...;)

appleroof
24-04-2007, 12:14
Spero la notizia non passi in secondo piano visto gli ottimi rumors che stanno uscendo fuori :D

quale notizia? :)

Kharonte85
24-04-2007, 12:16
quale notizia? :)
:rotfl: :rotfl: :rotfl:

appleroof
24-04-2007, 12:17
Si ma questa volta è diverso perche' non riporta altre fonti...quindi è dailytech la fonte :)

esatto...in quel caso ha "rimbalzato" una notizia (mi pare affermando di prenderla con le molle) come hanno fatto centinaia di siti (mi pare anche hwu, ma vado a memoria), questa volta parla di fonte propria

Probabile che i Driver siano immaturi...;)

potrebbe essere...dalle caratteristiche ventilate dovrebbe andare quasi come una GTX, in ogni caso vorrei sapere come si comporta a risoluzioni più alte...

appleroof
24-04-2007, 12:19
:rotfl: :rotfl: :rotfl:

:D

Alexkidd85
24-04-2007, 12:21
Che hai fatto un lavoro inutile...;)

queste sono le cose belle della vita... :doh:
Onestamente?Quantomeno io non sto a sminuire le prestazioni di certe schede o a elogiare la mia come alcuni ma partecipo attivamente,cercado di aiutare.
Poi non parlate di flames perché sono il tipo più tranquillo del mondo,ma certe affermazioni mi fanno veramente "accapponare la pelle" come direbbe un noto comico.
Sporco il pc,il registro,occupo spazio nell'hd solo per dare un pochino di vitalità al 3d....mah,meno male che lo faccio per gente che sa apprezzare e non gente che sghignazza per una battuta o freddura,chiamala come vuoi,che a me ha fatto ridere un'altra cosa...
Chiedo scusa per lo sfogo....ma forse noto solo gente "addannata" dalle prestazioni che una "media" fa nei confronti di una ottima top di gamma in dx9...ma voglio sperare non sia così,sennò sarebbe veramente da preoccuparsi :D

A.L.M.
24-04-2007, 12:22
Potrebbe, ma dailytech fu anche il primo sito (con questa (http://www.dailytech.com/article.aspx?newsid=4812) notizia) a dare le caratteristiche e prestazioni di G80 azzeccate ;)

Beh, ma le aveva azzeccate una settimana prima, non 3 prima.
Pure i dati della 8800GTS sono completamente sballati, guardati i test di HWUpgrade: a me pare un chiaro esempio di test fatto alla CDC. ;)

A.L.M.
24-04-2007, 12:23
Per quanto riguarda le comparative della ipotetica 2600 ??,che volevamo comparare qualche paghina dietro, ecco i risultati proprio in quel livello e in quella scena:

Potrei postare le immagini,ma credetemi sulla parola,non fatemi fare traffico :D

Impostazione con i dettagli tutto al MAX (ovvero pallini tutti accesi o a fondo scala)

Premetto,ed è un importante premessa che fraps,secondo me scazza e evidenzierò quando.

A scheda a default (abbastanza lineare fraps inq uesto caso)
1280x1024 no AA= 47fps
1280x1024 AA 2x= 44fps

A scheda @Firma (qui fraps scazza e non poco)
1280x1024 no AA= A volte 68fps a volte 80 e passa fps
1280x1024 AA 2x= A volte 66fps a volte 80 e passa fps

Ora...o quelle non sono le impostazioni o quella scheda è veramente una bomba....che dite!?

Voglio ringraziare l'utente RsViper che mi ha passato il savegame proprio in quel punto. Un chiarissimo segno di "ottima cooperazione" in una comunità,anche se virtuale,IMHO.

Grande! Ottimo lavoro. ;)

Alexkidd85
24-04-2007, 12:23
Che hai fatto un lavoro inutile...;)

:asd: :asd: :asd:

quale notizia? :)

:rotfl: :rotfl: :rotfl:

:D

Ma andare a zelig no? Spé che ci chiamo vediamo se vi contattano...meno male tralaltro che ad inizio 3d si era detto "no a post con solo emoticon". :rolleyes:

fukka75
24-04-2007, 12:24
a me pare un chiaro esempio di test fatto alla CDC. ;)

o MDS :asd: :asd:

@ndre1
24-04-2007, 12:26
queste sono le cose belle della vita... :doh:
Onestamente?Quantomeno io non sto a sminuire le prestazioni di certe schede o a elogiare la mia come alcuni ma partecipo attivamente,cercado di aiutare.
Poi non parlate di flames perché sono il tipo più tranquillo del mondo,ma certe affermazioni mi fanno veramente "accapponare la pelle" come direbbe un noto comico.
Sporco il pc,il registro,occupo spazio nell'hd solo per dare un pochino di vitalità al 3d....mah,meno male che lo faccio per gente che sa apprezzare e non gente che sghignazza per una battuta o freddura,chiamala come vuoi,che a me ha fatto ridere un'altra cosa...
Chiedo scusa per lo sfogo....ma forse noto solo gente "addannata" dalle prestazioni che una "media" fa nei confronti di una ottima top di gamma in dx9...ma voglio sperare non sia così,sennò sarebbe veramente da preoccuparsi :D

te lasciali fare, posta immagini a confronto.. ;)
Tanto a certe persone rimasto ancora poco da ridere..