View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT
leoneazzurro
07-05-2007, 11:15
Io ho sempre pensato che anche Sassen avesse avuto le schede, ma comunque parti di prerelease e con driver acerbi possono volere dire tutto e nulla.
nessuna smentita ufficiale...
Comunque ci sta che abbiano pubblicato quei test, alla fine loro non hanno firmato nessun NDA e fanno i loro interessi.
ma questo nda l'hanno firmato o no? halduemilauno aveva detto di sì, ma anche a me sembrava strano...
leoneazzurro
07-05-2007, 11:16
Dailytech non ha firmato NDA, Anandtech si.
DakmorNoland
07-05-2007, 11:17
Secondo me AMD stavolta se la sta giocando in modo furbo. Probabilmente ha fatto in modo che con i driver attuali le R600 girino maluccio.
Aspetta il giorno dell'uscita, per lanciare un vero e propio missile terra-terra che spiazzera' almeno in parte Nvidia.
Cmq sapremo a breve come stanno le cose. :)
halduemilauno
07-05-2007, 11:18
ma questo nda l'hanno firmato o no? halduemilauno aveva detto di sì, ma anche a me sembrava strano...
no ho sempre detto di no. attenzione. e nel primo articolo è anche detto.
;)
La loro serietà potrebbe essere messa in discussione da queste 2 frasi che hanno scritto:
La loro serietà viene messa in discussione da tante altre cose, tra le quali credo valga la pena menzionare la fantomatica GTX OC ad aria che esce di fabbrica 650/2000... Dopo 2 settimane non ancora si è capito quale sia... :asd:
Secondo me AMD stavolta se la sta giocando in modo furbo. Probabilmente ha fatto in modo che con i driver attuali le R600 girino maluccio.
Aspetta il giorno dell'uscita, per lanciare un vero e propio missile terra-terra che spiazzera' almeno in parte Nvidia.
Cmq sapremo a breve come stanno le cose. :)
e secondo te i recensori aspettano l'ultimo giorno per lavorare sui test da pubblicare?
bYeZ!
DakmorNoland
07-05-2007, 11:28
Ragazzi ma il test che ho visto fatto su Call of Juarex in DX10, e che mi pare sia anche stato postato, ma e' attendibile?
Ma quindi questo gioco utilizza gia' features DX10?
Se fossero veri i risultati, la 2900XT, vabbe' che e' confrontata con una GTS 640MB, pero' non c'e' propio paragone!!! La stacca di bruttissimo!
Fossero confermati sti test, vuol dire che Nvidia non ha cambiato politica, cioe' ste scehde DX10 vanno fortissimo con le DX9 ma di DX10 hanno ben poco. Per la concorrenza spero non sia cosi'.
e secondo te i recensori aspettano l'ultimo giorno per lavorare sui test da pubblicare?
bYeZ!
Infatti per quanto mi riguarda i test pubblicati anche il giorno del debutto di qualsiasi scheda video, sia ATI che Nvidia, sono attendibili come i 3d mark! Cioe' meno di zero! :p
ale0bello0pr
07-05-2007, 11:30
Io sn invece curiosissimo di sapere se i test fatti con la 8800 GTX e la HD 2900 XT fatti in Crysis siano veri e quindi dimostrabili dalla Crytec...o un altro ennesimo fake...xkè se così fosse...10% in piu' di prestazioni per la 2900...:D
bladerunner86
07-05-2007, 11:30
e secondo te i recensori aspettano l'ultimo giorno per lavorare sui test da pubblicare?
bYeZ!
probabilmente ati ha fornito, oltre la scheda, dei driver ad hoc.
Ragazzi ma il test che ho visto fatto su Call of Juarex in DX10, e che mi pare sia anche stato postato, ma e' attendibile?
Ma quindi questo gioco utilizza gia' features DX10?
Se fossero veri i risultati, la 2900XT, vabbe' che e' confrontata con una GTS 640MB, pero' non c'e' propio paragone!!! La stacca di bruttissimo!
Fossero confermati sti test, vuol dire che Nvidia non ha cambiato politica, cioe' ste scehde DX10 vanno fortissimo con le DX9 ma di DX10 hanno ben poco. Per la concorrenza spero non sia cosi'.
La mia voleva essere una provocazione alla dialettica di Hal.
Quei test sembrano essere veri (nel senso che attualmente con quella patch e quel gioco la differenza tra le schede è quella).
Che poi si voglia considerare come attendebile quel test per fornire la reale differenza tra R600 e G80 è un altro paio di maniche. Pare essere una patch costruita su un certo tipo di hw (R600) e che quindi dia un sacco di problemi con G80. Lo stesso HwUpgrade non ha inserito i risultati nella recensione per questo motivo.
La differenza in Dx10 sarà ben altra, questo è poco ma sicuro :)
DakmorNoland
07-05-2007, 11:33
probabilmente ati ha fornito, oltre la scheda, dei driver ad hoc.
Si' guarda lo spero!
Perche' sono stufo di vedere prestazioni che poi aumentano notevolmente i mesi seguenti al lancio!
E questo lo abbiamo visto ad esempio con la 1950pro, che al lancio sembrava andasse come la 1900gt e poi con l'affinamento dei driver ora in certi giochi e' quasi al livello della 1800xt!!!
Anche la 8800GTS 320MB al lancio non brillava, poi dopo qualche tempo, andava praticamente come la versione 640MB, tranne situazioni particolari.
probabilmente ati ha fornito, oltre la scheda, dei driver ad hoc.
si ma ci sono tempistiche da rispettare, se ad esempio ATi rilascia una release che migliora le prestazioni generali del 10%, i recensori non ci possono fare nulla. Come dire, per molti è l'impatto iniziale che conta, pochi stanno a guardare le eventuali evoluzioni del software (ad esempio per R5x0, nessuno si curava del fatto che avesse un memory controller completamente programmabile via driver, e che tramite semplici update di questi ultimi si potevano ottimizzare le prestazioni del chip per ogni singola applicazione).
bYeZ!
DakmorNoland
07-05-2007, 11:36
si ma ci sono tempistiche da rispettare, se ad esempio ATi rilascia una release che migliora le prestazioni generali del 10%, i recensori non ci possono fare nulla. Come dire, per molti è l'impatto iniziale che conta, pochi stanno a guardare le eventuali evoluzioni del software (ad esempio per R5x0, nessuno si curava del fatto che avesse un memory controller completamente programmabile via driver, e che tramite semplici update di questi ultimi si potevano ottimizzare le prestazioni del chip per ogni singola applicazione).
bYeZ!
Su questo hai ragionissimo! E' per questo che spero che stavolta AMD rilasci da subito driver come si deve, visto anche che ha aspettato a lanciare R600 e ha avuto tutto il tempo!
Kharonte85
07-05-2007, 11:38
EDIT: Sembra che VR-Zone stia già preparando l'articolo su R600... :D
Tenete d'occhio questo link (http://www.vr-zone.com/?i=4946&s=1) (e scorrete il menu a tendina). ;)
Interessante...:sbav:
Ragazzi ma il test che ho visto fatto su Call of Juarex in DX10, e che mi pare sia anche stato postato, ma e' attendibile?
Nel test di COJ le nvidia non partivano. quindi attendibilita' 0.
Su questo hai ragionissimo! E' per questo che spero che stavolta AMD rilasci da subito driver come si deve, visto anche che ha aspettato a lanciare R600 e ha avuto tutto il tempo!
beh, scrivere driver per queste architetture Dx10 è una gran bella gatta da pelare, non è mica come prima..non mi stupirei del fatto che ATi cambiasse la propria abitudine di rilasciare un driver al mese, in concomitanza con il lancio di R600.
bYeZ!
certo che sto thread è diventato impossibile da seguire, è una serie continua di se ma, ho letto qui, ho letto la. non potete aspettare ???
è un mio parere naturalmente
ale0bello0pr
07-05-2007, 11:45
certo che sto thread è diventato impossibile da seguire, è una serie continua di se ma, ho letto qui, ho letto la. non potete aspettare ???
è un mio parere naturalmente
a questo punto il thread che lo aprivamo a fare?:rolleyes:
magari è lolloso vedere chi ha ipotizzato cose vere,chi ha scritto solo ca@@ate, e chi invece sa,non dice e mette fuori pista...:D e quindi la rece ufficiale sarà la prova del 9:oink:
certo che sto thread è diventato impossibile da seguire, è una serie continua di se ma, ho letto qui, ho letto la. non potete aspettare ???
è un mio parere naturalmente
TUTTI i thread ufficiali sono impossibili da seguire, te ne accorgi solo ora? :asd:
bYeZ!
TUTTI i thread ufficiali sono impossibili da seguire, te ne accorgi solo ora? :asd:
bYeZ!
non hai ragione x niente, molti si riescono a seguire tranquillamente
ale0bello0pr
07-05-2007, 11:52
non hai ragione x niente, molti si riescono a seguire tranquillamente
vuol dire che gli dai ragione..una doppia negazione annulla la negazione
imho se ti è difficile seguire allora vieni a trovarci il 14:)
[QUOTE=ale0bello0pr;17024332]vuol dire che gli dai ragione..una doppia negazione annulla la negazione
/QUOTE]
ke simpatico
Portocala
07-05-2007, 11:56
non hai ragione x niente, molti si riescono a seguire tranquillamente
basta leggerli ogni 30 minuti altrimenti ti perdi :D
Quello che mi incuriosisce è se la fascia medio bassa sarà cara e poco potente come le 8600 della Nvidia. Il segmento mainstream o fascia media chedirsivoglia imho ha un ruolo importante e trascurarlo mettendoci delle schede lollose non la vedo a buon mercato
bladerunner86
07-05-2007, 11:58
basta leggerli ogni 30 minuti altrimenti ti perdi :D
Quello che mi incuriosisce è se la fascia medio bassa sarà cara e poco potente come le 8600 della Nvidia. Il segmento mainstream o fascia media chedirsivoglia imho ha un ruolo importante e trascurarlo mettendoci delle schede lollose non la vedo a buon mercato
io non credo proprio che 160 euro per una scheda di fascia media non sia caro
Secondo me AMD stavolta se la sta giocando in modo furbo. Probabilmente ha fatto in modo che con i driver attuali le R600 girino maluccio.
Aspetta il giorno dell'uscita, per lanciare un vero e propio missile terra-terra che spiazzera' almeno in parte Nvidia.
Cmq sapremo a breve come stanno le cose. :)
E si certo, anch'io se avessi un prodotto da lanciare, prima lo faccio passare come una mezza ciofeca poi esco e dico "no era tutta una burla" ottima strategia, così gli indecisi si comprano subito i prodotti della concorrenza.
Spero in buone prestazioni per la 2900 ma visto la sparata di prezzi delle schede nvidia (Ultra) ed il mancato annuncio di taglio prezzi, m sa che starà a metà tra la GTS e GTX.
ale0bello0pr
07-05-2007, 12:00
io non credo proprio che 160 euro per una scheda di fascia media non sia caro
magari costasse una HD 2600 XT a 160 :eek:
nelle immagino non lo noto.....ma questa hd 2900 xt ce l'ha o no un'uscita HDMI ?? :confused:
leoneazzurro
07-05-2007, 12:05
Hanno un convertitore da DVI a HDMI incluso nella confezione.
loperloper
07-05-2007, 12:06
nelle immagino non lo noto.....ma questa hd 2900 xt ce l'ha o no un'uscita HDMI ?? :confused:
no, ma è hdcp compatibile, vuol dire che riesci comunque a vedere blue ray e hd dvd in caso attraverso il cavo dvi
Ragazzi ma il test che ho visto fatto su Call of Juarex in DX10, e che mi pare sia anche stato postato, ma e' attendibile?
Ma quindi questo gioco utilizza gia' features DX10?
Sarà rilasciata una patch per abiitare il supporto per le DX10 a breve: il gioco di per sé è un gioco interamente DX9, anche perché è in circolazione da settembre ;)
Se fossero veri i risultati, la 2900XT, vabbe' che e' confrontata con una GTS 640MB, pero' non c'e' propio paragone!!! La stacca di bruttissimo!
Fossero confermati sti test, vuol dire che Nvidia non ha cambiato politica, cioe' ste scehde DX10 vanno fortissimo con le DX9 ma di DX10 hanno ben poco. Per la concorrenza spero non sia cosi'.
Il test è evidentemente fallato per le vga nVidia, e scritto appositamente per le nuove ATI: nulla di nuovo, non è certo la prima volta che ad una presentazione ufficiale si mostrino bench e test scritti specificatamente per la vga in presentazione (e questo vale per entrambe le concorrenti), mostrando che l'avversaria va molto meno. Insomma non ha alcuna attendibilità nel confrontare le capacità DX10 di G80 vs R600.
@DjLode
IL risultato di R600 in quel test potrà anche essere vero, ma è altrettanto ovvio che il test non girava su G80, quindi non dà alcuna informazione sulle capacità DX10 di G80 ;)
no, ma è hdcp compatibile, vuol dire che riesci comunque a vedere blue ray e hd dvd in caso attraverso il cavo dvi
aspetta, quindi con X2000 collegata con l'adattore, un lettore blue ray e un monitor che supporti l'hdcp, il pc è in grado di riprodurre dvd blue ray?
aspetta, quindi con X2000 collegata con l'adattore, un lettore blue ray e un monitor che supporti l'hdcp, il pc è in grado di riprodurre dvd blue ray?
direi proprio di si...
Sarà rilasciata una patch per abiitare il supporto per le DX10 a breve: il gioco di per sé è un gioco interamente DX9, anche perché è in circolazione da settembre ;)
Il test è evidentemente fallato per le vga nVidia, e scritto appositamente per le nuove ATI: nulla di nuovo, non è certo la prima volta che ad una presentazione ufficiale si mostrino bench e test scritti specificatamente per la vga in presentazione (e questo vale per entrambe le concorrenti), mostrando che l'avversaria va molto meno. Insomma non ha alcuna attendibilità nel confrontare le capacità DX10 di G80 vs R600.
@DjLode
IL risultato di R600 in quel test potrà anche essere vero, ma è altrettanto ovvio che il test non girava su G80, quindi non dà alcuna informazione sulle capacità DX10 di G80 ;)
La stessa cosa si potrebbe fare con la demo in dx10 per le 8800. Di sicuro provata su R600 darebbe mille noie.
leoneazzurro
07-05-2007, 12:14
aspetta, quindi con X2000 collegata con l'adattore, un lettore blue ray e un monitor che supporti l'hdcp, il pc è in grado di riprodurre dvd blue ray?
Quello tra l'altro è lo scopo di avere il decoder audio a bordo (fare passare audio e video HD su un unico cavo HDMI)
ale0bello0pr
07-05-2007, 12:15
http://www.fudzilla.com/index.php?option=com_content&task=view&id=854&Itemid=1
dicono che la futura HD 2600 XT GDDR4 andrà meno rispetto alla GDDR3 HD 2600 XT.... sono inleggibili...:muro:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=854&Itemid=1
dicono che la futura HD 2600 XT GDDR4 andrà meno rispetto alla GDDR3 HD 2600 XT.... sono inleggibili...:muro:
Beh, con una abile strategia di marketing potrebbe anche essere.. mi ricorda un po' le DDR a 64bit.. :doh:
no ho sempre detto di no. attenzione. e nel primo articolo è anche detto.
;)
mi riferivo a QUESTO (http://www.hwupgrade.it/forum/showpost.php?p=16889029&postcount=3754) tuo post, avevo capito male io la risposta?
comunque è indifferente, dailytech NON ha sottoscritto NDA.
Quello tra l'altro è lo scopo di avere il decoder audio a bordo (fare passare audio e video HD su un unico cavo HDMI)
che dire, lieto di aver appena preso un monitor hdcp compatibile :)
allargando un pò il discorso, immagino non interessi solo me ed è un aspetto di cui abbiamo parlato poco e nulla sinora di R600, a quanto si trovano i lettori BR per pc?
è un aspetto che non avevo considerato di queste nuove schede, ma che ritengo estremamente importante. :)
La stessa cosa si potrebbe fare con la demo in dx10 per le 8800. Di sicuro provata su R600 darebbe mille noie.
Infatti ho scritto
non è certo la prima volta che ad una presentazione ufficiale si mostrino bench e test scritti specificatamente per la vga in presentazione (e questo vale per entrambe le concorrenti) ;)
leoneazzurro
07-05-2007, 12:19
che dire, lieto di aver appena preso un monitor hdcp compatibile :)
allargando un pò il discorso, immagino non interessi solo me ed è un aspetto di cui abbiamo parlato poco e nulla sinora di R600, a quanto si trovano i lettori BR per pc?
è un aspetto che non avevo considerato di queste nuove schede, ma che ritengo estremamente importante. :)
Recentemente mi sembra siano state annunciate soluzioni sotto i 300 dollari, ma qui da noi non ho ancora visto nulla.
che dire, lieto di aver appena preso un monitor hdcp compatibile :)
allargando un pò il discorso, immagino non interessi solo me ed è un aspetto di cui abbiamo parlato poco e nulla sinora di R600, a quanto si trovano i lettori BR per pc?
è un aspetto che non avevo considerato di queste nuove schede, ma che ritengo estremamente importante. :)
ancora sono pochissimi e costosissimi ;) (Plextor se non sbaglio si è mossa )
certo questa è una caratteristica che per la VGA di un HTPC risulta fondamentale in prospettiva :cool:
Quello tra l'altro è lo scopo di avere il decoder audio a bordo (fare passare audio e video HD su un unico cavo HDMI)
Hdmi è una DVI con l'aggiunta audio e controlli remoti, gli adattatori esistono anche per le DVI di altre schede, l'importate che sia compresa la decodifica HDCP nella scheda video.
Il problema che vedo io, è che da dove passerebbe l'audio dall'uscita DVI della 2900? Penso che sia a parte.
leoneazzurro
07-05-2007, 12:22
Hdmi è una DVI con l'aggiunta audio e controlli remoti, gli adattatori esistono anche per le DVI di altre schede, l'importate che sia compresa la decodifica HDCP nella scheda video.
Il problema che vedo io, è che da dove passerebbe l'audio dall'uscita DVI della 2900? Penso che sia a parte.
No, passa nel DVI. L'audio viene poi separato dall'adattatore sul cavo HDMI.
ancora sono pochissimi e costosissimi ;) (Plextor se non sbaglio si è mossa )
certo questa è una caratteristica che per la VGA di un HTPC risulta fondamentale in prospettiva :cool:
assolutamente ;)
Recentemente mi sembra siano state annunciate soluzioni sotto i 300 dollari, ma qui da noi non ho ancora visto nulla.
capisco, entro quanti mesi pensi che la distribuzione possa migliorare?
ma poi sbaglio o sui notebook sono già presenti da un pò?
No, passa nel DVI. L'audio viene poi separato dall'adattatore sul cavo HDMI.
quindi dalla VGA il segnale partirebbe dal DVI ? :what:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=854&Itemid=1
dicono che la futura HD 2600 XT GDDR4 andrà meno rispetto alla GDDR3 HD 2600 XT.... sono inleggibili...:muro:
:rolleyes:
Ho visto... e per un momento gli ho concesso il beneficio del dubbio, ed ho pensato che con "slightly faster" si riferissero alle frequenze del core, magari messe più alte nella versione GDDR3 per colmare il divario con la versione GDDR4 con memoria migliore....
...poi ho visto che ammettono di non sapere nemmeno loro le frequenze :muro: e mi sono cascate le braccia. Adesso Amd/Ati butta fuori una scheda che costa di più ma va di meno, secondo loro, solo così per poter scrivere "GDDR4" sulla scatola? Ma baff...
quindi dalla VGA il segnale partirebbe dal DVI ? :what:
Si e poi diviso con un dongle apposito.
halduemilauno
07-05-2007, 12:25
mi riferivo a QUESTO (http://www.hwupgrade.it/forum/showpost.php?p=16889029&postcount=3754) tuo post, avevo capito male io la risposta?
comunque è indifferente, dailytech NON ha sottoscritto NDA.
esatto. il si è riferito al neanche dailytech ha firmato l'NDA. quindi non lo ha firmato. tra l'altro è scritto nel loro pezzo che non lo avevano firmato.
;)
Mi pare strano anche a me che dalla DVI passi un segnale audio, però sai sti geniacci della ATi........
Mi verrebbe da pensare più ad un semplice adattatore.
mi riferivo a QUESTO (http://www.hwupgrade.it/forum/showpost.php?p=16889029&postcount=3754) tuo post, avevo capito male io la risposta?
comunque è indifferente, dailytech NON ha sottoscritto NDA.
;) Si...non ha firmato l'NDA;) la domanda era negativa e la risposta conferma la domanda
io non credo proprio che 160 euro per una scheda di fascia media non sia caro
Dubito che si riuscirà a trovare un HD2600 XT per quel prezzo... :(
No, passa nel DVI. L'audio viene poi separato dall'adattatore sul cavo HDMI.
Infatti, l'adattatore di ATi non è il classico adattatore DVI->HDMI (inutile, causa mancanza del suono). ;)
ma poi sbaglio o sui notebook sono già presenti da un pò?
Il primo credo sia stato un Sony da 3000€ poco meno di un anno fa.
Oggi diversi notebook, anche meno costosi, montano lettori BD o HD-DVD. ;)
quindi dalla VGA il segnale partirebbe dal DVI ? :what:
aspetta non mi tornano i conti, il monitor l'ingresso hdmi deve averlo, quindi il discorso che facevo non ha senso..:what:
halduemilauno
07-05-2007, 12:29
;) Si...non ha firmato l'NDA;) la domanda era negativa e la risposta conferma la domanda
esatto.
;)
che dire, lieto di aver appena preso un monitor hdcp compatibile :)
allargando un pò il discorso, immagino non interessi solo me ed è un aspetto di cui abbiamo parlato poco e nulla sinora di R600, a quanto si trovano i lettori BR per pc?
è un aspetto che non avevo considerato di queste nuove schede, ma che ritengo estremamente importante. :)
la piooner ha lanciato un lettore BR e masterizzatore dvd per pc a 300$
http://www.macitynet.it/macity/aA28086/index.shtml
leoneazzurro
07-05-2007, 12:32
assolutamente ;)
capisco, entro quanti mesi pensi che la distribuzione possa migliorare?
ma poi sbaglio o sui notebook sono già presenti da un pò?
Beh, le soluzioni sono state annunciate da poco, quindi penso sui 4-6 mesi. Il problema è che la maggioranza dei drive sono anche masterizzatori, con costi attuali sopra i 600 Euro.
Sui notebook sono disponibili, ma a prezzi spropositati.
Comunque al momento, in attesa di una larga diffusione di schede come la HD 2600 a prezzi "popolari" ed in grado di rprodurre per bene l'alta definizione, è normale avere una situazione del genere.
Altri commenti di Kinc sull'OC di R600:
Originally Posted by Kinc
The screenshot of the AMD clock tool is just a demonstation that there is no limits in the tool for how high it can set the clocks, like there is with current versions of powerstrip. On the stock cooler (without any extra fan) at default voltages the range of 830-860MHz is realistic. With voltage modifaction (done by software) and watercooling there should be alot of potential, maybe 1GHz for 24/7 usage.
A side note to everyone that is planing on using watercooling on 2900 should know that the the shim is higher then the core wich will result in the need of a extra coldplate or a custom waterblock. Removing the shim turns out to be harder then it looks.
Kinc
Notizia da THG
http://www.tomshw.it/news.php?newsid=9958
Ciao :)
ale0bello0pr
07-05-2007, 12:39
Notizia da THG
http://www.tomshw.it/news.php?newsid=9958
Ciao :)
:old:
http://www.tomshw.it/news.php?newsid=9958
;)
ti riferisci a questo? :asd:
gianni1879
07-05-2007, 12:39
Altri commenti di Kinc sull'OC di R600:
stupendo :)
quindi come la vecchia serie è confermato il cambio di voltaggio via SW!!! ottimo son contentissimo.
maybe 1GHz for 24/7 usage :D
:old:
Sapevo che, forse, era un po' vecchiotta. Di questa (http://www.tomshw.it/news.php?newsid=9964) ne sono certo, invece.
Ciao :)
Foglia Morta
07-05-2007, 12:47
Sapevo che, forse, era un po' vecchiotta. Di questa (http://www.tomshw.it/news.php?newsid=9964) ne sono certo, invece.
Ciao :)
Vecchia anche questa :D
TecnoWorld8
07-05-2007, 12:49
è la sapphire che avevo postato qualche giorno fa...e che bramo :)
maxmix65
07-05-2007, 12:57
:D 1 Domanda ma le nuove R600 hanno il chip di aquisizione video come la 1900xtx???
OT-- scusate ma cosa sono e che differrenza ci sta tra 65nm e 80nm??? --OT
un processo produttivo a 65nm dovrebbe comportare consumi inferiori e frequenze operative piu alte rispetto a quello da 80
un processo produttivo a 65nm dovrebbe comportare consumi inferiori e frequenze operative piu alte rispetto a quello da 80
GRANDE!!!
cmq manka 1 settimana all'uscita delle skede:D
OT-- scusate ma cosa sono e che differrenza ci sta tra 65nm e 80nm??? --OT
Sono 2 diversi processi produttivi... Dovrebbero indicare la dimensione media del gate di ogni singolo transistor, se non sbaglio. Comunque 80nm dovrebbero solo essere un optical shrink dei 90nm, mentre i 65nm offrono reali vantaggi rispetto ai 90nm.
http://en.wikipedia.org/wiki/65_nanometer
Y2J Lionheart
07-05-2007, 13:43
Ho letto qualche pagina addietro di bench in dx10 con CoJ qualcuno me li puo linkare?
grazie mille
@DjLode
IL risultato di R600 in quel test potrà anche essere vero, ma è altrettanto ovvio che il test non girava su G80, quindi non dà alcuna informazione sulle capacità DX10 di G80 ;)
Te ne sei perso un pezzo ;)
Marko#88
07-05-2007, 13:50
Ho letto qualche pagina addietro di bench in dx10 con CoJ qualcuno me li puo linkare?
grazie mille
interessato anch'io....:)
Ho letto qualche pagina addietro di bench in dx10 con CoJ qualcuno me li puo linkare?
grazie mille
interessato anch'io....:)
Non c'è molto da vedere, visto che con la GTS 640MB CoJ DX10 non girava. :D
http://bp2.blogger.com/_BabjUDZIqPw/RjL0iGGObII/AAAAAAAAACs/omHwk7C2K8c/s1600-h/004.jpg
Non ha molto senso, comunque. :)
TecnoWorld8
07-05-2007, 14:28
ma quello significa che CoJ girerà a meno di 30fps su una HD2900XT a 1280x1024?!?
ma quello significa che CoJ girerà a meno di 30fps su una HD2900XT a 1280x1024?!?
Anche questi dati sono da prendere con le pinze. Ricordo che secondo l'unica notizia filtrata anche Lost Planet potrebbe non girare granchè bene... (25fps di media su una 8800GTX). Call of Juarez era sicuramente già un mattone in precedenza (è più pesante di Oblivion), con una patch DX10 potrebbe aggiungere solo dettagli senza garantire quell'ottimizzazione delle performances che si dovrebbe ottenere con le DX10.
Anche per i giochi DX10 bisogna attendere le prove ufficiali e quelle degli utenti... :boh:
aspetta non mi tornano i conti, il monitor l'ingresso hdmi deve averlo, quindi il discorso che facevo non ha senso..:what:
come non detto, con il buon Dexther ho capito meglio la situazione, e adesso mi è tutto più chiaro.
Beh, le soluzioni sono state annunciate da poco, quindi penso sui 4-6 mesi. Il problema è che la maggioranza dei drive sono anche masterizzatori, con costi attuali sopra i 600 Euro.
Sui notebook sono disponibili, ma a prezzi spropositati.
Comunque al momento, in attesa di una larga diffusione di schede come la HD 2600 a prezzi "popolari" ed in grado di rprodurre per bene l'alta definizione, è normale avere una situazione del genere.
ok, capisco. per i lettori HD Dvd la situazione è la stessa immagino, vero?
grazie :)
la piooner ha lanciato un lettore BR e masterizzatore dvd per pc a 300$
http://www.macitynet.it/macity/aA28086/index.shtml
grazie per la segnalazione ;)
Marko#88
07-05-2007, 14:56
Non c'è molto da vedere, visto che con la GTS 640MB CoJ DX10 non girava. :D
http://bp2.blogger.com/_BabjUDZIqPw/RjL0iGGObII/AAAAAAAAACs/omHwk7C2K8c/s1600-h/004.jpg
Non ha molto senso, comunque. :)
grazie, comunque si, come già detto non sono attendibili per nulla secondo me...
leoneazzurro
07-05-2007, 14:58
ok, capisco. per i lettori HD Dvd la situazione è la stessa immagino, vero?
grazie :)
Migliore, c'è un lettore Toshiba che costa meno di 200 Euro e poi c'è il drive HD-DVD per la X360. Anche questi dovrebbero andare bene in accoppiata a queste schede che promettono faville nella riproduzione HD.
Migliore, c'è un lettore Toshiba che costa meno di 200 Euro e poi c'è il drive HD-DVD per la X360. Anche questi dovrebbero andare bene in accoppiata a queste schede che promettono faville nella riproduzione HD.
meglio ancora, quindi in sostanza allo stato attuale potrebbe essere più opportuno optare per lo standard HD-DVD abbinato a X2000..:)
l'incognita sarà capire su quale standard le major punteranno..
meglio ancora, quindi in sostanza allo stato attuale potrebbe essere più opportuno optare per lo standard HD-DVD abbinato a X2000..:)
l'incognita sarà capire su quale standard le major punteranno..
Tanto per chiudere l'OT ( :D ) in realtà dovrebbero uscire anche alcuni lettori multistandard (HD-DVD+BD) che potrebbero levare dall'impiccio di scegliere tra lo standard di Toshiba e quello di Sony. ;)
http://www.engadget.com/2007/01/05/lgs-super-multi-blue-ggw-h10n-a-blu-ray-writer-and-hd-dvd-r/
sarebbe la cosa migliore, cmq da quanto ho capito conviene far passare l'estare e poi valutare il da farsi, cmq nient'affatto male la possibilità del HD grazie a R600 :)
Robbysca976
07-05-2007, 15:25
Non c'è molto da vedere, visto che con la GTS 640MB CoJ DX10 non girava. :D
http://bp2.blogger.com/_BabjUDZIqPw/RjL0iGGObII/AAAAAAAAACs/omHwk7C2K8c/s1600-h/004.jpg
Non ha molto senso, comunque. :)
FAKE da ridere
Come pensavo, la pressochè totale assenza di benchmark DX10 sta per finire... :sofico:
THE GUYS FROM TECHLAND are preparing quite a treat for owners of DirectX 10 graphics cards. Call of Juarez, a really nifty first person shooter set in wild west, when America was run by Smith & Wesson and Winchester - will get a hefty graphics upgrade.
We're not sure when the game itself will get upgraded to DX10 goodness, but we learned that the company will ship a DirectX 10 benchmark really soon, probably in next couple of weeks.
Given the current lack of DirectX 10 titles that would enable hacks to benchmark the bloody graphics cards with API they support natively, this is a welcoming news.
Fonte: The Inquirer
prime immagini del nuovo capito di SC: Conviction, possibile titolo DX10 di prossima uscita:
http://www.mygen.com.au/article.php?page_id=96960179110181074&se_id=29&format=2&page=1
Altri "indizi" che farebbero supporre consumi inferiori al previsto per la XT...
Presunta tabella con la capacità di raffreddamento degli stock cooler di R600. ;)
http://img391.imageshack.us/img391/4407/tsr600jb7.jpg
Legenda:
102-B006 è la HD2900 XT
102-B007 è la HD2900 XTX (delayed?)
102-B001 è la HD2900 XTX OEM (quella lunghissima) (delayed?)
maxmix65
07-05-2007, 16:27
:D 1 Domanda ma le nuove R600 hanno il chip di aquisizione video come la 1900xtx???
:D Mi riquoto da solo ma le nuove vga hanno il chip Rage di aquisizione video o simile????
Qualcuno mi + rispondere???:cry:
+Lonewolf+
07-05-2007, 16:28
edit
Altri "indizi" che farebbero supporre consumi inferiori al previsto per la XT...
Presunta tabella con la capacità di raffreddamento degli stock cooler di R600. ;)
http://img391.imageshack.us/img391/4407/tsr600jb7.jpg
Legenda:
102-B006 è la HD2900 XTX (delayed?)
102-B007 è la HD2900 XT
102-B001 è la HD2900 XTX OEM (quella lunghissima) (delayed?)
Perchè il dissipatore della xt dissipa 190w e quello della xtx 160 ?
Chicco85
07-05-2007, 16:29
102-B006 è la HD2900 XTX (delayed?)
Presumo sia quella con gpu a 65 nm, altrimenti non mi spiego il TDP inferiore alla XT. :D
TecnoWorld8
07-05-2007, 16:30
perchè la xtx sarà probabilmente a 65nm...peccato che non si sa quanto esca :cry:
:D Mi riquoto da solo ma le nuove vga hanno il chip Rage di aquisizione video o simile????
Qualcuno mi + rispondere???:cry:
Probabilmente sì.
Perchè il dissipatore della xt dissipa 190w e quello della xtx 160 ?
102-B006 è la HD2900 XTX (delayed?)
Presumo sia quella con gpu a 65 nm, altrimenti non mi spiego il TDP inferiore alla XT. :D
Ehm, avevo semplicemente sbagliato a scrivere... :stordita: :fagiano:
Controllate. :read:
http://forum.beyond3d.com/showpost.php?p=982688&postcount=4636
Portocala
07-05-2007, 16:37
prime immagini del nuovo capito di SC: Conviction, possibile titolo DX10 di prossima uscita:
http://www.mygen.com.au/article.php?page_id=96960179110181074&se_id=29&format=2&page=1
SplinterCell ---> DX10
SplinterCell ---> xbox360
______________________
Ma allora la xbox 360 ha la scheda video compatibile dx10 o sbaglio? :confused:
Dentro ha un chip nvidia o amd? Perchè se è una dx9 ed esegue un dx10, e visto che dovrà essere fluido altrimenti tutti a insultare Billy, risulterebbe che una 1950pro possa eseguire bene un gioco dx10. Seghe mentali o cè un filo di verità nel mio ragionamento?
SplinterCell ---> DX10
SplinterCell ---> xbox360
______________________
Ma allora la xbox 360 ha la scheda video compatibile dx10 o sbaglio? :confused:
Dentro ha un chip nvidia o amd?
La 360 ha una GPU DX9 a shader unificati con "qualcosina" delle 10,ma le similitudini si fermano qui.La GPU è di ATI.
bladerunner86
07-05-2007, 16:44
SplinterCell ---> DX10
SplinterCell ---> xbox360
______________________
Ma allora la xbox 360 ha la scheda video compatibile dx10 o sbaglio? :confused:
Dentro ha un chip nvidia o amd? Perchè se è una dx9 ed esegue un dx10, e visto che dovrà essere fluido altrimenti tutti a insultare Billy, risulterebbe che una 1950pro possa eseguire bene un gioco dx10. Seghe mentali o cè un filo di verità nel mio ragionamento?
purtroppo non c' è nessun filo, la xbox 360 monta un chip xenos della ati che è il padre della r600 e un pò anche del g80.
SplinterCell ---> DX10
SplinterCell ---> xbox360
______________________
Ma allora la xbox 360 ha la scheda video compatibile dx10 o sbaglio? :confused:
Dentro ha un chip nvidia o amd? Perchè se è una dx9 ed esegue un dx10, e visto che dovrà essere fluido altrimenti tutti a insultare Billy, risulterebbe che una 1950pro possa eseguire bene un gioco dx10. Seghe mentali o cè un filo di verità nel mio ragionamento?
In realtà Xenos non è paragonabile per davvero a nessun chip ATi da desktop, è una versione di R5x0 troppo particolare (shaders unificati, eDRAM, ecc...).
Secondo alcuni supporta le DX9.0c ma anche qualcosa in più (in termini di effetti, infatti c'è chi dice che sia SM3.5 :boh: ). Ovviamente il gioco per PC dovrebbe essere migliore graficamente (almeno sotto certi aspetti). Lo stesso discorso di SC: Conviction si può applicare pure a Bioshock (altro gioco UE3 based), anch'esso esclusiva XBox360 e PC. Di solito i porting da 360 sono stati favorevoli alle ATi, quindi, se tanto mi dà tanto... :asd:
Portocala
07-05-2007, 16:56
ma allora non dovrebbe funzionare anche su una 1950Pro usando il complesso ragionamento che ho fatto? (es.)??
bladerunner86
07-05-2007, 17:01
no perchè sono 2 architteture diverse.
ma allora non dovrebbe funzionare anche su una 1950Pro usando il complesso ragionamento che ho fatto? (es.)??
In modalità DX9 (che ci sarà quasi sicuramente) SC: Conviction funzionerà su una X1950 Pro, seppure a velocità/dettaglio medio-bassi.
Se stai invece chiedendo se una DX9 da pc potrebbe gestire effetti DX10, allora no, perchè stai paragonando 2 cose diverse.
Xenos è un chip per certi versi più avanzato anche di R580 (seppure inferiore come "potenza bruta"), inoltre paragonare una console ad un pc ha poco senso in generale, visto che nessun gioco da pc godrà mai dell'ottimizzazione (sia grafica che di prestazioni) di cui può godere una console.
Detto questo comunque devi anche aggiungere che tempo un anno o poco più la qualità grafica dei giochi da pc supererà nuovamente quella di questa nuova generazione di console (PS3 e 360), proprio grazie ai vantaggi delle DX10.
Chicco85
07-05-2007, 17:11
Ehm, avevo semplicemente sbagliato a scrivere... :stordita: :fagiano:
Controllate. :read:
http://forum.beyond3d.com/showpost.php?p=982688&postcount=4636
Ah ecco... :D
Quanto a xenos, è un pò difficile definirlo poichè ha cose che le dx9.0c non contemplano, così come ne ha altre (se non ricordo male) che non sono nemmeno contemplate nell dx10.
così come ne ha altre (se non ricordo male) che non sono nemmeno contemplate nell dx10.
Alcune di quelle però ce le ha pure R600 (leggi Tessellation Unit)... :D
bladerunner86
07-05-2007, 17:16
In modalità DX9 (che ci sarà quasi sicuramente) SC: Conviction funzionerà su una X1950 Pro, seppure a velocità/dettaglio medio-bassi.
Se stai invece chiedendo se una DX9 da pc potrebbe gestire effetti DX10, allora no, perchè stai paragonando 2 cose diverse.
Xenos è un chip per certi versi più avanzato anche di R580 (seppure inferiore come "potenza bruta"), inoltre paragonare una console ad un pc ha poco senso in generale, visto che nessun gioco da pc godrà mai dell'ottimizzazione (sia grafica che di prestazioni) di cui può godere una console.
Detto questo comunque devi anche aggiungere che tempo un anno o poco più la qualità grafica dei giochi da pc supererà nuovamente quella di questa nuova generazione di console (PS3 e 360), proprio grazie ai vantaggi delle DX10.
secondo me i giochi per pc sono inferiori alle console soprattutto perchè le software house fanno molti più soldi con le console e non vogliono perdere il loro tempo con un mercato quello pc saturo di pirateria, infatti gli unici giochi che utilizzano a pieno l' hardware del pc sono quelli mal scritti come Vegas ecc...
ragà scusate, ma essendo la vga di della XBOX360 una scheda video ATI a shader unificati le eventuali conversioni da consolle@pc vedrebbero una maggiore ottimizzazione per l' architettura ATI rispetto a quella NVIDIA o non c entra una fava?
se le cose stanno come credo sarebbe un vantaggio non da poco per la Canadese considerando poi che vista la collaborazione con M$ chissà da quanto avrà messo le mani sul codice sorgente delle api creando dei driver ad HOc!!
cmq vada qualche testa cadrà, da che lato della barricata lo si saprà solo il 14 maggio
bladerunner86
07-05-2007, 17:23
secondo me non cade nessuna testa, vi sarà di nuovo un allineamento delle prestazioni tra ati e nvidia, di sicuro queste mega società non falliscono per una generazione di schede.
Xenos è un chip per certi versi più avanzato anche di R580 (seppure inferiore come "potenza bruta"), inoltre paragonare una console ad un pc ha poco senso in generale, visto che nessun gioco da pc godrà mai dell'ottimizzazione (sia grafica che di prestazioni) di cui può godere una console.
Detto questo comunque devi anche aggiungere che tempo un anno o poco più la qualità grafica dei giochi da pc supererà nuovamente quella di questa nuova generazione di console (PS3 e 360), proprio grazie ai vantaggi delle DX10.
In realtà questa affermazione non è corretta. Qualunque gioco per PC viene ottimizzato, e il tempo speso su questa ottimizzazione è molto superiore a quello speso per i titoli su console. Lo sviluppo su console infatti è ben diverso da quello del pc. Per maggiori informazioni dovreste chiedere a Fek_... :D
Sulla seconda affermazione sono d'accordissimo: Halo 3 si scontrerà con Crysis per il primato tecnico del 2007, ma dopo sarà molto molto difficile, anzi forse impossibile, recuperare il gap tra PC e console nel 2008. Dal pdv teorico R600 è già 4-5 volte superiore a Xenos, un pc high-end del 2008 potrebbe avere una dotazione di ram 8-16 volte superiore, e un processore a 8 core OOO a 16 thread con frequenze nell'ordine dei 4 Ghz.
:D
secondo me non cade nessuna testa, vi sarà di nuovo un allineamento delle prestazioni tra ati e nvidia, di sicuro queste mega società non falliscono per una generazione di schede.
fallire ovviamente no, ma di sicuro il capo del progetto g80 e di R600 non passeranno dei beii momenti.
fallire ovviamente no, ma di sicuro il capo del progetto g80 e di R600 non passeranno dei beii momenti.
Perchè? :mbe: :stordita:
DakmorNoland
07-05-2007, 17:34
fallire ovviamente no, ma di sicuro il capo del progetto g80 e di R600 non passeranno dei beii momenti.
Sì e secondo me sarà quello di Nvidia! :p
Che fanno sempre le cose alla svelta, e pensano poco al futuro.
Anche se sinceramente stavolta spero di essere smentito e che le 8800 facciano paura anche in DX10.
Intanto vediamo cosa sa fare sta 2900XT! Il 14 è vicino! :)
appleroof
07-05-2007, 17:36
Sì e secondo me sarà quello di Nvidia! :p
Che fanno sempre le cose alla svelta, e pensano poco al futuro.
Anche se sinceramente stavolta spero di essere smentito e che le 8800 facciano paura anche in DX10.
Intanto vediamo cosa sa fare sta 2900XT! Il 14 è vicino! :)
Perchè stai pensando di prenderne una? :)
appleroof
07-05-2007, 17:39
SplinterCell ---> DX10
SplinterCell ---> xbox360
______________________
Ma allora la xbox 360 ha la scheda video compatibile dx10 o sbaglio? :confused:
Dentro ha un chip nvidia o amd? Perchè se è una dx9 ed esegue un dx10, e visto che dovrà essere fluido altrimenti tutti a insultare Billy, risulterebbe che una 1950pro possa eseguire bene un gioco dx10. Seghe mentali o cè un filo di verità nel mio ragionamento?
Tra le altre cose delle dx10 c'è una maggiore e "migliore" (esisteva anche prima) uso dell' high level shader language, che sostanzialmente, da quello che ne so pur non essendo un tecnico, permette di "migrare" da dx9c a dx10 molto facilmente partendo da una base comune
DakmorNoland
07-05-2007, 17:40
Perchè stai pensando di prenderne una? :)
Intanto aspetto ancora almeno fino all'anno prossimo, che credo diminuiranno i consumi, e poi valuterò!
Per me i consumi sono prioritari, insieme al miglior prezzo/prestazioni. Prenderò la scheda che potrà offrirmi queste due cose.
Cmq quando parlo di prestazioni non intendo tipo 8600GTS che fa ridere, intendo prestazioni vere! :p Quindi fascia medio-alta a buon prezzo.
Vediamo chi delle due riuscirà a stupirmi. :)
In realtà questa affermazione non è corretta. Qualunque gioco per PC viene ottimizzato, e il tempo speso su questa ottimizzazione è molto superiore a quello speso per i titoli su console. Lo sviluppo su console infatti è ben diverso da quello del pc. Per maggiori informazioni dovreste chiedere a Fek_... :D
Il problema è che la qualità dell'ottimizzazione dei giochi per console è sempre superiore, grazie al fatto che gli sviluppatori sanno già su che hardware girerà il dato gioco, mentre su pc no. Il fatto che poi per pc ci perdano più tempo non è che porti a risultati eccelsi... :D basta guardare la maggior parte dei giochi usciti nell'ultimo anno: o porting pessimi o ottimizzazioni fatte coi piedi. L'ottimizzazione su console è superiore, inutile negarlo, altrimenti giochi come GT4 su Playstation 2 non sarebbero mai potuti esistere. Comunque direi di chiudere l'OT, non vorrei far arrabbiare qualche mod. ;)
Perchè stai pensando di prenderne una? :)
non sarebbe di certo un pazzo... :D
alla curiosità per le prestazioni si aggiunge infatti anche quella per il prezzo di lancio... ora come ora vedo veramente difficile riuscire a competere con il p/p delle gts, che imho è davvero ottimo.
:D Mi riquoto da solo ma le nuove vga hanno il chip Rage di aquisizione video o simile????
Qualcuno mi + rispondere???:cry:
Le HD2*00 dovrebbero montare anche il chip XILLEON.
:)
ale0bello0pr
07-05-2007, 18:03
k1nc dixit
With the new driver GTX is slightly better in 06 then this unknown vga. But for overclocking I belive the later one is better.
I only have one so far. But there are more on the horizon
si sta iniziando a rompere l'NDA....ma mi aspetto anke che la prima affermazione venga smentita da AMD stessa...il 12...:)
ficofico
07-05-2007, 18:08
che dire, lieto di aver appena preso un monitor hdcp compatibile A me sembra di ricordare che il tuo monitor non sia hdcp compatibile, il mio si:D
k1nc dixit
With the new driver GTX is slightly better in 06 then this unknown vga. But for overclocking I belive the later one is better.
I only have one so far. But there are more on the horizon
si sta iniziando a rompere l'NDA....ma mi aspetto anke che la prima affermazione venga smentita da AMD stessa...il 12...:)
Chissene dei 3DMark, preferirei le prestazioni nei giochi... :sofico: :sperem:
A me sembra di ricordare che il tuo monitor non sia hdcp compatibile, il mio si:D
ricordi male ;)
ale0bello0pr
07-05-2007, 18:17
Chissene dei 3DMark, preferirei le prestazioni nei giochi... :sofico: :sperem:
attenzione...:confused: l'overclock non serve solo per aumentare il punteggio 3dmark...:rolleyes: e di certo non ho messo su un bell'impianto a liquido x aumentare il punteggio dei 3dmerd(come li chiama qualcuno) che sinceramente, IMHO, me ne sbatto proprio... :asd:
EDIT: Sembra che VR-Zone stia già preparando l'articolo su R600... :D
Tenete d'occhio questo link (http://www.vr-zone.com/?i=4946&s=1) (e scorrete il menu a tendina). ;)
...mi sembrava giusto fissare questo momento e questi menù...:O
http://img124.imageshack.us/img124/5643/hd2000tv3.jpg (http://imageshack.us)
New Antialiasing
Wide-Tent Antialiasing
UnReal Overclocking!
Mobility 2000 series
Ma stanno preparando l'articolo??
ale0bello0pr
07-05-2007, 18:20
...mi sembrava giusto fissare questo momento e questi menù...:O
http://img124.imageshack.us/img124/5643/hd2000tv3.jpg (http://imageshack.us)
New Antialiasing
Wide-Tent Antialiasing
UnReal Overclocking!
Mobility 2000 series
e facci un bel evidenziato su UnReal Overclocking :sbav:
ficofico
07-05-2007, 18:29
ma non c'è una benchmark approssimativo sulle capacità di accelerazione hardware h264 di questo chip? Se veramente accelera alla grande, la fascia bassa è mia. (devo ancora finire NFSMW:D, l'unico gioco che ancora mi incolla al video ogni tanto, oramai posso dire che non gioco più al computer, però la tv satellitare la vedo, sperando primo o poi in mediaset in hd!!! )
e facci un bel evidenziato su UnReal Overclocking :sbav:
Così? :O
http://img182.imageshack.us/img182/299/r6000ocfq0.jpg
Altre notizie... :D
New PowerStrip to overclock ATi Radeon HD2900XT
A new version of PowerStrip will be able to overclock ATi Radeon HD2900XT. Current versions of software will not recognise the new GPU and won't work very well with it.
http://hdtvsg.blogspot.com/2007/05/new-powerstrip-to-overclock-ati-radeon.html
ATi to launch 5 Mobile GPUs on 14 May 2007
ATI Mobility Radeon™ HD 2300,Radeon™ HD 2400, Radeon™ HD 2400XT, Radeon™ HD2600 and Radeon™HD 2600XT on 14 May 2007.
ATI Mobility Radeon™ HD 2300 delivers Certified for Windows Vista™ graphics and plays High Definition content on mainstream notebook PCs. It is a DX9 part but has Avivo™ HD technology for smooth video playback of HD DVD and Blu-ray™ content on mainstream notebook PCs
Unified Video Decoder (UVD) lets users watch HD DVD™ or Blu-ray™ movie on battery
Powers the stunning Windows Aero™ interface with Certified for Windows Vista™ 3D graphics Balances power and performance for long battery life with ATI PowerPlay™ 7.0 technology.
http://hdtvsg.blogspot.com/2007/05/ati-to-launch-5-mobile-gpus-on-14-may.html
Peccato solo per la Mobility HD2300, la Mobility HD2600XT potrebbe invece essere una bestia (per un portatile da meno di 3 kg). :)
gianni1879
07-05-2007, 19:12
si muove quindi anche il settore mobile!! ottimo ;)
certo il 14 se ne vedranno delle belle :)
fallire ovviamente no, ma di sicuro il capo del progetto g80 e di R600 non passeranno dei beii momenti.
Piu' che il "capo" di un progetto (visto che il progetto di un nuovo chip high end e' core business fondamentale di un'azienda simile, il progetto stesso nasce ben piu' in alto di un semplice capo progetto cosi' come lo si intende in Italia) a passare dei brutti momenti sono sempre prima i "semplici" impiegati / engineers che dopo tot fallimenti si vedono recapitare delle belle buste anonime intestate.
Comunque prima o poi saltano anche le teste in alto, vedi Sony con PS3, vedi 3dfx prima del rilascio del VSA-100.. ecc ecc.
FAKE da ridere
ma anche no, lo stesso Paolo Corsini ha ammesso l'esistenza di un'applicazione DX10 che per motivi di programmazione non parte sulle 8xxx
;)
appleroof
07-05-2007, 20:42
ma anche no, lo stesso Paolo Corsini ha ammesso l'esistenza di un'applicazione DX10 che per motivi di programmazione non parte sulle 8xxx
;)
Quindi fake, nel senso che non dicono assolutamente nulla (come far girare per assurdo una applicazione dx10 su una 8600gt e su una x1950xtx, il paragone stà a zero) :)
Quindi fake, nel senso che non dicono assolutamente nulla (come far girare per assurdo una applicazione dx10 su una 8600gt e su una x1950xtx, il paragone stà a zero) :)
non fake, anche perchè (se l'applicazione che ha il Corsini è la patch di CoJ) è ancora beta e sicuramente gli sviluppatori non presenteranno una patch finale che non faccia giocare la grande fetta di utenti 8xxx ;)
quindi comparazione incompleta, manca il risultato di una scheda...quindi aspettiamo la patch finale e stiamo tutti contenti :)
Le HD2*00 dovrebbero montare anche il chip XILLEON.
:)
quindi sono tutte delle "AiW"?
appleroof
07-05-2007, 20:57
non fake, anche perchè (se l'applicazione che ha il Corsini è la patch di CoJ) è ancora beta e sicuramente gli sviluppatori non presenteranno una patch finale che non faccia giocare la grande fetta di utenti 8xxx ;)
quindi comparazione incompleta, manca il risultato di una scheda...quindi aspettiamo la patch finale e stiamo tutti contenti :)
Se io uso una slide del genere (mi pare senza nessuna menzione che sia un'applicazione che nemmeno parte su un G80) in una presentazione di una vga, per me è un fake, perchè ripeto non dimostra nulla, è falsa (dire incompleta è un altro modo più bonario, io dico che è falsa --tra l'altro alla stampa specializzata ci fai una figura barbina a mostrare quelle cose, non sono mica un gruppo di niubbi--), ripeto come se nvidia per dimostare la bontà delle sue architetture facesse slide con il risultato opposto, direi esattamente la stessa cosa: false. ;)
Se io uso una slide del genere (mi pare senza nessuna menzione che sia un'applicazione che nemmeno parte su un G80) in una presentazione di una vga, per me è un fake, perchè ripeto non dimostra nulla, è falsa (dire incompleta è un altro modo più bonario, io dico che è falsa --tra l'altro alla stampa specializzata ci fai una figura barbina a mostrare quelle cose, non sono mica un gruppo di niubbi--), ripeto come se nvidia per dimostare la bontà delle sue architetture facesse slide con il risultato opposto, direi esattamente la stessa cosa: false. ;)
il risultato può benissimo essere falso, ma è affermata la presenza di un'applicazione "X" DX10 che con una delle due architetture non gira, e c'è questa slide...
è decisamente probabile che la patch DX10 di CoJ sia l'applicazione "X"
;)
appleroof
07-05-2007, 21:09
il risultato può benissimo essere falso, ma è affermata la presenza di un'applicazione "X" DX10 che con una delle due architetture non gira, e c'è questa slide...
è decisamente probabile che la patch DX10 di CoJ sia l'applicazione "X"
;)
A vabbè, su questo non ci piove, solo non è quello il test che dice qualcosa, quello non dice nulla, o quasi :)
;)
il risultato può benissimo essere falso, ma è affermata la presenza di un'applicazione "X" DX10 che con una delle due architetture non gira, e c'è questa slide...
è decisamente probabile che la patch DX10 di CoJ sia l'applicazione "X"
;)
Si beh, ma di applicazioni X ce ne possono essere tante...
Per esempio demo dx10 (che fa anche schifo) fatto girare recentemente, quello dovrebbe andare solo su schede video ati se non sbaglio...
Cmq nvidia non sta a guardare e sa come "colpire" il pubblico:
http://youtube.com/watch?v=LIGWAYS5uRw
Zlatan91
07-05-2007, 21:18
sta 2900 non mi convince tanto....magari si , anzi sicuramente lo spero per ati sia piu potente di nvidia ma secondo me non di tanto....nvidia cmq da novembre se fatto un sacco di soldi con ste 8800......attendo una bella recensione la settimana prossima dove guardero come inizio le conclusioni
ripeto come se nvidia per dimostare la bontà delle sue architetture facesse slide con il risultato opposto, direi esattamente la stessa cosa: false. ;)
Hai proprio ragione... Come se un'azienda usasse slides tipo questa... :O
http://enthusiast.hardocp.com/images/articles/1178061598dfPefHgdQM_1_1_l.jpg
:asd:
Zlatan91
07-05-2007, 21:28
spero ati faccia davvero cilecca.........solo perke ho una 8800gtx:D :D :D :D
ale0bello0pr
07-05-2007, 21:28
spero ati faccia davvero cilecca.........solo perke ho una 8800gtx:D :D :D :D
ecco i binbi minkia che ritornano con lo spam OT in cerca di flames...... :muro:
DakmorNoland
07-05-2007, 21:29
spero ati faccia davvero cilecca.........solo perke ho una 8800gtx:D :D :D :D
ATI/AMD non ha mai fatto e mai farà cilecca! :Prrr:
Preparati a cestinare la tua GTX. :asd: :asd: :asd:
Ovviamente sto scherzando ;)
spero ati faccia davvero cilecca.........solo perke ho una 8800gtx:D :D :D :D
:nonsifa:
ecco i binbi minkia che ritornano... :muro:
:nonsifa:
Zlatan91
07-05-2007, 21:30
:mbe: :cry:
Zlatan91
07-05-2007, 21:31
chiaro era na battuta.......mi scuso se ho offeso i fan di ati:D lol
ale0bello0pr
07-05-2007, 21:32
chiaro era na battuta.......mi scuso se ho offeso i fan di ati:D lol
ma quali fan di ati.... oddio il fanboysmo a voi pargoli fa male....
Zlatan91
07-05-2007, 21:33
ma lol:D
aceto876
07-05-2007, 21:42
chiaro era na battuta.......mi scuso se ho offeso i fan di ati:D lol
Come si fa ad essere fan di un produttore arduer o di un softuer? ATI vs nVidia, AMD vs intel, Ms vs Sony vs Nintendo, Windows vs Linux, Apple vs PC e chi più ne ha più ne metta. Tra un po' ci saranno anche i flame Sfizzero vs Novi:sofico:. Ma che gusto c'è?:ciapet:
TecnoWorld8
07-05-2007, 21:47
sicuramente se davvero consumasse 70W in più di 8800 "di media" ci sarebbe da gridare allo scandalo, ma voglio sperare che così non sia...dai, ancora pochi giorni...
DakmorNoland
07-05-2007, 21:51
sicuramente se davvero consumasse 70W in più di 8800 "di media" ci sarebbe da gridare allo scandalo, ma voglio sperare che così non sia...dai, ancora pochi giorni...
Non può consumare così tanto. Com'è stato detto la somma della corrente proveniente dallo slot Pci-E + i vari connettori arriva a 225W.
Cmq credo che i TDP saranno di 160 e 190W rispettivamente per la XT e per la XTX, com'era stato già postato da qualcuno.
Intanto continuo a sperare che AMD stia davvero lavorando per la versione a 65nm, anche perchè tra un anno se cambierò scheda video ne voglio una potente ma con consumi decenti.
sicuramente se davvero consumasse 70W in più di 8800 "di media" ci sarebbe da gridare allo scandalo, ma voglio sperare che così non sia...dai, ancora pochi giorni...
imho sarà solo in full load la differenza...
Kharonte85
07-05-2007, 21:51
il risultato può benissimo essere falso, ma è affermata la presenza di un'applicazione "X" DX10 che con una delle due architetture non gira, e c'è questa slide...
è decisamente probabile che la patch DX10 di CoJ sia l'applicazione "X"
;)
Forse, ma c'è anche la possibilita' che si tratti di una tech demo o simile quella a cuoi faceva riferimento il Corsini...;)
In quel test su COJ dx10 la faccenda è semplice...hanno provato un'applicazione DX10 con i driver che si trovano in giro x la 8800 e che palesemente non la supportavano, mentre quelli ATI si'...;)
sicuramente se davvero consumasse 70W in più di 8800 "di media" ci sarebbe da gridare allo scandalo, ma voglio sperare che così non sia...dai, ancora pochi giorni...
Non sarà così per vari motivi... Ho postato quella slide solo per far capire che è naturale che un'azienda tenda a gonfiare i propri meriti nelle presentazioni, postando dati solo in parte realistici. Il max board TDP della XT è 225W in OC, molto probabilmente meno nell'uso normale (basti pensare alle capacità di dissipazione riportate nella tabella che ho postato). ;)
Zlatan91
07-05-2007, 21:56
si ma è cmq tanto......
Zlatan91
07-05-2007, 21:56
si ma è cmq tanto......
[OT] l avatar di Defrag mi distrae dall argomento del Topic, bannatelo :D [OT]
cmq credo che visto il motedo utilizzato da AMD per determinare il TPD dei processori, credo che lo stesso criterio valga anche per le VGA
quindi un TPD misurato in situazioni di forte stress hw nn raggiungibile nell utilizzo normale
TecnoWorld8
07-05-2007, 22:20
non riesco a capire però perchè nVidia sboroneggi già contro ATi, mentre quest'ultima continui a starsene zitta al 100%...
mah, l'unica cosa buona di ciò è che per ora nVidia sta sparando a 0 sul consumo...quindi forse che abbia paura delle prestazioni di R600? Vedremo...
soulseater
07-05-2007, 22:28
Manca poco alla presentazione,meno di una settimana,ma quando saranno nei negozi? speriamo che Ati copi da Nvidia nel riempire il mercato di schede gia al lancio.....:cool:
aceto876
07-05-2007, 22:30
Alla fine nV ha dato ad intendere a tutti che avrebbe fatto un chip a shader separati, salvo poi fare la sorpresa alla rottura dell' NDA. Magari anche ATI ci farà la sorpresa...
Manca poco alla presentazione,meno di una settimana,ma quando saranno nei negozi? speriamo che Ati copi da Nvidia nel riempire il mercato di schede gia al lancio.....:cool:
Almeno per la HD2900 XT sarà un hard launch, e le schede saranno già nei negozi fisici e online. Da giorni infatti vari siti, italiani ed europei, stanno iniziando a prendere gli ordini per queste schede. ;)
Nemesis83
07-05-2007, 22:57
Almeno per la HD2900 XT sarà un hard launch, e le schede saranno già nei negozi fisici e online. Da giorni infatti vari siti, italiani ed europei, stanno iniziando a prendere gli ordini per queste schede. ;)
Piemmami :D
Di colpo mi sono pensato, e indeciso se prendermi una GTS con la paura che sia poco potente o una GTX con la convinzione di prendermi una Ferrari da guidare in campagna, mi sono innamorato di sta cosina....
E per me sarebbe pure il battesimo ATI....
Cmq, piemmami :)
Piemmami :D
Di colpo mi sono pensato, e indeciso se prendermi una GTS con la paura che sia poco potente o una GTX con la convinzione di prendermi una Ferrari da guidare in campagna, mi sono innamorato di sta cosina....
E per me sarebbe pure il battesimo ATI....
Cmq, piemmami :)
Se scorri le pagine degli ultimi giorni troverai i link in vari post. In Italia l'unico shop che ce l'ha la vende a 427€ (ma che potenzialmente sono senza spese di spedizione per chi abita, ad esempio nei dintorni di MI o TO), all'estero (Germania e Olanda) siamo sui 360-370. Sinceramente ti consiglio di attendere prima il 14 maggio sia per capirne qualcosa in più sulle performance che per vedere se qualche shop italiano la venderà ad un prezzo inferiore. ;)
Sembrano certe le voci del TDP allora?
Sembrano certe le voci del TDP allora?
Ehm, quali delle millemila? :stordita:
soulseater
07-05-2007, 23:06
Possibile un prezzo così aggressivo? €355 (http://www.azerty.nl/producten/product_detail/?ID=33162&GROEP_ID=165)
:eek:
Possibile un prezzo così aggressivo? €355 (http://www.azerty.nl/producten/product_detail/?ID=33162&GROEP_ID=165)
:eek:
...più che possibile, reale. Ormai gli shop con quei prezzi sono tanti, quindi è confermato quel prezzo aggressivo.
:)
Ehm, quali delle millemila? :stordita:
max 225 in oc
soulseater
07-05-2007, 23:10
...più che possibile, reale. Ormai gli shop con quei prezzi sono tanti, quindi è confermato quel prezzo aggressivo.
:)
Quindi non ho speranze di guadagnare qualcosa dalla vendita della mia X1900XTX ?:cry:
max 225 in oc
Pare di sì, ma quello dovrebbe essere un valore massimo teorico, non quello reale. Tant'è vero che il dissipatore stock della gpu della XT è pensato per dissipare al massimo 160W. Alla fine secondo me al massimo consumeranno una 30ina di W in più rispetto alla GTX in full load, e più o meno quanto una GTX in idle (se non addirittura meno).
Iantikas
07-05-2007, 23:13
Quindi non ho speranze di guadagnare qualcosa dalla vendita della mia X1900XTX ?:cry:
minimo 150€ li prendi, possibile anke 200€ (difficilmente di + però)...dipende molto dalle prestazioni ke avranno le nuove medie/medio-alte ati e a ke prezzo verranno proposte...ciao
Quindi non ho speranze di guadagnare qualcosa dalla vendita della mia X1900XTX ?:cry:
...la tua è ancora un'ottima vga, aspetta l'estate per passare a R600 e vedrai che i prezzi saranno ancora migliori.
;)
Quindi non ho speranze di guadagnare qualcosa dalla vendita della mia X1900XTX ?:cry:
Considera che una HD2600XT 256MB dovrebbe costare tra i 179€ ed i 199€ e potrebbe avere prestazioni comprese tra una X1950Pro ed una X1900XT in DX9. ;)
yossarian
08-05-2007, 01:09
quindi mi pare di capire che R600 ha una logica di tipo attivo? :stordita: o sbaglio? :fagiano:
si parlava di fast14 :sofico:
p.s. o cambi avatar o mi dai il suo numero di telefono :D
yossarian
08-05-2007, 01:23
Questo vantaggio rispetto ai normali CMOS quindi tende a migliorare l'efficienza di un'architettura come quella di R600?
una logica attiva può migliorare l'efficienza di qualunque chip
Secondo te potrebbe contribuire a ridurre, seppur di poco, il gap presunto con le prestazioni di G80 in quelle situazioni in cui il set di istruzioni da calcolare è "favorevole" alle nVIDIA? :confused: :help:
in parte si, in quanto diminuisce i tempi di risposta dei transistor
Esistono anche architetture "ibride" RISC-VLIW? :eek:
si; RISC e VLIW non sono necessariamente due approcci concorrenti; possono anche essere complementari (si potrebbe, ad esempio, utilizzare il primo, magari, ad un livello più alto e, comunque, là dove non sia richiesta una logica di tipo OoO e il secondo dove sia opportuno eseguire lo scheduling a run time anzichè a compile time. In teoria, è possibile avere i vantaggi di tutti e due gli approcci, riducendone al minimo i rispettivi punti deboli
Grazie a yossarian della spiegazione. :)
Sotto con la rassegna stampa mattutina... :D
Fudzilla :ops: :asd:
R650 is Radeon HD2950XTX
Ati didn't launch the R600 chip and it is already planning a new shrinked launch. It won't be launching the 1024 MB graphic card until Q3. It plans to launch R650 chip and brand it as Radeon HD2950XTX, 1024 MB GDDR4.
The chip is called R650 and it is a 65 nanometre core, how convenient. With this new chip ATI might have a fighting chance against Geforce 8800 Ultra but the real question is what will Nvidia have at that time.
The cards are scheduled for late Q3 so you should expect them in August or September time, in case they don't get postponed.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=871&Itemid=1
$279 card
R600 will have even more iterations and the cheaper version of the chip called XL is scheduled for late June.
We don’t have many details about the specification but we know that it should cost around $279 and be a direct competitor of the Geforce 8800 GTS 320 cards.
The Radeon HD 2900XL comes with a 512 MB of memory.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=872&Itemid=1
The time for RV670
Yesterday, we mentioned that ATI plans a RV670 and that the card is scheduled for Q3. You can read the original part here.
We managed to get a more details about the new chip. As we already expected the card will be launched toward the end of the quarter rather than in the beginning of it. A few sources indicated that the card is scheduled for end of Q3 and that it will be probably coming in September time.
This is the card to replace X1950 PRO cards and it has a 256 bit memory interface and DirectX 10 support that might really help it fight the previous card. Older X1950 Pro will end up faster than HD 2600 XT at least at high resolutions and with the AA and Anisotropic filtering on. Radeon HD 2900PRO has a huge potential but we wonder if Nvidia really has G84 with 256 bit interface or it simply plans to drop the price of the 8800 GTS 320 to fight this card.
With ATI the story is rather simple, you just need to wait and to be honest we don’t think that even the ATI management knows until when. They just slipped way to many launches in the past eighteen months.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=873&Itemid=1
Ed ora un po' di foto... :D
- prima parte -
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-01.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-02.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-03.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-04.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-05.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-06.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-07.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-08.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-09.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-10.JPG
- seconda parte - :sofico:
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-11.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-12.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-13.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-14.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-15.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-16.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-17.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-18.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-19.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-20.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-21.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-22.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-23.JPG
fireradeon
08-05-2007, 07:58
...più che possibile, reale. Ormai gli shop con quei prezzi sono tanti, quindi è confermato quel prezzo aggressivo.
:)
Se la vendono a 355 la prendo al 100% (a meno che dai test non si riveli una boiata di scheda, ovvio ;) ).
Se la vendono a 355 la prendo al 100% (a meno che dai test non si riveli una boiata di scheda, ovvio ;) ).
In Italia imho sarà difficile trovarla a 355 almeno all'inizio, purtroppo... :sob:
Altri test in OC (stock cooler) di quell'utente con un R600XT 1GB GDDR4 (che è o una OEM, o una FireGL).
Clocks: 871/2304 :eek:
Originally Posted by guess2098
i haven't got the newest driver yet
here is 8.36 driver, 8.37 or 8.39 is much faster than this
http://www.iamxtreme.net/video/r600/2900XT1024_06.PNG
http://www.iamxtreme.net/video/r600/2900XT1024_07.PNG
http://www.iamxtreme.net/video/r600/2900XT1024_08.PNG
Le temperature in idle a queste frequenze sono (con più 35°C di temperatura esterna, niente aria condizionata, niente vento):
Originally Posted by guess2098
idle is around 75~77 too.... those heat is not coming from GPU i believe. GDDR4 is really hot!
also today's temp at So Cal is around 95F
Originally Posted by guess2098
actually i was sitting in my warehouse. it is higher than 95F.... no AC, no wind at all
Foglia Morta
08-05-2007, 08:11
- seconda parte - :sofico:
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-12.JPG
è la retail da 1GB, mi pare sia la prima volta che viene fotografata
è la retail da 1GB, mi pare sia la prima volta che viene fotografata
Ehm, no. Dovrebbe essere la solita 512MB. :stordita: :read:
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-10.JPG
Ecco cosa dice Kinc a proposito della versione a 1GB:
Originally Posted by Kinc
I'm sorry to say that there won't be any faster R600 card then the HD 2900XT. Since ATI didnt know until to late that their 512bit interface and 1024bit ringbus did not work well with GDDR4. 1100MHz GDDR4 is about the same bandwidth as 830MHz GDDR3. The bandwidth at stock is over 100GB/s so its more then enough so there is no need to worry about the bandwidth Wink
We have to wait for some official information on the 65nm R650 to see when and what AMD and ATI Radeon has planned for the future.
http://www.nordichardware.com/forum/2-vt8428.html?start=25
Foglia Morta
08-05-2007, 08:32
Ehm, no. Dovrebbe essere la solita 512MB. :stordita: :read:
quindi quelli di msi preferiscono moduli da 256Mbit ??? Qualcuno può tradurre il codice delle hynix per capire di che moduli si tratti ?
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-12.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-16.JPG
16 moduli in quella scheda ci sono.
leoneazzurro
08-05-2007, 08:38
Ecco cosa dice Kinc a proposito della versione a 1GB:
http://www.nordichardware.com/forum/2-vt8428.html?start=25
Questo, se vero, potrebbe essere stato un altro motivo del ritardo di R600: se ci sono stati problemi con il MC e la DDR4, probabilmente le shcede di fascia alta inizialmente previste con DDR4 sono state reingegnerizzate per l'utilizzo di DDR3, visto che a quel punto non c'era nessun motivo di utilizzare una memoria più costosa e che desse gli stessi risultati. Un pò strano, comunque, dato che un pò di esperienza con la DDR4 ATI l'aveva fatta con la X1950 XTX. Vero anche che la complessità del MC di R600 è probabilmente di quasi un ordine di grandezza superiore. @yoss: se fosse vero quello che dice Kinc, a che tipo di problemi si potrebbe essere andati incontro? Poco spazio per i buffer in relazione alle maggiori latenze e ai burst più grandi della DDR4?
quindi quelli di msi preferiscono moduli da 256Mbit ??? Qualcuno può tradurre il codice delle hynix per capire di che moduli si tratti ?
16 moduli in quella scheda ci sono.
Sono moduli da 256Mbit (da 1.0ns). Il che spiegherebbe i 200W di TDP @ default: 160W (GPU)+ (2Wx16)= 192W. ;)
Skullcrusher
08-05-2007, 08:46
Quello che mi consola è che finalmente hanno cambiato la ventola del dissipatore....speriamo sia silenziosa :p
Nel 3dmark in cui sorpassa i 13000 punti, come cpu ha un QX6700 pesantemente overcloccato, visto il punteggio della cpu...:eek:
Alcune immagini dalla nuova demo di Ruby (questa volta a risoluzione più elevata)... :)
http://i18.tinypic.com/677o8xf_th (http://i14.tinypic.com/677o8xf.jpg) http://i14.tinypic.com/628znt0_th (http://i14.tinypic.com/628znt0.jpg)
Ragazzi cercate di postare le thumbnails, anziché le foto a formato pieno, non tutti hanno una ADSL ;)
Ragazzi cercate di postare le thumbnails, anziché le foto a formato pieno, non tutti hanno una ADSL ;)
in più mi si "disimpagina" lo schermo, devo scorrerlo di qua e di la :p :mc:
ora forse si spiega la fretta di nvidia nel lanciare G80.............forse gia sapeva o per lo meno immaginava............................. cioè le prende anche sul fronte dimensioni, ci sono circa 3 dita a vafore della VGA di casa ATI
ale0bello0pr
08-05-2007, 09:23
è la retail da 1GB, mi pare sia la prima volta che viene fotografata
Denny ha la versione da 1 GB e pure k1nc :fiufiu: .... (sa ma nn dice)
A me viene un pesante dubbio in mente a questo punto: comprare la scheda a 80*10^-9 m oppure aspettare il refresh a 65 x 10^-9 m? :\
bella domanda..
Il refresh da quello che ho capito dovrebbe uscire per Settembre/Ottobre...
Il refresh consumerà meno corrente e scalderà meno ergo si overclockerà di +...
siccome quasi sicuramente x dicembre Nvidia farà uscire qualcosa poter overclockare la scheda di + mi permette di avere una scheda di tutto rispetto a un costo inferiore rispetto a Nvidia.
Denny ha la versione da 1 GB e pure k1nc :fiufiu: ....
Kinc non ho capito se ha la 512MB o 1GB. Comunque le XT da 1GB GDDR4 non saranno in vendita quasi sicuramente.
Il refresh da quello che ho capito dovrebbe uscire per Settembre/Ottobre...
così pare, spero il 14 si sappia qualcosa anche sotto questo punto di vista..
Il refresh da quello che ho capito dovrebbe uscire per Settembre/Ottobre...
Tutto dipende dalla tua configurazione momentanea, dalla tua disponibilità finanziaria etc etc
ale0bello0pr
08-05-2007, 09:29
Kinc non ho capito se ha la 512MB o 1GB. Comunque le XT da 1GB GDDR4 non saranno in vendita quasi sicuramente.
K1nc has been in Tunisi with Sampsa?;)
ale0bello0pr
08-05-2007, 09:30
IMHO ovviamente penso che tutti vogliano la 65nm.......:cool: e sempre IMHO bisogna pensare a un qualcosa oltre le frasi che ci dicono....e cmq.... quell'UnReal Overclocking dovrebbe darci l'idea di un qualcosa straordinariamente possibile grazie ad ATI e mai finora raggiunto con stock cooling...
E se.......si arrivasse con la XT normalmente in OC....alla freq....della famosa....XTX..(delayed?)se non superarle addirittura....e quindi mettere in commercio la XTX in questo caso...sarebbe stato inutile?(chi se la comprava?)
o Se....
Sampsa picture...
http://www.techpowerup.com/img/07-05-03/tool1.gif
IMHO ovviamente penso che tutti vogliano la 65nm.......:cool:
Già... il problema è che bisogna aspettare dell'altro tempo. :(
Già... il problema è che bisogna aspettare dell'altro tempo. :(
dipende da come sei messo ora, se hai una buona vga puoi aspettare, tanto non credo che prima del refresh ci sarà un'invasione di giochi DX10.
ale0bello0pr
08-05-2007, 09:36
dipende da come sei messo ora, se hai una buona vga puoi aspettare, tanto non credo che prima del refresh ci sarà un'invasione di giochi DX10.
quotissimo ;) (LORO hanno pensato anche a questo.....chissà se stanno seguendo la Roadmap delle SH dei nuovi DX10....;) )
dipende da come sei messo ora, se hai una buona vga puoi aspettare, tanto non credo che prima del refresh ci sarà un'invasione di giochi DX10.
non hai tutti i torti ;)
Tutto dipende dalla tua configurazione momentanea, dalla tua disponibilità finanziaria etc etc
Allora:
2 GB RAM, p5b wifi ap, e6400@3 GHz, x1800xl (che è il mio problema), Viewsonic vx922 19" 2ms (x me va benone anche perché con un 30" non saprei dove guardare O_o) ...
Sono un tipo che se deve fare una spesa preferisce farla 1 volta sola.
Disponibilità diciamo 600 € circa.
Mi piace abbastanza overclockare e sotto questo punto di vista la 65 x 10^-9 m sarebbe meglio, tuttavia vorrei godermi WOW a 1280x1024 a 100 fps quest'estate, ma non è proprio una priorità tanto elevata come l'overclock (che me la fa durare di +).
ale0bello0pr
08-05-2007, 09:44
Allora:
2 GB RAM, p5b wifi ap, e6400@3 GHz, x1800xl, Viewsonic vx922 15" 2ms (che è il mio problema)...
Sono un tipo che se deve fare una spesa preferisce farla 1 volta sola.
Disponibilità diciamo 600 circa €
vai tranquillo allora:cool: ...hai solo da cambiare la VGA appunto cn i prox giochi nextgen DX10 e se usi Vista magari 1 GB in più..
vai tranquillo allora:cool: ...hai solo da cambiare la VGA appunto cn i prox giochi nextgen DX10 e se usi Vista magari 1 GB in più..
Poi magari tipo a marzo prox. cambio processore metto un quad core e via. :P
ale0bello0pr
08-05-2007, 09:50
Poi magari tipo a marzo prox. cambio processore metto un quad core e via. :P
esatto ;) magari Penryn o Barcelona (di cui si sa ancora ben poco) :D
FINE OT ;)
ma l'uscita dovrebbe essere per? se devo aspettare troppo alla fine dovrà optare per nvidia... e non è che la cosa mi vada molto giu... :O
relo@ded
08-05-2007, 10:01
Ci sono tutti gli ingredienti giusti per aspettare R650:
non ci sono giochi dx10 attualmente in commercio, e fino a dicembre saranno non più di 2 o3
dimensioni ridotte
consumi più bassi
prezzo più aggressivo
driver maturi
Che altro aggiungere?!
Il refresh è atteso per il terzo trimestre, ovvero autunno. Sarà il momento ideale per passare a questa scheda. Ovviamente, IMHO.
emanuelito
08-05-2007, 10:03
Spero di nn fare la scoperta dell'acqua calda ma ho visto ke è già ordinabile a 412 eurini...:oink:
non ci sono giochi dx10 attualmente in commercio, e fino a dicembre saranno non più di 2 o3
Entro fine anno usciranno almeno 5-6 gioconi DX10 + le patch per Call of Juarez, Just Cause, Company of Heroes e Flight Simulator X.
Certo se uno può aspettare fine anno è meglio (anche in vista delle nuove cpu Intel e AMD). ;)
Spero di nn fare la scoperta dell'acqua calda ma ho visto ke è già ordinabile a 412 eurini...:oink:
In Italia? Dove?
relo@ded
08-05-2007, 10:08
Entro fine anno usciranno almeno 5-6 gioconi DX10 + le patch per Call of Juarez, Just Cause, Company of Heroes e Flight Simulator X.
Fine anno, appunto. Non tra un mese.
Fine anno, appunto. Non tra un mese.
Entro fine ottobre già ne usciranno almeno 3-4 (+ credo tutte le patch): Bioshock, ad esempio, che ha tutte le carte per essere il gioco dell'anno, uscirà a fine agosto.
Ovviamente bisogna anche tenere in conto la possibilità di delays di R650.
Il discorso è sempre lo stesso: se si può aspettare, è bene farlo, altrimenti i tempi stanno comunque diventando maturi per le DX10, se non altro molto più di 6 mesi fa. ;)
la svolta imho sarà Crisys, c'è poco da fare.
Magari ha un senso aspettare il refresh per la versione top di gamma, me le versioni medie sono già tutte a 65nm... l'unica cosa che mi preoccupa (relativamente, visto che è Fudzilla che lo dice...) è che la scheda "sostituto" delle X1950pro arriverà a settembre/ottobre, e che le 2600XT sono tirate sulle alte risoluzioni rispetto alle x1950pro -ma non è un problema enorme, gioco a 1280x1024, max 1600... ma da commenti di chi le ha provate, pare invece siano meglio delle 8600 (eh beh, sai lo sforzo...) per cui mi tocca aspettare e vedere le recensioni :muro:
la svolta imho sarà Crisys, c'è poco da fare.
Graficamente, forse, ma da quanto ho capito non si discosterà molto da FarCry per quanto riguarda il gameplay. ;)
Graficamente, forse, ma da quanto ho capito non si discosterà molto da FarCry per quanto riguarda il gameplay. ;)
io chiaramente intendo per il discorso vga per DX10.
ale0bello0pr
08-05-2007, 10:18
Entro fine ottobre già ne usciranno almeno 3-4 (+ credo tutte le patch): Bioshock, ad esempio, che ha tutte le carte per essere il gioco dell'anno, uscirà a fine agosto.
Ovviamente bisogna anche tenere in conto la possibilità di delays di R650.
Il discorso è sempre lo stesso: se si può aspettare, è bene farlo, altrimenti i tempi stanno comunque diventando maturi per le DX10, se non altro molto più di 6 mesi fa. ;)
aspè se Bioshock sarà il gioco dell'anno...Crysis sarà il gioco del secolo :D..FINE OT;)
relo@ded
08-05-2007, 10:22
la media ormai è ogni due post uno OT.
:D
aspè se Bioshock sarà il gioco dell'anno...Crysis sarà il gioco del secolo :D..FINE OT;)
La trama non dovrebbe essere il max per Crysis, così come non lo era per FarCry... :asd: (che comunque era un bellissimo gioco) E imho è quella una delle componenti principali di un gioco. ;)
Chiuso OT. :)
La trama non dovrebbe essere il max per Crysis, così come non lo era per FarCry... :asd: (che comunque era un bellissimo gioco) E imho è quella una delle componenti principali di un gioco. ;)
Chiuso OT. :)
la trama di far cry a me è sembrata molto bella e orginale, magari sono strano!
ragazzi non ha nessun senso andare OT e poi scrivere FINE OT.
d'ora in poi post del genere saranno sanzionati come tutti i post OT.
ale0bello0pr
08-05-2007, 10:41
secondo voi sarà giusta questa "equazione" che fanno dal lontano oriente...?:)
2900XT OC≥2900XTX=8800Ultra
gianni1879
08-05-2007, 10:49
secondo voi sarà giusta questa "equazione" che fanno dal lontano oriente...?:)
2900XT OC≥2900XTX=8800Ultra
beh sarebbe una bella equazione ;)
ale0bello0pr
08-05-2007, 10:52
beh sarebbe una bella equazione ;)
io ci aggiungerei questo se teniamo conto del prezzo :cool: ...(non so esattamente quanto costi una 8800ultra da loro ma da noi..:asd:)
2900XT OC≥2900XTX>8800Ultra
;)
beh sarebbe una bella equazione ;)
Mi sono dato un'occhiata a un po' di siti... ho visto i benchmark su daily tech dove confrontano una ati con una 8800 gtx overclockata. Ora, per quello che mi rigurda io mi aspettavo che l'r600 fosse veloce come una 8800 gtx overclockata e invece tutto al più sarà veloce come una 8800 gtx.
http://www.dailytech.com/ATI+Radeon+HD+2900+XTX+Doomed+from+the+Start/article7052.htm
Qui parlano ancora di x2900xtx... cmq la differenza tra xtx e xt è di 1 fps (in certi casi a favore della xt)...
I benchmark dicono siano stati rifatti con dei driver retail.
Quindi praticamente a questo punto io aspetterei la versione a 65 nanometri visto che si tratta di aspettare ottobre.
Al +, ad occhio, la scheda sarà veloce come una 8800 GTX ma non + veloce e sicuramente NVIDIA farà scendere il prezzo della sua scheda per rimanere competitiva oppure farà uscire una nuova scheda. Diciamo che se la vendono veramente a 400 € considerate le caratteristiche (tipo l'anti aliasing che è troppo uber) l'r600 anche adesso può essere un buon acquisto.
Mi sono dato un'occhiata a un po' di siti... ho visto i benchmark su daily tech dove confrontano una ati con una 8800 gtx overclockata. Ora, per quello che mi rigurda io mi aspettavo che l'r600 fosse veloce come una 8800 gtx overclockata e invece tutto al più sarà veloce come una 8800 gtx.
http://www.dailytech.com/ATI+Radeon+HD+2900+XTX+Doomed+from+the+Start/article7052.htm
Qui parlano ancora di x2900xtx... cmq la differenza tra xtx e xt è di 1 fps (in certi casi a favore della xt)...
I benchmark dicono siano stati rifatti con dei driver retail.
Quindi praticamente a questo punto io aspetterei la versione a 65 nanometri visto che si tratta di aspettare ottobre.
Al +, ad occhio, la scheda sarà veloce come una 8800 GTX ma non + veloce e sicuramente NVIDIA farà scendere il prezzo della sua scheda per rimanere competitiva oppure farà uscire una nuova scheda. Diciamo che se la vendono veramente a 400 € considerate le caratteristiche (tipo l'anti aliasing che è troppo uber) l'r600 anche adesso può essere un buon acquisto.
Fra 6 giorni il mistero verrà svelato... forza e coraggio che manca poco!!! Rimango dell'idea che la miglior cosa è aspettare schede video con processo produttivo a 65nm... frequenze maggiori e consumi minori, un'ottima accoppiata... sarà la vera rivoluzione nel campo delle schede video... non 200 fps in più a Quake 3...
quei bench sono roba vecchia, e probabilmente fake
I test di DailyTech sono fatti con una 8800GTX overclockata (650/2000) e ci sono forti indizi che fosse pure watercooled... :rolleyes:
Vanno presi con molta cautela. Aspettiamo i test ufficiali. :)
Fra 6 giorni il mistero verrà svelato... forza e coraggio che manca poco!!! Rimango dell'idea che la miglior cosa è aspettare schede video con processo produttivo a 65nm... frequenze maggiori e consumi minori, un'ottima accoppiata... sarà la vera rivoluzione nel campo delle schede video... non 200 fps in più a Quake 3...
Per l'eventuale HD2950 XTX ne dubito. Ovviamente cercheranno di spingere le prestazioni al max, quindi i consumi potrebbero essere più o meno sugli stessi livelli di una HD2900 XT. Al massimo il vantaggio ci potrebbe essere se decidessero di tirare fuori anche una HD2950XT 512MB. In quel caso, con frequenze non troppo superiori ad una HD2900XT, si potrebbero avere dei buoni consumi.
Per l'eventuale HD2950 XTX ne dubito. Ovviamente cercheranno di spingere le prestazioni al max, quindi i consumi potrebbero essere più o meno sugli stessi livelli di una HD2900 XT. Al massimo il vantaggio ci potrebbe essere se decidessero di tirare fuori anche una HD2950XT 512MB. In quel caso, con frequenze non troppo superiori ad una HD2900XT, si potrebbero avere dei buoni consumi.
Dici che l'HD2900XT non sarà sviluppata a 65 nm? Io credo e spero di si...
gianni1879
08-05-2007, 11:15
Fra 6 giorni il mistero verrà svelato... forza e coraggio che manca poco!!! Rimango dell'idea che la miglior cosa è aspettare schede video con processo produttivo a 65nm... frequenze maggiori e consumi minori, un'ottima accoppiata... sarà la vera rivoluzione nel campo delle schede video... non 200 fps in più a Quake 3...
si fra 6 gg sarà tutto svelato... ma se voi non sapevate sto fatto dei 65nm si faceva sto discorso??
io sono sempre convinto che si prende quello di cui si ha bisogno, se stiamo a guardare quello che uscirà dopo non si acquista mai nulla, ovvio chi non ha necessità di cambiar vga, potrà benissimo aspettare per un pò e vedere quello che uscirà, un pò quello che farò io, attualmente la mia vga mi soddisfa e non ho esigenze di una nuova.
Ovviamente quando esce una nuova vga di questo calibro con molte novità la cosa interessa molti utenti :)
Prima di postare quest'altro collegamento a benchmark ho cercato su google con:
site:http://www.hwupgrade.it/forum fx57.net
http://www.fx57.net/?p=576
Anche qui siamo allineati con quanto detto da me prima. :\
Nisan in Ebraico vuol dire Aprile, ho cercato su wikipedia.
ale0bello0pr
08-05-2007, 11:19
attenzione però...così si torna alle prime info palesemente false...di dailytech,fudzilla e altri siti un pò ciarlatani...:rolleyes:
si fra 6 gg sarà tutto svelato... ma se voi non sapevate sto fatto dei 65nm si faceva sto discorso??
io sono sempre convinto che si prende quello di cui si ha bisogno, se stiamo a guardare quello che uscirà dopo non si acquista mai nulla, ovvio chi non ha necessità di cambiar vga, potrà benissimo aspettare per un pò e vedere quello che uscirà, un pò quello che farò io, attualmente la mia vga mi soddisfa e non ho esigenze di una nuova.
Ovviamente quando esce una nuova vga di questo calibro con molte novità la cosa interessa molti utenti :)
Si certo anche a me la X1900XT al momento non mi a mai deluso... ma quello che mi aspetto dalle nuove schede video è che comincino a consumare di meno!!!
750 VS 575,512BIT VS 384BIT,320SP VS 128SP
:doh: :muro: :mc:
Bah, mi sembra un'equazione abbastanza, anzi troppo superficiale.
1) le velocità del core non è sinonimo di velocità maggiore, una 8600 XXX ha un core 730mhz ma non per questo le sue prestazioni si avvicinano a quelle di R600, punto primo.
2) le Shader Units non possono essere equiparate, è come se tu facessi un confronto con una misura x in metri e una misura y in nanometri, anche nel caso che x sia uguale y non toglie il fatto che y sia più piccolo...
EDIT: la x1950xtx aveva 16 pipelines di rendering (contro le 24 della 7900gtx), tuttavia è più veloce di quest'ultima => architettura con 48pixel shader anzichè 8.
Questo era per dar forza a quello detto sopra, non puoi sbrandellare un'architettura e compararla ad un'altra! Devi prenderla nella sua integrità/completezza.
attenzione però...così si torna alle prime info palesemente false...di dailytech,fudzilla e altri siti un pò ciarlatani...:rolleyes:
Avevano delle schede oem in mano. :\
ugruhell
08-05-2007, 11:21
io aspetto che ottimizzino di più i futuri giochi dx 10 per che se li fanno come ora non vedremmo mai le vere potenzialità di r600.
ale0bello0pr
08-05-2007, 11:23
:doh: :muro: :mc:
Bah, mi sembra un'equazione abbastanza, anzi troppo superficiale.
1) le velocità del core non è sinonimo di velocità maggiore, una 8600 XXX ha un core 730mhz ma non per questo le sue prestazioni si avvicinano a quelle di R600, punto primo.
2) le Shader Units non possono essere equiparate, è come se tu facessi un confronto con una misura x in metri e una misura y in nanometri, anche nel caso che x sia uguale y non toglie il fatto che y sia più piccolo...
l'equazione nn era riferito assolutamente a quello...:rolleyes:
e una cosa che ho aggiunto dopo.... sicuramente l'equazione è da riferirsi alle frequenze raggiunte in OC...e anche i costi ovviamente...
e non dimentichiamoci come R600 sia piu' avanzata attualmente da G80..
e poi avevo fatto una domanda.... visto che chi afferma questa equazione è dall'altra parte del mondo...
l'equazione nn era riferito assolutamente a quello...:rolleyes:
e una cosa che ho aggiunto dopo.... sicuramente l'equazione è da riferirsi alle frequenze...e anche i costi ovviamente...
Ma se l'hai messa pure in sign!!
Affermi quella equazione su basi non solide, sarebbe bello giudicare una vga dalla sola frequenza del core/memorie o bus di memoria...
ale0bello0pr
08-05-2007, 11:26
Ma se l'hai messa pure in sign!!
Affermi quella equazione su basi non solide, sarebbe bello giudicare una vga dalla sola frequenza del core/memorie o bus di memoria...
io c'ero...
l'ho messa in sign perkè molte persone mi stanno continuando a tartassare di pm.....ora penso si sia capita la risposta...mi sa che nn hai seguito tutti i post precedenti...
Su digg.com ho trovato questo
http://enthusiast.hardocp.com/article.html?art=MTMzNiwzLCxoZW50aHVzaWFzdA==
Tra la versione overclockata della scheda ridenominata Ultra e quella normale non ci sono grosse differenze.
Perciò, mi viene da pensare che la r600 a questo punto si collocherà tra la 8800 GTS e la 8800GTX dando per buoni e questi benchmark e quelli su daily tech dove c'è una 8800 overclockata che regna incontrastata. :|
MonsterMash
08-05-2007, 11:27
Io di sicuro non aspetterò.
Primo perchè se vendo la mia x1900xt entro un mese posso farci ancora qualche soldino, mentre se aspettassi l'inverno probabilmente farei più soldi dissaldando i componenti e vendendoli uno per uno....
Secondo, perchè non è affatto detto che la hd2950xt esca in perfetto orario. E se aspetto fino ad ottobre per poi sentirmi dire di aspettare fino a natale, per poi sentirmi dire di aspettare fino a febbraio... finisco per comprarmi una ps3 :P
Terzo, perchè probabilmente a Natale o giù di li' cambierò mobo + cpu + ram (spero di passare ad un bel quad core K10:D), il che' significa altre spese. E aggiungere a queste spese anche un cambio di VGA sarebbe troppo per le mie tasche.
Quarto, almeno Bioshock, Crysis, UT3, Stranglehold ed Episode3, ma anche tanti altri titoli di minor livello, li vorrò poter giocare fin da subito al massimo dettaglio, e coi filtri attivi :)
Ciò detto, se c'è qualcuno che vuole la mia x1900xt 512mb, glie la vendo per 180 euro :D
Ciao!
io c'ero...
Ma il fatto che tu possa anche avere ragione non lo metto in dubbio, ci mancherebbe che Ati dopo essersi presa il lusso di rimandare la sua fascia dx10 di 6 mesi, non presenti una bella vga...
Quello che constensto non è la tua (??? vuoi i meriti LoL ???) ipotesi, bensì le basi sulle quali hai affermato ciò, del tutto aleatorie.
Dopo anche io penso che la 2900 xt sarà un mostro, ma non lo affermo deducendolo dal parallelo bus di memoria, consumi, frequenze...
- seconda parte - :sofico:
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-11.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-12.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-13.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-14.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-15.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-16.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-17.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-18.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-19.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-20.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-21.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-22.JPG
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-23.JPG
...alla fine da quanto sono queste memorie??? ce ne sono un pò tante...fronte e retro. Comunque belle immagini, ormai è tutto pronto.
...ciao!
Ciò detto, se c'è qualcuno che vuole la mia x1900xt 512mb, glie la vendo per 180 euro :D
Ciao!
Uniformiamo le sezioni rendendo valida questa regola anche in questa sezione.
I post in "stile mercatino" e cioè quelli dove si fa presente che si ha in vendita o si vuole vendere un componente hardware, sono vietati. Questo perchè a) portano OT la discussione b) queste sono sezioni TECNICHE, e di tecnica si dovrebbe parlare.
Abbiamo una sezione MERCATINO che è in grado di accettare praticamente qualsiasi prodotto informatico quindi non vedo perchè non utilizzarla
Sono quindi anche vietati post contenenti il link alla vendita (classificabili a pieno titolo come CROSSPOSTING). Mettevi il lnk in sign.. ed evitate di postare dicendo "guardate la mia sign" ecc...
Ovviamente la sanzione per chi non rispetterà queste regole sarà la sospensione.
sospeso 3gg.
Link: SCDA PIC Compared: R600 VS. G80 VS. R580 (http://r800.blogspot.com/2007/05/scda-pic-compared-r600-vs-g80-vs-r580.html)
Some guys fighting in SCDA using Radeon X2900XT, Radeon X1900GT, Radeon X1950XT and Geforce 8800 GTX . They all use same save file of SCDA to make sure pics are taken in same place.
Radeon 2900XT (1280x960, default clock, 4xAA, 16xAF, all MAX, drv: 8.361) 40 fps
Radeon X1900GT (1280x960, 550/1440MHz, 4xAA, 16xAF, All MAX, drv: catalyst 7.2) 20 fps
Radeon X1950XT (1280x960, unknown clock, 4xAA, 16xAF, All MAX, drv: unknown) 28 fps
GeForce 8800 GTX (1280x960, unknown clock, 4xAA, 16xAF, All MAX, drv: unknown) 41 fps
:)
Link: SCDA PIC Compared: R600 VS. G80 VS. R580 (http://r800.blogspot.com/2007/05/scda-pic-compared-r600-vs-g80-vs-r580.html)
Some guys fighting in SCDA using Radeon X2900XT, Radeon X1900GT, Radeon X1950XT and Geforce 8800 GTX . They all use same save file of SCDA to make sure pics are taken in same place.
Radeon 2900XT (1280x960, default clock, 4xAA, 16xAF, all MAX, drv: 8.361) 40 fps
Radeon X1900GT (1280x960, 550/1440MHz, 4xAA, 16xAF, All MAX, drv: catalyst 7.2) 20 fps
Radeon X1950XT (1280x960, unknown clock, 4xAA, 16xAF, All MAX, drv: unknown) 28 fps
GeForce 8800 GTX (1280x960, unknown clock, 4xAA, 16xAF, All MAX, drv: unknown) 41 fps
:)
A questo punto in 3dmark la scheda NVIDIA regnava incontrastata o perché era un fake il benchmark di daily tech, oppure perché nei driver ATI mancavano le ottimizzazioni per il 3dmark.
Cmq considerando che la nuova risoluzione di riferimento è 1600xqualcosa, a 1280 40 fps non sono bassini rispetto alle aspettative?
Alexkidd85
08-05-2007, 11:50
Comunque è vero...diciamo che con questo "rimandare" ormai dubito anche per il Q3 della revisione di r600.
Spero mi smentiscano ma non sarebbe male male dopo che però hanno messo r600 in commercio,un ipotetico ritardo di r650,almeno allungano i tempi :)
Certo se poi chiariscono la situazione anche delle revision il 14,sarebbe un quadro più completo e avremo una pianificazione di scelta migliore :p
Ma con la logica di "notizie da non trapelare" che stanno attuando la vedo dura :muro:
L'unica cosa che spero è quella che ho già detto 100 pagine addietro: se la xtx avrà solo frequenze più alte e solo il processo produttivo cambiato e SE la xt avrà la sua versione da 1Gb e un overclock "UnReal",allora metterebbero sul piatto una scelta,per quanto mi riguarda,perfetta(visto che non considero il wattaggio un problema). Alcune di queste speranze sono quasi certezze...ora non tocca che aspettare e sperare :D
...alla fine da quanto sono queste memorie??? ce ne sono un pò tante...fronte e retro. Comunque belle immagini, ormai è tutto pronto.
...ciao!
Caratteristiche tecniche:
Product Family: GDDR3
Power Supply: VDD/VDDQ=2.2V
Max Data Rate=2000Mbps/pin
Density&Refresh: 256M 4K Refresh/32ms
Organization: x32
# of BANKS: 4
Temperature: Industrial (-40℃~85℃)
Speed: 1.0ns (1GHz)
Lead Free
A questo punto in 3dmark la scheda NVIDIA regnava incontrastata o perché era un fake il benchmark di daily tech, oppure perché nei driver ATI mancavano le ottimizzazioni per il 3dmark.
Cmq considerando che la nuova risoluzione di riferimento è 1600xqualcosa, a 1280 40 fps non sono bassini rispetto alle aspettative?
...tutti i test effettuati sinora vanno presi con le molle, soprattutto certi test che sono stati "sbugiardati" da persone nettamente più affidabili e sotto NDA. Comunque anche questo che ho postato io va preso con il beneficio del dubbio, ma già rispecchia di più quello che "chi sa" ha fatto velatamente capire.
La partita è indubbio che si giocherà anche sui driver, molto più importanti di quanto si creda con queste nuove gpu.
Se leggi le pagine scritte (non tutte, capisco che sono tante!) vedrai che tutti i pre-test presenti in rete sono stati già postati (siamo dei cani da tartufo!) e troverai molti interventi interessanti e tecnici di utenti che sanno come funzionano queste architetture...imparerai a riconoscere questi piccoli guru.
:D
Link: SCDA PIC Compared: R600 VS. G80 VS. R580 (http://r800.blogspot.com/2007/05/scda-pic-compared-r600-vs-g80-vs-r580.html)
Some guys fighting in SCDA using Radeon X2900XT, Radeon X1900GT, Radeon X1950XT and Geforce 8800 GTX . They all use same save file of SCDA to make sure pics are taken in same place.
Radeon 2900XT (1280x960, default clock, 4xAA, 16xAF, all MAX, drv: 8.361) 40 fps
Radeon X1900GT (1280x960, 550/1440MHz, 4xAA, 16xAF, All MAX, drv: catalyst 7.2) 20 fps
Radeon X1950XT (1280x960, unknown clock, 4xAA, 16xAF, All MAX, drv: unknown) 28 fps
GeForce 8800 GTX (1280x960, unknown clock, 4xAA, 16xAF, All MAX, drv: unknown) 41 fps
:)
le performance mi sembrano decisamente buone..
Caratteristiche tecniche:
Product Family: GDDR3
Power Supply: VDD/VDDQ=2.2V
Max Data Rate=2000Mbps/pin
Density&Refresh: 256M 4K Refresh/32ms
Organization: x32
# of BANKS: 4
Temperature: Industrial (-40℃~85℃)
Speed: 1.0ns (1GHz)
Lead Free
...mmmmmmmmm...abbiamo 16 chip sul pcb...molto bene...
;)
(grazie per la risposta veloce!)
Athlon 64 3000+
08-05-2007, 12:16
...mmmmmmmmm...abbiamo 16 chip sul pcb...molto bene...
;)
(grazie per la risposta veloce!)
se ci sono 16 chip come e avrebbe 512 mb come mia nella mia X1900XT che ha 512 mb ce ne sono solo 8?
Hanno raddoppiati i chip di memoria forse per il fatto che sono passati dal bus 256 a quello a 512 bit?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.