PDA

View Full Version : Radeon X800GT: nuovi dettagli


Redazione di Hardware Upg
12-08-2005, 11:57
Link alla notizia: http://www.hwupgrade.it/news/skvideo/15179.html

Nuove informazioni sulle specifiche di funzionamento delle schede Radeon X800GT: sostanziali difefrenze tra 128 e 256 Mbytes di memoria video

Click sul link per visualizzare la notizia.

SirCam77
12-08-2005, 12:23
Non male come prezzo tendendo conto che la 6600GT l'ho pagata 210€ e sicuramente come prestazioni è inferiore!

CiccoMan
12-08-2005, 12:24
128mb ddr... una 9800 su pci-e... mi pare giunta in ritardo, chissà che differenze prestazionali ci sono con una x700?

magilvia
12-08-2005, 12:25
Questa scheda sembra essere davvero interessante. Per uno che vuole stare sotto i 200 euro mi chiedo se convenga davvero aspettare che calino le 6800 in conseguenza dell'introduzione delle 7800 oppure di andare direttamente su questa che sulla carta sembra molto valida.

bartolino3200
12-08-2005, 12:33
Un po' troppo tardi per affermare tali prodotti a mio avviso.
Avrebbero dovuto pensarci prima.
A sto punto avrebbero fatto meglio a presentare modelli di fascia media della prox. generazione evitando di cadere in un altro flop.
Considerando che 6800 liscia GT e Ultra a breve avranno prezzi più competitivi rispetto a ciò che offrono mi chiedo "Cui Prodest" ?

bartolino3200
12-08-2005, 12:36
128mb ddr... una 9800 su pci-e... mi pare giunta in ritardo, chissà che differenze prestazionali ci sono con una x700?
Tu dici che possa addirittura essere paragonabile a 9800 come prestazioni?
Vorrei proprio vedere che core monta sta schedozza.

DevilsAdvocate
12-08-2005, 12:39
Beh oddio..... le 6800 gia' stanno iniziando a calare, in america (basta guardare
www.newegg.com) attualmente una 6800 liscia (128mb) laggiu' si trova per 164
dollari (qua in italia le troveremo, se avremo fortuna, intorno ai 190 Euro).
Tempo che questa scheda arrivi nei negozi e dovra' probabilmente confrontarsi
con le 6800,simili (qualche mhz in meno ma con il 50% in piu' di pipes) e coi driver
nvidia gia' molto stabili e collaudati.

Ati ha presentato il prodotto, annunciato i prezzi e non ha dato una data di rilascio?
Al momento la x800GT non e' disponibile neanche in America.

rob-roy
12-08-2005, 12:46
@ DevilsAdvocate

Non tiriamo ancora fuori la storia dei driver,per favore.
Ormai i Catalyst sono alla pari se non superiori ai forceware da diverso tempo.Ho avuto 3 6800 e mi sono dovuto districare tra mille versioni alpha/beta ecc...dei forceware.Quelli che andavano bene con un gioco davano problemi con un'altro e via di questo passo.

ATI và criticata per la lentezza con cui ha proposto un'alternativa nella fascia media.

DevilsAdvocate
12-08-2005, 12:53
@ DevilsAdvocate

Non tiriamo ancora fuori la storia dei driver,per favore.
Ormai i Catalyst sono alla pari se non superiori ai forceware da diverso tempo.Ho avuto 3 6800 e mi sono dovuto districare tra mille versioni alpha/beta ecc...dei forceware.Quelli che andavano bene con un gioco davano problemi con un'altro e via di questo passo.

ATI và criticata per la lentezza con cui ha proposto un'alternativa nella fascia media.

..... devo essermi perso qualcosa, ho smesso di aggiornarli da quando ATI ha
deciso di "promuovere" la versione .NET . I Catalyst hanno smesso di far
funzionare un gioco mentre un'altro smette di andare? Hanno tirato fuori un
supporto opengl decente (per le applicazioni...)? Corro a provarli.

EDIT: :mbe: non e' cambiato poi molto come si vede da qua (http://www2.ati.com/drivers/Catalyst_57_release_notes.html#196828)
ci sono sempre bachi coi giochi piu' interessanti....

dwfgerw
12-08-2005, 13:39
X ROB BOY

driver beta ? metti sempre i whql e vedrai che non avrai nessun problema, io ad esempio ho ripreso la 6800gt dopo un breve periodo di sapphire x800xt, che mi aveva dato problemi proprio con i decantati catalist

ErminioF
12-08-2005, 13:49
per 20euro di differenza quella con 256MB mi sembra molto più interessante

3NR1C0
12-08-2005, 14:02
Beh oddio.....:blah:

Ati ha presentato il prodotto, annunciato i prezzi e non ha dato una data di rilascio?
Al momento la x800GT non e' disponibile neanche in America.

No hai ragione, neppure in america tant'è che è in vendita in germania a meno di 160€ la 256MB :doh:

IL PAPA
12-08-2005, 14:06
Un po' troppo tardi per affermare tali prodotti a mio avviso.
Avrebbero dovuto pensarci prima.
A sto punto avrebbero fatto meglio a presentare modelli di fascia media della prox. generazione evitando di cadere in un altro flop.
Considerando che 6800 liscia GT e Ultra a breve avranno prezzi più competitivi rispetto a ciò che offrono mi chiedo "Cui Prodest" ?

Si, è lo stesso dubbio che è sorto a me, diciamo che prima di fare una scelta è opportuno valutare la contromossa del rivale, e quindi scegliere di conseguenza, anche se debbo dire che a 179€ è sicuramente un prezzo molto invitante, certo che quei vs 2.0...
La redazione pensa, in un prossimo futuro, di poter fare una comparativa ad-hoc tra una 6800LE o GT, un prodotto che si assesti sui 200€ (dopo i tagli ai lisitni) ed una di queste X800GT? imho potrebbe chiarire le idee a molti utenti.
Altra cosa, mi pareva di aver visto che la soluzione proposta da GeCube avesse per le 3 soluzioni proposte, solo la platinum con GDDR3 256MB con 256bit di larghezza di banda, invece la prima versione era 128MB 256bit e la seconda 256MB 128bit, queste differenze a cosa possono essere dovute?

sari
12-08-2005, 14:41
@ DevilsAdvocate

Non tiriamo ancora fuori la storia dei driver,per favore.
Ormai i Catalyst sono alla pari se non superiori ai forceware da diverso tempo.Ho avuto 3 6800 e mi sono dovuto districare tra mille versioni alpha/beta ecc...dei forceware.Quelli che andavano bene con un gioco davano problemi con un'altro e via di questo passo.

ATI và criticata per la lentezza con cui ha proposto un'alternativa nella fascia media.

... ci scordiamo che non esiste solo Windows? Inutile dire che questa scheda è un catorcio negli OS diversi da Windows (o Mac) grazie ai driver, sta sotto una 6600 liscia per conto mio, quindi da non prendere nemmeno in considerazione.

rob-roy
12-08-2005, 15:07
... ci scordiamo che non esiste solo Windows? Inutile dire che questa scheda è un catorcio negli OS diversi da Windows (o Mac) grazie ai driver, sta sotto una 6600 liscia per conto mio, quindi da non prendere nemmeno in considerazione.

Non posso darti torto.
Ma il terreno di scontro principale di ATI e NVIDIA è windows,purtroppo i sistemi open source sono poco diffusi a livello casalingo.

giogts
12-08-2005, 15:42
che differenza ci sono tra x800gt e x800se?

P V
12-08-2005, 16:42
IMHO se ATI non vuole essere tagliata fuori dal mercato dovra' accodarsi a nVidia nella corsa ai prezzi anche con queste nuove schede. E' chiaro che per ATI la mancata uscita di r520 e' a questo punto un problema grave. Non avendo un nuovo prodotto di generazione successiva sara' costretta a tagliare i prezzi della sua linea solo per motivi di marketing e senza avere come contropartita gli introiti di una nuova scheda TOP. Spero che ATI esca presto da questo enpasse altrimenti la situazione potrebbe veramente diventare insostenibile...

MasterGuru
12-08-2005, 16:45
No hai ragione, neppure in america tant'è che è in vendita in germania a meno di 160€ la 256MB

hanno sempre i prezzi migliori in Germania

Tasslehoff
12-08-2005, 17:30
... ci scordiamo che non esiste solo Windows? Inutile dire che questa scheda è un catorcio negli OS diversi da Windows (o Mac) grazie ai driver, sta sotto una 6600 liscia per conto mio, quindi da non prendere nemmeno in considerazione.Si vabbè sari, se vogliamo proprio attaccarci sugli specchi diciamolo chiaramente...
Stiamo parlando di una scheda video specificatamente dedicata al gioco e tutte le volte si tira fuori la faccenda dei drivers per os diversi da windows quando il 95% se non oltre degli utenti che giocano usano Windows...

Inoltre mi chiedo come mai tutti abbiano questi problemi quando io, utente Ati da un sacco di anni (8500, 9500PRO e ora X800) non ho mai avuto un problema con nessun gioco (e spesso mi trovo a giocare con versioni beta o press-preview fornitemi da un grosso network italiano...) usando sempre drivers non ufficiali (i famigerati Omega) e potenzialmente meno stabili di quelli rilasciati da Ati.

sari
12-08-2005, 19:24
Si vabbè sari, se vogliamo proprio attaccarci sugli specchi diciamolo chiaramente...
Stiamo parlando di una scheda video specificatamente dedicata al gioco e tutte le volte si tira fuori la faccenda dei drivers per os diversi da windows quando il 95% se non oltre degli utenti che giocano usano Windows...

Inoltre mi chiedo come mai tutti abbiano questi problemi quando io, utente Ati da un sacco di anni (8500, 9500PRO e ora X800) non ho mai avuto un problema con nessun gioco (e spesso mi trovo a giocare con versioni beta o press-preview fornitemi da un grosso network italiano...) usando sempre drivers non ufficiali (i famigerati Omega) e potenzialmente meno stabili di quelli rilasciati da Ati.

Desktop 3d? Screensaver glide?, temi in openGL?, adirittura l'evidenziatore del desktop usa l'accelerazione in KDE 3.4, programmazione openGL amatoriale? mai fatta? Celestia? per usare le suddette cose serve una quadro? una 3dlabs? non credo ;). Se poi per ATI il mercato al di fuori di Windows o di MacOS non ha importanza... fattostà che per me rimane peggio di una 6600 liscia per i driver che tu ritieni non importanti.

DevilsAdvocate
12-08-2005, 19:26
No hai ragione, neppure in america tant'è che è in vendita in germania a meno di 160€ la 256MB :doh:

Bel prezzo, ordinala e mettiti comodo! L'anno scorso nei listini italiani si
poteva pure trovare la X700PE (anche se,devo ammetterlo,non a quel prezzo...)
(P.S.: magari la prossima volta metti anche il link del negozio di babbo natale)

DevilsAdvocate
12-08-2005, 19:31
P.S.: Prima di rifare la figura del boccalone, ti do il link diretto dell'ATI store
(usa-canada-resto del mondo). Ad oggi la X800GT non c'e'....
http://www.ati.com/buy/
Come non c'e' nei vari kelkoo, lychos, etc.etc. (ne' ati, ne' sapphire ne'
powercolor).
Poi c'e' il discorso della gddr 3, occhio ai test che guardate perche' la
gddr3 fa una bella differenza (e di certo non ne trovate 256Mb sulle schede
da 160 Euro...)

MiKeLezZ
12-08-2005, 20:13
Troppe schede, la maggior parte delle quali sono inutili..
ATI sta raschiando il barile, dovrebbe invece darsi una smossa, come se la diede al tempo nvidia con il progetto (mezzo fallito) della serie 5

Tefnut
12-08-2005, 21:16
solite diatribe...

leggete la notizia e fine.. commentate con dati inerenti...

come sempre il problema di ati risultano la distribuzione delle schede rilasciate e i driver per linux.. ma questo è sempre così.

per la questione prezzo.. bhe quella da 256 è allettante. se uscirà e si troverà perchè lamentarsi? queste schede (soprattutto quella con gddr3) non mi sembrano male.. anzi.. secondo me ati ha fatto bene a buttarle fuori .. anche se in "ritardo".. Pari alla 6600 agp c'era la 9800pro.. Ora ati ha rilasciato la versione PCIe .

Credo che la gente oramai stanca di aspettare r520, si sfoghi su qualsiasi cosa faccia ati. io credo che schede "nuove" come fascia di mercato non siano un male e nemmeno da criticare.

PS: ho ati ma a breve credo passerò alla 6800gt

vedremo a settembre/ottobre sperando che escano un po' tutte le schede e i listini vengano ritoccati.

Tasslehoff
12-08-2005, 22:21
Desktop 3d? Screensaver glide?, temi in openGL?, adirittura l'evidenziatore del desktop usa l'accelerazione in KDE 3.4, programmazione openGL amatoriale? mai fatta? Celestia? per usare le suddette cose serve una quadro? una 3dlabs? non credo ;)Sinceramente non ho mai usato nulla di quanto descrivi, al massimo le OpenGL o le Glide le ho usate nei videogiochi...
In genere le macchine con linux sulle quali lavoro hanno installato una Ati rage integrata sulla mainboard, l'unico window manager che mi è capitato di installarci è stato TWM e negli ultimi 3 anni le uniche applicazioni che ho usato in ambiente grafico su linux sono state vncviewer, rdesktop e il ServerRaid Manager dell'IBM...
E' evidente che siamo due target ben differenti, ma ne io ne tu facciamo testo ne statistica :)
I numeri sono ben altri, e tanto io quanto te sappiamo bene che la stragrande maggioranza degli utenti compra una Radeon X800 per giocare, altrimenti spenderebbe molto meno e si troverebbe altrettanto bene, su questo credo che siamo entrambi d'accordo.
Credo che non ci siano nemmeno dubbi sul fatto che oggi, come ieri, e come ahimè domani (chissà per quanto, anch'io spero che un giorno ci si svincoli da questo monopolio, la realtà però per ora è ben altra...), l'OS per giocare su pc è Windows, punto.

DarKilleR
12-08-2005, 23:01
anni di driver catalist...dai 3.5 ai 5.7, l'unico problema trovato è stato con la versione 4.12 con far cry...vedevo il mare dove c'erano le colline. (STOP)

Anni e anni di driver nVidia dalla TNT2 alla Gefforce 4Ti 4200 li ho girati tutti e nessun problema erano fantastici, poi dai (mi sembra i 67.XX) sulla FX5900 ho riscontrato milioni di problemi e molte incompatibilità con i giochi.

Linux mitico...solo che non riesco a capire una cosa e qui vi chiedo una spiegazione, perchè tutti quelli che escono da ingegneria informatica, o informatica dall'ateneo di Pisa sostengono tutti che i driver migliori sono i catalyst sotto linux???? o.O non ci capisco nulla :(

Per quanto riguarda la scheda la X800 GT 256MB 256bit da acquistare assolutamente su quella fascia di prezzo è imbattibile, va mediamente + veloce della 6600 GT e 6800 LE (che va meno della 6600 GT...apparte risoluzione 1600X1200 con filtri attivati, ma si parla di fluidità zero comunque).

P.S. la 6800 GT / Ultra ha il 100% in + di pipeline rispetto alla X800 GT, non 50%....infatti ne ha 16 e non 12...

DevilsAdvocate
13-08-2005, 10:52
P.S. la 6800 GT / Ultra ha il 100% in + di pipeline rispetto alla X800 GT, non 50%....infatti ne ha 16 e non 12...

Ehm.... confrontavo con la 6800 liscia, visto che e' con questa che la X800GT
dovra' scontrarsi nei prossimi mesi (prezzo simile). Comunque anche questa
dovrebbe avere 16 pipe.Devo aver fatto casino con la LE

Firedraw
13-08-2005, 11:40
http://www.guru3d.com/article/Videocards/241/1/

se qui i dati sono realistici sta x800 GT è un filo più performante di una 6600 GT. A mio parere conviene una 6800 che tra breve costeranno sulel 200€ (20€ in più della x800 GT 256 mb recensita) . Certo, se si considera la qualità del segnale video..... Che io sappia la ati è legermente migliore.

Firedraw
13-08-2005, 11:41
Dimenticavo. le pipe della x800 si possono sbloccare?

E cmq secondo me era meglio che ati ci pensasse prima a questa x800 GT invece che tirarsi fuori la x700 nelle varie versioni.

jacopastorius
13-08-2005, 12:54
in effetti sono arrivati un pò tardi, la x700 era un pò una sola.. e comunque se si pensa che sono in ritardo anche con la fascia alta rispetto a nvidia.. beh una fascia media ci può anche stare anche se secondo me con un occhio ai prezzi la 6800GT costa sui 200 euro come ha anche fatto notare Firedraw

M@arco_000
13-08-2005, 16:49
..... devo essermi perso qualcosa, ho smesso di aggiornarli da quando ATI ha
deciso di "promuovere" la versione .NET . I Catalyst hanno smesso di far
funzionare un gioco mentre un'altro smette di andare? Hanno tirato fuori un
supporto opengl decente (per le applicazioni...)? Corro a provarli.

EDIT: :mbe: non e' cambiato poi molto come si vede da qua (http://www2.ati.com/drivers/Catalyst_57_release_notes.html#196828)
ci sono sempre bachi coi giochi piu' interessanti....

oltre alle note di rilascio dei catalyst hai letto anche quelle dei forceware immagino...

http://download.nvidia.com/Windows/77.77/77.77_ForceWare_Release_Notes.pdf

anchio prima usavo il pannello di controllo classico ma ora ho messo i 5.7 con il catalyst control center e non ne sono affato pentito.

Tefnut
13-08-2005, 17:15
http://www.guru3d.com/article/Videocards/241/1/

se qui i dati sono realistici sta x800 GT è un filo più performante di una 6600 GT. A mio parere conviene una 6800 che tra breve costeranno sulel 200€ (20€ in più della x800 GT 256 mb recensita) . Certo, se si considera la qualità del segnale video..... Che io sappia la ati è legermente migliore.
come prezzo si incastra bene tra la 6600GT e 6800.. da canto suo però la 6800 credo si overclokki abbastanza

sari
13-08-2005, 17:28
Sinceramente non ho mai usato nulla di quanto descrivi, al massimo le OpenGL o le Glide le ho usate nei videogiochi...
In genere le macchine con linux sulle quali lavoro hanno installato una Ati rage integrata sulla mainboard, l'unico window manager che mi è capitato di installarci è stato TWM e negli ultimi 3 anni le uniche applicazioni che ho usato in ambiente grafico su linux sono state vncviewer, rdesktop e il ServerRaid Manager dell'IBM...
E' evidente che siamo due target ben differenti, ma ne io ne tu facciamo testo ne statistica :)
I numeri sono ben altri, e tanto io quanto te sappiamo bene che la stragrande maggioranza degli utenti compra una Radeon X800 per giocare, altrimenti spenderebbe molto meno e si troverebbe altrettanto bene, su questo credo che siamo entrambi d'accordo.
Credo che non ci siano nemmeno dubbi sul fatto che oggi, come ieri, e come ahimè domani (chissà per quanto, anch'io spero che un giorno ci si svincoli da questo monopolio, la realtà però per ora è ben altra...), l'OS per giocare su pc è Windows, punto.

Evidentemente ne io ne te facciamo target per le statistiche di ATI. Nvidia invece produce driver alla pari per qualsiasi OS, questo dovrebbe cominciare ad essere un metro di paragone tra le due case, visto che sempre più utenti utilizzano altro. Ricordo ovviamente gli ottimi articoli riguardo al gaming su Linux e come quest'ultimo fosse rovinato dalla mancatà bontà dei driver nel caso di ATI. Insomma penso che la mia parola dovrebbe contare quanto quella di un qualsiasi utilizzatore per la valutazione di una scheda video e io dico che è una scheda da scartare.

giogts
13-08-2005, 17:53
che differenza ci sono tra x800gt e x800se? :mc:

Exander
13-08-2005, 23:02
La nuova xbox e il niendo revolution montano ATI, e voi dite che sono "indietro" hehehehhe....
Ride bene chi ride ultimo

IL PAPA
13-08-2005, 23:47
La nuova xbox e il niendo revolution montano ATI, e voi dite che sono "indietro" hehehehhe....
Ride bene chi ride ultimo

Ancora con ste consolles, mi pare che il 3d parli di tutt'altro, e poi scusa, almeno lo sai che chip montano le XBOX3360? ;)

killer978
14-08-2005, 14:24
128mb ddr... una 9800 su pci-e... mi pare giunta in ritardo, chissà che differenze prestazionali ci sono con una x700?

Questa scheda non ha nulla a che vedere con la 9800 il core è lo stesso delle X800XT e XL quindi pixel e vertex shader migliori tecnologia 3Dc e 11mn ;)

killer978
14-08-2005, 14:27
Beh oddio..... le 6800 gia' stanno iniziando a calare, in america (basta guardare
www.newegg.com) attualmente una 6800 liscia (128mb) laggiu' si trova per 164
dollari (qua in italia le troveremo, se avremo fortuna, intorno ai 190 Euro).
Tempo che questa scheda arrivi nei negozi e dovra' probabilmente confrontarsi
con le 6800,simili (qualche mhz in meno ma con il 50% in piu' di pipes) e coi driver
nvidia gia' molto stabili e collaudati.

Ati ha presentato il prodotto, annunciato i prezzi e non ha dato una data di rilascio?
Al momento la x800GT non e' disponibile neanche in America.

Per favore non parlare di Driver! io ho una 6800GT e ATI rispetto a Nvidia nei Driver è su un altro pianeta, molto + stabili ad ogni uscita risolvono problemi non aumentano di 1/2 Fps come fa Nvidia e poi escono a cadenza mensile!
La qualità video ATI non si discute Nvidia è penosa!
ripeto parlo da possessore NVIDIA :(

Fable
16-08-2005, 02:12
Troppo tardi !!!!!!!!!!!!!!!!!!!!!!!!!!
Questa scheda doveva uscire almeno 8-10 mesi fa.
Il valore e l'importanza di questa scheda e' come portare da bere
a un morto.
In questo momento la Ati e' messa male , ma proprio male , speriamo che si riprende al piu' presto.

rob-roy
16-08-2005, 10:54
Troppo tardi !!!!!!!!!!!!!!!!!!!!!!!!!!
Questa scheda doveva uscire almeno 8-10 mesi fa.
Il valore e l'importanza di questa scheda e' come portare da bere
a un morto.
In questo momento la Ati e' messa male , ma proprio male , speriamo che si riprende al piu' presto.

Si diceva lo stesso di nvidia ai tempi di NV3X.

ATI è una compagnia enorme,non rischia certo il fallimento.

IL PAPA
16-08-2005, 14:43
ATI è una compagnia enorme,non rischia certo il fallimento.

Questo è verissimo, a ragion veduta ATI deve pagare lo scotto di X600 e X700 che sono prodotti non riuscitissimi ma comunque venduti e funzionanti, di questo ritardo nell'uscita di R520 (pronosticabile dato che una soluzione così complessa non era mai stata proposta nel settore GPU)
R520 non avrà le prestazioni grandiose che tanto decanta il marketing? è comunque un buon punto di partenza per creare prodotti su tale piattaforma che siano più prestanti e affidabili per il futuro, dato che la prova non è stata eseguita su GPU mainstream, bensì su GPU di fascia alta, in caso di parziale fallimento possono dare un piccolo schiaffo all'orgoglio e non intaccare le quote di mercato globali dell'azienda.
Non aspettiamoci che N'Vidia rimanga sempre ferma all'attuale processo produttivo, dovrà per forza passare allo 0.09nm in futuro, con la differenza di non avere nessuna architettura già testata per tale soluzione.
Sarebbe utile chiarire che se ATI ha lanciato l'R520 e vi ha investito soldi per lo sviluppo, probabilmente riesce a vedere le potenzialità ed i possibili ritorni economici non tanto ora, con il prodotto di punta, ma in futuro, con soluzioni ottimizzate che forti dell'esperienza maturata avranno una marcia in più rispetto a quelle attuali.
Quindi non siamo drammatici sulla situazione di ATI.
N'Vidia ha semplicemente sfruttato il delay delle soluzioni su R520 per proporre il proprio G70, è riuscita dove la rivale aveva fallito: disponibilità immediata dei prodotti sugli scaffali, grandi mosse di marketing, e chiaramente oltre tutto questo ha un grande merito in architetture riuscitissime, l'ultima della quale è la G70, però tecnologicamente non ha proposto nulla di realmente innovativo, ha sfruttato il processo produttivo esistente, ritoccato di qua, messo le mani di là, forse stanno pensando anche ad N'Vidia (anzi quasi sicuramente) ad una propria architettura su 0.09nm, ma partono in leggero ritardo.

Fable
16-08-2005, 23:51
Si diceva lo stesso di nvidia ai tempi di NV3X.
ATI è una compagnia enorme,non rischia certo il fallimento.

Ci mancherebbe che la ATI fallisse , li strozzo io con le mie mani piuttosto. :D

rob-roy
16-08-2005, 23:57
Ci mancherebbe che la ATI fallisse , li strozzo io con le mie mani piuttosto. :D

Rispondevo a chi pensa che ATI sia alla canna del gas..;)

killer978
17-08-2005, 00:03
Rispondevo a chi pensa che ATI sia alla canna del gas..;)

ATI resta sempre la migliore fidati ti parlo da possessore di 6800GT ;) le X850XT rullano ancora mostruosamente e messe in Crossfire fanno gli stessi punti di 2x7800GTX :eek: pensa quando esce l' R520 tra un po :D

rob-roy
17-08-2005, 00:06
ATI resta sempre la migliore fidati ti parlo da possessore di 6800GT ;) le X850XT rullano ancora mostruosamente e messe in Crossfire fanno gli stessi punti di 2x7800GTX :eek: pensa quando esce l' R520 tra un po :D

Ma io ci credo.. :p
Non è a me che dovete dirle queste cose... :p

Dark Schneider
17-08-2005, 00:12
Questo è verissimo, a ragion veduta ATI deve pagare lo scotto di X600 e X700 che sono prodotti non riuscitissimi ma comunque venduti e funzionanti, di questo ritardo nell'uscita di R520 (pronosticabile dato che una soluzione così complessa non era mai stata proposta nel settore GPU)
R520 non avrà le prestazioni grandiose che tanto decanta il marketing? è comunque un buon punto di partenza per creare prodotti su tale piattaforma che siano più prestanti e affidabili per il futuro, dato che la prova non è stata eseguita su GPU mainstream, bensì su GPU di fascia alta, in caso di parziale fallimento possono dare un piccolo schiaffo all'orgoglio e non intaccare le quote di mercato globali dell'azienda.
Non aspettiamoci che N'Vidia rimanga sempre ferma all'attuale processo produttivo, dovrà per forza passare allo 0.09nm in futuro, con la differenza di non avere nessuna architettura già testata per tale soluzione.
Sarebbe utile chiarire che se ATI ha lanciato l'R520 e vi ha investito soldi per lo sviluppo, probabilmente riesce a vedere le potenzialità ed i possibili ritorni economici non tanto ora, con il prodotto di punta, ma in futuro, con soluzioni ottimizzate che forti dell'esperienza maturata avranno una marcia in più rispetto a quelle attuali.
Quindi non siamo drammatici sulla situazione di ATI.
N'Vidia ha semplicemente sfruttato il delay delle soluzioni su R520 per proporre il proprio G70, è riuscita dove la rivale aveva fallito: disponibilità immediata dei prodotti sugli scaffali, grandi mosse di marketing, e chiaramente oltre tutto questo ha un grande merito in architetture riuscitissime, l'ultima della quale è la G70, però tecnologicamente non ha proposto nulla di realmente innovativo, ha sfruttato il processo produttivo esistente, ritoccato di qua, messo le mani di là, forse stanno pensando anche ad N'Vidia (anzi quasi sicuramente) ad una propria architettura su 0.09nm, ma partono in leggero ritardo.


Non è che nVidia è in "leggero" ritardo sullo 0.09 micron. Si tratta semplicemente di fare delle scelte. Per la serie: anche AMD ha lanciato dopo Intel le sue CPU a 0.09 micron...senza problemi. Dipende insomma. Magari qualche errorino di progettazione c'è stato per R520, visto che ha simili problemi.

Non dimentichiamoci che nVidia è riuscita a piazzare 222 milioni di transistor usando un processo a 0.13 micron nel NV40.
In ogni caso il chip RSX della PS3, che altri non è pare un G70 sarà a 0.09 micron. Insomma non è che stanno tanto fermi a 0.11 micron. Se non son passati a 0.09 micron significa che per nVidia è un po' presto.
G70 non ha innovato tecnologicamente per il semplice motivo che non c'era nulla da innovare. Già NV40 supporta tutto il supportabile delle specifiche delle DX9. Se già sono riusciti a progettare un chip video(NV40) tecnologicamente più avanzato con un processo a 0.13 micron...direi che se la possono prendere con comoda e produrre a 0.09 micron quando i tempi saranno più maturi. Anche se non mi meraviglierei se la prox 7800 Ultra sarà a 0.09 micron. Si parla sempre di 24 Pipeline..ma frequenze più elevate della GTX. Pare.

IL PAPA
17-08-2005, 08:22
Non è che nVidia è in "leggero" ritardo sullo 0.09 micron. Si tratta semplicemente di fare delle scelte. Per la serie: anche AMD ha lanciato dopo Intel le sue CPU a 0.09 micron...senza problemi. Dipende insomma. Magari qualche errorino di progettazione c'è stato per R520, visto che ha simili problemi.

Non dimentichiamoci che nVidia è riuscita a piazzare 222 milioni di transistor usando un processo a 0.13 micron nel NV40.
In ogni caso il chip RSX della PS3, che altri non è pare un G70 sarà a 0.09 micron. Insomma non è che stanno tanto fermi a 0.11 micron. Se non son passati a 0.09 micron significa che per nVidia è un po' presto.
G70 non ha innovato tecnologicamente per il semplice motivo che non c'era nulla da innovare. Già NV40 supporta tutto il supportabile delle specifiche delle DX9. Se già sono riusciti a progettare un chip video(NV40) tecnologicamente più avanzato con un processo a 0.13 micron...direi che se la possono prendere con comoda e produrre a 0.09 micron quando i tempi saranno più maturi. Anche se non mi meraviglierei se la prox 7800 Ultra sarà a 0.09 micron. Si parla sempre di 24 Pipeline..ma frequenze più elevate della GTX. Pare.

Sono d'accordo con te, con la differenza si, che ATI potrebbe soffrire come INTEL di piccoli problemi di progettazione che portano i Prescott ed le R520 ai ben noti problemi di power leakage, ma una volta risolti si tolgono un'incognita di dosso, cosa che non riesce tutt'oggi a fare N'Vidia, in quanto non ha ancora prodotti pronti per il lancio, e di conseguenza avendo maturato una minore esperienza sul campo potrebbe trovare gli stessi problemi incontrati da ATI, e metterci i bei mesi che ci stanno mettendo questi ultimi per risolverli.
Che poi il chip per PS3 sia a 0.09, e che la 7800GTX a 24pipes sia una 0.09, potrebbe trattarsi di voci di corridoio, tutte notizie distribuite ad-hoc nel mercato, per creare hipe e per magari fugare possibili dubbi che N'Vidia stia rimanendo indietro tecnologicamente, tutte abili mosse di marketing insomma.

Dark Schneider
17-08-2005, 15:20
No no...il processo produttivo a 0.09 micron sul chip video RSX della PS3 era ben stampate su delle slide nVidia. :)

http://next.videogame.it/Immagini/articoli/4500/4939/ps3_firstlook_ps34.jpg


In più guarda cosa ho trovato da nvitalia:

Una dichiarazione del Boss. :)

3dChip-fr riporta che alla conferenza telefonica seguente la relazione dei risultati finanziari del 2° trimestre 2005, Jen-Hsun Huang, il Presidente della società californiana, rispondendo ad una domanda di un giornalista ha dichiarato che NVIDIA ha attualmente già due prodotti a 90 nanometri in produzione.

GeForce 7800 GTX e GeForce 7800 sono entrambi derivati dal chip grafico G70, e a parte l'ultimissima presentazione nella lista deli componenti accettati nell'elenco della lista PCI Express Integrators, ci sono traccie di altri prodotti derivati dalla famiglia G7x che presumibilmente quindi dovrebbero appartenere alla stessa famiglia del'attuale GPU.

Non è chiaro quindi quali siano questo prodotti costruiti con il processo produttivo a 90 nm che tanti gattacapi ha dato a tutti coloro lo abbiano utilizzato, non ultima la stessa ATI, "costretta" a doverlo impiegare per le specifiche richieste da Microsoft per R500 e conseguentemente la nuova famiglia di R5x0 per PC.

Presumibilmente uno di questo dovrebbe quindi essere la nuova unità grafica che andrà ad equipaggiare la Sony Playstation 3 il prossimo anno, mentre sull'altra, si potrebbe azzardare l'ipotesi che si potrebbe trattare dell'erede del G70 che secondo alcune voci in rete potrebbe essere presentato già nel primo trimestre del prossimo anno.

Sicuramente il tempo saprà fornire altri dettagli a queste informazioni. Sembra comunque dalle parole dello stesso CEO di NVIDIA alla conferenza telefonica che il processo produttivo a 90 nanometri stia portando dei problemi di produzione anche per NVIDIA.


Quindi nVidia sta già producendo chip video a 0.09 micron. Però se quello che dice è vero...allora non penso nVidia avrà problemi di ritardo. Se debuttano verso Marzo-Aprile con un chip video a 0.09 micron...ce ne sta di tempo per affinare. nVidia vuole essere sicura di immettere solo quando sarà in grado di renderla a quantità elevate sul mercato. Non è che hanno iniziato oggi a produrre. Probabilmente hanno iniziato già da quando l'ha fatto pure Ati. Solo che Ati ha pianificato di immettere prima.

Probabilmente una 7800 Ultra imho sarà a 0.11 micron con però un doppio molex, così da assicurarsi la possibilità di salire ancora come frequenza. Un 500 Mhz di Core ce lo vedo di partenza. :) Memorie direi un 1400 Mhz. :) Cmq boh staremo a vedere.

IL PAPA
17-08-2005, 18:11
No no...il processo produttivo a 0.09 micron sul chip video RSX della PS3 era ben stampate su delle slide nVidia. :)

http://next.videogame.it/Immagini/articoli/4500/4939/ps3_firstlook_ps34.jpg


In più guarda cosa ho trovato da nvitalia:

Una dichiarazione del Boss. :)

3dChip-fr riporta che alla conferenza telefonica seguente la relazione dei risultati finanziari del 2° trimestre 2005, Jen-Hsun Huang, il Presidente della società californiana, rispondendo ad una domanda di un giornalista ha dichiarato che NVIDIA ha attualmente già due prodotti a 90 nanometri in produzione.

GeForce 7800 GTX e GeForce 7800 sono entrambi derivati dal chip grafico G70, e a parte l'ultimissima presentazione nella lista deli componenti accettati nell'elenco della lista PCI Express Integrators, ci sono traccie di altri prodotti derivati dalla famiglia G7x che presumibilmente quindi dovrebbero appartenere alla stessa famiglia del'attuale GPU.

Non è chiaro quindi quali siano questo prodotti costruiti con il processo produttivo a 90 nm che tanti gattacapi ha dato a tutti coloro lo abbiano utilizzato, non ultima la stessa ATI, "costretta" a doverlo impiegare per le specifiche richieste da Microsoft per R500 e conseguentemente la nuova famiglia di R5x0 per PC.

Presumibilmente uno di questo dovrebbe quindi essere la nuova unità grafica che andrà ad equipaggiare la Sony Playstation 3 il prossimo anno, mentre sull'altra, si potrebbe azzardare l'ipotesi che si potrebbe trattare dell'erede del G70 che secondo alcune voci in rete potrebbe essere presentato già nel primo trimestre del prossimo anno.

Sicuramente il tempo saprà fornire altri dettagli a queste informazioni. Sembra comunque dalle parole dello stesso CEO di NVIDIA alla conferenza telefonica che il processo produttivo a 90 nanometri stia portando dei problemi di produzione anche per NVIDIA.


Quindi nVidia sta già producendo chip video a 0.09 micron. Però se quello che dice è vero...allora non penso nVidia avrà problemi di ritardo. Se debuttano verso Marzo-Aprile con un chip video a 0.09 micron...ce ne sta di tempo per affinare. nVidia vuole essere sicura di immettere solo quando sarà in grado di renderla a quantità elevate sul mercato. Non è che hanno iniziato oggi a produrre. Probabilmente hanno iniziato già da quando l'ha fatto pure Ati. Solo che Ati ha pianificato di immettere prima.

Probabilmente una 7800 Ultra imho sarà a 0.11 micron con però un doppio molex, così da assicurarsi la possibilità di salire ancora come frequenza. Un 500 Mhz di Core ce lo vedo di partenza. :) Memorie direi un 1400 Mhz. :) Cmq boh staremo a vedere.

Notizie interessanti, a questo punto non rimane che vedere cosa uscirà dal cilindro di entrambi i produttori, vedremo che resa produttiva riuscirà ad ottenere N'Vidia sugli 0.09, gli auguro ogni bene perchè dovrà essere eccellente se vorrà avere abbastanza chip per equipaggiare tutte le PS3 al momento del lancio (palriamo di centinaia di migliaia di esemplari, e milioni a seguire), per curiosità la notizia a quando risale? si parla di marzo/aprile, ma non c'è l'anno, dubito si riferisca a marzo/aprile 2005, certo che la 7800 che io sappia non è 0.09, mi son perso qualcosa per strada? ritieni auspicabile un cambio nel processo produttivo tra un modello e l'altro della stessa scheda? non mi riesce comprensibile un G70 a 0.13 ed un G70 a 0.09, cambiando il processo produttivo poi non è necessario riprogettare il chip? o cmq effettuare pesanti ritocchi? sarebbe un lavoraccio imho :confused: , Poi tu parli di derivati di tale chip, sarà da capire bene che tipo di prodotti saranno.

E' stato postato in un altro 3d (halduemilaeuno non ne abbia a male se incollo il ink che ha gentilmente fornito) link di halduemilaeuno (http://www.anandtech.com/video/showdoc.aspx?i=2501) dove si parla ad esempio di 600MHz di Core clock sul chip RV530, quindi se in un momento successivo dovesse uscire una 7800 Ultra con processo 0.09 immagino riescano a portarla almeno a tale frequenza, se non oltre, visto che sarebbe sviluppata in tempi successivi ed in questo campo si sa...

P.S. il link all'immagine non mi funge :(

Dark Schneider
17-08-2005, 19:00
La foto è questa:


http://next.videogame.it/Immagini/articoli/4500/4939/ps3_firstlook_ps34.jpg

Risale a metà Maggio 2005. (la PS3 esce nel maggio 2006)

Se invece intendi l'intervista al Presidente nVidia, risale al 15 Agosto.


Cmq il G70 non è a 0.13 micron, ma 0.11 micron.

Oddio io l'idea che mi son fatta è che questa 7800 Ultra, probabilmente sarà a 0.11 micron. Considerando che le GTX già ora OC si portano a 500 Mhz ad aria(e mi pare anche un po' più su), probabilmente se fanno una Ultra con Core a 500 Mhz di default non è così strano. Poi magari la dotano di sistema di raffreddamento dual slot(tipo R520) invece del single slot come la GTX, così sarà più efficiente ed avrà più margine.

Perchè pensandoci bene: nVidia ha detto di voler chiaramente lanciare ed immettere i prodotti sul mercato allo stesso tempo per il futuro. Adesso come ha detto il presidente qlc problema di produzione ce l'hanno anche loro con lo 0.09 micron. Però appunto considerando che saranno immessi verso Aprile-Maggio 2006...a voja ad affinare.

A volte ci son stati cambi di processi produttivi...tipo le 6800 lisce pci express le producono a 0.11 anzichè a 0.13. Cmq staremo a vedere.

A vedere questo RV530...mmm 600 Mhz son notevoli si...però si parla di un chip a 12 Pipeline. Chissà che frequenza avrà R520 se sarà dotato di 24 Pipeline(visto che pare più probabile che le 32 Pipeline siano state accantonate per il momento...pare).

mjordan
20-08-2005, 20:06
Se devo essere sincero queste soluzioni vecchie modificate e con modifiche irrilevanti mi cominciano a dare i nervi.