PDA

View Full Version : R600: tape out completato per la nuova GPU ATI?


Redazione di Hardware Upg
13-06-2006, 08:38
Link alla notizia: http://www.hwupgrade.it/news/skvideo/17677.html

Sembra che il processo di svluppo della nuova architettura top di gamma di ATI proceda secondo i piani. Per il debutto dovremo comunque attendere vari mesi

Click sul link per visualizzare la notizia.

tony73
13-06-2006, 08:43
mamma mia non vedo l'ora di averla tra le mie mani sta GPU..

sslazio
13-06-2006, 08:46
così fai muovere il cursore del mouse in 3d di vista senza scatti!!!

heavymetalforever
13-06-2006, 08:47
più che altro mi interessa che sia DX10 fully compatible.... altrimenti è un buco nell'acqua... ma mi sembra di aver letto da qualche parte che è sia DX9 che 10, come successe ai tempi per la 9700 pro.

ciao

Luxor83
13-06-2006, 08:50
vorrei proprio sapere se è dx10 o no.....perchè questa protrebbe essere la mia futura scheda video.....per futura intendo che cambierò la mia 9800XT inizio anno prox quando credo la prossima gen di schede video ha già fatto vedere un pò di cose interessanti. ;)

Alucard83
13-06-2006, 08:51
Faranno una versione AGP?

Magari con 5 o 6 molex 12v supplementari per alimentarla :D

norfildur
13-06-2006, 08:52
così fai muovere il cursore del mouse in 3d di vista senza scatti!!!

Certo, infatti tutti gli investimenti e gli sforzi di ATi nella realizzazione di questa GPU sono stati fatti proprio con questo obiettivo in mente... :rolleyes:

Certo che se ATi dovesse aver fatto "centro" al primo colpo (=pochi o nessun bug nei sample) si potrebbe sperare in una sk video DX10 già per il terzo trimestre... Speriamo!

lucio68
13-06-2006, 08:53
così fai muovere il cursore del mouse in 3d di vista senza scatti!!!
:nonsifa:
per quello minimo un quad core e tre schede in crossfire, di cui una per la fisica (non si sa mai come si potrebbe arrivare a interagire con le finestre 3d)

Pikitano
13-06-2006, 08:53
Per quanto mi riguarda uscirà troppo tardi. A settembre con gli sperati ribassi AMD e Intel (grazie Conroe :D ) mi rifaccio il pc e le schede dx10 saranno ancora troppo lontane....sono comunque molto curioso di vedere queste "fantastiche" dx10, quindi Ati e Nvidia sono pregate di sbrigarsi :Prrr:

Pikitano
13-06-2006, 08:55
:nonsifa:
per quello minimo un quad core e tre schede in crossfire, di cui una per la fisica (non si sa mai come si potrebbe arrivare a interagire con le finestre 3d)
:rotfl: :rotfl: :rotfl: :rotfl:

Vuoi mettere poi il cestino vuoto/pieno e la possibilità di vedere le schede in 3d?!?!? :D :D :D

coschizza
13-06-2006, 08:56
vorrei proprio sapere se è dx10 o no.....perchè questa protrebbe essere la mia futura scheda video.....per futura intendo che cambierò la mia 9800XT inizio anno prox

certo che è directx 10 ;)
ci sono 2 modi per creare una gpu compatibile con le directx10 quello dell'ATI è stato quello di creare un hardware che rispecchiasse le prerogative delle nuove directx, invece secondo i primi annunci l'approccio della NVIDIA è stato invece di creare un hardware molto simile a quello utilizzato nelle attuali generazioni (directx9) e poi giocare sulle compatibilita verso le nuove directx tramite i driver della gpu.

sono 2 sistemi completamente diversi per ottenere lo stesso scopo cioè compatibilità + prestazioni, ma non è possibile essere certi di quale implementazione sarà la piu azzeccata.

IMHO avendo disponibili solo giochi directx 10 l'implementzione dell' ati sarebbe migliore ma dovendo giocare ancora in un mondo directx9/10 alla fine anche un approccio ibrido dovrebbe andare molto bene.


sulla stessa gpu della xbox 360 ci sono giochi che sfruttano la gpu come fosse una a shader separati (vertex+pixel) e altri che invece tendono ad utilizzare fino in forndo il concetto di shader unificati, quale si vede meglio? impossibile da dire prima di avere tra le mani un bel po di titoli fatti con questi sistemi diversi, quindi come sempre la differenza la fanno gli sviluppatori.

Rubberick
13-06-2006, 09:01
madonna che animale... :D

Pan
13-06-2006, 09:04
in attesa per il prossimo upgrade ;)

OT lasciamo stare la leggenda vista per piacere.. che alla fine si è dimostrato ben + leggero delle aspettative (+ pesante di XP, ma non moltissimo.. poi va beh la figatine grafice se uno ha un pc "retrò" le disattiva o si tiene l'xp ;) )

speriamo siano DX10 se no ciccia.. :(

Freisar
13-06-2006, 09:05
Ma che sarebbe na x2000 :D o ci saranno vari modelli?



Ps: ma deve uscire anche una x1700? :confused:

stop81
13-06-2006, 09:35
Molto bene, proprio la news che aspettavo, è da un anno che sto risparmiando per il nuovo PC e aspetto solo le schede DX10 per l'acquisto...

Ovviamente aspetto anche i primi test Crysis su tutti :D

lucio68
13-06-2006, 09:46
Ma che sarebbe na x2000 :D o ci saranno vari modelli?



Ps: ma deve uscire anche una x1700? :confused:
Ne ho sentito parlare anch'io della X1700. Forse nel reportage dal Computex?

(§) The Avatar (§)
13-06-2006, 09:52
Chi vorrà una scheda full DX10 (e adeguatamente potente da far girare bene i giochi in DX10) dovrà attendere la generazione successiva a R600. A quanto ho capito R600 sarà un chip ancora "legato" allo SM3 con soltanto alcune delle caratteristiche dello SM4. Ma sarà il chip DX9 più veloce in assoluto prodotto da ATI.

Coko
13-06-2006, 09:52
Spero di non dover riassistere all'odissea R520

bs82
13-06-2006, 09:54
r600 sarà wgf2.0 ....considerando che r500 è wgf1.0 e sono le directx10..... r600 sarà pienamente dx10, in hardware sopratutto....

MiKeLezZ
13-06-2006, 09:58
L'importante è che abbassino i consuni :/

Coko
13-06-2006, 10:01
L'importante è che abbassino i consuni :/

Si questo è molto importante. Dovrebbe prendere da esempio l'ottimo lavoro fatto da Nvidia con il G71

(§) The Avatar (§)
13-06-2006, 10:02
r600 sarà wgf2.0 ....considerando che r500 è wgf1.0 e sono le directx10..... r600 sarà pienamente dx10, in hardware sopratutto....

Beh, speriamo...! ;) Avevo capito invece che R600 non sarà 100% DX10...se non sbaglio questa cosa la disse anche fek. In ogni caso è sempre meglio attendere la generazione di chip successiva a quella che introduce il supporto alle nuove librerie ;)

Athlon 64 3000+
13-06-2006, 10:08
sicuramente dovrebbe andare sotto XP è sarà molto più veloce di una X1900XTX
ma ho letto un paio di giorni fà una notizia che diceva che R600 e G80 consumeranno da 130 a 300W e quindi molto più di R580 stesso.

coschizza
13-06-2006, 10:14
r600 sarà wgf2.0 ....considerando che r500 è wgf1.0 e sono le directx10..... r600 sarà pienamente dx10, in hardware sopratutto....


la r500 non è una wgf1.0, le wgf1.0 sono praticamente le directx9l e la r500 ha una versione modificata della wgf2.0 questo perche in certe cose ha caratteristiche inferiori alle directx10 e in altre va oltre, questo perche il chip è stato finalizzato piu di 1 anno prima dell'annuncio delel specifiche definitive delle directx10 rendendo la r500 una gpu "custom" con caratteristiche esclusive al mercato console.

zuLunis
13-06-2006, 10:15
64 shader unificati

Cioè il sistema potrà gestire se adibire per esempio 32 vertex e 32 pipelines? E' ASSURDO! Poi GDDR4 a 65nm... non oso immaginare che bestia che sia questa scheda...

coschizza
13-06-2006, 10:20
64 shader unificati

Cioè il sistema potrà gestire se adibire per esempio 32 vertex e 32 pipelines? E' ASSURDO! Poi GDDR4 a 65nm... non oso immaginare che bestia che sia questa scheda...

potrebbe essere
la divisione dipenda da come sono stati ragruppale le alu per esempio nella r500 dove hai 48 alu divise in blocchi da 16 puoi fare 16/32 ecc sempre partendo da gruppi di 16.

quindi in giochi pixel limited la gpu potra fare indicativamente un 16/48 VS/PS se invece trova un frame pesantemente complesso dal punto di vista dei vertex shader puo riservare un 32/32 PS/VS.

la cosa bella e che utilizzare questo tipo di gpu in ambiente professionale come in software autocad o 3dstudio max darà performance sbalorditive perche in questi ambiti poter riservare alla gestione dei vertici tutta la potenza da risultati impensabili per le schede attuali che hanno sempre molto meno unita di elaborazione per i vertex che per i pixel, per la gestione di grafica in wireframe la potenza di pixel shader è quella meno importante.

fek
13-06-2006, 10:38
quindi in giochi pixel limited la gpu potra fare indicativamente un 16/48 VS/PS se invece trova un frame pesantemente complesso dal punto di vista dei vertex shader puo riservare un 32/32 PS/VS.

Nel fare un depth pass che scrive solo sullo z buffer senza un fragment shader, ad esempio, tutte le shader unit sono adibite al vertex processing. In fase di post processing quando si aggiungono effetti come depth of field o si fa il tonemapping dell'HDR, invece, tutte le unita' sono adibite al fragment processing.

Uno dei segreti per sfruttare queste architetture e' sbilanciare di proposito il rapporto vertici/frammenti.

Freisar
13-06-2006, 10:44
Ma ATI è al lavoro solo su questa scheda o altri modelli di livello basso?

Cioè vedo di spiegarmi possibile che una scheda DX10 debba essere perforza più costosa di una x1900?

Non è possibile fare modelli low-price tipo 1600? :mbe:

lucio68
13-06-2006, 10:49
Ma ATI è al lavoro solo su questa scheda o altri modelli di livello basso?

Cioè vedo di spiegarmi possibile che una scheda DX10 debba essere perforza più costosa di una x1900?

Non è possibile fare modelli low-price tipo 1600? :mbe:
lo sviluppo si concentra necessariamente sui modelli di punta. dal momento che le versioni di facia media e bassa in genere, almeno al livello di gpu, sono versioni depotenziate del chip più potente.

Freisar
13-06-2006, 10:52
Perciò probabilmente uscirà ma dopo il modello high :confused:


scusate l'ot!

lucio68
13-06-2006, 11:11
Perciò probabilmente uscirà ma dopo il modello high :confused:


scusate l'ot!
Queste sono manovre di marketing.
E' comunque possibile che l'uscita sia pressoché contemporanea per tutti i modelli.

dwfgerw
13-06-2006, 11:21
buona notizia, però ricordiamo appunto che R520 fu tape out un anno prima della commercializzazione....

spero non incontrino grossi problemi con i 65nm...

dwfgerw
13-06-2006, 11:26
http://www.theinquirer.net/?article=32385

jp77
13-06-2006, 11:38
mah...imho non si vedrà la prima scheda sugli scaffali prima di fine anno...sempre che non ci siano problemi come x R520.

Foglia Morta
13-06-2006, 11:56
si diceva che sarà disponibile a natale. ma 650mhz sono pochissimi , secondo me avrà una frequenza molto più alta.

Michele81
13-06-2006, 13:22
Come si comporterà il crossfire abbinando una scheda dx9 all'R600?

nudo_conlemani_inTasca
13-06-2006, 13:33
Come fai a non comprarti 1 PC NUOVO con tutto sto ben di Dio..
che sta uscendo! :D :p

Dual Core, 4 Core.. RAMmine @ 1GHz, SVGA + GDDR4... :cincin: :eekk:

picard88
13-06-2006, 13:35
si diceva che sarà disponibile a natale. ma 650mhz sono pochissimi , secondo me avrà una frequenza molto più alta.
bè calcola che avrà 64 shader units che faranno moltoprobabilmente lievitare i consumi. ma sapete se il memory bus sarà a 256 bit o a 512?

picard88
13-06-2006, 13:37
Come si comporterà il crossfire abbinando una scheda dx9 all'R600?
penso che non si potranno abbinare schede dx9 con schede dx10, come non si possono abbinare x800 e x1000

DakmorNoland
13-06-2006, 13:44
Allora intanto, scusate ma se è prodotta a 65nm e viaggia a 650Mhz, come fa a consumare così tanto??? :confused: Cioè + di una 1900XT che sta + o - a quella frequenza ma è a 90nm.

Poi io sconsiglio vivamente di acquistare appena uscite e poco dopo queste schede DX10 o ibride che siano, perchè saranno certamente immature e cmq poco sfruttate dai nuovi giochi DX10, che probabilmente saranno pochi e sfrutteranno probabilmente in modo marginale le nuove librerie, tranne qualche eccezione.

La cosa migliore è aspettare un pò di tempo, magari la seconda generazione e fare l'upgrade in quel momento, intanto ora approfittiamo dei prezzi sempre + convenienti delle attuali generazioni di GPU.
Cioè la 1800XT a 260€ spedizione incluse, non è niente male! :D

picard88
13-06-2006, 13:51
Allora intanto, scusate ma se è prodotta a 65nm e viaggia a 650Mhz, come fa a consumare così tanto??? :confused: Cioè + di una 1900XT che sta + o - a quella frequenza ma è a 90nm.
forse perchè avrà moolti più transistors della X1900 e moolte più shader units.
poi non è che diciamo che sicuramente consumerà di più, facciamo solo delle ipotesi guardando anche il trend in questi anni ossia + pipelines + consumi(detta veloce :D ).

DakmorNoland
13-06-2006, 13:55
forse perchè avrà moolti più transistors della X1900 e moolte più shader units.
poi non è che diciamo che sicuramente consumerà di più, facciamo solo delle ipotesi guardando anche il trend in questi anni ossia + pipelines + consumi(detta veloce :D ).

Si hai ragione però a 65nm speravo fossero + contenuti i consumi, come succede per le CPU...ok un motivo in + per evitare questa prima generazione di GPU ATI!!! Speriamo che Nvidia spinga sempre di + su consumi contenuti, perchè se Ati non rivede le sue strategie, beh ha già perso un cliente :)

Athlon 64 3000+
13-06-2006, 14:02
Allora intanto, scusate ma se è prodotta a 65nm e viaggia a 650Mhz, come fa a consumare così tanto??? :confused: Cioè + di una 1900XT che sta + o - a quella frequenza ma è a 90nm.

Poi io sconsiglio vivamente di acquistare appena uscite e poco dopo queste schede DX10 o ibride che siano, perchè saranno certamente immature e cmq poco sfruttate dai nuovi giochi DX10, che probabilmente saranno pochi e sfrutteranno probabilmente in modo marginale le nuove librerie, tranne qualche eccezione.

La cosa migliore è aspettare un pò di tempo, magari la seconda generazione e fare l'upgrade in quel momento, intanto ora approfittiamo dei prezzi sempre + convenienti delle attuali generazioni di GPU.
Cioè la 1800XT a 260€ spedizione incluse, non è niente male! :D

Direi che sono fondamentalmente d'accordo perchè per me che ho una X1900XT è meglio che aspetti la seconda generazione di gpu dx 10 e sarebbe meglio che passi al dual core a inizio 2007 dato che per quel periodo il mio Athlon 64 3000+ avrà 3 anni di vita.
C'è anche da dire che probabilmente R600 e G80 cosumeranno più della della stessa X1900XTX e che andranno da 130 a 300 W come valori.

picard88
13-06-2006, 14:02
Si hai ragione però a 65nm speravo fossero + contenuti i consumi, come succede per le CPU...ok un motivo in + per evitare questa prima generazione di GPU ATI!!! Speriamo che Nvidia spinga sempre di + su consumi contenuti, perchè se Ati non rivede le sue strategie, beh ha già perso un cliente :)
il problema è che non si può sapere se le prox generazioni di nvidia consumeranno di meno. le 7900 consumano di meno perchè hanno fatto praticamente un die-shrink (pur ottimizzando il core) delle 7800, ma penso che se avessero aumentato le unità di calcolo come ATI i consumi sarebbero aumentati anche lì.

picard88
13-06-2006, 14:15
C'è anche da dire che probabilmente R600 e G80 cosumeranno più della della stessa X1900XTX e che andranno da 130 a 300 W come valori.
:cry: :cry: (ma saranno provviste del comodo pannello solare da attaccare al tetto della casa o no?? :D )

DakmorNoland
13-06-2006, 14:16
il problema è che non si può sapere se le prox generazioni di nvidia consumeranno di meno. le 7900 consumano di meno perchè hanno fatto praticamente un die-shrink (pur ottimizzando il core) delle 7800, ma penso che se avessero aumentato le unità di calcolo come ATI i consumi sarebbero aumentati anche lì.

Si cmq non mi va di avere computer che consumano sempre di +...Cioè siamo nel 2006!! Cavoli! E tra un pò torniamo ai consumi dei computer giganti a valvole degli anni 60!!! Quando accendevano quello di Filadelfia c'era un calo di corrente in tutta la città! :D Cioè stiamo tornando a quei livelli. Sviluppatori incapaci!!!

JohnPetrucci
13-06-2006, 17:24
Spero solo che non riscaldi come le schede Ati attuali, a quel punto vi rinuncerei da subito.

k-Christian27
13-06-2006, 17:55
Periodo migliore:

1° trimestre 2007

Scheda da comprare: Ati R620 (dato che sarà uscita la R640).

Computer da avere:

Intel P(?) 5-6-(?) Quad Core 3,5Ghz

E dato che ci siamo: 4 Gb di memoria

Spesa approssimativa:

1.200 Euro.

Cambierò tutto il mio computer (P4 2,8Ghz) quando potrò averlo a queste precise caratteristiche.

Byexx..

DakmorNoland
13-06-2006, 18:21
Periodo migliore:

1° trimestre 2007

Scheda da comprare: Ati R620 (dato che sarà uscita la R640).

Computer da avere:

Intel P(?) 5-6-(?) Quad Core 3,5Ghz

E dato che ci siamo: 4 Gb di memoria

Spesa approssimativa:

1.200 Euro.

Cambierò tutto il mio computer (P4 2,8Ghz) quando potrò averlo a queste precise caratteristiche.

Byexx..

Si buona fortuna eh!! :D

dsajbASSAEdsjfnsdlffd
13-06-2006, 20:05
passo ad ATI :P

^TiGeRShArK^
13-06-2006, 21:31
certo che è directx 10 ;)
ci sono 2 modi per creare una gpu compatibile con le directx10 quello dell'ATI è stato quello di creare un hardware che rispecchiasse le prerogative delle nuove directx, invece secondo i primi annunci l'approccio della NVIDIA è stato invece di creare un hardware molto simile a quello utilizzato nelle attuali generazioni (directx9) e poi giocare sulle compatibilita verso le nuove directx tramite i driver della gpu.

sono 2 sistemi completamente diversi per ottenere lo stesso scopo cioè compatibilità + prestazioni, ma non è possibile essere certi di quale implementazione sarà la piu azzeccata.

IMHO avendo disponibili solo giochi directx 10 l'implementzione dell' ati sarebbe migliore ma dovendo giocare ancora in un mondo directx9/10 alla fine anche un approccio ibrido dovrebbe andare molto bene.


sulla stessa gpu della xbox 360 ci sono giochi che sfruttano la gpu come fosse una a shader separati (vertex+pixel) e altri che invece tendono ad utilizzare fino in forndo il concetto di shader unificati, quale si vede meglio? impossibile da dire prima di avere tra le mani un bel po di titoli fatti con questi sistemi diversi, quindi come sempre la differenza la fanno gli sviluppatori.
esattamente come la serie NV3x di nvidia...
compatibili DX9, ma in realtà rendevano al meglio con titoli DX 8 ...infatti si è visto con titoli ke usavano pesantemente le DX 9 ke fine hanno fatto ;)

^TiGeRShArK^
13-06-2006, 21:35
64 shader unificati

Cioè il sistema potrà gestire se adibire per esempio 32 vertex e 32 pipelines? E' ASSURDO! Poi GDDR4 a 65nm... non oso immaginare che bestia che sia questa scheda...
nope...
32 pixel Shader, non pipeline ;)
Le texture unit saranno cmq 16 secondo questa notizia :p

stop81
14-06-2006, 21:10
Come fai a non comprarti 1 PC NUOVO con tutto sto ben di Dio..
che sta uscendo! :D :p

Dual Core, 4 Core.. RAMmine @ 1GHz, SVGA + GDDR4... :cincin: :eekk:

Infatti io aspetto solo queste schede video e poi si parte con l'acquistone :D

leoneazzurro
15-06-2006, 08:56
Si buona fortuna eh!! :D

Hai la sign irregolare, per piacere riducila a norma (max 3 righe, font normale)