PDA

View Full Version : Niente delay a 80 nanometri per ATI


Redazione di Hardware Upg
16-06-2006, 10:01
Link alla notizia: http://www.hwupgrade.it/news/skvideo/17722.html

Fonti intyerne al produttore canadese escludono problemi di disponibilità per le nuove GPU costruite con processo produttivo a 80 nanometri


Click sul link per visualizzare la notizia.

spannocchiatore
16-06-2006, 10:26
c'è un errore nel titolo
“Fonti intyerne al produttore"

a quando gli r600? nvidia mi sa che anticiperà ati con le g80, comunque sono le prime schede dx10 certified, quindi ancora acerbe..

zanardi84
16-06-2006, 10:30
c'è un errore nel titolo
“Fonti intyerne al produttore"

a quando gli r600? nvidia mi sa che anticiperà ati con le g80, comunque sono le prime schede dx10 certified, quindi ancora acerbe..

Se sono acerbe come la 9700 allora ben vengano!

MiKeLezZ
16-06-2006, 10:37
Bhe che problemi dovrebbe mai incontrare? Gli 80nm non sono altro che un die shrink dei 90nm che neppure necessita di riprogettazione ma si basa sulle capacità della fondorie che ha l'appalto per la produzione di chip (non ricordo se è passata interamente a TSMC oppure è con UMC).
Speriamo escano presto che voglio aggiornare per Natale :>

Max Power
16-06-2006, 10:39
Si sta ripresentando la stssa situazione di 4 anni fa con le DX9! :cool:

zuLunis
16-06-2006, 10:58
Calma calma calma... R600 sarà ad architettura shaders unificati, ma non avrà gli Shader Model 4.0?

LCol84
16-06-2006, 11:02
Se sono acerbe come la 9700 allora ben vengano!

Quoto in pieno.

r600 secondo me (spero) sarà come la 9700 di anni fa. Nuova ma soprattutto uno standard per il futuro ;)

Defragg
16-06-2006, 11:16
Calma calma calma... R600 sarà ad architettura shaders unificati, ma non avrà gli Shader Model 4.0?

eh!? ma cosa stai dicendo??? :rolleyes: :doh:

è logico ke abbia il supporto allo SM 4.0...

zappy
16-06-2006, 11:24
non si può usare la parola "ritardi" anzichè "delay"? :rolleyes:

LCol84
16-06-2006, 11:46
non si può usare la parola "ritardi" anzichè "delay"? :rolleyes:

:asd: no ormai abbozzare qualche parola in inglese fa figo. Devi farci l'abitudine ;)

dwfgerw
16-06-2006, 12:00
Tra R580+ e G80 sicuramente sarà preferibile quest'ultimo per via del supporto a dx10. vedremo se gli shader unificati porteranno subito dei vantaggi e se bisognerà attendere fine 2007...

zappy
16-06-2006, 12:26
:asd: no ormai abbozzare qualche parola in inglese fa figo. Devi farci l'abitudine ;)
imho fa molto spesso ridicolo.

ax89
16-06-2006, 12:28
Tra R580+ e G80 sicuramente sarà preferibile quest'ultimo per via del supporto a dx10. vedremo se gli shader unificati porteranno subito dei vantaggi e se bisognerà attendere fine 2007...

Non proprio. Secondo me G80 avrà un modesto successo per due motivi:
1) Sarà sicuramente + caro della controparte ATI.
2) Non potrà beneficiare delle nuove tecnologie che implementa (DX10 e relativo SM4.0 in primis) sin da subito causa mancato supporto software (SO e giochi).

Invece R580+ magari avrà un maggiore successo perché il die-shrink dovrebbe contenere i costi di produzione del chip, quindi consentire di diminuire il prezzo della nuova ammiraglia di ATI (presumo si chiamerà X1950XTX) o quantomeno allinearlo a quello dell'attuale X1900XTX, fornendo tuttavia i pregi qualitativi del die-shrink (consumo e calore) abbinati a quelli economici (rapporto prestazioni/prezzo). E in tal modo i prezzi delle schede con chip R580 e tutti gli altri chip a 90 nm dovrebbero subire un taglio di prezzo per assestare le nuove scale di performance.

Comunque noto con simpatia che la storia si ripete. Quando uscì il chip NV40 (GeForce serie 6) ATI perse lo scettro di regina delle VGA. R300 battè un anno prima i deludenti chip NV3x, ma poi ATI non riuscì a contrastare la nuova architettura nVIDIA con i chip R4xx, e R5xx ha segnato un sostanziale allineamento di fronti. Già ai tempi di NV40 si diceva che ATI sarebbe risorta con il chip R600, che avrebbe ripolverizzato come fece R300 i chip avversari con il supporto a nuove tecnlogie del futuro (vedasi shader unificati). Aspettiamo una conferma da quanto accadrà.

Racer89
16-06-2006, 12:40
Non proprio. Secondo me G80 avrà un modesto successo per due motivi:
1) Sarà sicuramente + caro della controparte ATI.
2) Non potrà beneficiare delle nuove tecnologie che implementa (DX10 e relativo SM4.0 in primis) sin da subito causa mancato supporto software (SO e giochi).

Invece R580+ magari avrà un maggiore successo perché il die-shrink dovrebbe contenere i costi di produzione del chip, quindi consentire di diminuire il prezzo della nuova ammiraglia di ATI (presumo si chiamerà X1950XTX) o quantomeno allinearlo a quello dell'attuale X1900XTX, fornendo tuttavia i pregi qualitativi del die-shrink (consumo e calore) abbinati a quelli economici (rapporto prestazioni/prezzo). E in tal modo i prezzi delle schede con chip R580 e tutti gli altri chip a 90 nm dovrebbero subire un taglio di prezzo per assestare le nuove scale di performance.

Comunque noto con simpatia che la storia si ripete. Quando uscì il chip NV40 (GeForce serie 6) ATI perse lo scettro di regina delle VGA. R300 battè un anno prima i deludenti chip NV3x, ma poi ATI non riuscì a contrastare la nuova architettura nVIDIA con i chip R4xx, e R5xx ha segnato un sostanziale allineamento di fronti. Già ai tempi di NV40 si diceva che ATI sarebbe risorta con il chip R600, che avrebbe ripolverizzato come fece R300 i chip avversari con il supporto a nuove tecnlogie del futuro (vedasi shader unificati). Aspettiamo una conferma da quanto accadrà.
questo quando avverrà?

nicola1985
16-06-2006, 14:11
se leggi l'articolo e i commenti prima del tuo lo scoprirai...

dwfgerw
16-06-2006, 14:14
x ax89

sicurissimo che il prezzo di lancio sarà smile per entrambe la parti, dato anche la presenza di gddr4. Tra le due, anche se dovesse costare un po di più (550-650?) meglio una soluzione più futuribile e, molto probabilmente, anche più veloce con le dx9 sm 3.0.

Poi ovviamente tutto da verificare, potrebbe essere un flop come nv30 oppure nvidia potrebbe aver capito da quel fallimento

*Pegasus-DVD*
16-06-2006, 15:02
non si può usare la parola "ritardi" anzichè "delay"? :rolleyes:

giusto ... in titolo cosi non fa capir di cosa si parla ...

*Pegasus-DVD*
16-06-2006, 15:03
c'è un errore nel titolo
comunque sono le prime schede dx10 certified, quindi ancora acerbe..

loooooooooooool :rotfl:

ax89
16-06-2006, 15:16
Non auguro il flop di G80, ma nella storia ci sono sempre corsi e ricorsi.
Trattandosi della prima architettura DX10 potrebbe anche portare problemi di giovinezza (riferito alle DX10) o altri problemi, così come anche per R600. Ai tempi di R300 invece accadde che ATI non ebbe problemi ad usare il processo a 150 nm (se non erro) e neanche problemi di architettura (pur essendo il primo chip DX9) dato che conosciamo tutti l'ottimo comportamento di schede del calibro della 9500/9700 e se vogliamo anche della 9800 (un po' meno fortunata). NV3x invece fece fiasco perché NVIDIA volle completare + velocemente possibile il progetto visto che ATI aveva lanciato R300 parecchio tempo prima e stava mietendo vittime illustri quali le GF4 e riscuotendo grande successo. Un'altro problema se non erro fu l'adozione del processo costruttivo a 130 nm, e nonostante questo molti ricordano il calore sviluppato da questo chip, specie nelle FX59xx, le PRIME VGA che a causa del calore eccessivo richiedevano uno slot aggiuntivo dedicato alla turbina di raffraddamento. Se vogliamo però criticare anche la 9800 di ATI aveva dei problemi di raffreddamento, ma la situazione era diversa: il dissipatore di fabbrica era infatti del tutto inefficiente a reggere i regimi di clock di R350 e alle volte le vga si rompevano per questo problema (su ebay si vendevano un sacco di 9800 guaste e altrettanti dissipatori VGA Silencer e simili). Ma sappiamo tutti che la gatta frettolosa fa i gattini ciechi, e l'esito di NV3x è noto a tutti. Però poi accadde il contrario, cioé NVIDIA è riuscita a portare avanti il progetto NV4x senza problemi e a lanciare la serie GF6 con gli ottimi risultati visti rispetto ad R4xx di ATI.

Niiid
16-06-2006, 16:06
preferisci chiamare gli U2 ,you too, o ou due???

Ginger79
16-06-2006, 19:44
Non capisco come facciate anche solo a chiedervi quale delle 2 soluzioni avrà + successo... è ridicolo... sembra quasi che molti di voi abbiano le fette di prosciutto sugli occhi!

Ma quale 80nm ?!?! G80 è infinitamente + potente sotto tutti i punti di vista di una semplice X1900 overclokkata per mezzo del nuovo processo produttivo.
La questione è QUANDO (???????) R600 uscirà e SE (????) sarà superiore a G80 .... che R580+ sia un gradino al di sotto non ci vuole Einstein per capirlo.
Una scheda (NUOVA) come G80, in grado di supportare appieno le DX10 sarà sicuramente (data l'architettura a shader DIVISI) ultra performante in ambito DX9 .... sicuramente + di quanto possa fare R580+ e (a detta del cheif scientist di ATI )anche (FORSE) di R600 (parlo di DX9) nonostante quest'ultimo acclami un boost prestazionale anche nei giochi di generazione precedente a quella per il quale è stato progettato.

Se G71 (7900GTX) è quasi alla pari di X1900XTX avendo 24 Pipeline + 8 Vertex immaginate casa possa fare un ipotetico G80 con 32Pipeline + 10 Vertex a clock simili a quelli odierni raffrontato ad un R580 prodotto a 80nm e senza alcuna implementazione aggiuntiva a livello architetturale. Parlandoci chiaro rimane sempre (nonostante la barzelletta delle 48 unità programmabili a piacere) una scheda a 16Pipeline contro una a 32 che avrà molto probabilmente le stesse frequenze.

dema86
17-06-2006, 07:59
Se sono acerbe come la 9700 allora ben vengano!
:ave: :ave: :ave: :ave: :ave: 9700PRO :ave: :ave: :ave: :ave: :ave:

dema86
17-06-2006, 08:01
Non capisco come facciate anche solo a chiedervi quale delle 2 soluzioni avrà + successo... è ridicolo... sembra quasi che molti di voi abbiano le fette di prosciutto sugli occhi!

Ma quale 80nm ?!?! G80 è infinitamente + potente sotto tutti i punti di vista di una semplice X1900 overclokkata per mezzo del nuovo processo produttivo.
La questione è QUANDO (???????) R600 uscirà e SE (????) sarà superiore a G80 .... che R580+ sia un gradino al di sotto non ci vuole Einstein per capirlo.
Una scheda (NUOVA) come G80, in grado di supportare appieno le DX10 sarà sicuramente (data l'architettura a shader DIVISI) ultra performante in ambito DX9 .... sicuramente + di quanto possa fare R580+ e (a detta del cheif scientist di ATI )anche (FORSE) di R600 (parlo di DX9) nonostante quest'ultimo acclami un boost prestazionale anche nei giochi di generazione precedente a quella per il quale è stato progettato.

Se G71 (7900GTX) è quasi alla pari di X1900XTX avendo 24 Pipeline + 8 Vertex immaginate casa possa fare un ipotetico G80 con 32Pipeline + 10 Vertex a clock simili a quelli odierni raffrontato ad un R580 prodotto a 80nm e senza alcuna implementazione aggiuntiva a livello architetturale. Parlandoci chiaro rimane sempre (nonostante la barzelletta delle 48 unità programmabili a piacere) una scheda a 16Pipeline contro una a 32 che avrà molto probabilmente le stesse frequenze.

Ricordo che GF3 in dx7 le pigliava dalla Geffo2 Ultra, perciò non accusiamo gli altri di salumeria, ovvio che tra una sv dx9 e una dx10 e' meglio la seconda, ma in dx9 non é detto che lo sia!!

zappy
17-06-2006, 09:49
preferisci chiamare gli U2 ,you too, o ou due???
indovina... :p :D

ax89
18-06-2006, 21:30
Ricordo che GF3 in dx7 le pigliava dalla Geffo2 Ultra, perciò non accusiamo gli altri di salumeria, ovvio che tra una sv dx9 e una dx10 e' meglio la seconda, ma in dx9 non é detto che lo sia!!

TI STRAQUOTO. Comunque non sapevo questo fatto curioso. Bella questa.
Ciao!

P.S.: volevo ricordare anche che la storia delle shader unit separate è sempre da verificare quanto + potente o - potente sia di un'archittettura a shader unificate. E poi sono curioso di vedere da dove esce la "barzelletta" delle 48 shader unit che non sono programmabili al contrario di quanto ufficializzato da ATI.
E comunque MAI affermare che una scheda con un numero inferiore di pipeline le prende da una con un numero maggiore. Tutto sta nella bontà dell'architettura del chip in esame (leggasi Radeon X1800XT vs. GF7800GTX).