80 nanometri e NVIDIA: due fonderie a Taiwan

80 nanometri e NVIDIA: due fonderie a Taiwan

Sia TSMC che UMC sono attualmente coinvolte nel processo di sviluppo NVIDIA di GPU con tecnologia a 80 nanometri

di Paolo Corsini pubblicata il , alle 13:23 nel canale Schede Video
NVIDIA
 

La continua evoluzione del mercato delle schede video passa attraverso la disponibilità di tecnologie produttive sempre più sofisticate, grazie alle quali poter costruire GPU dalla crescente complessità. Al momento attuale il processo di evoluzione sta portando alle prime GPU costruite con tecnologia a 80 nanometri.

Non deve quindi soprendere che sia ATI che NVIDIA stiano, in questi mesi, lavorando con le due principali fonderie taiwanesi, TSMC e UMC, per testare e definire le proprie future GPU costruite con tale tecnologia.

Del resto, i due colossi della grafica 3D non possiedono proprie fabbriche produttive, ma devono dipendere da fonderie esterne per potersi garantire una produzione allineata alle aspettative di vendita delle schede video sul mercato.

Digitimes segnala come NVIDIA abbia deciso di delegare la produzione di proprie architetture video a entrambe le principali fonderie taiwanesi, pur se con un forte sbilanciamento verso TSMC che dovrebbe produrre circa il 90% delle GPU NVIDIA.

NVIDIA prevede di avviare a breve la produzione di proprie GPU G73-B1, dotate di supporto diretto HDMI e quindi destinate all'utilizzo in sistemi domestici HTPC. A seguire si prevede che NVIDIA passerà alla produzione delle GPU G72, sempre posizionate nel segmento di fascia medio bassa del mercato, con questa nuova tecnologia produttiva. Come accade sempre nel momento in cui un produttore passa all'adozione di una nuova tecnologia produttiva, e prime GPU ad utilizzare il processo a 80 nanometri saranno quelle di fascia medio bassa.

Stando alla fonte, NVIDIA non avrebbe intenzione di adottare la tecnologia produttiva a 80 nanometri per le proprie GPU G71, attuali top di gamma nel segmento desktop del mercato. E' presumibile che NVIDIA possa decidere di adottare questa tecnologia direttamente per le soluzioni G80, nel momento in cui queste verranno ufficialmente presentate.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
giopro03 Luglio 2006, 13:40 #1
Non capisco perchè nei processori hanno saltato gli 80 nanometri per passare ai 65 mentre ATI e NVidia si danno battaglia su questa misura?

Forse perchè così fanno uno step in più e riescono a riciclare ancora le stesse schede?

Boh

Ciao
Langley03 Luglio 2006, 13:41 #2
Non puo' essere una soluzione di mercato? Mah...
Ma G80 quand'è che dovrebbe uscire? Settembre?
ATi750003 Luglio 2006, 13:51 #3
@giopro
i chip video sono molto più complessi delle CPU, ecco perchè è più difficile scalare di processo produttivo

bYeZ!
jp7703 Luglio 2006, 13:57 #4
a questo punto è auspicabile un g80 a 80nm
dwfgerw03 Luglio 2006, 14:17 #5
News: G80 : Tape Out e nuovi dettagli architetturali
Schede GraficheIl sito web TheInquirer riporta nuove informazioni riguardanti il prossimo chip grafico G80 di nVidia, il primo prodotto dell'azienda californiana ad essere compatibile con le prossime APi DirectX 10. Secondo la fonte inglese, il chip G80 ha passato con successo la fase di tape-out, anche se ancora non si conoscono i dettagli relativi al processo produttivo utilizzato. Nvidia potrebbe rilasciare G80 con 6 o 8 settimane di anticipo rispetto alla rivale ATi Techbnologies, che presenterà il suo R600 solo entro fine anno, presumibilmente nel periodo di Novembre-Dicembre.

TheInquirer afferma inoltre di conoscere alcuni dettagli tecnici relativi a G80, blindatissimo sino ad oggi. Secondo queste indiscrezioni sembra confermato che G80 non adotterà un'architettura caratterizzata da shader unificati, ma disporrà di shader separati in hardware, suddivisi in 32 pixel shader pipeline e 16 unità Shader che potranno essere utilizzate per i calcolo di Vertex shader o del Gemotry shader, nuova classe di shader introdotte nelle DirectX 10.

Il chip nVidia, pur non disponendo di un'architettura a shader unificati, risulterà pineamente compatibile con Shader Model 4.0 e DirectX 10. Al contrario di G80, il chip R600 della concorrente ATi Technologies disporrà di 64 ALu in grado di processare indistintamente pixel, vertex e gemotry shader, quindi potranno verificarsi degli scenari nel quale il chip potrà eseguire 64 pixel shader contemporaneamente oppure suddividere le risorse in 40 unità per pixel, 14 per vertex e 10 per Geometry shader.


fonte hardware-mania.it
giopro03 Luglio 2006, 18:49 #6
Originariamente inviato da: ATi7500
@giopro
i chip video sono molto più complessi delle CPU, ecco perchè è più difficile scalare di processo produttivo

bYeZ!


Sicuramente è vero data la complessità delle GPU di fronte Alle CPU, però un pensierino viene sul fatto che ci marcino un po' sopra

Questo passaggio a 80 nanometri quanti benefici reali introduce nella dissipazione di calore e sul consumo elettrico? Si sa qualcosa?

Grazie e ciao
ATi750003 Luglio 2006, 19:25 #7
non credo si possa quantificare, appena uscirà R580+ sapremo qualcosa

bYeZ!
nicgalla03 Luglio 2006, 22:07 #8
io credo anche perchè TSMC e UMC non sono ancora così evolute come le fabbriche di Intel, la quale da sempre ha dalla sua il processo produttivo.
Dopotutto sono stati i primi a creare un circuito integrato, e AMD userà i 65nm l'anno prossimo
Vash8803 Luglio 2006, 22:33 #9
Originariamente inviato da: giopro
Sicuramente è vero data la complessità delle GPU di fronte Alle CPU, però un pensierino viene sul fatto che ci marcino un po' sopra

Questo passaggio a 80 nanometri quanti benefici reali introduce nella dissipazione di calore e sul consumo elettrico? Si sa qualcosa?

Grazie e ciao

Per primi conviene a loro che ti vendono un prodotto allo stesso costo spendendo meno a fabbricarlo (si perchè diminuisci la superficie usata quindi dagli stessi wafer fai più chip)
mazzy03 Luglio 2006, 22:34 #10
Che i chip grafici siano piu' complessi delle cpu e' falso, nei chip grafici c'e' una estrema ripetitivita' dei circuiti, le pipeline sono ripetute tutte uguali, funzionamento molto lineare, set di instruzioni ridotto e coerente, niente multitasking, c'e' solo un programma che governa il chip, il driver video.
Solo come transistor a volte superano le cpu classiche.si ricordi che in 3-4 mesi si progetta un nuovo chip graficomentre Intel ci mette 2-3 anni per una nuova cpu e ci lavorano molte piu' persone di quante lavorino in ati o nvidia.
La verita' che la tecnologia 65mm c'e' l'hanno in pochi, e molti ancora ci stanno lavorando, nenache AMD ne dispone per la produzione ma e' ancora in test, cosi gli 80mm sono stati un evoluzione + economica dai 90 riutilizzando molti piu' attrezzature e riadattando gli impianti piu' velocemente.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^