TSMC e IMEC lavorano ai 22 nanometri

TSMC e IMEC lavorano ai 22 nanometri

Accordo strategico tra TSMC e IMEC per rendere disponibile la tecnologia produttiva a 22 nanometri nel corso dei prossimi anni

di pubblicata il , alle 09:17 nel canale Processori
 

TSMC, la più importante fabbrica produttiva di chip per conto terzi di Taiwan, e IMEC, centro di ricerca europeo indipendente, hanno ufficializzato un acccordo di sviluppo congiunto incentrato sulla tecnologia produttiva a 22 nanometri, prevista al debutto nel corso dei prossimi anni.

Un primo accordo tra TSMC e IMEC risale al 2005, anno nel quale sono nate le prime collaborazioni tecnologiche tra queste due realtà per lo sviluppo congiunto di nuovi processi produttivi.

Una implicazione particolarmente interessante di questo accordo è l'apertura di un centro di ricerca e sviluppo di TSMC all'interno della struttura europea di IMEC. TSMC potrà quindi sfruttare l'infrastruttura di IMEC, compresa la clear room, mentre quest'ultima potrà accedere alla roadmap tecnologica di TSMC.

La tecnologia produttiva a 22 nanometri rappresenta il cosiddetto full node successivo a quello a 32 nanometri, attualmente allo studio da parte dei principali produttori mondiali. Intel prevede, nella propria roadmap tecnologica, di avviare la commercializzazione dei primi processori a 32 nanometri tra fine 2009 e inizio 2010, facendo quindi prevedere che il debutto delle proprie prime cpu a 22 nanometri possa avvenire tra fine 2011 e inizio 2012.

Al momento attuale non è chiaro quando TSMC potrà adottae processo produttivo a 22 nanometri per i propri clienti; non è presumibile, al momento attuale, prima del 2012. Ulteriori informazioni sono disponibili sul sito IMEC a questo indirizzo.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
gionnico08 Giugno 2009, 09:30 #1

Quanto possiamo scendere?

Ormai il commento alle notizie che parlano di miglioramento del processo produttivo è sempre quella.

Da 45 siamo passati a 32 con 13nm di differenza. Ora la differenza si fa di 10nm coi 22nm.


Va bene fare ancora ricerca, ma rimpicciolire sempre meno costa sempre più.

Ormai i limiti delle molecole sono vicini.
Il passo avanti da fare è la computazione quantistica, che sfrutta gli orbitali degli atomi.

Si parla di dimensioni incredibilmente più piccole anche se non esiste un'implementazione in produzione.

Esistono già, tuttavia dei modelli sperimentali.
papafoxtrot08 Giugno 2009, 09:41 #2
Hemm hai mica fatto caso alle variazioni relative delle dimensioni?
Da 65 a 45nm la diminuzione è stata di 20nm pari al 30,8%...
Da 45 a 32nm la diminuzione è di 13nm pari al 28,8%...
Da 32 a 22nm la diminuzione è di 10nm pari al 31,25%...
A me sembra un passo molto grande.
Ratatosk08 Giugno 2009, 09:48 #3
Originariamente inviato da: gionnico
Ormai il commento alle notizie che parlano di miglioramento del processo produttivo è sempre quella.

Da 45 siamo passati a 32 con 13nm di differenza. Ora la differenza si fa di 10nm coi 22nm.


Va bene fare ancora ricerca, ma rimpicciolire sempre meno costa sempre più.

Ormai i limiti delle molecole sono vicini.
Il passo avanti da fare è la computazione quantistica, che sfrutta gli orbitali degli atomi.

Si parla di dimensioni incredibilmente più piccole anche se non esiste un'implementazione in produzione.

Esistono già, tuttavia dei modelli sperimentali.


Io credo che tu stia facendo i paragoni nei termini sbagliati, il guadagno percentuale di die space è maggiore nel passaggio 32->22 che non nel 45->32, senza contare che die più piccoli (questo però dipende dalla scelta di progetto, se risparmiare effettivamente spazio o occupare lo stesso spazio con più transistor) permettono uno sfruttamento migliore del wafer
cignox108 Giugno 2009, 10:33 #4
Dubito proprio che la computazione quantistica sostituira' quella classica, per lo meno nella stragrande maggioranza delle applicazioni. Da quello che so, i computer quantistici sono in grado di generare, per gl algoritmi appositamente formulati, una enorme quantita' di risultati contemporaneamente, e poi verificare quale di queste e' corretta 'annullando' tutte le altre. Di conseguenza c'e' bisogno che:

-Si possa trovare una soluzione producendo una enorme quantita' di risultati in parallelo.
-Sia possibile, data una soluzione candidata, verificare se e' corretta o no.

Per esempio, per decrittare un documento e' possibile generare una enorme quantita' di chiavi contemporaneamente, e poi verificare quali sono quelle corrette (approccio brute force). Mi sembra pero' che, finche' la classe di algoritmi per i quali esiste una formulazione quantistica rimane ristretta, molte applicazioni non ne trarranno beneficio...

Poi puo' essere che mi sbaglio.

Comunque sia, la computazione quantistica NON e' un potenziamento di quella classica.
Mparlav08 Giugno 2009, 10:37 #5
Anche Intel, ha inserito i 22nm nel 2012 ed i 16nm nel 2014.
Stesse date e processi indicati anche da Globalfoundries.

Dopo il 2014, qualcosa s'inventeranno

O meglio, già l'hanno inventata (tipo i chip 3D di Ibm), il problema è portare tutto ciò in produzione di massa a costi accettabili.
Severnaya08 Giugno 2009, 10:52 #6
nn mi preoccupa tanto la potenza elaborativa, quanto che i programmi, di qualsiasi natura essi siano, la sfruttino, altrimenti tanto valeva restare coi dual core se tanto cmq vengono sfruttati 1\1,5 core

nn conosco la difficoltà nel programmare, figuriamoci programmare per cpu con più core, ma da profano nn mi sembra che all'aumentare del numero di core vi sia un incremento delle prestazioni proporzionale

ovv in ambito nn professionale

se per il mio pc di casa ho 8 core fisici di cui ne sfrutto poco più di 1... nn è che ne sia entusiasmato

che sia una questione di costi???
Cionno08 Giugno 2009, 11:20 #7
beh mica sono solo i processori...
e cmq la tecnologia multicore solo ora si sta smuovendo in ambito software, seven ha una buona gestione del dual/quadcore

ad ogni modo più si abbassa la tecnologia produttiva in termini di nanometri più aumenta l'efficienza, vedi calore prodotto per watt il che si ripercuote principalmente su cpu e gpu che sono letteralmente ingorde di corrente e corredate ormai di dissipatori di dimensioni notevoli e speso accoppiati a rumorosità molto elevate
gi0v308 Giugno 2009, 11:25 #8
Originariamente inviato da: gionnico
Ormai il commento alle notizie che parlano di miglioramento del processo produttivo è sempre quella.

Da 45 siamo passati a 32 con 13nm di differenza. Ora la differenza si fa di 10nm coi 22nm.


Va bene fare ancora ricerca, ma rimpicciolire sempre meno costa sempre più.

Ormai i limiti delle molecole sono vicini.
Il passo avanti da fare è la computazione quantistica, che sfrutta gli orbitali degli atomi.

Si parla di dimensioni incredibilmente più piccole anche se non esiste un'implementazione in produzione.

Esistono già, tuttavia dei modelli sperimentali.

non hai fatto caso ai passaggi? guardando in nm, e partendo un po' più indietro

[COLOR="DarkGreen"]350[/COLOR]
[COLOR="DarkOrange"]270[/COLOR]
[COLOR="DarkGreen"]180[/COLOR]
[COLOR="DarkOrange"]130[/COLOR]
[COLOR="DarkGreen"]90[/COLOR]
[COLOR="DarkOrange"]65[/COLOR]
[COLOR="DarkGreen"]45[/COLOR]
[COLOR="DarkOrange"]32[/COLOR]
[COLOR="DarkGreen"]22[/COLOR]

se prendi uno step si e uno no hai una sequenza di processi produttivi che si dimezzano andando avanti con la miniaturizzazione, quindi il punto non è quanto poco calano, perchè sappiamo già che sotto i 22 nm lo step successivo sarà a 16, cioè la metà di 32, e dopo ancora sarà a 11, cioè la metà di 22... e poi che discorso è? per il passaggio dai 180 ai 130 nm hanno "tolto" 50 nm, secondo te dai 32 ne possono togliere di nuovo 50?
TRF8308 Giugno 2009, 11:47 #9
Il motivo di tutto ciò è che si scala con un fattore pari alla radice di 2! 65/rad(2)=45 (circa, ovviamente);
45/rad(2)=32/rad(2)=22. Il prossimo passo dovrebbe essere 16nm.
Mparlav08 Giugno 2009, 11:50 #10
Originariamente inviato da: Severnaya
nn mi preoccupa tanto la potenza elaborativa, quanto che i programmi, di qualsiasi natura essi siano, la sfruttino, altrimenti tanto valeva restare coi dual core se tanto cmq vengono sfruttati 1\1,5 core

nn conosco la difficoltà nel programmare, figuriamoci programmare per cpu con più core, ma da profano nn mi sembra che all'aumentare del numero di core vi sia un incremento delle prestazioni proporzionale

ovv in ambito nn professionale

se per il mio pc di casa ho 8 core fisici di cui ne sfrutto poco più di 1... nn è che ne sia entusiasmato

che sia una questione di costi???


Salire di Mhz costa tanto. Aumentare il numero di core, la cache e l'IPC è la strada più semplice ed economica.

E cmq, l'idea Intel del "Turbo Mode" ed il SMT va' nella direzione, di spingere sui Mhz o sul parallelismo a seconda di come è strutturata l'applicazione.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^