PDA

View Full Version : IBM: un percorso di quattro anni nella silicon photonics


Redazione di Hardware Upg
05-03-2010, 17:10
Link all'Articolo: http://www.hwupgrade.it/articoli/cpu/2397/ibm-un-percorso-di-quattro-anni-nella-silicon-photonics_index.html

La circolazione dell'informazione all'interno del sistema ad opera del fotone e non più dell'elettrone: questo lo scopo ultimo della silicon photonics, un ambito nel quale IBM, oltre ad altri colossi, sta compiendo importanti passi avanti

Click sul link per visualizzare l'articolo.

Rikardobari
05-03-2010, 17:14
E finanziamola questa ricerca!!!! articolo impressionante!

Unrealizer
05-03-2010, 17:36
impressionante davvero... speriamo solo che non resti teoria (o meglio, spero di vivere abbastanza da vedere il passaggio dalla teoria alla pratica di tutti i giorni :D)

cristo1976
05-03-2010, 17:47
Mi ricordo un prototipo di computer che si basava su interconnesioni a raggi laser, mi pare...
Ovviamente le dimensioni erano incompatibili con il concetto di pc al quale siamo abituati, ma era un primo passo e in effetti i risultati erano molto promettenti. Si iniziava, così, ad abbattere i classici colli da bottiglia interni ad un sistema.

In questo caso la storia si ripete...IBM da il via alla seconda era dei PC, come fece per la prima...
Grandi continuate così!

stefanogiron
05-03-2010, 17:47
Loro la stanno finanziando eccome la ricerca.
Siamo noi in Italia che non sappiamo cosa voglia dire investire in ricerca :(, purtroppo, perchè nelle poche eccezioni siamo capaci di grandi risultati; Vedi le grandi menti Italiane all'estero.

supertigrotto
05-03-2010, 18:08
dopo l'era dell'inquinamento elettromagnetico,nascerà l'era dell'inquinamento luminoso!
Gli astrofili non saranno molto contenti!

Albacube
05-03-2010, 18:55
bene, bello, buono... :)

prima dell'integrazione all'interno di un microchip però mi sa che vedremo l'applicazione di questi concetti per l'interconnessione fra chip tradizionali... con le velocità e la banda ottenibili i bus tradizionali diventeranno archeologia e avremo una scheda mamma "fotonica": la gioia di ogni appassionato!!!

Sajiuuk Kaar
05-03-2010, 19:11
Speriamo hce la cosa prenda piede :)
In effetti oramai, per quanto possano essere potenti i possibili colli dei computer sono sempre gli stessi:
la velocità di lettura degli HD e la potenza di elaborazione del processore...
Per quanto possa essere un esempio stupido:
prendete supreme commander... daccordo che è lento a causa di un bug che non chiude i thread ma richiede una potenza di calcolo che è infinita... se i dati viaggiassero letteralmente alla velocità della luce FORSE ci sarebbe la potenza di calcolo necessaria :D

rigelpd
05-03-2010, 19:45
ho letto bene? Esaflops/s su di un portatile?

Se anche questa tecnologia ci mettesse 5 anni a arrivare avremmo come minimo un balzo di 15 anni nella potenza di calcolo! Un'pò come passare in un soffio dai Pentium 60Mhz agli esacore dei giorni nostri....

solaris
05-03-2010, 20:15
Hai letto male!
Exaflop non esa...

Markk117
05-03-2010, 21:00
Studiando Ottica all'università dico WOW spero che facciano in fretta a sviluppare questi sistemi perchè ho già visto circuiti stampati con fibre ottiche al posto di rame!

Ultravincent
05-03-2010, 21:10
certo che la IBM è mostruosa...

homero
05-03-2010, 21:13
IBM è sempre al top per quanto riguarda la ricerca, purtroppo questa si sta sempre piu' riducendo ad ambiti privati lasciando i politecnici a languire nella mediocrità...
questo non è bene

Buffus
05-03-2010, 21:22
notevole....anche se non credo possa diventare realtà prima di 15-20 anni!
Realtà utilizzabile intendo, per prototipi si può attendersi qualcosa anche tra 5-6 anni secondo me :)

Parlando all'uni con dei prof che studiano appunto l'ottica guidata, pare che la ricerca in tal senso sia ancora in uno stadio piuttosto embrionale: si stanno costruendo i rispettivi mezzi ottici che costituiscono i componenti di un circuito elettronico, per dirla così

peler
05-03-2010, 22:21
andando un po fuori tema...

noi all'uni stiamo studiando le proprietà elettromagnetiche dei nanotubi di graphene, in poche parole, questi tubi sfruttando l'effetto proiettile possono far viaggiare elettroni a resistenza prossima allo 0 se non proprio pari a 0 come avviene per i superconduttori, il tutto a temperatura ambiente.

Si parlava che costruire sistemi di comunicazione all'inteno di chip di questo tipo e anche sul pcb di una scheda anzi che usare piste in ram o con semiconduttori si usano "piste" in nanotubi si aumenterebbe enormemente la velocità di trasmissione e di conseguenza anche la potenza di calcolo dei pc, infatti ora come ora il limite da superare per aumentare la velocità e la potenza sta solo nell'eliminare il collo di bottiglia dei bus di comunicazione.


Se si riuscisse a creare un processo industriale per produrre chip, microchip, e processori sfruttando fogli di graphene al posto del silicio e come bus di comunicazione sfruttare i nanotubi questo farebbe fare grandi passi in avanti nell'hw dei pc.

Ci sono varie strade, questa dell'ibm con i sistemi di comunicazione a fotoni, quella a nanotubi, ora basta solo vedere chi o cosa arriverà prima.
Comunque fa sempre bene la ricerca anche se conduce a risultati a distanza di anni o decenni come nei computer quantici.

HeDo_Progz
05-03-2010, 22:36
ma ci girerà crysis?

elevul
06-03-2010, 00:10
Wow.
Però mi viene un dubbio: perché a ste tecnologie non hanno iniziato a lavorarci 10 o 15 anni fa, per averle pronte ora, invece che iniziare a lavorarci 4 anni fa, quando si è capito che il rame stava iniziando a diventare un collo di bottiglia per i processori attuali? Non capisco perché lasciare sempre le cose all'ultimo minuto, francamente...

ARARARARARARA
06-03-2010, 00:32
L'articolo dice:
Al giorno d'oggi i più moderni supercomputer richiedono spazi di allestimento enormi, e consumi nell'ordine dei megawatt. Grazie a quanto IBM è riuscita a realizzare, sarà possibile realizzare supercomputer che per funzionare richiederanno l'equivalente energetico di una semplice lampadina.

E io dico: permettetemi di ridere!

Attualmente i supercomputer sono enormi in passato erano enormi e in futuro dovrebbero essere piccoli? ma stiamo scherzando?

Allora un cellulare ha una potenza immensa confronto ad un supercomputer degli anni 70, quindi l'obiettivo è stato raggiunto, il supercomputer degli anni 70 assorbiva megawatt di potenza, il cellulare pochi watt bom fine dell'evoluzione è piccolo, perfetto basta! e invece no! ci sono supercomputer che hanno potenze nettamente superiori ad un cellualre e sono grandi e consumano tanto! Questo cosa significa? significa che se mi fanno un chip che ha la potenza di 1000 supercomputer attuali con quello ci faranno comunque dei rack assurdi con centinaia di quei chip centinaia di memorie etc etc risultato... sarà grande e consumerà tanto, la dimensione si è ridotta nel tempo anche quella dei supercomputer ma sono comunque enormi, l'uomo non si accontenta mai di un risultato raggiunto!

demon77
06-03-2010, 00:48
L'articolo dice:
Al giorno d'oggi i più moderni supercomputer richiedono spazi di allestimento enormi, e consumi nell'ordine dei megawatt. Grazie a quanto IBM è riuscita a realizzare, sarà possibile realizzare supercomputer che per funzionare richiederanno l'equivalente energetico di una semplice lampadina.

E io dico: permettetemi di ridere!

Attualmente i supercomputer sono enormi in passato erano enormi e in futuro dovrebbero essere piccoli? ma stiamo scherzando?

Allora un cellulare ha una potenza immensa confronto ad un supercomputer degli anni 70, quindi l'obiettivo è stato raggiunto, il supercomputer degli anni 70 assorbiva megawatt di potenza, il cellulare pochi watt bom fine dell'evoluzione è piccolo, perfetto basta! e invece no! ci sono supercomputer che hanno potenze nettamente superiori ad un cellualre e sono grandi e consumano tanto! Questo cosa significa? significa che se mi fanno un chip che ha la potenza di 1000 supercomputer attuali con quello ci faranno comunque dei rack assurdi con centinaia di quei chip centinaia di memorie etc etc risultato... sarà grande e consumerà tanto, la dimensione si è ridotta nel tempo anche quella dei supercomputer ma sono comunque enormi, l'uomo non si accontenta mai di un risultato raggiunto!

Beh no aspetta, il concetto dovrebbe essere che con un sistema di questo tipo la potenza di calcolo che oggi è propria di un supercomputer sarà contenuta in un semplice pc con consumi di un semplice pc!
I supercomputer poi saranno sempre enormi ma la potenza sarà.. beh direi inimmaginabile!! :eek:

Se guardiamo al passato direi che è una cosa vista più volte.. un pc di oggi è più potente dei primi supercomputer con una esigenza di spazio, costi ed energia minimi!

E' l'anima stessa della ricerca in tutti i campi: sempre migliorare sempre andare avanti.. direi che è una bella cosa! :)

leddlazarus
06-03-2010, 01:00
Beh no aspetta, il concetto dovrebbe essere che con un sistema di questo tipo la potenza di calcolo che oggi è propria di un supercomputer sarà contenuta in un semplice pc con consumi di un semplice pc!
I supercomputer poi saranno sempre enormi ma la potenza sarà.. beh direi inimmaginabile!! :eek:

Se guardiamo al passato direi che è una cosa vista più volte.. un pc di oggi è più potente dei primi supercomputer con una esigenza di spazio, costi ed energia minimi!

E' l'anima stessa della ricerca in tutti i campi: sempre migliorare sempre andare avanti.. direi che è una bella cosa! :)

appunto.

per certe elaborazioni la potenza non è mai abbastanza.
con supercomputer che ci saranno fra 10-20 anni (pura ipotesi) si potranno compiere simulazioni estremamente complesse e utili, tipo ricerche mediche o nucleari, che oggi è ancora impossibile fare.

quindi ben vengano certi studi, non vedo cosa ci sia di male.

anzichè spendere soldi inutilmente in ricerche belliche od finanziare progetti militari di svariati miliardi di $, si potrebbero accelerare queste che potrebbero servire di +.

Xove
06-03-2010, 01:03
Fantastico come la ricerca vada avanti a passi da gigante, se abbiamo fortuna tra 7~10 anni i primi modelli commerciali, si spera!
Ovviamente prima che i prezzi diventino abordabili ne passerà qualche altro. :D

ARARARARARARA
06-03-2010, 01:13
anzichè spendere soldi inutilmente in ricerche belliche od finanziare progetti militari di svariati miliardi di $, si potrebbero accelerare queste che potrebbero servire di +.

bhè sappi che buona parte delle moderne tecnologie deve ringraziare solo ed esclusivamente le guerre, i computer prima della seconda guerra mondiale erano inutili e nessuno ci investiva molto da li in poi hanno preso importanza, gli inglesi con un computer riuscivano a decifrare i codici nazisti prima dei nazisti stessi che esavano "enigma" per decifrare!

Vuoi altri esempi? il teflon è stato inventato pensa un po' per impermeabilizzare i vestiti dei soldati mi pare nella seconda guerra mondiale (penso che non sia mai stato usato per quello scopo ma io avevo un paio di pantaloni trattati col teflon (dei giorni d'oggi) e non si sporcavano neanche se ci cadeva su il sugo... fighissimi)

Il riso che non scuoce... invenzione per l'esercito...

ma ce ne sono una valanga, la ricerca militare ha sempre avuto grandi finanziamenti e ha portato ad inventare tantissime cose!

non voglio dire che le guerre siano un bene, anzi, ma io credo che in qualsiasi cosa ci sia sempre un qualcosa di positivo!

alexrozzy
06-03-2010, 02:24
Sarebbe una svolta ancora più grande importare questo tipo di tecnologia sui nuovi wafer di Grafite (sperimentali)...Lì sì che si avrebbe una svolta abnorme con prestazioni allucinanti! ;) Ma giustamente: un passetto per volta!..;)

PATOP
06-03-2010, 09:28
@ ARARARARARARA

non credo sia un caso che IBM sia una delle maggiori socetà a godere dei maggiori rapporti con enti governativi americani (ed anche in generale nel mondo)........la storia parla in questo senso.........potremmo cominciare dalla tecnologia che IBM fornì al TERZO REICHNAZISTA......a tutta l'informatica presente nelle missioni NASA.....e via via fino ai giorni odierni con i SUPERCOMPUTER degli ENTI più inportanti degli stati uniti (DIPARTIMENTO DELL'ENERGIA e DIFESA). Direi quindi che con questi tipo di "collegamenti" si trovano chiaramente anche quei flussi di denaro che permettono investimeni per le ricerche di questo tipo..........mi sembra di aver letto in questi giorni che per fine 2010 IBM ha in cantiere un nuovo SUPERCOMPUTER (sempre per un qualche ente governativo americano) basato sui nuovi POWER7 e che avrà prestrazioni diversi oridini di grandezza degli attuali TOP500.

rigelpd
06-03-2010, 14:29
In genere il trend è il seguente:

http://www.top500.org/lists/2009/11/performance_development

La potenza di calcolo dei supercomputer di 8-10 anni fa è quella dei desktop attuali... di conseguenza per il 2018 se non ci saranno rallentamenti dovremmo avere nelle nostre case PC da petaflop/s....e supercomputer da exaflop/s

!fazz
06-03-2010, 15:03
appunto.

per certe elaborazioni la potenza non è mai abbastanza.
con supercomputer che ci saranno fra 10-20 anni (pura ipotesi) si potranno compiere simulazioni estremamente complesse e utili, tipo ricerche mediche o nucleari, che oggi è ancora impossibile fare.

quindi ben vengano certi studi, non vedo cosa ci sia di male.

anzichè spendere soldi inutilmente in ricerche belliche od finanziare progetti militari di svariati miliardi di $, si potrebbero accelerare queste che potrebbero servire di +.

Perchè secondo te chi sono i principali utilizzatori di supercomputer?

Pier2204
06-03-2010, 15:31
cut....

anzichè spendere soldi inutilmente in ricerche belliche od finanziare progetti militari di svariati miliardi di $, si potrebbero accelerare queste che potrebbero servire di +.

Le ricerche belliche per progetti militari vengono finanziati direttamente dal governo USA.

L'azienda, (in questo caso IBM) presenta il progetto e il governo se ritiene necessario finanzia la ricerca e lo sviluppo. La conseguenza di questo è che i risultati di questi progetti nel lungo periodo ne beneficiano anche le produzioni commerciali.

Oppure, l'azienda finanzia in proprio lo sviluppo di una nuova tecnologia costosissima, che per questo può essere "comprata" solo dall'amministrazione militare che non ha problemi di budget o di ritorno economico.
Una volta ammortizzato la spesa, l'azienda potrebbe rivolgersi al mercato con le dovute modifiche per un utilizzo civile, come è successo per la costellazione di satelliti geostazionari GPS, finanziati in origine per scopi militari.

Purtroppo le più grandi innovazioni tecnologiche sono figlie degli utilizzi bellici.
Wernher Von Braun utilizzò l'esperienza che fece nella costruzione delle V1 e V2 Tedesche, missili diretti verso Londra durante il secondo conflitto mondiale, per mettere le basi al progetto Apollo che portò i primi astronauti sulla Luna...

scorpionkkk
06-03-2010, 15:45
Questo articolo mi deprime cosi come i precedenti.
Per chi, come me, ha studiato e lavorato a livello universitario in questi ambiti, in situazioni disastrate sia a livello economico che di valorizzazione della ricerca ed è stato costretto a cambiare mestiere per sopravvivere in questo dannato paese, vedere un colosso come IBM ottenere risultati di fotonica su silicio quando già nel 2004 sia "La Sapienza" di Roma che l'Università di Trento lavoravano sugli stessi concetti usando il Nitruro di Silicio con le debite conversioni di uomini e mezzi, mi fa rabbia.

Insomma, sto a rosicà. :D

Unrue
06-03-2010, 15:57
In genere il trend è il seguente:

http://www.top500.org/lists/2009/11/performance_development

La potenza di calcolo dei supercomputer di 8-10 anni fa è quella dei desktop attuali... di conseguenza per il 2018 se non ci saranno rallentamenti dovremmo avere nelle nostre case PC da petaflop/s....e supercomputer da exaflop/s

Beh, insomma. Dove sono i desktop da 1 teraflop/s? :mbe:

Unrue
06-03-2010, 16:05
Wow.
Però mi viene un dubbio: perché a ste tecnologie non hanno iniziato a lavorarci 10 o 15 anni fa, per averle pronte ora, invece che iniziare a lavorarci 4 anni fa, quando si è capito che il rame stava iniziando a diventare un collo di bottiglia per i processori attuali? Non capisco perché lasciare sempre le cose all'ultimo minuto, francamente...

Perché 15 anni fa eravamo ancora ben lontani dal limite dei processori attuali, quindi non se ne sentiva il bisogno. Inoltre servono le conoscenze tecnologiche e apparecchiature specifiche per trattare e studiare questo tipo di problematiche che evidentemente 15 anni fa non c'erano o erano comunque in fase embrionale.

SoleNeve
06-03-2010, 16:08
Per capire come mai gran parte delle innovazioni è conseguenza delle guerre, è sufficiente chiedersi chi in ultima analisi indirizza e ha indirizzato la ricerca tramite la gestione dei finanziamenti... ;)

amagriva
06-03-2010, 16:49
Commento # 23 di: PATOP pubblicato il 06 Marzo 2010, 09:28

pissipissipissipissipissiBAUBAUBAU.......pissipissipissipissiBAUBAUBAU........pissipissipissiBAUBAUBAU!

leoneazzurro
07-03-2010, 01:24
ma ci girerà crysis?

No, ma una bella ammonizione ci sta tutta

Commento # 23 di: PATOP pubblicato il 06 Marzo 2010, 09:28

pissipissipissipissipissiBAUBAUBAU.......pissipissipissipissiBAUBAUBAU........pissipissipissiBAUBAUBAU!

E anche qui, che commenti sono questi? Lo spamming é vietato.

nudo_conlemani_inTasca
07-03-2010, 13:56
L'articolo è molto bello, interessante e soprattuto fa intravedere quello che tra pochi anni (giudicando dal grado di messa in opera e di fattibilità di queste nuove tecnologie) permetteranno di avere uno sviluppo vero e proprio in ambito computazionale per utenza privata.

IBM si è sempre distinta, anche con il Power7 @ 8 cores (ogni core gestisce 4 threads) cosa che nessuno ha ancora realizzato al mondo, nei microprocessori ha dimostrato di essere leader mondiale da sempre, e di avere il futuro nel cassetto, roba impensabile per Intel e AMD.

Il silicio ha le ore contate, anche la fotonica potrà dare un po' di ossigeno
prima del cambio dei materiali per la realizzazione di calcolatori del futuro.

Vero è che il cuore di un calcolatore è decisamente più veloce di tutto il resto dell'architettura periferica molto lenta.

Ora gli HDD con SSD, faranno un balzo in avanti in termini prestazionali,
lasciandosi alle spalle il concetto di legacy (lento e cigolante).

Unrue
07-03-2010, 14:11
IBM si è sempre distinta, anche con il Power7 @ 8 cores (ogni core gestisce 4 threads) cosa che nessuno ha ancora realizzato al mondo, nei microprocessori ha dimostrato di essere leader mondiale da sempre, e di avere il futuro nel cassetto, roba impensabile per Intel e AMD.



Beh un momento, credo ti stia riferendo al Simultaneous multithreading. Intel ha una tecnologia simile che è l'Hyperthreading.

amagriva
07-03-2010, 14:23
Commento # 32 di: leoneazzurro pubblicato il 07 Marzo 2010, 01:24

Originariamente inviato da: amagriva
Commento # 23 di: PATOP pubblicato il 06 Marzo 2010, 09:28

pissipissipissipissipissiBAUBAUBAU.......pissipissipissipissiBAUBAUBAU........pissipissipissiBAUBAUBAU!

E anche qui, che commenti sono questi? Lo spamming é vietato.

Ammetto che il messaggio era un po "dadaista" ma volevo solo fare un piccolo sberleffo all'uso "singolare" di maiuscole e punteggiatura di Patop che avevo voluto rappresentare così.
Mille scuse

leddlazarus
07-03-2010, 16:19
bhè sappi che buona parte delle moderne tecnologie deve ringraziare solo ed esclusivamente le guerre, i computer prima della seconda guerra mondiale erano inutili e nessuno ci investiva molto da li in poi hanno preso importanza, gli inglesi con un computer riuscivano a decifrare i codici nazisti prima dei nazisti stessi che esavano "enigma" per decifrare!

Vuoi altri esempi? il teflon è stato inventato pensa un po' per impermeabilizzare i vestiti dei soldati mi pare nella seconda guerra mondiale (penso che non sia mai stato usato per quello scopo ma io avevo un paio di pantaloni trattati col teflon (dei giorni d'oggi) e non si sporcavano neanche se ci cadeva su il sugo... fighissimi)

Il riso che non scuoce... invenzione per l'esercito...

ma ce ne sono una valanga, la ricerca militare ha sempre avuto grandi finanziamenti e ha portato ad inventare tantissime cose!

non voglio dire che le guerre siano un bene, anzi, ma io credo che in qualsiasi cosa ci sia sempre un qualcosa di positivo!

Perchè secondo te chi sono i principali utilizzatori di supercomputer?

e chiss+ per cosa lo usano.

solo un aggettivo PURTROPPO.

ne sono consapevole, anche internet deriva da un progetto militare.

pero' che mondo PENOSO un mondo dove si finanziano miliardi sono per ricerche su come uccidere altre persone.

ormai con la caduta dell'urss certe cose hanno sempre meno significato, e il terrorismo deriva dalla povertà.

basta un po' di buon senso e di guerre o rivoluzioni non ce ne dovrebbero essere +

sono un sognatore, ma lasciatemelo fare.

Pleg
07-03-2010, 19:46
IBM si è sempre distinta, anche con il Power7 @ 8 cores (ogni core gestisce 4 threads) cosa che nessuno ha ancora realizzato al mondo

Che IBM abbia sempre fatto ricerca eccezionale non ci piove, ma non inventiamoci fesserie :)

Il Sun Niagara ha 4 thread per core, ed e' uscito nel 2005 (e deriva dall'Afara chip di inizio anni 2000).

Il Tera MTA era un design alquanto particolare, con 128 thread per core e niente cache (fine anni '90).

Mentre il primo design multithreaded (due thread, "red" e "blue") dovrebbe sempre essere sempre di IBM... da qualche parte alla fine degli anni '50, se ricordo bene (anche se fu solo un prototipo concettuale).

Er Paulus
09-03-2010, 14:46
due anni fa, come progetto di tesi ho realizzato, per la prima volta in Italia, mediante software, un array laser a cristallo fotonico. Cioè un dispositivo laser formato da 5 laser in parallelo, collegati mediante un multiplexer sempre in critallo fotonico.
L'unico grande limite della fotonica è rappresentato dalla difficoltà di realizazione fisica dei dispositivi ( i modelli teorici esistono da più di 15 anni); pensate solo che all'interno del reticolo fotonico, le microcavità hanno diametro di 2 nanometri.
I vantaggi dei dispositivi "fotonici" sono parecchi, fra tutti le dimensioni molto contenute e soprattutto l'assenza di "alimentazione" esterna per poter funzionare.
Il laser progettato è almeno 20 volte più piccolo del più avanzato laser "elettronico" e soprattutto può arrivare a frequenza molto più alte; il che consentirebbe anche di essere utilizzato per incidere e quindi stampare circuiti sempre più microscopici

tossy
10-03-2010, 02:32
due anni fa, come progetto di tesi ho realizzato, per la prima volta in Italia, mediante software, un array laser a cristallo fotonico. Cioè un dispositivo laser formato da 5 laser in parallelo, collegati mediante un multiplexer sempre in critallo fotonico.
L'unico grande limite della fotonica è rappresentato dalla difficoltà di realizazione fisica dei dispositivi ( i modelli teorici esistono da più di 15 anni); pensate solo che all'interno del reticolo fotonico, le microcavità hanno diametro di 2 nanometri.
I vantaggi dei dispositivi "fotonici" sono parecchi, fra tutti le dimensioni molto contenute e soprattutto l'assenza di "alimentazione" esterna per poter funzionare.
Il laser progettato è almeno 20 volte più piccolo del più avanzato laser "elettronico" e soprattutto può arrivare a frequenza molto più alte; il che consentirebbe anche di essere utilizzato per incidere e quindi stampare circuiti sempre più microscopici

Quoto!! Ottimo intervento.

Già 20 anni fà avevo letto della fotonica applicata all'elettronica x la generazione di una cella singola NAND (a funzionamento ottico intendo, non elettrico), la base di tutte le porte logiche.

Speriamo che procedano, il salto prestazionale sarebbe difficile da immaginare agli effetti pratici.