PDA

View Full Version : Perché i processori desktop non sono cosi?


nakodnas
02-06-2004, 17:45
Perché i processori desktop non sono cosi?

http://www.lithium.it/articolo.asp?code=34&pag=1

http://www.ce.unipr.it/~fantini/Alpha/dati/10.htm

perché non li fanno superscalari? 6 istruzioni per colpo di clock! con 9 milioni di transistor appena! :muro:

per non parlare dei Cray e dei NEC sx-6 .............

perché ci pensano tentano d'imitarli tramite le SSE2 ecc...... invece di abbandonare un architettura come la x86 che ha troppe istruzioni e quindi va contro i principi di von neuman?

http://www.geek.com/procspec/sgi/r20000.htm

http://www.geek.com/procspec/sgi/r18000.htm

aridatece i RISC !!!!!

nakodnas
02-06-2004, 17:55
vorrei sapere perché intel non mette subito il suo itanium nei desktop visto che ha una densità di potenza percentuale inferiore solo ai MIPS

dibe
02-06-2004, 17:57
probabilmente perchè ci sarebbe qualche milione di PC totalmente obsoleto dall'oggi al domani, bisognerebbe riscrivere un fracco e una sporta di sotfware e progettare nuove cpu...:confused:

nakodnas
02-06-2004, 18:03
Originariamente inviato da dibe
probabilmente perchè ci sarebbe qualche milione di PC totalmente obsoleto dall'oggi al domani, bisognerebbe riscrivere un fracco e una sporta di sotfware e progettare nuove cpu...:confused:

già oggi lo fanno! al posto di migrare ai x86-64 bit potevano migrare al RISC superscalare subito! e poi esiste l'emulazione harware!

quel proccio ALPHA va piu veloce di un pentium4 2400mhz secondo i benchmark! :muro: :muro: infatti ai laboratori di LosAlamos usano quello mica la ROBA che usiamo noi!
se poi pensi che è costruito con 9 milioni di transistor a 0.18 ..........

tommy781
02-06-2004, 18:07
- costi :buttare via intere linee produttive non piace a nessuno
- software: riscrivere da zero i programmi non piace neanche
- compatibilità: schede madri da buttare, rifare architetture ecc...
- reale utilità: a casa ti serve un pc da NASA?
- pericolo: troppa potenza alla portata di tutti non piace a chi ha il potere

nakodnas
02-06-2004, 18:13
Originariamente inviato da tommy781
- pericolo: troppa potenza alla portata di tutti non piace a chi ha il potere


direi che questa è l'unica vera! visto che esite l'emulazione hardware come athlon64 e la tecnica produttiva è la medesima ed i socket li cambiano di continuo comunque!

però io lo voglio ecco!

e poi perché non usano i transitor luminosi? negli LCD riescono ad elaborare la luce polarizzandola.......ma perché non lo fanno anche nei processori.........:muro:

TripleX
02-06-2004, 18:20
L'1% degli utenti utilizza la potenza di un Athlon 3200 64bit o P4 che sia e se lo fa e' solo per applicazioni videoludiche ovvero spreco totale e te vorresti piu' potenza??
per fare cosa?? per usare word o excel??

Johnn
02-06-2004, 18:35
Anche io penso che il problema non sia che non ci vogliano dare più potenza. Sono perplesso sul fatto che sarebbe troppo costoso, nel senso di cambio di linee di produzione, software, ecc, un cambio così radicale di tecnologia. Ciò vorrebbe dire che siamo condannati ad avere per sempre processori x86 magari sempre più spremuti ma che diventeranno un giorno, se già non lo sono, tecnologicamente obsoleti?
ciao

nakodnas
02-06-2004, 18:38
Originariamente inviato da TripleX
L'1% degli utenti utilizza la potenza di un Athlon 3200 64bit o P4 che sia e se lo fa e' solo per applicazioni videoludiche ovvero spreco totale e te vorresti piu' potenza??
per fare cosa?? per usare word o excel??

a molte cose! anche ai ricercatori la potenza non basta ed i transistor descritti sopra li metteranno sul mercato forse fra 10 anni!


tutto per la speculazione e per il vile denaro! quando con dei calcoli in piu la proteina anti aids e cancro sarebbe a portata di mano

http://punto-informatico.it/p.asp?i=46949

Ai Pirelli Labs centro di ricerca
fra i più avanzati del mondo

di
Luciano Clerico


Se una notte d'inverno un viaggiatore passando dalle parti di viale Sarca, alla periferia nord di Milano, alzasse gli occhi verso il silenzio di quella sequenza infinita e rossa che sono i muri in mattoni dei vecchi stabilimenti Pirelli, avrebbe probabilmente un sospiro di nostalgia. Visti da fuori, infatti, quei vecchi mattoni rossi gli porterebbero alla mente in quella desolata periferia urbana l'eco del mondo operaio di inizio secolo, quando in fabbrica si andava in migliaia e Milano era, proprio lì in viale Sarca, uno spaccato italiano di Rivoluzione Industriale inglese.

Il viaggiatore, di fronte a quei mattoni rossi, mai più potrebbe pensare che, al contrario, dietro a quei muri non giace il passato ma pulsa il futuro: sta nascendo il chip ottico. Il Santo Graal della ricerca in tema di trasmissioni dati.

Dietro a quei muri ci sono quelle che in Pirelli vengono chiamate le Case Bianche. Sono i Pirelli Labs: centri di ricerca tra i più avanzati al mondo, per i quali il gruppo ha investito qualcosa come 270 miliardi di lire. Costituiscono il punto di riferimento per tutte le attività di ricerca del gruppo Pirelli nel mondo. Sono infatti collegati a tutti gli altri centri e, grazie ad accordi e consorzi, con laboratori privati negli Stati Uniti, nel Regno Unito, in Russia. Vi lavorano scienziati provenienti da tutto il mondo, fisici, ingegneri, matematici, tutti impegnati in quello che la comunità scientifica riconosce come uno dei punti più avanzati della ricerca mondiale nel campo delle fibre ottiche.

Li guida Giorgio Grasso, amministratore delegato della Optical Innovation dei Pirelli Labs. Studiano, sperimentano, elaborano e sono in tanti. Quando il progetto sarà a regime le persone impegnate saranno circa 250. E 40 di esse da un paio di anni sono costantemente impegnate in un'unica attività. Cosa fanno? Cercano. Cercano di mettere a punto una tecnologia destinata a sconvolgere le velocità del già pur velocissimo mondo del chip: studiano su come riuscire a far viaggiare milioni di bit dentro a un cavo. Alla velocità della luce. Il segreto è piccolo piccolo, quasi invisibile: è il chip ottico, il chip della luce.

Non è un caso se il presidente della Pirelli, Marco Tronchetti Provera, afferma con orgoglio che i Pirelli Labs "rappresentano la punta di diamante della nostra ricerca avanzata". Attraverso questi laboratori la Pirelli punta infatti a diventare quella che nel gergo industriale multinazionale viene chiamata come una "knowledge company", "una società - aggiunge Tronchetti Provera - che si evolve e crea valore attraverso lo sviluppo di nuove conoscenze e tecnologie". In altre parole, una società che vende scoperte.

E' per questo che dietro a quei vecchi mattoni rossi si cerca di dare vita al futuro. E il futuro per Pirelli ha un nome ben preciso: fotonica. Quegli uomini cercano di realizzare due obiettivi: da un lato mettere a punto il chip ottico (nuova frontiera delle cosiddette nanotecnologie), dall'altro riuscire a permettere l'industrializzazione di nuove fibre ottiche ad altissime prestazioni, cavi, cioè, capaci di trasmettere fino a l0Terabit al secondo (unTerabit uguale a mille miliardi di bit) e su distanze di gran lunga maggiori rispetto alle attuali.

E' la fotonica, nuova branca della scienza fondata sullo studio della luce. Si chiama così perché si fonda sui fotoni, come vengono definite le particelle che formano la luce. In una trasmissione dati fotonica i bit viaggiano non più in forma di impulsi elettrici (e dunque attraverso cavi elettrici), ma in forma di particelle di luce (i fotoni). E il cavo non è più in rame, come quelli elettrici per intenderci, ma è in quella che oggi si definisce fibra ottica. Dentro alla quale la velocità di trasmissione è, letteralmente, quella della luce. Sarà a quella velocità che, in un futuro sempre più vicino, verranno trasmesse le informazioni.

Gli scienziati impegnati nei Pirelli Labs non solo stanno per mettere a punto un sistema tecnicamente possibile, ma - e questa è la vera differenza - questa tecnica sarà riproducibile a livello industriale. Con un conseguente abbattimento dei costi e una possibilità di sviluppo assolutamente rivoluzionario nel campo delle telecomunicazioni e delle trasmissioni di dati. Perché, a costi più bassi rispetto a quelli attuali, le informazioni viaggeranno alla velocità della luce (per intenderci, alla velocità di 1 gigabit per secondo, cioè 10 mila volte superiore agli attuali 56 kilobits per secondo che sono lo standard attuale).

E' in funzione di quella velocità che gli scienziati della Pirelli anche di notte sperimentano, studiano, prova-no, cercano. Sanno che al fondo della loro ricerca la scoperta possibile vale quanto il Santo Graal. Da viale Sarca, periferia nord Milano, sono in collegamento costante con gli altri Pirelli Labs nel mondo e con gli scienziati americani del Massachussetts Institute of Technology (MIT) Microphotonics Center, con il quale la Pirelli ha firmato una stretta alleanza. Tutti insieme cercano i confini della nuova frontiera: le nanotecnologie ottiche.


Le nanotecnologie ottiche
Per questo tipo di ricerca la Pirelli, che è all'avanguardia nel mondo, ha investito qualcosa come 2 milioni di dollari all'anno per tre anni, a cominciare dal gennaio di un anno fa. Il programma prevede che esperimenti e ricerche proseguano per tutto il 2004. Se i risultati, come si spera, dovessero essere quelli attesi, la ricerca proseguirà e l'Italia potrà vantare il privilegio di essere la prima al mondo in un settore che rivoluzionerà tutti i sistemi di trasmissione del pianeta, a cominciare da Internet.

Dietro a quei muri di mattoni rossi, che in realtà proteggono asettici e attrezzatissimi stanzoni bianchi dove gli scienziati entrano vestiti come astronauti o quasi, si cercano i sistemi integrati ottici di nuova generazione, basati sulle nanotecnologie. In altre parole il chip ottico, cioè a dire un chip della grandezza di pochi millimetri quadrati. Capace però di accogliere sulla sua superficie di silicio purissimo ben una decina di componenti tra laser, amplificatori, modulatori. L'inizio di una rivoluzione. Perché quel chip permetterà di massimizzare la quantità di dati trasmessi sulla singola fibra ottica. E le cosiddette trasmissioni "a banda larga" potranno arrivare "massimizzate" fino all'utente finale. In altre parole, in ogni computer arriveranno alla velocità della luce o quasi tante e tali informazioni da trasformare quel singolo pc in una sorta di media center.

"Le nanotecnologie - spiega Giorgio Grasso, che è uno dei massimi esperti mondiali impegnati in questo tipo di ricerche - costituiscono il futuro delle telecomunicazioni su fibra ottica, dal momento che permetteranno la miniaturizzazione e l'integrazione dei componenti ottici, con conseguente riduzione dei costi in funzione dei volumi di produzione".

Produrre una fibra ottica di questa natura costerà molto meno, il materiale sarà più resistente e, soprattutto, i risultati consentiranno lo sviluppo di tutta una serie di prodotti attualmente impensabili. Gli scienziati le chiamano "nuove realtà tecnologiche". Il presidente di Pirelli, Marco Tronchetti Provera, invece, non le chiama. Non sa ancora precisamente quale nome o quale possibile uso avranno quelle nuove realtà. "Sono sicuro - ha sempre ripetuto da quando il progetto Pirelli Labs è partito - che questa è la tecnologia del futuro, e noi abbiamo la possibilità di arrivarci per primi. L'unico rischio è di investire troppo, e di farlo troppo presto. Ma ci crediamo".

Questione di orgoglio nazionale da un lato. Ma dall'altro questione di business planetario: Tronchetti Provera sa bene che a livello mondiale il business è calcolato in qualcosa come 60 miliardi di dollari nell'arco dei prossimi dieci anni.

INTERNET E FIBRA OTTICA, UN MATRIMONIO CHE S'HA DA FARE
Per molte persone, sia in Italia che nel resto del mondo, il boom di Internet portò alcuni anni fa a sognare ad occhi aperti chissà quali magnifiche sorti e progressive per l'economia e lo sviluppo. L'euforia iniziale lasciò presto il posto ad un più lento e sano realismo, nel senso che il mercato è andato e sta ancora andando verso un suo assestamento complessivo. L'euforia è passata. Ma se sono cadute le illusioni di guadagni iperbolici e immediati, nello stesso tempo sono rimaste intatte tutte le possibilità legate al mezzo. E qui sta il punto, che è anche la ragione - in definitiva - per cui Pirelli sta investendo milioni di dollari: Internet continua a rappresentare una potenzialità enorme per il mercato a livello globale. Dal punto di vista per così dire "infrastrutturale" i margini di sviluppo possono approdare a risultati rivoluzionari. Perché gli utenti di Internet chiedono una cosa su tutte: la possibilità di trasmettere più informazioni e in modo più veloce.

Gli scienziati della Pirelli stanno cercando in definitiva di dare una risposta a questa esigenza: come dare "più banda" ai bit. La disponibilità di banda è sempre più necessaria non solo per i servizi tradizionali, quali la telefonia o la trasmissione dati, ma anche per renderne disponibili di nuovi servizi che in passato erano supportati da reti diverse (per esempio la televisione), oppure non esistevano (mi riferisco al video telefono, ai servizi cosiddetti "video on demand", oppure a tutto ciò che attiene alla telemedicina). Da qui la spinta verso lo sviluppo di tecnologie ottiche sempre più innovative e potenti, capaci di durare nel tempo senza dare origine a limitazioni di banda e senza necessità di essere modificate, almeno per quanto riguarda l'infrastruttura di base.

Da questa esigenza è nata la fibra ottica. In termini molto sintetici, la fibra ottica è un cavo composto da un nucleo di vetro e protetto da un involucro esterno che si chiama guaina. Dentro a quel cavo viene trasmessa la luce. O, per essere più precisi, vengono trasmesse le particelle di cui la luce è composta, i fotoni. Le due componenti, vetro e guaina, sono disposte in modo tale che quella luce, che "entra" nel cavo da una fonte luminosa iniziale (un laser) possa essere sempre riflessa. E dunque correre lungo quell'anima di vetro per centinaia di chilometri. E correre, ça va sans dire, alla velocità della luce.

ALCUNI CENNI STORICI SU COME GUIDARE LA WCE
E' interessante riportare, seppur per sommi capi, alcuni cenni storici della ricerca scientifica in questo settore. Anche perché dalla scoperta del vetro (che possiamo far risalire agli Egizi) ad oggi sono passati circa cinquemila anni ma il silicio continua ad essere elemento proiettato nel futuro.

Dopo gli Egizi, furono i Veneziani intorno all'anno Mille a capire come il vetro poteva essere ulteriormente raffinato e reso più trasparente. Vennero poi i primi studi sulla rifrazione: nell'Ottocento gli studiosi inglesi Daniel Colladon e John Tyndall riuscirono a mostrare come la luce potesse essere guidata con riflessioni successive all'interno di uno zampillo d'acqua circondato da aria. Nel 1910, poi, altri due studiosi, Hondros e Deybe, misero a punto la teoria secondo cui si può trasmettere una radiazione luminosa utilizzando una guida costituita da diversi strati di materiale trasparente, ciascuno con un differente indice di rifrazione. A questo scopo si cominciò a pensare al vetro.

Il primo laser a semiconduttore è stato realizzato dai ricercatori della General Electric e della IBM nel 1962. Nel 1966 escono i primi studi sui vetri a basse perdite: gli studiosi Kao e Hockam dimostrano che i valori intrinseci della silice pura (cioè il composto che sta alla base del comune vetro) hanno una capacità di attenuazione bassissima della luce. Sono così stati avviati programmi di ricerca per la produzione di vetri altamente puri, che hanno portato alla fabbricazione delle fibre ottiche attuali. Il vetro con cui sono fabbricate ha una caratteristica su tutte: attenuazione (della luce) bassissima. E' un vetro perfettamente trasparente.

Negli ultimi vent'anni si è realizzata un'attenuazione tale da raggiungere in pratica il limite teorico del materiale puro (al di sotto del quale non si può ovviamente andare). Le fibre ottiche di ultima generazione presentano attenuazioni prossime al limite teorico della silice vetrosa su volumi dell'ordine di parecchi milioni di chilometri l'anno.

Verso la banda "virtualmente infinita"

Dato che dopo alcune centinaia di chilometri il segnale luminoso deve essere in qualche modo "rigenerato", la ricerca in questi anni si è concentrata sulla messa a punto di amplificatori ottici. E si è arrivati a realizzare una tecnologia, denominata DWDM (Dense Wavelength Division Multiplexing) che consente di trasmettere su una singola fibra più canali a diverse lunghezze d'onda (o diversi "colori"). In parole semplici, quella luce che corre dentro alla fibra ottica viene suddivisa fino a 160 "colori" simultaneamente, ciascuno dei quali è in grado di trasportare 10Gbit al secondo. E' stata dunque già infranta dal punto di vista tecnico la barriera del Terabit (mille miliardi di bit) al secondo.

Ebbene: grazie ai Pirelli Labs, Pirelli è oggi in grado di costruire cavi che contengono fino a 1.152 fibre ciascuno: una singola installazione di cavo può trasportare 2 Petabit, cioè due milioni di miliardi di bit al secondo. E' un primato mondiale.

Lo stadio successivo della ricerca è volto alla soluzione di questi due problemi: da un lato come risolvere l'inconveniente del cosiddetto "ultimo miglio", cioè quella parte di linea che collega la grande condotta con le case della gente. La maggior parte delle case del mondo, infatti, ha linee telefoniche vecchie, sulle quali il segnale viaggia ancora in forma elettrica. Dunque più lentamente. E questo "ultimo miglio" si trasforma così per le velocissime particelle di luce in un incredibile collo di bottiglia.

L'altro problema è come convertire i segnali luminosi in segnali elettrici, cioè gli unici segnali comprensibili (al momento) da computer e televisori. E' nella risoluzione di questi due problemi che si nasconde la sfida, ed è appunto questo tipo di sfida che gli scienziati dei Pirelli Labs hanno lanciato al futuro.

Il loro obiettivo è questo: miniaturizzare le diverse componenti di un chip ottico in modo da consentire lo svolgimento di funzioni complesse in spazi ridotti. E', appunto, la sfida delle nanotecnologie, nuova frontiera della cosiddetta comunicazione fotonica. Dentro ai laboratori di ricerca di viale Sarca si vanno sperimentando componenti di dimensione nell'ordine dei micron (millesimo di millimetro) e dei nanometri (milionesimo di millimetro). Cosa significa? Significa che, per ora sul piano teorico ma tra breve sul piano pratico (e su larga scala), la banda sta per essere virtualmente infinita.

DAI FOTONI Al NEUTRINI?
C'era una volta il microchip. Oggi il termine è sinonimo di un passato molto più che remoto. Perché il chip di nuova generazione sarà ottico. Microscopico eppure capace di ospitare in sé decine di componenti; praticamente invisibile eppure in grado di far scorrere all'interno dei suoi segreti circuiti non più gli elettroni, ma le particelle di luce, i fotoni.

La ricerca non ha ancora terminato di sperimentare tutte le possibili applicazioni del chip ottico che (potere della velocità della luce) ecco aprirsi nuove potenziali frontiere per un mezzo di comunicazione: applicare alle telecomunicazioni la trasmissione di fasci di neutrini. Fantascienza? No, al limite Fisica Teorica, ma protratta a tali estremi da rasentare la Filosofia. Mi spiego. Dentro alla Case Bianche dei Pirelli Labs si sta facendo anche questo: si sta studiando la trasmissione a neutrini. Teorizzati ancora da Enrico Fermi negli Anni Trenta e quindi definitivamente provati nella seconda metà del Novecento, i neutrini sono particelle elementari che esistono in teoria. Cioè, non possono non esistere, ma la loro esistenza può solo essere ipotizzata.

Questa è infatti la definizione di neutrino: "particella elementare ... la cui esistenza deve essere ipotizzata per evitare le contraddizioni che sorgono dalla descrizione di una disintegrazione atomica". Cioè: solo ammettendo per ipotesi l'esistenza di questa particella elementare, "il processo di disintegrazione atomica ... risulta coerente con le leggi fisiche abituali".

Nei Pirelli Labs uno degli obiettivi è anche questo: studiare la possibilità di utilizzare particelle diverse dai fotoni. E le particelle a cui si pensa sono, appunto, i neutrini. "Attraverso ricerche particolarmente avanzate - spiega Giorgio Grasso - cercheremo di identificare e generare, grazie ad alcuni tipi di cristallo, i neutrini. Questi nuovi sviluppi potrebbero rendere possibile l'applicazione alle telecomunicazioni dei fasci di neutrini, in grado di attraversare l'intero pianeta con un'attenuazione del segnale trascurabile".

Di fatto questi esperimenti, di assoluta avanguardia nel mondo, proseguono quelli intrapresi nei primi Anni Novanta dalla Marina Militare degli Stati Uniti e dalla Università Statale di Milano. "Un "laser a neutrini" - sottolinea Grasso - a differenza di quello ottico potrebbe emettere un fascio in grado di attraversare oltre 12 mila chilometri di materiale con una attenuazione del segnale non significativa".



un mio amico ci lavora dentro ed ha confermato! stanno spostandosi dalla semplce trasmissione della luce alla sua elaborazione

quella è una vecchia notizia apparsa tempo fa su giornali tipo sole24ore


PS: la luce ha 10^16 hz di frequenza...........e non scalda fai un po tu!

VOGLIO IL "PIRELLI INSIDE"

qui: http://www.dinoxpc.com/Rubriche/newsweek.asp?ID_R=125 hanno fatto una cosa piu rudimentale! ma 8Tera di velocità non sono male!

ironia
02-06-2004, 19:52
Qualsiasi prodotto o servizio promette una visione o meglio un sogno al proprio compratore: un bucato più bianco, un viaggio più sicuro, un fisico più sano, una vecchiaia più serena.


da punto informatico....:sofico: :sofico: :sofico:

riaw
02-06-2004, 20:04
1) costi: devi buttare tutti i progetti di p4 athlon o roba del genere.
quindi i costi di ricerca e sviluppo fino ad adesso sono stati buttati.
2) l'a64 saranno circa 2 anni che lo testano, se iniziassero oggi a progettarlo lo vedresti nel 2007 se tutto va bene.
3) compatibilità: tutto l'hw e il software fatto fino ad adesso va a farsi benedire, qualsiasi software house deve riscrivere da zero tutti gli applicativi, testarli,e ricommercializzarli.
4) servono programmatori apposta. i programmatori sono una brutta bestia, soprattutto quando devono imparare qualcosa di nuovo (primo teorema dell'informatica).

una considerazione di fondo: i primi processori a 32 bit aveano un flag che li limitava a 16 bit per retrocompatibilità verso i giochi dos.

questo vi da una vaga idea della compatibilità richiesta a un processore oggigiorno.

ev8
02-06-2004, 21:05
Originariamente inviato da nakodnas
Perché i processori desktop non sono cosi?

http://www.lithium.it/articolo.asp?code=34&pag=1

http://www.ce.unipr.it/~fantini/Alpha/dati/10.htm

perché non li fanno superscalari? 6 istruzioni per colpo di clock! con 9 milioni di transistor appena! :muro:

per non parlare dei Cray e dei NEC sx-6 .............

perché ci pensano tentano d'imitarli tramite le SSE2 ecc...... invece di abbandonare un architettura come la x86 che ha troppe istruzioni e quindi va contro i principi di von neuman?

http://www.geek.com/procspec/sgi/r20000.htm

http://www.geek.com/procspec/sgi/r18000.htm

aridatece i RISC !!!!!

Perchè da ventanni l'HardWare non conta più un gran chè, quello che conta è il SoftWare. Se hai un chip che è il 50% più efficente, ma non ci gira UT2004 o Autocad2004 rimarrà sempre una commerciale ciofeca, paragonato con un x86, e rischierà di finire male ( v. che fine ha fatto la Digital ).