View Full Version : Celle di Peltier direttamente all'interno dei chip
Redazione di Hardware Upg
11-01-2008, 17:44
Link alla notizia: http://www.hwupgrade.it/news/cpu/celle-di-peltier-direttamente-all-interno-dei-chip_23853.html
Una start-up statunitense ha annunciato un interessante sistema di raffreddamento studiato per i chip elettronici basato sull'effetto Peltier
Click sul link per visualizzare la notizia.
PocotoPocoto
11-01-2008, 17:48
Questo è molto interessante, si verrebbe ad avere un'estrazione di calore molto più decisa. Poi resterebbe il compito dei dissipatori di smaltirla.
l'impiego diretto delle celle di Peltier come sistema di raffreddamento non ha avuto un largo utilizzo se non tra alcuni utenti appassionati di overclocking.L'autore ignora che negli apparecchi termografici i sensori all'arseniuro di Gallio sono raffreddati proprio con delle celle di Peltier.
Se riuscissero a realizzare questo sistema con mini celle di Peltier direttamente nel chip sarebbe veramente un idea geniale
farinacci_79
11-01-2008, 17:53
...ma queste celle, seppur microscopiche, consumano qualcosina in termini di energia, quindi sarebbe un sistema in controtendenza rispetto alla progressiva diminuzione del consumo di corrente dei chip odierni (GPU o CPU che siano).
Inoltre sarebbe un costo aggiunto per ogni chip prodotto che innalzerebbe il prezzo finale senza aumentare la resa per l'utente che in fin dei conti vuole il massimo spendendo il meno possibile.
Quindi, tranne particolari CPU o GPU per uso professionale o comunque non HOME, SOHO o server/workstation di piccola/media intensità di lavoro, non credo che questa idea, seppur ottima dal lato pratico, venga mai implementata....
Spero di venir contraddetto in futuro dai fatti
F1R3BL4D3
11-01-2008, 18:02
L'autore ignora che negli apparecchi termografici i sensori all'arseniuro di Gallio sono raffreddati proprio con delle celle di Peltier.
Se riuscissero a realizzare questo sistema con mini celle di Peltier direttamente nel chip sarebbe veramente un idea geniale
:stordita: Forse perchè intendeva nel campo dei PC di cui il sito si occupa? :doh:
magilvia
11-01-2008, 18:50
Il problema vero delle celle di Peltier è che aumentano di molto il consumo e il calore totale, calore che andrà smaltito con la tradizionale aletta, quindi paradossalmente ci vogliono alette più grandi ed efficenti per far funzionare bene il tutto...
pingalep
11-01-2008, 19:06
invece il vantaggio economico e costruttivo imho c'è per produttore e speriamo per consumatore.
non si aprla di celle peltier a tutta superficie del package, ma di minicelle che vanno a dissipare punti precisi, detti hotspot, che per la quantità di calcoli o la densità di transistor si scaldano molto+in fretta. dato che l'affidabilità di un sistema dipende dall'anello + debole della catena di fattori che contribuiscono al funzionamento, mi sembra intuibile che se questi hotspot possono essere meglio dissipati possono essere spinti a frequenze maggiori, assieme a tutto il resto della cpu!
ilproblema del riscaldamento sta diventando ridicolo, i pc diventano sempre più rumorosi a causa delle ventoline che comunque consumano corrente anche loro... se si trovasse un sistema un po' meno rozzo non sarebbe male, anche perchè ste ventoline non credo siano particolarmente efficaci....
due ventole sul case, una sulla cpu, una sul chipset e qualche volta pure una sulla scheda grafica.... 4 o 5 ventole mi sembrano davvero troppe sinceramente...
PocotoPocoto
11-01-2008, 19:21
Il problema vero delle celle di Peltier è che aumentano di molto il consumo e il calore totale, calore che andrà smaltito con la tradizionale aletta, quindi paradossalmente ci vogliono alette più grandi ed efficenti per far funzionare bene il tutto...
Per la verità il funzionamento della cella di peltier non aumenta il calore totale, ma lo estrae spostandolo di fatto dalla faccia di contatto diretto a quella esterna migliorando il raffreddamento della prima. Appare chiaro che il compito del dissipatore sarà più gravoso, ma questo è ampiamente compensato dalla superficie di contatto col die decisamente più fredda.
interessantissimo!!!!
avete visto il video sul loro sito?
vi lascia così O.O
interessantissimo!!!!
avete visto il video sul loro sito?
vi lascia così O.O
divertente esperimento, tuttavia appena togli corrente sembra diventare parecchio caldo...
magilvia
11-01-2008, 19:52
Per la verità il funzionamento della cella di peltier non aumenta il calore totale, ma lo estrae spostandolo di fatto dalla faccia di contatto diretto a quella esterna migliorando il raffreddamento della prima. Appare chiaro che il compito del dissipatore sarà più gravoso, ma questo è ampiamente compensato dalla superficie di contatto col die decisamente più fredda.
Dimentichi il particolare più importante (altrimenti detto secondo principio della termodinamica nella formulazione di Clausius :D ): al calore spostato si aggiunge il calore generato dalla cella stessa, e se tieni presenti che una cella mediamente consuma sui 50W, capisci perchè le normali celle non sono una soluzione facilmente utilizzabile.
Ora le celle di cui parla l'articolo sono microscopiche quindi tutte insieme consumeranno forse solo pochi watt, ma è comunque calore che va dissipato...
PocotoPocoto
11-01-2008, 20:08
Dimentichi il particolare più importante (altrimenti detto secondo principio della termodinamica nella formulazione di Clausius :D ): al calore spostato si aggiunge il calore generato dalla cella stessa, e se tieni presenti che una cella mediamente consuma sui 50W, capisci perchè le normali celle non sono una soluzione facilmente utilizzabile.
Ora le celle di cui parla l'articolo sono microscopiche quindi tutte insieme consumeranno forse solo pochi watt, ma è comunque calore che va dissipato...
Non l'avevo dimenticato, ma data la microarchitettura pareva chiaro il consumo totalmente trascurabile delle celle. Potrebbe essere 1W forse, ma forse si parla di mW. Dipende tutto dall'ordine di grandezza in gioco.
Le celle di peltier consumano così tanto per l'effetto joule, visto che c'è molta corrente che passa: le attuali celle peltier sono dei pezzi di semiconduttore e delle saldature. C'era una azienda che aveva progettato delle celle di peltier "integrate", cioè con spessore molto piccolo e non dei mattoncini spessi, saldati con pezzi di filo. Se si diminuisce lo spessore, diminuisce proporzionalmente l'effetto joule. Perciò queste celle di peltier potrebbero generare veramente pochi Watts aggiuntivi... :) Resta comunque la potenza necessaria per compensare la "diminuzione" dell'entropia...
IMHO:
Ma se queste celle rendono bene, si potrebbe aumentare la temperatura della superficie del die: se posso tenere la superficie di 30 gradi superiore capite che il dissipatore rende meglio avendo una differenza maggiore di temperatura tra lo stesso e l'aria.
Star trek
11-01-2008, 20:47
Questo ovviamente alzerà in consumi in modo significativo.
Quando qualcuno mi spegherà a cosa serve tutta questa potenza, che poi si traduce in chip costosissimi, che producono molto calore a persone (come me e moltissimi altri) che devono solo scrivere, fare calcoli e usare internet allora sarò felice.
Non possiamo fare SO più leggeri ,programmi più leggeri, ed al tempo stesso sicuri che funzionano su pc leggeri e parsimoniosi in termini di energia?
Poi fare anche cpu potentissime,ok... ma non solo quelle
MiKeLezZ
11-01-2008, 21:43
raffreddano le parti a maggior temperatura del processore con delle stufe? ottimo. questo si chiama progresso...
Quando qualcuno mi spegherà a cosa serve tutta questa potenza, che poi si traduce in chip costosissimi, che producono molto calore a persone (come me e moltissimi altri) che devono solo scrivere, fare calcoli e usare internet allora sarò felice.
Non possiamo fare SO più leggeri ,programmi più leggeri, ed al tempo stesso sicuri che funzionano su pc leggeri e parsimoniosi in termini di energia?
Poi fare anche cpu potentissime,ok... ma non solo quelle
oggi se vuoi semplicemente scrivere un documento con un pc su cui è installato Vista devi avere 2 gb di ram e un processore relativamente recente... perchè? perchè all'industria hardware serve vendere costantemente e chi produce il SO deve cercare di soddisfare la richiesta dei produttori hardware, non la tua.
E le finestrelle fighe che zoomano, esplodono, bruciano e volano come le fai senza questi mega processoroni? :D
Xalexalex
11-01-2008, 22:25
Per quanto riguarda la condensa però come si fa? Certo, si riuscisse a far aderire la parte fredda completamente alla CPU, non ci sarebbero problemi però anche una microscopica gocciolina d'acqua potrebbe causare problemi...
AceGranger
12-01-2008, 01:52
Quando qualcuno mi spegherà a cosa serve tutta questa potenza, che poi si traduce in chip costosissimi, che producono molto calore a persone (come me e moltissimi altri) che devono solo scrivere, fare calcoli e usare internet allora sarò felice.
Non possiamo fare SO più leggeri ,programmi più leggeri, ed al tempo stesso sicuri che funzionano su pc leggeri e parsimoniosi in termini di energia?
Poi fare anche cpu potentissime,ok... ma non solo quelle
bè a molte persone che non sei tu, e ce ne sono moltissimi, serve potenza, e per scrivere, navigare e fare i calcoli te la cavi alla grande anche con il processore piu economico presente in commercio, la ram minima e la scheda video integrata. eccoti un sistema che non conuma nulla per quelli come te. se non serve a te non è detto che non serva agli altri, e in quanto al SO per quello che ci fai tu puoi benissimo metterci linux che richiede meno risorse di winzoz
Possibile l'acquisizione se la tecnologia, in questa incarnazione, fosse molto vantaggiosa, al punto da volerla precludere ai concorrenti (oppure se i concorrenti avessero già qualcosa di simile e non si volesse restare indietro); in ogni caso, in alternativa all'acquisizione, potrebbero semplicemente ottenere una licenza con diritto di modificare la tecnologia per adattarla alle proprie esigenze. Se non ricordo male, amd aveva depositato un brevetto per infilare una cella di peltier all'interno del package; come diceva bjt2, si era parlato, tempo fa, di un sistema di raffreddamento analogo, da applicare esternamente e caratterizzato da tecnologie all'avanguardia e da uno spessore di poche centinaia di micron.
L'effetto Peltier non è così malvagio come sembrerebbe a vedere il rendimento degli "esemplari" in commercio: a livello teorico, infatti, una cella di Peltier (ed equivalentemente, un generatore termoelettrico ad effetto Seebeck) ha lo stesso rendimento di una macchina di Carnot usata come refrigeratore (o come macchina termica, nel caso di Seebeck). I problemi, nel caso reale, sono 2: la resistenza (e quindi l'effetto joule, come diceva bjt2) e la conduzione spontanea di calore. Bene: riducendo sensibilmente la lunghezza dei conduttori si riduce la resistenza elettrica (e anche scegliendo conduttori adeguati), mentre la conduzione spontanea si riduce con un isolante termico realizzato con nanotecnologie (che limitano i gradi di libertà delle molecole, e quindi le vibrazioni all'interno del reticolo cristallino, ovvero la possibilità di scambiare calore con le celle vicine).
Più ci si avvicina ai limiti teorici, più si ottiene un ottimo scambiatore termico, al prezzo di un consumo energetico del tutto trascurabile, specie se si considera che il calore mal dissipato può interferire con la stabilità del processore, oltre ad accorciarne la vita (e questo a prescindere dalla progettazione di componenti elettronici più efficienti e dai consumi ridotti: è inevitabile che si formino dei punti caldi). Poi, si può anche pensare di affiancare, all'esterno, un'altra cella che funzioni in maniera opposta (effetto seebeck) per recuperare una parte dell'energia spesa (non tutta, chiaramente).
Con un sistema integrato come questo, di fatto i dissipatori dovrebbero essere ulteriormente maggiorati, in quanto come si è detto, al calore prodotto dal processore si deve aggiungere quello prodotto dal consumo energetico della cella.
L'aumento del consumo energetico e del calore rende necessario l'utilizzo di dissipatori ancor più efficenti (di fatto chi utilizza celle di peltier associa a queste sistemi di dissipazione spintissimi).
E' questo il motivo per cui le attuali celle di peltier, pur disponibili e relativamente economiche, non hanno mai preso piede e sono poco considerate nel mercato consumer.
Siamo passati dai piccoli dissipatori passivi degli anni 80/90 (ora manco validi a raffreddare il chipset) ai mostri in rame e ai sistemi di dissipazione sempre più spinti dei giorni nostri.
Ci lamentiamo dei consumi sempre più elevati dei processori, ma finiamo per installare nelle nostre macchine vere fabbriche di calore pur di soddisfare il benchè irrisorio guadagno prestazionale.
Per cui... ben venga questa tecnologia! :P
Xeal nel suo post ipotizza una tecnologia che in linea teorica potrebbe essere applicata con consumi energetici aggiuntivi irrisori. Se gli esperti oggetto di news hanno realizzato delle celle a bassissima incidenza energetica, non ho dubbi riguardo al successo sul mercato di questo prodotto.
N.B: Due considerazioni dopo una visita sul portale:
L'effettiva dimensione delle celle sembra essere quella dei prototipi "reali" appoggiati sulle monete, molto piccoli, ma ben più grandi di quelli "renderizzati" mostrati anche nell'immagine di news.
Poche unità delle celle fotografate sulle monete coprirebbero per intero la superficie di un microprocessore, mentre nel "rendering" le proporzioni sono ben altre.
Parlando del video: La cella di peltier, come detto, rende una superficie fredda e l'opposta calda. Nel video si ha l'impressione che la parte ghiacciata si estenda fino alla parte opposta, come se l'intera cella fosse fredda. Mi vien da pensare che sia la parte inferiore (quella metallica sulla quale è appoggiato il cubetto) quella che produce l'abbassamento di temperatura.
Star trek
12-01-2008, 12:45
raffreddano le parti a maggior temperatura del processore con delle stufe? ottimo. questo si chiama progresso...
ovviamente al chip andrà applicato un dissipatore...
+Benito+
12-01-2008, 14:31
le celle di peltier non consumeranno mai 1 mW se devono spostare dei w, e tanto maggiore è la differenza di temperatura tra il lato caldo e quello freddo, tanto maggiore è l'assorbimento. La condensa non c'è a causa dela differenza di temperatura, ma c'è solo se la temperatura del lato freddo uguaglia od è minore della temperatura di rugiada dell'aria nella zona che la lambisce.
Può essere una soluzione intelligente per poche aree selezionate del chip, ma non per gli usi a cui siamo abituati. Avere un delta T di solo 10-15°C tra le facce potrebbe essere tollerato sia intermini di consumo che di stress meccanici. Pensare che all'interno di un chip possano esserci aree a 60°C ed altre a -30°C è semplicemente inattuabile.
Mc_Sturl4
12-01-2008, 21:37
Non sono un fisico ne un ingegnere, ma quotando Alessandro::Xalexalex come la si mette con l'eventuale condensa che si potrebbe formare?
In questa implementazione delle Peltier, sta tutto dentro il package, la faccia più esterna (a contatto con il dissipatore o la placca protettiva) è il lato caldo, quindi niente aria e niente condensa.
anch'io ritengo che essendo inglobato nel package si risolve il problema della condensa e il calore viene ben distribuito visto le microdimensioni
e comunque è giusto fare ricerca verso delle nuove soluzioni che all'inizio possono sembrare piene di difetti ma che solo una buona dose di lavoro di evoluzione (e money naturalmente :)) possono portare ad un'ottima innovazione o a scartarla!
ad esempio i processori intel sono passati dai Prescott che consumavano anche la nostra di energia agli ultimi penryn che andando il 300% in più consumando la metà(percentuali approx ;))
per chi si chiede perchè si sviluppano certe tecnologie e si ricerca sempre di migliorare, basti pensare ai settori specializzati alla ricerca dei grandi centri internazionali che hanno bisogno di pc molto potenti per fare modelli matematici (un settore molto esigente è quello della ricerca meteorologica)
e alla fine siamo noi a mantenere tali ricerche acquistando i vari hardware
una cosa che mi ha fatto specie è la frase che dice che un grosso colosso potrebbe inglobare nextreme per sviluppare tale tecnologia o.o
bè a molte persone che non sei tu, e ce ne sono moltissimi, serve potenza, e per scrivere, navigare e fare i calcoli te la cavi alla grande anche con il processore piu economico presente in commercio, la ram minima e la scheda video integrata. eccoti un sistema che non conuma nulla per quelli come te. se non serve a te non è detto che non serva agli altri, e in quanto al SO per quello che ci fai tu puoi benissimo metterci linux che richiede meno risorse di winzoz
dimmi chi sono quei moltissimi a chi serve potenza
chi deve giocare, chi fa della grafica pesante
I centri di ricerca che fanno della fluidodinamica computazionale, comprano computer da 1M€, è un altro mercato
ma non ditemi che rappresentano una quota importante del mercato, forse solo chi gioca rappresenta una fetta importante
Installerei Linux se non fosse che i programmi che uso per lavoro funzionano solo con windows, spero di non essere costretto a passare a vista tra qualche anno
Mia sorella ha appena preso il pc nuovo, ha Vista preinstallato,
è come andare in processione, una pena
Con tutta questa potenza potremmo fare pc che si accendono come i cellulari, in un batter d'occhio, velocissimi, invece siamo ancora qui con dei SO spesso lentissimi su macchine che consumano centinaia di W e hanno dissipatori dalle dimensioni motoristiche
Perché non fare PC che consumano qualche decina di W in totale e sono veloci nell'utilizzo dei sw d'uso comune proprio come i cellualri
cesenandre
14-01-2008, 00:37
un bel muletto no? video e audio integrati, processore downvoltato con raffreddamento passivo, un alimentatore da pochi watt con un'alta percentuale di resa e ci installi su winxp o linux...pochi watt di consumo, bassa rumorosità e fa quel che deve...se proprio devi usare vista carica un bel po' di ram che ultimamente costa davvero poco
Vedo che aleggia ancora il mito del software superottimizzato che gira veloce con pochi mhz e fa risparmiare sull'hardware... NON è così, perchè, se non si vuole vivere di sole copie pirata, allora bisogna mettere in conto anche il costo del software, che in uno scenario simile sarebbe mooooooooooooooooooooooolto alto! Perchè? perchè programmare costa tempo e denaro, e questo costo è proporzionale alla complessità degli algoritmi: un algoritmo superottimizzato è un algoritmo sofisticato, complicato, che richiede parecchio tempo per essere sviluppato e testato a dovere, e aumenta disastrosamente la probabilità di introdurre bug, quindi rende più complicata e costosa la manutenzione del software (mi pare ovvio e banale pensare che fare una cosa difficile significhi rischiare più facilmente di sbagliare). Insomma, fare cose complicate se non indispensabile in informatica è controproducente; del resto, un computer è una macchina, nostra schiava, che nasce proprio con l'obbiettivo di risolvere rapidamente problemi complessi riducendoli in una serie ripetitiva di azioni semplici ed estremamente veloci, ma questo riesce tanto meglio quanto maggiore è la forza bruta della macchina. Nei "bei tempi andati" degli elaboratori a schede perforate, ad esempio, ci si doveva scervellare per riuscire a risparmiare pochi byte su un totale di poche cantinaia di byte, giostrando a livello di singoli bit da sparpagliare/recuperare qua e la, e questo perchè le risorse hardware imponevano una certa parsimoniosità; i software di per sè erano molto più semplici, essenziali, concetti come interfacce utente e interattività erano del tutto sconosciuti (si preparava la scheda con i dati e il programma, la si dava in pasto al calcolatore e si attendeva il risultato dell'elaborazione). Oggi, programmare in modo simile sarebbe semplicemente assurdo, perchè grazie al cielo, col tempo, i componenti hardware sono diventati sempre più potenti e diffusi e facili da produrre a costi sempre più bassi, quindi è diventato via via anche più facile programmare sfruttando le maggiori risorse per fare le stesse cose che prima si facevano con grande difficoltà (ma sempre meglio che dover fare tutto "a manina" ), più altre cose "a contorno", e questo è diventato vantaggioso PER TUTTI. Tornare indietro sarebbe a dir poco una CATASTROFE!
Insomma, perchè dovremmo ingegnarci, OGGI, su come realizzare A MANO le Piramidi in maniera efficiente e rapida, ottimizzando il lavoro della manodopera, se possiamo farlo in maniera molto più rapida ed efficiente usando laser, camion e gru? Questo non vuol dire che non si debba mai ottimizzare niente, quando serve lo si fa, e in genere un po' tutti gli algoritmi, con il tempo, vengono migliorati, affinati, resi più veloci da una release all'altra, ma nello stesso tempo vengono aggiunte nuove funzionalità che da un lato si avvantaggiano della maggiore potenza di calcolo delle macchine più recenti, dall'altro cercano di rendere l'uso del computer più produttivo e/o più gradevole: sta poi a chi lo usa farlo bene, e scegliere bene la macchina e i software più adatti alle proprie esigenze. Che in molti scenari le macchine di oggi sottosfruttate, poi, può essere vero, ma è un altro discorso, perchè nessuno è obbligato a seguire una moda o la frenesia del ricambio tecnologico: compri un pc, installi il software che ti serve, e te li tieni finchè vanno bene per le tue esigenze. Questo si sa bene negli ambiti professionali, e infatti si compra solo quello che serve e quando serve, e chi fornisce macchine ad uffici assembla dei sempron o dei celeron con schede madri senza tanti orpelli e vga integrata, o a basso costo e potenza, non certo dei quad core, e tante macchine "da supermercato" seguono la stessa logica (salvo poi venir acquistate inavvertitamente da un utente inesperto che si aspetta e necessita di più, anche solo per giocare). Quando si deve cambiare il software, può essere necessario cambiare anche il pc, ma fidatevi, conviene (economicamente) più questo scenario di uno in cui si fanno nuovi software ottimizzati per hardware "obsoleto" (come dicevo, e vi prego di credermi senza polemizzare, il software costerebbe molto ma molto di più, e così anche l'hardware, sia per un upgrade necessario, sia per sostituire un componente malfunzionante).
Ma voglio provare anche a sfatare qualche mito...
I computer di oggi consumano tantissimo: falso. Negli ultimi anni abbiamo assistito a un trend per cui, ad esempio, i processori mantengono un livello di consumo massimo paragonabile (se non addirittura inferiore) a quello della generazione precedente, a fronte di un aumento nelle prestazioni; inoltre, da alcuni anni sono stati introdotti sistemi di risparmio energetico molto avanzati, grazie ai quali, quando non sono sfruttati al 100%, consumano poche decine di watt (20-30W nell'uso comune, o anche meno; in idle, poi, sono quasi spenti). Le schede grafiche sono il punto dolente, ma quelle vengono sfruttate molto dai giochi, quindi non si può parlare, francamente, di potenza sprecata; per chi non è interessato all'ambito videoludico, ci sono le vga integrate nei chipset, che consumano pochi watt, e inoltre si è cominciato a pensare a dei sistemi di risparmio energetico anche per le gpu, oltre alla possibilità di affiancare una vga integrata nella scheda madre per spegnere la scheda più potente quando non serve. Certo, non siamo ai livelli di un 286, ma non usiamo nemmeno gli stessi software... Ovviamente, si può e si deve fare ancora molto (come ad esempio diffondere maggiormente alimentatori con una buona efficienza, che non sprechino energia inutilmente quando non sono usati a pieno carico).
Abbiamo hardware sufficientemente potente da realizzare un istant-on, ma dobbiamo aspettare un interminabile mezzo minuto per colpa di sistemi operativi inadeguati: falso. Esiste un collo di bottiglia molto stretto nei computer più moderni, e si chiama hard disk: esistono dispositivi (costosetti, che consumano parecchio, magari poco "affidabili" per un uso quotidiano) che consentono di usare qualche GB di memoria ram come disco di sistema (usano delle batterie per mantenere i dati per alcune ore a computer spento): bene, con un ramdisk si può fare il boot del sistema in una manciata di secondi; prestazioni simili si possono avere (e si avranno sempre di più in futuro) con gli ssd (specialmente in raid, ma già con un raid opportuno di dischi "normali" si può migliorare la velocità del sistema), e questo senza la necessità di un processore iperveloce. Poi, ricordiamo anche che spesso il sistema operativo precarica in ram alcune parti dei programmi più usati, per velocizzarne l'avvio (e il riavvio, perchè li chiuderemo, li riapriremo e così via): sapendo dove mettere le mani, si può anche decidere cosa precaricare e cosa no, e guadagnare qualcosina all'avvio del sistema; ma finchè continueremo a usare memorie di massa lente, scordiamoci di avviare il computer in pochi attimi e smettiamola di dare la colpa al sistema operativo (se poi ci basta/ci accontentiamo del dos, be', allora...).
I cellulari (ma forse è meglio dire palmari o smartphone) possono fare più o meno le stesse cose che fa un pc, con meno potenza, e si accendono più in fretta, perchè usano software più leggeri e ottimizzati: falso. I programmi in questione sono, giocoforza, un po' più ottimizzati (ma più che altro, sono adattati al dispositivo), ma sono soprattutto CASTRATI, sia nella grafica, sia nelle funzionalità. Per rendere solo molto vagamente l'idea, consideriamo che per gestire una schermata in full screen di un (solo) programma, a 1024x768 e 16 milioni di colori, servono 1024x768x24bit = 2304 KB di ram, solo per memorizzare l'informazione sui colori di ciascun pixel (e senza trasparenza), mentre per farlo a 320x240 con 65k colori (16bit) servono 150KB, quasi venti volte meno. E per fare qualcosa di un po' più serio, possono essere complicati da programmare (a detta, anche su questo stesso forum, di chi scrive programmi per Symbian).
Linux gestisce le risorse di sistema molto meglio di window: mah, dipende.............. Se facciamo un'installazione minimale con la sola shell, o con un window manager minimale, e poche applicazioni "a contorno", magari si, ma se vogliamo un ambiente desktop completo, gradevole, con effetti grafici accattivanti allora l'esigenza di risorse cresce considerevolmente, e checchè se ne dica, sul fronte dell'ottimizzazione per le prestazioni del comparto grafico, su windows si è sempre fatto un buon lavoro (alcune delle scelte architetturali più criticate, e a volte causa di qualche problema, come l'integrazione profonda della gui nel kernel, ha avuto tra le motivazioni proprio la ricerca di una maggiore efficienza prestazionale; del resto, su questo stesso forum degli amanti ed esperti di linux hanno più volte ammesso, con obiettività e imparzialità, che talvolta l'implementazione del sottosistema grafico è un po' macchinosa - insomma, ogni scelta ha i suoi pro e i suoi contro, e confrontando tra di loro installazioni di windows e linux che siano complete, con tutti i software e le funzionalità più recenti, dubito fortemente che si possano notare grandissime differenze). Dalla sua, linux ha una grandissima flessibilità e modularità, che consente di "smontare e rimontare" il sistema operativo in maniera tale da avere esattamente ciò che serve, dove e come serve, fino al punto di poterlo infilare in una caffettiera, ma più che fare un buon caffe non gli si potrà chiedere (a parte, magari, di farlo a una certa ora, oppure di farlo su richiesta, usando il cellulare wifi come telecomando, ma guai a chiedere di fare 2+2 e scrivere il risultato da qualche parte). Del resto, ho visto un xp ridotto all'osso girare decentemente (diciamo, con esperienza d'uso vicina a quella di un win 98se), con un word processor e connessione a internet, su un celeron a 400MHz e 64MB di ram (con il tempo si apprenderanno anche tutti i trucchi necessari per velocizzare Vista e renderlo meno esoso di richieste - ma se non serve, comincerei subito con l'eliminare gli effetti grafici più avanzati e provare a disattivare un po' di servizi; per il resto, con tanta ram dovrebbe andare meglio di xp, visto che è stato ottimizzato e migliorato l'uso della memoria, privilegiando maggiormente la ram fisica sullo swap).
Piccola nota: se si vuole provare linux, wine e derivati consentono di far girare qualche programma nativo per win, quindi un tentativo, anche solo per curiosità (se si ha spazio sul disco, naturalmente, perchè formattare solo per una prova a tempo perso non vale la candela), si può sempre fare.
Direi, comunque, che è meglio chiudere l'off topic
Sajiuuk Kaar
14-01-2008, 09:03
Cit: "Sposti il problema ma non lo risolvi"... servirebbe un materiale che all'aumentare della temperatura converte energia termica in energia elettrica U.U
Scrambler77
14-01-2008, 10:17
Cit: "Sposti il problema ma non lo risolvi"... servirebbe un materiale che all'aumentare della temperatura converte energia termica in energia elettrica U.U
Leggi bene i sottotitoli del video... ;)
"Alternatively, when the heat passes through the thermal bump, the bump actually generates power. Consider the possibilities: really hot chips can be cooled using the thermal bump, enabling higher speeds and more features. Hot environments can be a source of power."
E' interessante infatti porprio il fatto che, al contrario, queste micro-celle sono in grado di generare corrente elettrica dal calore del chip... Le possibilità diventano numerosissime.
Questa Nextreme la vedremo presto acquisita da qualche pesce grosso...
Petardo238
14-01-2008, 11:07
apparte che a molti sembrano troppe 4 - 5 ventole (io ne ho 11) ma se il problema più grande è il rumore esiste apposta il sistema di raffreddamento a liquido... l'unico rumore (impercettibile) è prodotto dalla pompa, la quale non fa più rumore di un normale acquario per pesci. Poi da non dimenticare che un sistema a liquido ha un potere raffreddante di gran lunga superiore rispetto le classiche ventoline ad aria, quindi unito a questo sistema di celle di Peltier integrate un eventuale CPU o GPU non avrà più problemi riguardo temperature interne localizzate troppo elevate.
apparte che a molti sembrano troppe 4 - 5 ventole (io ne ho 11) ma se il problema più grande è il rumore esiste apposta il sistema di raffreddamento a liquido... l'unico rumore (impercettibile) è prodotto dalla pompa, la quale non fa più rumore di un normale acquario per pesci. Poi da non dimenticare che un sistema a liquido ha un potere raffreddante di gran lunga superiore rispetto le classiche ventoline ad aria, quindi unito a questo sistema di celle di Peltier integrate un eventuale CPU o GPU non avrà più problemi riguardo temperature interne localizzate troppo elevate.
se poi ci spieghi come dissipare il calore che il liquido accumula senza produrre onde sonore allora sono felice
Stargazer
14-01-2008, 16:35
CUT
Perché non fare PC che consumano qualche decina di W in totale e sono veloci nell'utilizzo dei sw d'uso comune proprio come i cellualri
Perchè ci sono già da quando amd ha iniziato a puntare sull'embedded
http://wwwd.amd.com/catalog/salescat.nsf/formfactor?openview&restricttocategory=Industrial%20Computer
basta vedi questo http://www.linutop.com/
ma ti immagini da noi un addetto della pa?
Oddio non ci sono le finestre gommose in office nooo è troppo diverso non capisco niente!
Oddio non ha dischi rigidi e adesso come salvo il lavoro?
Oddio non ha neanche il lettore interno!
Oddio è quel linux ecco perché non capisco nulla!
...
dall'altra parte poi c'è intel con i suoi dispositivi portatili senza tastiera a parte le mignon ma con vista che il solo tempo di boot è sui 3 5 minuti
Perchè ci sono già da quando amd ha iniziato a puntare sull'embedded
http://wwwd.amd.com/catalog/salescat.nsf/formfactor?openview&restricttocategory=Industrial%20Computer
basta vedi questo http://www.linutop.com/
ma ti immagini da noi un addetto della pa?
Oddio non ci sono le finestre gommose in office nooo è troppo diverso non capisco niente!
Oddio non ha dischi rigidi e adesso come salvo il lavoro?
Oddio non ha neanche il lettore interno!
Oddio è quel linux ecco perché non capisco nulla!
...
dall'altra parte poi c'è intel con i suoi dispositivi portatili senza tastiera a parte le mignon ma con vista che il solo tempo di boot è sui 3 5 minuti
io di windows purtroppo ho necessità, molti dei miei programmi funzionano solo con windows
Vedo che aleggia ancora il mito del software superottimizzato che gira veloce con pochi mhz e fa risparmiare sull'hardware... NON è così, ...
Piccola nota: se si vuole provare linux, wine e derivati consentono di far girare qualche programma nativo per win, quindi un tentativo, anche solo per curiosità (se si ha spazio sul disco, naturalmente, perchè formattare solo per una prova a tempo perso non vale la candela), si può sempre fare.
Il tuo discorso è molto lungo, ma anche molto interessante, è piacevole leggere cose scritte da persone appassionate e competenti d'informatica.
Io non sono un esperto d'informatica, ho amici che lo sono e hanno posizioni diverse.
Il tuo discorso è condivisisbile in parte, ma altre cose non mi convincono, io non credo che serva una montagna di lavoro in termini di ora per fare software e SO semplici, con le funzioni necessarie ed allo stesso tempo sicuri.
Si può sacrificare un pò di grafica, ma credo che 65K colori siano già più che sufficienti.
Quello che mi nuoce xeal è che tra poco tempo sarò costretto a cambiare il pc perché sul mio centrino 1.6 GHz 512MB ram Vista non girerà (è lento sul desktop di mia sorella), XP non verrà più sviluppato e dovrò "gettare" un pc perché non più sicuro.
Io invece ci credo :p
Se i tuoi amici sono degli espertoni, ABILISSIMI nel programmare in assembly (l'ho scritto maiuscolo perchè devono essere proprio più bravi di un compilatore, il quale è già abilissimo con la "a" maiuscola), al punto di poter quasi programmare ad occhi chiusi in linguaggio macchina (che poi non è altro che assembly tradotto in binario - diciamo che l'assembly è un linguaggio mooolto elementare, in relazione biunivoca con il linguaggio macchina), e di creare dell'ottimo codice automodificante con estrema facilità, magari gli do ragione, ma che non vengano a dirmi che "ottimizzazione" (che può essere sinonimo di leggerezza e velocità) e "semplicità" sono due concetti che vanno a braccetto, a meno che per semplicità non si intenda essenzialità (nel senso di ridurre le cose all'osso, al minimo indispensabile, e neanche, perchè vale una regola empirica per cui circa il 10% del codice richiederà circa il 90% del tempo di esecuzione, quindi togliere quello che sta attorno, in genere, non da grossi vantaggi, e cercare di ottimizzarlo, oltre un certo limite, è uno spreco di tempo - ma quel 10% di solito è bello tosto da ottimizzare).
In genere, in informatica, la semplicità si valuta in primis a livello di codice sorgente (che poi si compila per ottenere un programma eseguibile), e un codice semplice è un codice... che non cerca di fare cose complicate, per le quali ci si deve spremere le meningi sia per "inventarle", sia per capirle: è fondamentale che un programma sia semplice da leggere e da capire, sia per chi non lo ha scritto (e potrebbe lavorarci sopra in un momento successivo), sia per chi lo ha scritto (perchè, comunque, non si tratta di un linguaggio "naturale", e dopo mesi o addirittura anni, può risultare molto ma molto difficile capire che cavolo si voleva fare), perchè con l'aumentare della complessità del codice aumenta anche la probabilità di introdurre un bug (è già difficile evitarli con il codice più semplice e logicamente corretto di questo mondo, perchè basta farsi scappare una virgola in qualche centinaio o migliaio di righe per provocare una catastrofe - nel senso più letterario e catastrofico del termine). E i bug fanno perdere tanto, tanto tempo: i tuoi amici possono anche aver ragione nel dirti che non è difficile scrivere un programma, perchè la cosa veramente difficile è farlo funzionare bene, e l'ottimizzazione spinta non aiuta, perchè per ottimizzare molto, bisogna lavorare ad un livello molto basso, ma questo significa dover fare cose più complicate, con strumenti più potenti, perchè ti consentono di avere una maggiore libertà, ma avere tanta libertà significa da un lato poter realizzare le cose migliori (dal punto di vista delle prestazioni), dall'altro rischiare di compiere gli sbagli peggiori (perchè ogni cosa che farai potrebbe avere degli effetti collaterali di cui non ti accorgi finchè non provocano danni - e potrebbe succedere solo in casi particolari, frequenti nell'uso comune del programma ma difficili da prevedere nei test di laboratorio - e prevedere gli effetti collaterali è tanto più difficile quanto più complicate sono le cose che si cerca di fare, così diventa un circolo vizioso). Bisogna tener conto che non può esistere un software sicuramente esente da bug, perchè per avere una certezza assoluta in tal senso bisognerebbe testare tutte le possibili combinazioni di input in tutti i possibili scenari d'uso e di interazione con altri software, e questo richiederebbe un lavoro difficilmente compatibile con la durata della vita di una persona: alla fine, ci si accontenta di realizzare un software ragionevolmente sicuro, tirando fuori delle pezze per rattoppare qua e la dei problemi che spuntano (inevitabilmente) strada facendo, ma già questo dovrebbe dare l'idea di quanto possa essere lungo e complicato, nel complesso, l'iter di sviluppo di un qualsiasi software. E siccome fare cose complicate, per ottimizzare le prestazioni, significa aumentare il rischio di sbagliare e introdurre bug (non solo di sicurezza, ma proprio relativi al corretto funzionamento del programma), diventa evidente come ciò comporti un aumento del tempo necessario per completare lo sviluppo. E siccome il tempo è denaro, segue il mio ragionamento nell'altro post (poi, non dico che non ci si speculi sopra per niente, eh, anzi, è vero il contrario, e alla fine si deve cercare un compromesso che vada bene per tutti - e questo è dato dalla concorrenza, dall'elevata diffusione e dalla velocità nella realizzazione di nuovi prodotti).
Provo a fare un esempio un po' più tecnico, cercando di mantenerlo semplice. Sicuramente conoscerai, a grandi linee, Java: si tratta di una piattaforma che consente di creare programmi per sistemi operativi e processori diversi con semplicità, basata su un linguaggio di programmazione omonimo, di altissimo livello. Un programma realizzato in java tenderà ad essere più lento di uno scritto con altri linguaggi e specifico per un sistema operativo e/o un particolare processore, e tenderà anche ad occupare più memoria. Di contro, rende più semplice e veloce scrivere applicazioni che girino bene su linux e windows (ad esempio), e rende praticamente impossibile (a meno di bug nell'implementazione della virtual machine) introdurre nel programma bug relativi, ad esempio, a:
- buffer overflow: si ha quando si sbaglia o si omette il controllo di un limite di memoria, tipicamente per scambiare dei dati, fidandosi che verranno scritti entro i limiti massimi, e se questo non succede si sovrascrivono altre aree di memoria: si possono corrompere dei dati importanti o delle istruzioni, far "crashare" il programma o addirittura l'intero sistema, oppure consentire ad un virus di fare danni;
- double delete: si cerca di cancellare due volte, per errore, una certa area di memoria, e possono succedere grossi casini (è piuttosto comune che succeda, soprattutto in grossi progetti a cui lavorano molte persone);
- memory leakage: si libera male una porzione di memoria che non serve più, che rimane assegnata al programma ma non più accessibile, nè dal programma stesso, nè da altri programmi, fino alla terminazione del programma che lo ha provocato.
Invece, con il C++, che è un linguaggio comunque di livello molto alto, è possibile realizzare programmi più veloci, che richiedono meno memoria (ma anche più specifici e legati alla piattaforma - a parte il caso dell'uso con .Net, ma si tratta di una piattaforma per certi versi simile a java), e consentono di fare molte cose che in java non si possono fare (come scrivere il driver di una periferica, o un sistema operativo), ma di contro è molto sucettibile agli errori/bug cui accennavo, che ti assicuro sono molto comuni e difficili da evitare, anche con tutta la buona volontà e la bravura di questo mondo (tant'è che si impiega molto tempo, durante lo sviluppo di un software di un certo livello, per dare letteralmente la caccia a double delete e leaks), e anche senza cercare di ottimizzare tutto il più possibile (cosa che renderebbe più grande il numero degli errori e dei bug, oltre a rendere necessario, in certi casi, scendere ad un livello più basso).
Naturalmente, ci sono non pochi casi in cui l'ottimizzazione spinta serve e si fa, e senza neanche troppi problemi, perchè spesso si tratta di casi studiati per molti anni e quindi ben noti. Ma non credo che certi casi limite siano di particolare interesse nel nostro discorso.
Per quanto riguarda i tuoi problemi, nello specifico so troppo poco per poter dire qualcosa di preciso. Se non ricordo male, il supporto ad xp dovrebbe terminare tra un paio d'anni per quanto riguarda le patch di sicurezza (dopo c'è il supporto a pagamento per le aziende); in ogni caso è un sistema abbastanza maturo, e se i tuoi software ti consentono di lavorare come utente limitato, facendo spesso il backup dei file importanti (per evitare rogne con virus guastafeste) potresti anche continuare ad usarlo con una certa tranquillità (soprattutto tenendoci su un antivirus aggiornato e magari anche un firewall). Al limite, potresti avere problemi con upgrade necessari ai tuoi software (che potrebbero non supportare più xp). Se non hai particolari problemi con le prestazioni, poi, potresti anche installare (facendoti aiutare da un amico esperto) una versione essenziale (ed aggiornata - e se si trovano driver buoni per le tue periferiche, chiaramente) di linux per far girare xp in una macchina virtuale: avresti già un tampone in mezzo che aumenterebbe la sicurezza, e se non devi lavorare connesso ad internet, cioè se i programmi che usi non lavorano online, allora puoi anche usare direttamente i programmi di linux per navigare, scaricare e gestire la posta; se poi avessi dei problemi di sicurezza (= virus che passano le barricate - comunque un po' difficile, ma niente è mai impossibile) che ti incasinassero xp in maniera irrecuperabile, per sbarazzarti del problema potrebbe bastare cancellare i file "contaminati" usati dalla macchina virtuale (contengono un hard disk virtuale con l'installazione di windows) e sostituirli con una copia di backup (corrispondente ad un formattone con reinstallazione fresca fresca di os e programmi). Se hai dello spazio libero per una partizioncina, comunque, un piccolo esperimento con linux e wine proverei a farlo, magari i tuo programmi girano bene.
La macchina virtuale è comunque una soluzione più lenta e potenzialmente dovresti (comunque te lo consiglierei, specialmente se il tuo centrino usa una vga integrata) aumentare la ram del tuo note. Se si tratta di ddr2, comunque, non spenderesti molto, quindi potresti anche pensare di liberare gli slot e sostituire tutti i moduli (potresti avere solo due slot con 256MB ciascuno, e sostituirli anche con 2 da 1GB non dovrebbe essere una spesa esorbitante, anche se la sodimm costa più della ram per pc desktop). Ma aumentando la ram (specialmente fino a 2 GB), per quanto ho capito (non ho modo di verificare e fare test di persona) tendono a ridursi parecchio anche i problemi di pesantezza con Vista (a proposito, il pc di tua sorella quanta ram ha? e l'hd a quanti giri va? avete provato a disattivare aero, e magari qualche servizio superfluo? magari i tuoi amici potrebbero darti una mano a provare a configurarlo).
Ma sui 65k colori dicevi sul serio? Io ormai a 16 bit non saprei tornare (sul pc), ma se tieni normalmente lo schermo con queste impostazioni, allora mi sa che recuperi anche un po' di performance con una virtual machine (il mio voleva essere solo un esempio su come il software degli smartphone sia più semplice e leggero perchè deve fare molto meno; forse avrei reso meglio l'idea dicendo che alcuni dei processorini usati non hanno neanche l'fpu, quindi non possono fare calcoli con i numeri reali - e questo dovrebbe bastare a intuire quanto quei programmi siano castrati e non confrontabili con quelli per pc).
Belsatam
17-01-2008, 03:00
Sarebbe meglio se sostituissero il Silicio con il Germanio, in questo modo l'energia di gap passerebbe da 1.12V a 0.66V. Con un tale abbassamento di voltaggio i chip starebbero ancora freshi per i prossimi 4 o 5 anni e nel frattempo i raffreddamenti ad acqua potrebbero diventare piu' popolari ed economici.
Il fatto di avere delle celle di Peltier nella CPU mi sembra una soluzione solo all'apparenza intelligente...senza considerare che con i processi di produzione sempre piu' orientati alla miniaturizzazione perche' guidati dalla multi-core-tendenza...mi sembra di difficile realizzazione.
Celle di Peltier su un die a 45nm o ancora meglio a 32nm di cui gia' si parla?
MAH!
E perchè no? In generale (questa è solo una implementazione) si parla di thin film prodotti con nanotecnologie, spessi 3-400 micron e con una superficie pari a quella del die del processore (mica si faranno processori da 32nm di lato :p).
+Benito+
17-01-2008, 23:26
sarebbe un po' rumoroso, ma sarebbe anche una bella avventura ventilare il computer con un ventilatore mosso da un motore stirling con il lato caldo accoppiato al processore :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.