|
|
|
![]() |
|
Strumenti |
![]() |
#21 |
Member
Iscritto dal: Oct 2000
Città: Siena
Messaggi: 111
|
E le finestrelle fighe che zoomano, esplodono, bruciano e volano come le fai senza questi mega processoroni?
![]() |
![]() |
![]() |
![]() |
#22 |
Senior Member
Iscritto dal: Jan 2006
Città: Pisa
Messaggi: 2498
|
Per quanto riguarda la condensa però come si fa? Certo, si riuscisse a far aderire la parte fredda completamente alla CPU, non ci sarebbero problemi però anche una microscopica gocciolina d'acqua potrebbe causare problemi...
__________________
![]() |
![]() |
![]() |
![]() |
#23 | |
Senior Member
Iscritto dal: May 2005
Messaggi: 12116
|
Quote:
bè a molte persone che non sei tu, e ce ne sono moltissimi, serve potenza, e per scrivere, navigare e fare i calcoli te la cavi alla grande anche con il processore piu economico presente in commercio, la ram minima e la scheda video integrata. eccoti un sistema che non conuma nulla per quelli come te. se non serve a te non è detto che non serva agli altri, e in quanto al SO per quello che ci fai tu puoi benissimo metterci linux che richiede meno risorse di winzoz |
|
![]() |
![]() |
![]() |
#24 |
Senior Member
Iscritto dal: Jun 2003
Città: vivo in Sicilia (tra la prov. di AG e Palermo)
Messaggi: 956
|
Possibile l'acquisizione se la tecnologia, in questa incarnazione, fosse molto vantaggiosa, al punto da volerla precludere ai concorrenti (oppure se i concorrenti avessero già qualcosa di simile e non si volesse restare indietro); in ogni caso, in alternativa all'acquisizione, potrebbero semplicemente ottenere una licenza con diritto di modificare la tecnologia per adattarla alle proprie esigenze. Se non ricordo male, amd aveva depositato un brevetto per infilare una cella di peltier all'interno del package; come diceva bjt2, si era parlato, tempo fa, di un sistema di raffreddamento analogo, da applicare esternamente e caratterizzato da tecnologie all'avanguardia e da uno spessore di poche centinaia di micron.
L'effetto Peltier non è così malvagio come sembrerebbe a vedere il rendimento degli "esemplari" in commercio: a livello teorico, infatti, una cella di Peltier (ed equivalentemente, un generatore termoelettrico ad effetto Seebeck) ha lo stesso rendimento di una macchina di Carnot usata come refrigeratore (o come macchina termica, nel caso di Seebeck). I problemi, nel caso reale, sono 2: la resistenza (e quindi l'effetto joule, come diceva bjt2) e la conduzione spontanea di calore. Bene: riducendo sensibilmente la lunghezza dei conduttori si riduce la resistenza elettrica (e anche scegliendo conduttori adeguati), mentre la conduzione spontanea si riduce con un isolante termico realizzato con nanotecnologie (che limitano i gradi di libertà delle molecole, e quindi le vibrazioni all'interno del reticolo cristallino, ovvero la possibilità di scambiare calore con le celle vicine). Più ci si avvicina ai limiti teorici, più si ottiene un ottimo scambiatore termico, al prezzo di un consumo energetico del tutto trascurabile, specie se si considera che il calore mal dissipato può interferire con la stabilità del processore, oltre ad accorciarne la vita (e questo a prescindere dalla progettazione di componenti elettronici più efficienti e dai consumi ridotti: è inevitabile che si formino dei punti caldi). Poi, si può anche pensare di affiancare, all'esterno, un'altra cella che funzioni in maniera opposta (effetto seebeck) per recuperare una parte dell'energia spesa (non tutta, chiaramente). |
![]() |
![]() |
![]() |
#25 |
Senior Member
Iscritto dal: Oct 2001
Città: Avellino
Messaggi: 2235
|
Con un sistema integrato come questo, di fatto i dissipatori dovrebbero essere ulteriormente maggiorati, in quanto come si è detto, al calore prodotto dal processore si deve aggiungere quello prodotto dal consumo energetico della cella.
L'aumento del consumo energetico e del calore rende necessario l'utilizzo di dissipatori ancor più efficenti (di fatto chi utilizza celle di peltier associa a queste sistemi di dissipazione spintissimi). E' questo il motivo per cui le attuali celle di peltier, pur disponibili e relativamente economiche, non hanno mai preso piede e sono poco considerate nel mercato consumer. Siamo passati dai piccoli dissipatori passivi degli anni 80/90 (ora manco validi a raffreddare il chipset) ai mostri in rame e ai sistemi di dissipazione sempre più spinti dei giorni nostri. Ci lamentiamo dei consumi sempre più elevati dei processori, ma finiamo per installare nelle nostre macchine vere fabbriche di calore pur di soddisfare il benchè irrisorio guadagno prestazionale. Per cui... ben venga questa tecnologia! :P Xeal nel suo post ipotizza una tecnologia che in linea teorica potrebbe essere applicata con consumi energetici aggiuntivi irrisori. Se gli esperti oggetto di news hanno realizzato delle celle a bassissima incidenza energetica, non ho dubbi riguardo al successo sul mercato di questo prodotto. N.B: Due considerazioni dopo una visita sul portale: L'effettiva dimensione delle celle sembra essere quella dei prototipi "reali" appoggiati sulle monete, molto piccoli, ma ben più grandi di quelli "renderizzati" mostrati anche nell'immagine di news. Poche unità delle celle fotografate sulle monete coprirebbero per intero la superficie di un microprocessore, mentre nel "rendering" le proporzioni sono ben altre. Parlando del video: La cella di peltier, come detto, rende una superficie fredda e l'opposta calda. Nel video si ha l'impressione che la parte ghiacciata si estenda fino alla parte opposta, come se l'intera cella fosse fredda. Mi vien da pensare che sia la parte inferiore (quella metallica sulla quale è appoggiato il cubetto) quella che produce l'abbassamento di temperatura. Ultima modifica di m4xt3r : 12-01-2008 alle 11:24. |
![]() |
![]() |
![]() |
#26 |
Senior Member
Iscritto dal: Nov 2001
Città: undefined
Messaggi: 6416
|
|
![]() |
![]() |
![]() |
#27 |
Senior Member
Iscritto dal: Feb 2002
Messaggi: 7067
|
le celle di peltier non consumeranno mai 1 mW se devono spostare dei w, e tanto maggiore è la differenza di temperatura tra il lato caldo e quello freddo, tanto maggiore è l'assorbimento. La condensa non c'è a causa dela differenza di temperatura, ma c'è solo se la temperatura del lato freddo uguaglia od è minore della temperatura di rugiada dell'aria nella zona che la lambisce.
Può essere una soluzione intelligente per poche aree selezionate del chip, ma non per gli usi a cui siamo abituati. Avere un delta T di solo 10-15°C tra le facce potrebbe essere tollerato sia intermini di consumo che di stress meccanici. Pensare che all'interno di un chip possano esserci aree a 60°C ed altre a -30°C è semplicemente inattuabile. |
![]() |
![]() |
![]() |
#28 |
Senior Member
Iscritto dal: Sep 2007
Città: Torino/Biella
Messaggi: 1525
|
Non sono un fisico ne un ingegnere, ma quotando Alessandro::Xalexalex come la si mette con l'eventuale condensa che si potrebbe formare?
|
![]() |
![]() |
![]() |
#29 |
Senior Member
Iscritto dal: Jun 2003
Città: vivo in Sicilia (tra la prov. di AG e Palermo)
Messaggi: 956
|
In questa implementazione delle Peltier, sta tutto dentro il package, la faccia più esterna (a contatto con il dissipatore o la placca protettiva) è il lato caldo, quindi niente aria e niente condensa.
|
![]() |
![]() |
![]() |
#30 |
Senior Member
Iscritto dal: Jan 2007
Città: Brixia
Messaggi: 698
|
anch'io ritengo che essendo inglobato nel package si risolve il problema della condensa e il calore viene ben distribuito visto le microdimensioni
e comunque è giusto fare ricerca verso delle nuove soluzioni che all'inizio possono sembrare piene di difetti ma che solo una buona dose di lavoro di evoluzione (e money naturalmente ![]() ad esempio i processori intel sono passati dai Prescott che consumavano anche la nostra di energia agli ultimi penryn che andando il 300% in più consumando la metà(percentuali approx ![]() per chi si chiede perchè si sviluppano certe tecnologie e si ricerca sempre di migliorare, basti pensare ai settori specializzati alla ricerca dei grandi centri internazionali che hanno bisogno di pc molto potenti per fare modelli matematici (un settore molto esigente è quello della ricerca meteorologica) e alla fine siamo noi a mantenere tali ricerche acquistando i vari hardware |
![]() |
![]() |
![]() |
#31 |
Senior Member
Iscritto dal: Jan 2007
Città: Brixia
Messaggi: 698
|
una cosa che mi ha fatto specie è la frase che dice che un grosso colosso potrebbe inglobare nextreme per sviluppare tale tecnologia o.o
|
![]() |
![]() |
![]() |
#32 | |
Senior Member
Iscritto dal: Dec 2000
Messaggi: 1311
|
Quote:
chi deve giocare, chi fa della grafica pesante I centri di ricerca che fanno della fluidodinamica computazionale, comprano computer da 1M€, è un altro mercato ma non ditemi che rappresentano una quota importante del mercato, forse solo chi gioca rappresenta una fetta importante Installerei Linux se non fosse che i programmi che uso per lavoro funzionano solo con windows, spero di non essere costretto a passare a vista tra qualche anno Mia sorella ha appena preso il pc nuovo, ha Vista preinstallato, è come andare in processione, una pena Con tutta questa potenza potremmo fare pc che si accendono come i cellulari, in un batter d'occhio, velocissimi, invece siamo ancora qui con dei SO spesso lentissimi su macchine che consumano centinaia di W e hanno dissipatori dalle dimensioni motoristiche Perché non fare PC che consumano qualche decina di W in totale e sono veloci nell'utilizzo dei sw d'uso comune proprio come i cellualri Ultima modifica di Mauro80 : 13-01-2008 alle 20:01. |
|
![]() |
![]() |
![]() |
#33 |
Member
Iscritto dal: Dec 2005
Messaggi: 51
|
un bel muletto no? video e audio integrati, processore downvoltato con raffreddamento passivo, un alimentatore da pochi watt con un'alta percentuale di resa e ci installi su winxp o linux...pochi watt di consumo, bassa rumorosità e fa quel che deve...se proprio devi usare vista carica un bel po' di ram che ultimamente costa davvero poco
|
![]() |
![]() |
![]() |
#34 |
Senior Member
Iscritto dal: Jun 2003
Città: vivo in Sicilia (tra la prov. di AG e Palermo)
Messaggi: 956
|
Vedo che aleggia ancora il mito del software superottimizzato che gira veloce con pochi mhz e fa risparmiare sull'hardware... NON è così, perchè, se non si vuole vivere di sole copie pirata, allora bisogna mettere in conto anche il costo del software, che in uno scenario simile sarebbe mooooooooooooooooooooooolto alto! Perchè? perchè programmare costa tempo e denaro, e questo costo è proporzionale alla complessità degli algoritmi: un algoritmo superottimizzato è un algoritmo sofisticato, complicato, che richiede parecchio tempo per essere sviluppato e testato a dovere, e aumenta disastrosamente la probabilità di introdurre bug, quindi rende più complicata e costosa la manutenzione del software (mi pare ovvio e banale pensare che fare una cosa difficile significhi rischiare più facilmente di sbagliare). Insomma, fare cose complicate se non indispensabile in informatica è controproducente; del resto, un computer è una macchina, nostra schiava, che nasce proprio con l'obbiettivo di risolvere rapidamente problemi complessi riducendoli in una serie ripetitiva di azioni semplici ed estremamente veloci, ma questo riesce tanto meglio quanto maggiore è la forza bruta della macchina. Nei "bei tempi andati" degli elaboratori a schede perforate, ad esempio, ci si doveva scervellare per riuscire a risparmiare pochi byte su un totale di poche cantinaia di byte, giostrando a livello di singoli bit da sparpagliare/recuperare qua e la, e questo perchè le risorse hardware imponevano una certa parsimoniosità; i software di per sè erano molto più semplici, essenziali, concetti come interfacce utente e interattività erano del tutto sconosciuti (si preparava la scheda con i dati e il programma, la si dava in pasto al calcolatore e si attendeva il risultato dell'elaborazione). Oggi, programmare in modo simile sarebbe semplicemente assurdo, perchè grazie al cielo, col tempo, i componenti hardware sono diventati sempre più potenti e diffusi e facili da produrre a costi sempre più bassi, quindi è diventato via via anche più facile programmare sfruttando le maggiori risorse per fare le stesse cose che prima si facevano con grande difficoltà (ma sempre meglio che dover fare tutto "a manina" ), più altre cose "a contorno", e questo è diventato vantaggioso PER TUTTI. Tornare indietro sarebbe a dir poco una CATASTROFE!
Insomma, perchè dovremmo ingegnarci, OGGI, su come realizzare A MANO le Piramidi in maniera efficiente e rapida, ottimizzando il lavoro della manodopera, se possiamo farlo in maniera molto più rapida ed efficiente usando laser, camion e gru? Questo non vuol dire che non si debba mai ottimizzare niente, quando serve lo si fa, e in genere un po' tutti gli algoritmi, con il tempo, vengono migliorati, affinati, resi più veloci da una release all'altra, ma nello stesso tempo vengono aggiunte nuove funzionalità che da un lato si avvantaggiano della maggiore potenza di calcolo delle macchine più recenti, dall'altro cercano di rendere l'uso del computer più produttivo e/o più gradevole: sta poi a chi lo usa farlo bene, e scegliere bene la macchina e i software più adatti alle proprie esigenze. Che in molti scenari le macchine di oggi sottosfruttate, poi, può essere vero, ma è un altro discorso, perchè nessuno è obbligato a seguire una moda o la frenesia del ricambio tecnologico: compri un pc, installi il software che ti serve, e te li tieni finchè vanno bene per le tue esigenze. Questo si sa bene negli ambiti professionali, e infatti si compra solo quello che serve e quando serve, e chi fornisce macchine ad uffici assembla dei sempron o dei celeron con schede madri senza tanti orpelli e vga integrata, o a basso costo e potenza, non certo dei quad core, e tante macchine "da supermercato" seguono la stessa logica (salvo poi venir acquistate inavvertitamente da un utente inesperto che si aspetta e necessita di più, anche solo per giocare). Quando si deve cambiare il software, può essere necessario cambiare anche il pc, ma fidatevi, conviene (economicamente) più questo scenario di uno in cui si fanno nuovi software ottimizzati per hardware "obsoleto" (come dicevo, e vi prego di credermi senza polemizzare, il software costerebbe molto ma molto di più, e così anche l'hardware, sia per un upgrade necessario, sia per sostituire un componente malfunzionante). Ma voglio provare anche a sfatare qualche mito... I computer di oggi consumano tantissimo: falso. Negli ultimi anni abbiamo assistito a un trend per cui, ad esempio, i processori mantengono un livello di consumo massimo paragonabile (se non addirittura inferiore) a quello della generazione precedente, a fronte di un aumento nelle prestazioni; inoltre, da alcuni anni sono stati introdotti sistemi di risparmio energetico molto avanzati, grazie ai quali, quando non sono sfruttati al 100%, consumano poche decine di watt (20-30W nell'uso comune, o anche meno; in idle, poi, sono quasi spenti). Le schede grafiche sono il punto dolente, ma quelle vengono sfruttate molto dai giochi, quindi non si può parlare, francamente, di potenza sprecata; per chi non è interessato all'ambito videoludico, ci sono le vga integrate nei chipset, che consumano pochi watt, e inoltre si è cominciato a pensare a dei sistemi di risparmio energetico anche per le gpu, oltre alla possibilità di affiancare una vga integrata nella scheda madre per spegnere la scheda più potente quando non serve. Certo, non siamo ai livelli di un 286, ma non usiamo nemmeno gli stessi software... Ovviamente, si può e si deve fare ancora molto (come ad esempio diffondere maggiormente alimentatori con una buona efficienza, che non sprechino energia inutilmente quando non sono usati a pieno carico). Abbiamo hardware sufficientemente potente da realizzare un istant-on, ma dobbiamo aspettare un interminabile mezzo minuto per colpa di sistemi operativi inadeguati: falso. Esiste un collo di bottiglia molto stretto nei computer più moderni, e si chiama hard disk: esistono dispositivi (costosetti, che consumano parecchio, magari poco "affidabili" per un uso quotidiano) che consentono di usare qualche GB di memoria ram come disco di sistema (usano delle batterie per mantenere i dati per alcune ore a computer spento): bene, con un ramdisk si può fare il boot del sistema in una manciata di secondi; prestazioni simili si possono avere (e si avranno sempre di più in futuro) con gli ssd (specialmente in raid, ma già con un raid opportuno di dischi "normali" si può migliorare la velocità del sistema), e questo senza la necessità di un processore iperveloce. Poi, ricordiamo anche che spesso il sistema operativo precarica in ram alcune parti dei programmi più usati, per velocizzarne l'avvio (e il riavvio, perchè li chiuderemo, li riapriremo e così via): sapendo dove mettere le mani, si può anche decidere cosa precaricare e cosa no, e guadagnare qualcosina all'avvio del sistema; ma finchè continueremo a usare memorie di massa lente, scordiamoci di avviare il computer in pochi attimi e smettiamola di dare la colpa al sistema operativo (se poi ci basta/ci accontentiamo del dos, be', allora...). I cellulari (ma forse è meglio dire palmari o smartphone) possono fare più o meno le stesse cose che fa un pc, con meno potenza, e si accendono più in fretta, perchè usano software più leggeri e ottimizzati: falso. I programmi in questione sono, giocoforza, un po' più ottimizzati (ma più che altro, sono adattati al dispositivo), ma sono soprattutto CASTRATI, sia nella grafica, sia nelle funzionalità. Per rendere solo molto vagamente l'idea, consideriamo che per gestire una schermata in full screen di un (solo) programma, a 1024x768 e 16 milioni di colori, servono 1024x768x24bit = 2304 KB di ram, solo per memorizzare l'informazione sui colori di ciascun pixel (e senza trasparenza), mentre per farlo a 320x240 con 65k colori (16bit) servono 150KB, quasi venti volte meno. E per fare qualcosa di un po' più serio, possono essere complicati da programmare (a detta, anche su questo stesso forum, di chi scrive programmi per Symbian). Linux gestisce le risorse di sistema molto meglio di window: mah, dipende.............. Se facciamo un'installazione minimale con la sola shell, o con un window manager minimale, e poche applicazioni "a contorno", magari si, ma se vogliamo un ambiente desktop completo, gradevole, con effetti grafici accattivanti allora l'esigenza di risorse cresce considerevolmente, e checchè se ne dica, sul fronte dell'ottimizzazione per le prestazioni del comparto grafico, su windows si è sempre fatto un buon lavoro (alcune delle scelte architetturali più criticate, e a volte causa di qualche problema, come l'integrazione profonda della gui nel kernel, ha avuto tra le motivazioni proprio la ricerca di una maggiore efficienza prestazionale; del resto, su questo stesso forum degli amanti ed esperti di linux hanno più volte ammesso, con obiettività e imparzialità, che talvolta l'implementazione del sottosistema grafico è un po' macchinosa - insomma, ogni scelta ha i suoi pro e i suoi contro, e confrontando tra di loro installazioni di windows e linux che siano complete, con tutti i software e le funzionalità più recenti, dubito fortemente che si possano notare grandissime differenze). Dalla sua, linux ha una grandissima flessibilità e modularità, che consente di "smontare e rimontare" il sistema operativo in maniera tale da avere esattamente ciò che serve, dove e come serve, fino al punto di poterlo infilare in una caffettiera, ma più che fare un buon caffe non gli si potrà chiedere (a parte, magari, di farlo a una certa ora, oppure di farlo su richiesta, usando il cellulare wifi come telecomando, ma guai a chiedere di fare 2+2 e scrivere il risultato da qualche parte). Del resto, ho visto un xp ridotto all'osso girare decentemente (diciamo, con esperienza d'uso vicina a quella di un win 98se), con un word processor e connessione a internet, su un celeron a 400MHz e 64MB di ram (con il tempo si apprenderanno anche tutti i trucchi necessari per velocizzare Vista e renderlo meno esoso di richieste - ma se non serve, comincerei subito con l'eliminare gli effetti grafici più avanzati e provare a disattivare un po' di servizi; per il resto, con tanta ram dovrebbe andare meglio di xp, visto che è stato ottimizzato e migliorato l'uso della memoria, privilegiando maggiormente la ram fisica sullo swap). Piccola nota: se si vuole provare linux, wine e derivati consentono di far girare qualche programma nativo per win, quindi un tentativo, anche solo per curiosità (se si ha spazio sul disco, naturalmente, perchè formattare solo per una prova a tempo perso non vale la candela), si può sempre fare. |
![]() |
![]() |
![]() |
#35 |
Senior Member
Iscritto dal: Jun 2003
Città: vivo in Sicilia (tra la prov. di AG e Palermo)
Messaggi: 956
|
Direi, comunque, che è meglio chiudere l'off topic
|
![]() |
![]() |
![]() |
#36 |
Senior Member
Iscritto dal: Mar 2004
Città: In una casa. Dove cavolo dovrei vivere???
Messaggi: 1723
|
Cit: "Sposti il problema ma non lo risolvi"... servirebbe un materiale che all'aumentare della temperatura converte energia termica in energia elettrica U.U
|
![]() |
![]() |
![]() |
#37 | |
Senior Member
Iscritto dal: Nov 2005
Città: Bari
Messaggi: 3993
|
Quote:
![]() "Alternatively, when the heat passes through the thermal bump, the bump actually generates power. Consider the possibilities: really hot chips can be cooled using the thermal bump, enabling higher speeds and more features. Hot environments can be a source of power." E' interessante infatti porprio il fatto che, al contrario, queste micro-celle sono in grado di generare corrente elettrica dal calore del chip... Le possibilità diventano numerosissime. Questa Nextreme la vedremo presto acquisita da qualche pesce grosso... Ultima modifica di Scrambler77 : 14-01-2008 alle 09:23. |
|
![]() |
![]() |
![]() |
#38 |
Member
Iscritto dal: Oct 2007
Messaggi: 134
|
apparte che a molti sembrano troppe 4 - 5 ventole (io ne ho 11) ma se il problema più grande è il rumore esiste apposta il sistema di raffreddamento a liquido... l'unico rumore (impercettibile) è prodotto dalla pompa, la quale non fa più rumore di un normale acquario per pesci. Poi da non dimenticare che un sistema a liquido ha un potere raffreddante di gran lunga superiore rispetto le classiche ventoline ad aria, quindi unito a questo sistema di celle di Peltier integrate un eventuale CPU o GPU non avrà più problemi riguardo temperature interne localizzate troppo elevate.
|
![]() |
![]() |
![]() |
#39 | |
Senior Member
Iscritto dal: Dec 2000
Messaggi: 1311
|
Quote:
|
|
![]() |
![]() |
![]() |
#40 | |
Senior Member
Iscritto dal: Dec 2004
Città: Trento
Messaggi: 1487
|
Quote:
http://wwwd.amd.com/catalog/salescat...ial%20Computer basta vedi questo http://www.linutop.com/ ma ti immagini da noi un addetto della pa? Oddio non ci sono le finestre gommose in office nooo è troppo diverso non capisco niente! Oddio non ha dischi rigidi e adesso come salvo il lavoro? Oddio non ha neanche il lettore interno! Oddio è quel linux ecco perché non capisco nulla! ... dall'altra parte poi c'è intel con i suoi dispositivi portatili senza tastiera a parte le mignon ma con vista che il solo tempo di boot è sui 3 5 minuti Ultima modifica di Stargazer : 14-01-2008 alle 15:41. |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 07:35.