View Full Version : occupa troppa ram
ho un problema.
vista mi occupa metà ram(2GB) solo con firefox aperto.
ma la cosa strana è che quando avevo 2 GB occupava di solito il 40% all'avvio
ora ne ho 4 e continua ad occupare il 40% all'avvio..
Nicodemo Timoteo Taddeo
12-10-2008, 09:42
Normalmente è un non problema. Il PC funziona regolarmente? Se sì non ci sono evidentemente problemi, vorrebbe solo dire che il sistema operativo sta facendo quello per cui è stato progettato. Cioè usare una buona parte della ram per la cache di parte del sistema operativo e applicazione che normalmente adoperi, in modo da rendere più veloci il caricamento delle applicazioni stesse e l'accesso alle funzioni del sistema operativo. fai ricerche su google per vista superfetch e troverai tutte le informazioni che ti necessitano per toglierti i dubbi.
Poi se come parecchi non ti piace questa situazione, ti da fastidio il superlavoro richiesto all'hard disk o ancora hai qualche inconveniente (a volte capita che il superfetch scleri e si metta a caricare cose che non dovrebbe), puoi sempre disabilitare il relativo servizio (servizio ottimizzazione avvio per le versioni in italiano) e tornerai alla situazione pre-Vista.
Per la cronaca io lo tengo disabilitato e sopravvivo lo stesso, anzi nella mia situazione anche meglio :)
Saluti.
Normalmente è un non problema. Il PC funziona regolarmente? Se sì non ci sono evidentemente problemi, vorrebbe solo dire che il sistema operativo sta facendo quello per cui è stato progettato. Cioè usare una buona parte della ram per la cache di parte del sistema operativo e applicazione che normalmente adoperi, in modo da rendere più veloci il caricamento delle applicazioni stesse e l'accesso alle funzioni del sistema operativo. fai ricerche su google per vista superfetch e troverai tutte le informazioni che ti necessitano per toglierti i dubbi.
Poi se come parecchi non ti piace questa situazione, ti da fastidio il superlavoro richiesto all'hard disk o ancora hai qualche inconveniente (a volte capita che il superfetch scleri e si metta a caricare cose che non dovrebbe), puoi sempre disabilitare il relativo servizio (servizio ottimizzazione avvio per le versioni in italiano) e tornerai alla situazione pre-Vista.
Per la cronaca io lo tengo disabilitato e sopravvivo lo stesso, anzi nella mia situazione anche meglio :)
Saluti.si il computer è veloce, allora lo lascio così?:D
pabloski
12-10-2008, 09:46
parte di quella RAM è sicuramente destinata alla cache, verrà liberata quando necessario, ovviamente questo induce un'overhead nel sistema
tuttavia è pur vero che Vista richiede troppa memoria....ho effettuato varie misurazioni con varie configurazioni hardware ed escludendo la cache, Vista occupa 350 MB di RAM per il kernel, i servizi e l'interfaccia
quindi per un uso realistico del PC 1 GB è il minimo da avere
Nicodemo Timoteo Taddeo
12-10-2008, 09:47
si il computer è veloce, allora lo lascio così?:D
Perfetto, buon lavoro :)
Saluti.
Vista non "richiede" o "occupa" la RAM, la "usa" più che può per ottimizzare il sistema (Superfetch in primis), che è diverso... ;)
@pabloski
Infatti Vista va usato con 1GB+. Se usato con 512MB se ne accorge e disabilita tutta una serie di cose a danno delle prestazioni a lungo e medio termine... 1GB cmq è sufficiente e funziona perfettamente ma visto che costano così poco le DDR2...
La questione come al solito è molto semplice, in realtà Vista è come se "prendesse in prestito" (passatemi il termine) la ram... ne usa quanta più ne può per velocizzarsi durante la normale attività sul desktop, mentre qualora le applicazioni ne richiedessero in grandi quantità Vista gliela rilascia prontamente.
pabloski
12-10-2008, 12:22
si tratta di un banale sistema di caching in fondo, gli Unix lo fanno da 40 anni
però rimane il fatto che il codice di Vista è troppo ridondante, se 180 MB sono necessari al solo kernel con i demoni di default....mi pare un pò troppo, del resto lo stesso kernel nudo e credo ( il famoso MinWin ) non è riuscito a scendere sotto i 40 MB
per alcuni questo può essere un problema, per altri no, dipende dai casi d'uso....
Ma al di là dei discorsi triti e ritriti sull'occupazione ram di Vista non dovremmo forse rivedere il concetto stesso di "troppa" ram occupata? Mi spiego... Potevo capire 5 anni fà se qualcuno si fosse lamentato dell'eccessiva ram occupata dal kernel di windows con PC da 256 MB. Anche un kernel da un centinaio di mega si ciucciava praticamente la metà di quella totale disponibile... Ma se anche oggi il kernel di vista occupasse il doppio dove sarebbe il grosso problema? Una macchina base/economica oggi ha 2GB di ram... E comunque espandere suddetta ram, nel momento in cui uno si trovasse con 1GB o meno, costa veramente una sciocchezza!
Invece di sperare in uno snellimento del kernel di qualche decina di MB che probabilmente non arriverà mai (perchè di quanto vi aspettate possa "dimagrire"?) non è meglio investire 20 euro e guadagnare molta ram? Anche perchè ne giova tutto il sistema applicazioni comprese... Io oggi come oggi lo vedo come un non problema l'occupazione del kernel. Se questo comporta una lentezza generale ok ma se occupa in filino in più ed è comunque efficiente e veloce per me va benissimo. Ormai è un retaggio del passato questo tipo di problema... Quando i computer avevano pochissima ram e per comprarne qualche megabyte in più toccava spendere uno stipendio :D
si tratta di un banale sistema di caching in fondo, gli Unix lo fanno da 40 anni
Veramente no.
L'analogo del Superfetch di Vista per sistemi Linux (ad es.) è il demone Preload che è del 2005. Il prefetch precedente presente in XP e nei sistemi Unix era molto più base...
però rimane il fatto che il codice di Vista è troppo ridondante, se 180 MB sono necessari al solo kernel con i demoni di default....mi pare un pò troppo, del resto lo stesso kernel nudo e credo ( il famoso MinWin ) non è riuscito a scendere sotto i 40 MB
Sì, sicuramente non è piccolo piccolo ma MS ha strategie diverse: per sistemi desktop, realizza il Windows che conosciamo... per sistemi come i palmari usa il Windows Mobile etc. Insomma ha diversi prodotti per le varie esigenze e a seconda delle necessarie scalabilità. Con questo voglio dire che non gli interessa ridurre Windows più di tanto (pare cmq che Win7 sarà molto alleggerito e di default senza tanti servizi e funzioni accessorie). I tempi dei kernel su un dischetto da 3,5" sono finiti, su... e il concetto stesso di USO (il più possibile) e non OCCUPAZIONE di ram dovrebbe fare un po' più breccia nelle menti di chi concepisce gli OS ancora come 30 anni fa con le prime architetture *nix...
Ripeto sempre che avere tanta memoria non usata è come non averla: è lì inutilmente non sfruttata, meglio avvantaggiarsene per altri compiti e spremere tutto l'HW di cui si dispone.
per alcuni questo può essere un problema, per altri no, dipende dai casi d'uso....
Infatti...
si tratta di un banale sistema di caching in fondo, gli Unix lo fanno da 40 anni
Non è proprio la stessa cosa, specialmente se prendiamo in considerazione Superfetch, e cmq si potrebbe dire di Windows la stessa cosa in alcuni ambiti (penso al riconoscimento hardware e al plug&play e mounting automatico delle periferiche USB, in Linux da non molti anni).
però rimane il fatto che il codice di Vista è troppo ridondante, se 180 MB sono necessari al solo kernel con i demoni di default....mi pare un pò troppo, del resto lo stesso kernel nudo e credo ( il famoso MinWin ) non è riuscito a scendere sotto i 40 MB
Quando presentarono MinWin (che non è il kernel di Vista, ma un kernel riscritto da 0), fu dichiarato proprio che seppure Vista venga considerato pesante, il kernel stesso non lo è (basta ripescare quel video).
PS: in quella presentazione di MinWin tra le altre cose girava anche un server web.
Ecco il video: http://www.istartedsomething.com/20071019/eric-talk-demo-windows-7-minwin/
Non è proprio la stessa cosa, specialmente se prendiamo in considerazione Superfetch, e cmq si potrebbe dire di Windows la stessa cosa in alcuni ambiti (penso al riconoscimento hardware e al plug&play e mounting automatico delle periferiche USB, in Linux da non molti anni).
AmigaOS ha l'Autoconfig (http://en.wikipedia.org/wiki/Autoconfig) (così si chiama) sin dal 1991... pensa un po' ;) E non solo quello molto prima degli altri... peccato sia andata come è andata.
Anche secondo me il problema di windows non è la grandezza del kernel in se ma la montagna di servizi (spesso inutili per molti utenti tipo i componenti tablePC) abilitati di default. Già una semplice procedura guidata, che tramite la risposta ad alcune semplici domande abilita/disabilita dei gruppi di servizi, può essere sufficiente a risolvere il grosso del problema.
Concordo, spero che in Windows 7 abbiano effettivamente ridotto il numero di servizi come dicevano di voler fare.
Ci sono troppi servizi. Un XP abbastanza compattato gira con 20-25 servizi essenziali, in Vista averne meno di 40 è difficile (anche se c'è da dire che Vista offre cmq funzioni in più rispetto a XP).
Sembra proprio che Win7 vada in quella direzione (chi ha detto "finalmente!"? :D)...
pabloski
12-10-2008, 14:28
si, effettivamente la novità di Vista è il prefetching adattativo
in pratico analizzando l'uso del computer, lui impara a capire quali software sono i più usati e in quali momenti
risultato? è come se fosse preveggente, carica il software prima che tu glielo richieda....
questo però implica che parte di quel software usato di frequente venga caricato al boot, aumentando il tempo di boot
l'altro problema è che il discorso fila finchè il computer è usato in maniera "comune"....attività di posta, navigazione, ecc...sempre le stesse e sempre legate agli stessi periodi della giornata....se già un bel giorno vuoi giocare a The Sims dopo che magari non c'hai giocato per 2 mesi il sistema s'inceppa.....
il perchè è semplice....The Sims occupa un botto di RAM, la RAM è quasi tutta occupata, per scaricarla ci vuole tempo e il risultato è che il caricamento del gioco sarà molto più lento che, per esempio, su XP
questo confuta in parte pure il discorso di acitre...lui dice che non è importante quanta RAM occupa il kernel, ma questo è vero sempre in ambito domestico, dove l'hardware è sovraproporzionato per il lavoro che deve fare
il footprint di un sistema operativo è fondamentale per esempio nei sistemi SCADA e non perchè questi abbiano poca RAM, ma perchè devono essere veloci e offrire tutta la memoria RAM ai software applicativi
il fatto che il kernel di Vista occupi 180 MB vuol dire che non è ottimizzato....questo non è tanto un problema dal punto di vista della RAM, ma piuttosto vuol dire che il codice contiene istruzioni inutili, routine che possono essere ridotte, quindi oltre al discorso "consuma RAM", abbiamo il discorso "consumo cicli CPU"
spesso si tende a pensare che un eseguibile più grosso è più veloce, ma questo solo se l'eseguibile viene ingrossato dall'inlining....ma spesso, quando ci troviamo di fronte a kernel così grossi, vuol dire che l'ottimizzazione è scarsa....ci sono istruzioni che potrebbero essere eliminate, procedure che potrebbero svolgere il loro lavoro con meno passaggi e quindi più velocemente
questo discorso, per esempio, lo si poteva fare pari pari con Linux 2.4.....col ramo 2.6 la priorità è stata ridurre il codice....meno codice, più ottimizzato, che consuma meno RAM ed è più veloce
MinWin occupa 40 MB, ma è un kernel, con driver generici, un driver VESA e una console testuale....40 MB sono troppi per una cosa del genere, quando QNX ne occupa 2 MB e parliamo di un OS tutt'altro che ridotto all'osso ma full featured
sul superfetch sono d'accordo, ma può essere un'arma a doppio taglio per chi non usa il computer in maniera abitudinaria...la RAM va riempita ( cosa che richiede tempo per trasferire i dati dall'hard disk ), poi quando la devi liberare richiede altro tempo per svuotarla e riallocarla
in pratica a seconda dell'uso, superfetch può passare dall'essere utile all'essere molto dannoso
Si ma te non puoi confrontare i due modelli se non definisci la destinazione d'uso, Windows, tralasciando le prime versioni NT e attualmente le versioni Server, ha come target l'utenza domestica e d'ufficio. Evidentemente questi rappresentano la maggior parte dell'utenza, ed è ovvio che Microsoft punti a questo segmento di mercato. Per altri scopi ci sono altri mezzi, non vedo il problema.
MinWin cmq ha anche un webserver.
Non ho accesso al codice del kernel per poter dire se sia ottimizzato o meno, né tantomeno per dire se c'è robba inutile o no. Posso dire che magari è grosso rispetto ad altri, ma non ho le conoscenze per poter dire "è meglio fare così".
Edit: questo è come si presenta Vista subito dopo aver eseguito un programma che richiede molta ram (in questo caso Prime95 in blend mode):
http://img339.imageshack.us/img339/8708/afterprimerc2.th.jpg (http://img339.imageshack.us/my.php?image=afterprimerc2.jpg)http://img339.imageshack.us/images/thpix.gif (http://g.imageshack.us/thpix.php)
pabloski
12-10-2008, 15:46
Si ma te non puoi confrontare i due modelli se non definisci la destinazione d'uso, Windows, tralasciando le prime versioni NT e attualmente le versioni Server, ha come target l'utenza domestica e d'ufficio. Evidentemente questi rappresentano la maggior parte dell'utenza, ed è ovvio che Microsoft punti a questo segmento di mercato. Per altri scopi ci sono altri mezzi, non vedo il problema.
MinWin cmq ha anche un webserver.
Non ho accesso al codice del kernel per poter dire se sia ottimizzato o meno, né tantomeno per dire se c'è robba inutile o no. Posso dire che magari è grosso rispetto ad altri, ma non ho le conoscenze per poter dire "è meglio fare così".
esatto, la mia risposta era per acitre che si chiedeva "a noi che ci frega se consuma tanta RAM?"....e appunto il fregarsene o meno dipende dall'uso che se ne fa
non dimentichiamo che per uso ufficio, Intel si è accorta che i suoi processori era 10x più potenti del necessario e ha concluso che Atom basta e avanza
è chiaro che con così tanta potenza si riescono a nascondere magagne di ogni genere
riguardo il kernel di Windows, beh, è chiaro che il confronto viene fatto valutando le caratteristiche dei sistemi concorrenti....se io ho Neutrino ( il kernel di QNX ) che occupa 300 KB di RAM contro i 40 MB di MinWin, è chiaro che dedurrò che NT ha qualcosa di troppo sul groppone
tempo fa uscì su Osnews una comparativa tra Linux e Windows ( basata sul codice di Windows 2000 rubato tempo fa ) e si metteva in luce l'estrema complessità del codice NT ( circa 10 volte quella di Linux ), soprattutto l'enorme quantità di codice legacy
quel che è chiaro a molti, è che NT può essere snellito di parecchio
Deallocare della RAM è una funzione velocissima e tutti i programmi lo fanno continuamente: non è lento né fa rallentare un sistema operativo come affermi tu pabloski. In considerazione di questi fattori tutti ormai implementano un sistema di disk-cache più o meno sofistifcato, non è un caso e non sono tutti fessi ;)
Ti capisco perfettamente sul discorso kernel minimale dato che conosco bene AmigaOS che ho usato per anni e anni e che può fare il boot da un dischetto da 3,5" :) e tutti concordiamo sul fatto che più piccolo (ma con tutte le funzioni necessarie) e più veloce è meglio è... però alla fine non vedo queste prestazioni così scadenti per via di un kernel di medio-grandi dimensioni da gridare allo scandalo. Quello che conta è cmq il risultato finale che non è da buttare via. Notare poi che il multitasking di Vista è decisamente migliore dei precedenti e a compiere molte azioni pesanti che prima rallentavano vistosamente XP si comporta in fin dei conti bene senza arrancare (persino i processi che si appoggiano pesantemente all'HD e in cui quindi influisce l'HW, i driver, il bios etc. oltre all'OS cmq avvengono a bassa priorità e in background quindi non rallentano tanto il sistema nel complesso)...
Viste le tue preferenze minimaliste, tipiche di sistemi *nix-like ti consiglio Win2k8 Server: è un Vista con tante cose disattivate di default comprese funzionalità multimediali. Persino le chiavi come HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows NT\CurrentVersion\Multimedia\SystemProfile sono "ritoccate" per esigenze Server e ad esempio SystemResponiveness è impostata a 100 di default su Win2k8: ovvero in caso di flussi multimediali penalizzali e dai sempre la priorità ai task CPU-intensive...
Pensi che la complessità sia dovuta appunto alla retrocompatibilità? Potrebbe essere in effetti.
Beh speriamo che prima o poi si decideranno a fare qualcosa da 0 (o cmq levando il codice legacy) appoggiandosi per la compatibilità su una virtualbox.
Sicuramente IMHO c'è anche una importante componente di "retrocompatibilità necessaria" che rende obeso il kernel dei vari Windows...
invio accidentale scusate
CUT
La ram occupata dai programmi per il prefetch non deve essere svuotata e riallocata quando un programma la richiede... Viene spuntata come "sovrascrivibile" dall'OS e nel momento in cui un software chiede ram si piazza sopra quei settori come se questi fossero liberi/vuoti senza penalità di cicli CPU o attese per lo svuotamento ;)
esatto, la mia risposta era per acitre che si chiedeva "a noi che ci frega se consuma tanta RAM?"....e appunto il fregarsene o meno dipende dall'uso che se ne fa
Ma la mia voleva essere più una risposta "totalmente dall'altro lato" di proposito per sfatare un pochino il mito dell'importanza di questo kernel da 200k che sembra trasparire da sempre nelle risposte di molti. E' ovvio che è meglio avere un kernel snello e sgravato di ogni ridondanza ma è altrettanto importante secondo me che le cose funzionino bene e questo, nonostante il kernel di vista probabilmente può essere affinato per bene sotto molti aspetti, lo fa. Probabilmente con qualche decina di megabyte sul groppone di troppo ma lo fa.
Almeno da quello che posso dire dal basso della mia piccola ed insignificante esperienza :)
Sicuramente IMHO c'è anche una importante componente di "retrocompatibilità necessaria" che rende obeso il kernel dei vari Windows...
Su questo credo non ci piove. Windows DEVE far funzionare di tutto e spesso roba uscita anche anni ed anni prima. Il suo enorme successo commerciale è anche il suo più grande limite sia in termini di innovazione interna che di cambiamenti sia estetici che funzionali.
Ma la mia voleva essere più una risposta "totalmente dall'altro lato" di proposito per sfatare un pochino il mito dell'importanza di questo kernel da 200k che sembra trasparire da sempre nelle risposte di molti. E' ovvio che è meglio avere un kernel snello e sgravato di ogni ridondanza ma è altrettanto importante secondo me che le cose funzionino bene e questo, nonostante il kernel di vista probabilmente può essere affinato per bene sotto molti aspetti, lo fa. Probabilmente con qualche decina di megabyte sul groppone di troppo ma lo fa.
Almeno da quello che posso dire dal basso della mia piccola ed insignificante esperienza :)
non dimentichiamo nemmeno che a Redmond c'è gente che normalmente non sta a pettinare le bambole
pabloski
12-10-2008, 21:59
non dimentichiamo nemmeno che a Redmond c'è gente che normalmente non sta a pettinare le bambole
beh visto le risorse che hanno potrebbero fare di più
stanno da 10 anni con questo benedetto WinFS e non arrivano a concludere, quando BeOS lo offriva di default un filesystem transazionale
beh visto le risorse che hanno potrebbero fare di più
stanno da 10 anni con questo benedetto WinFS e non arrivano a concludere, quando BeOS lo offriva di default un filesystem transazionale
WinFS non era "solo" un FS transazionale ma un FS totalmente basato sul modello dei database relazionali (basato sul motore SQL server). Il problema era la sua enorme pesantezza. Quando si sono resi conto che il gioco non valeva la candela e che potevano implementare le stesse cose a livello di servizi salvaguardando l'efficienza l'hanno cassato. Con quel FS il sistema sarebbe stato ben più pesante ;)
Pabloski capisco avere delle opinioni e criticare alcune scelte che reputiamo sbagliate ma non partire dal presupposto che gli esperti di kernel e FS stanno sui forum... Se hanno cassato un progetto durato anni e costato chissà quanto (che poi non è vero totalmente perchè parte delle tecnologie di WinFS sono presenti nei servizi di indicizzazione di Vista) non è perchè sono scemi :)
Pochi lo sanno ma neanche il FS NTFS presente in Vista è lo stesso di XP ;)
pabloski
12-10-2008, 22:33
si certo, però le caratteristiche che avrebbe avuto WinFS non esistono in Vista attualmente
cose tipo le live queries sono impossibili senza un FS di quel tipo
si certo, però le caratteristiche che avrebbe avuto WinFS non esistono in Vista attualmente
cose tipo le live queries sono impossibili senza un FS di quel tipo
La domanda giusta è: quanto sarebbero costate in termini di performance le live queries e le altre cose previste in WinFS? Ne valeva la pena? Per microsoft semplicemente no e avendo approfondito un pochino la questione mi sento di essere d'accordo. :)
P.S. Altro che kernel pesante... A leggere i bene informati con WinFS il sistema era un macigno. :D
non dimentichiamo nemmeno che a Redmond c'è gente che normalmente non sta a pettinare le bambole
Se qualcuno vuole vedere in faccia uno di questi pettinatori di bambole ;)
http://brandonlive.com
È uno dei programmatori del Windows Desktop Search :)
@pabloski
Chiedi a Brandon perché hanno scelto il WDS basato su tag e indicizzazione invee del lento WinFS... ;) Ti dirà che per lo scopo prefissato (cioè l'accesso veloce a file chissà dove sull'HD) è stata fatta la scelta con minore impatto sulle prestazioni ma che cmq soddisfava appieno le esigenze, e così è...
Pochi lo sanno ma neanche il FS NTFS presente in Vista è lo stesso di XP ;)
E visto che io faccio parte di quella schiera che pensi che la versione 3.1 sia la stessa utilizzata da tutti gli OS attualmente in produzione ed in vendita da parte di MS, mi spieghi cosa è cambiato da quello adottato ad esempio da Windows XP o Windows 2003 Server?
Sempre se non ti riferisci al Transactional NTFS introdotto dal SP1. Ma in quel caso non è che cambi il FS ;)
pabloski
13-10-2008, 08:45
La domanda giusta è: quanto sarebbero costate in termini di performance le live queries e le altre cose previste in WinFS? Ne valeva la pena? Per microsoft semplicemente no e avendo approfondito un pochino la questione mi sento di essere d'accordo. :)
P.S. Altro che kernel pesante... A leggere i bene informati con WinFS il sistema era un macigno. :D
è vero, ma il problema sta nell'architettura del sistema
BeOS ha usato per anni quel FS ai tempi dei 486 ed era velocissimo
il punto è che un meccanismo simile è praticamente impossibile da integrare in un OS come NT, averlo come layer al di sopra del FS NTFS è poi un crimine contro l'umanità
per questo motivo ogni tanto bisognerebbe ripartire da zero, nel mondo del software lo fanno tutti, tranne chi produce sistemi operativi
il perchè io sembro tenercela tanto con MS è che negli anni ho sentito promesse mirabolanti, poi immancabilmente venute meno...ai tempi di XP si parlava di un OS microkernel, addirittura basato su Elate ( un OS da 500 KB, GUI compresa )
il punto è che caratteristiche come le live query apporterebbero cambiamenti seri all'interazione uomo-macchina ( in sostanza non so delle cosette fighe ma inutili ), solo che finchè Windows rimarrà così com'è sarà impossibile implementare una cosa del genere
Purtroppo il freno maggiore come è stato detto è la retrocompatibilità... hanno avuto il coraggio di lamentarsi della compatibilità di Vista all'uscita (tra l'altro come se fosse un difetto intrinseco del SO), figurati cosa succede se cambiano tutto.
Ora il discorso è che puoi avere i programmatori migliori del mondo ma se sei frenato dal marketing o ti impongono determinate scelte dall'alto c'è poco da fare.
Purtroppo il freno maggiore come è stato detto è la retrocompatibilità... hanno avuto il coraggio di lamentarsi della compatibilità di Vista all'uscita (tra l'altro come se fosse un difetto intrinseco del SO), figurati cosa succede se cambiano tutto.
Ora il discorso è che puoi avere i programmatori migliori del mondo ma se sei frenato dal marketing o ti impongono determinate scelte dall'alto c'è poco da fare.
appunto. Vista non lo hanno fatto solo per noi del forum ma per milioni di utenti che non vogliono fare altro che accendere il pc, navigare, vedere la tv, scrivere documenti, mandare posta, utiilizzare tutto il sw che desiderano senza troppe beghe
pabloski
13-10-2008, 10:37
appunto. Vista non lo hanno fatto solo per noi del forum ma per milioni di utenti che non vogliono fare altro che accendere il pc, navigare, vedere la tv, scrivere documenti, mandare posta, utiilizzare tutto il sw che desiderano senza troppe beghe
d'accordo però la semplicità d'uso e l'ottimalità nella progettazione non sono mutuamente esclusive
per esempio il già citato BeOS era un OS facilissimo da usare ma estremamente potente, leggero e performante
il punto è che l'architettura di Windows è basata su OS anni '60, come pure Linux del resto, con la differenza che Linux sfrutta estensivamente la modularità dovuta all'architettura SysV, mentre Windows è più statico
un esempio è il virtual file system di Linux, grazie al quale è possibile adattarlo in maniera banale a varie classi di nuove periferiche che potrebbero essere create o a nuove e molto particolari architetture ( ad esempio il processore Cell )
fermo restando che entrambi sono OS anni '60 e in giro c'è decisamente di meglio, per esempio CoyotOS
zanardi84
14-10-2008, 09:38
Vorrei riprendere un paio di questioni di cui avete discusso.
La prima riguarda il superfetch: concordiamo sul fatto che in alcuni casi sia efficace mentre in altri, quelli in cui si diceva che se un programma esigente viene usato per la prima volta dopo molto tempo, i caricamenti sono quelli di un XP obeso e malconcio. Pertanto mi chiedo: perchè non è stato realizzato un tool d'interfaccia che lascia decidere all'utente cosa inserire nella lista superfetch? Il risultato subito apprezzabile sarebbe stato quello di avere ottima reattività da subito senza dover aspettare la compilazione delle statistiche interne del sistema.
Secondo punto, la retrocompatibilità: si è detto che win deve fare girare tutto. Ora mi chiedo: perchè si deve far funzionare roba che non è più supportata a partire dagli sviluppatori o dai produttori che hanno messo in circolo quei prodotti? Senza contare che pensar di far funzionare Vista su sistemi basati su cpu inferiori a 3GHz o equivalenti con meno di 1GB di ram è una mezza follia.
C'è ancora chi ha l'esigenza di far funzionare software che girava su dos o win 9x? Senza contare che poi non è detto che funzioni.
Al massimo se proprio volevano tenere la retrocompatibilità potevano rilasciare una versione specifica in grando di garantire supporto a HW/SW obsoleti.
Sul file system sappiamo che effettivamente NTFS non è lo stato dell'arte. Un FS che non si autodeframmenta non è effettivamente il massimo della vita. Diciamo che in Vista hanno usato il palliativo del defrag automatico nei tempi morti. Cioè è come se su una nave che è una carretta del mare avessero aggiunto delle scialuppe invece di cambiare la nave. Potrei anche pensare che si tratti di una specie di manovra commerciale interna per tenere in vita aziende che producono solo defragger, senza contare che forse queste case devono pagare non poco per avere le certificazioni necessarie.
Vorrei riprendere un paio di questioni di cui avete discusso.
La prima riguarda il superfetch: concordiamo sul fatto che in alcuni casi sia efficace mentre in altri, quelli in cui si diceva che se un programma esigente viene usato per la prima volta dopo molto tempo, i caricamenti sono quelli di un XP obeso e malconcio. Pertanto mi chiedo: perchè non è stato realizzato un tool d'interfaccia che lascia decidere all'utente cosa inserire nella lista superfetch? Il risultato subito apprezzabile sarebbe stato quello di avere ottima reattività da subito senza dover aspettare la compilazione delle statistiche interne del sistema.
Secondo punto, la retrocompatibilità: si è detto che win deve fare girare tutto. Ora mi chiedo: perchè si deve far funzionare roba che non è più supportata a partire dagli sviluppatori o dai produttori che hanno messo in circolo quei prodotti? Senza contare che pensar di far funzionare Vista su sistemi basati su cpu inferiori a 3GHz o equivalenti con meno di 1GB di ram è una mezza follia.
C'è ancora chi ha l'esigenza di far funzionare software che girava su dos o win 9x? Senza contare che poi non è detto che funzioni.
Al massimo se proprio volevano tenere la retrocompatibilità potevano rilasciare una versione specifica in grando di garantire supporto a HW/SW obsoleti.
Sul file system sappiamo che effettivamente NTFS non è lo stato dell'arte. Un FS che non si autodeframmenta non è effettivamente il massimo della vita. Diciamo che in Vista hanno usato il palliativo del defrag automatico nei tempi morti. Cioè è come se su una nave che è una carretta del mare avessero aggiunto delle scialuppe invece di cambiare la nave. Potrei anche pensare che si tratti di una specie di manovra commerciale interna per tenere in vita aziende che producono solo defragger, senza contare che forse queste case devono pagare non poco per avere le certificazioni necessarie.
nel caso di superfetch mi sembra vi stiate facendo dei problemi che in realtà non esistono.
Se si carica un programma la prima volta quanto ci potrà mettere (pure se fosse molto pesante)? 10 secondi? 15 secondi?
Poi già dalla volta successiva il tempo si sarà ridotto.
Ricordatevi sempre che Vista (vale lo stesso per Apple, Sun ecc..) non viene sviluppato nei sottoscala nei ritagli di tempo ma è frutto di progetti gestiti e sviluppati da molte decine di persone.
Quindi spesso quello che viene definito come codice scadente, mastodontico, non performante ecc.. non rispecchia la realtà dei fatti
pabloski
14-10-2008, 10:01
nel caso di superfetch mi sembra vi stiate facendo dei problemi che in realtà non esistono.
Se si carica un programma la prima volta quanto ci potrà mettere (pure se fosse molto pesante)? 10 secondi? 15 secondi?
Poi già dalla volta successiva il tempo si sarà ridotto.
il problema non è questo, il punto è che avendo una cache che occupa praticamente tutta la RAM, l'avvio di qualunque software abbastanza pesante che non è previsto dalle statistiche di superfetch richiede un tempo doppio rispetto all'avvio su XP
un esempio banale può essere The Sims che richiede sui 2 minuti con un Core 2 Duo
non so se hai mai notato che a volte capita che avviando un certo programma, il sistema resti "muto" per 15-20 secondi....quello è il caso descritto...in quei 15-20 secondi sta analizzando la cache per capire quali aree può liberare ( quelle occupate dai software che statisticamente vengono avviati di meno in quel determinato periodo )
la liberazione della cache richiede che vengano analizzate le stats, fatti controlli di consistenza per evitare corruzione dei dati, eventualmente deframmentare parte della memoria ( quindi spostare dati da una pagina di memoria all'altra ) per fare spazio al nuovo programma, infine le aree prescelte vanno segnate come libere
il punto è che se avviando Firefox tutto questo marchingegno richiede 20 secondi al massimo, con The Sims la faccenda diventa molto più onerosa
e in questo senso si introduce il discorso del "il kernel è troppo ciccione"
discorso che sia chiaro va esteso anche al software applicativo e infatti altre aziende, tipo la QNX software impongono che i software applicativi facciano uso di librerie condivise piuttosto che statiche ( si risparmia un mucchio di RAM ), siano modulari e senza ridondanze eccessive
tutto questo invece MS non lo fa, cominciando a punto dal sistema operativo stesso
la retrocompatibilità è assai relativa, a che serve mantente codice legacy nel sistema quando nonostante ciò il 60% del software XP non gira su Vista? a questo punto viene da chiedersi di che retrocompatibilità parlino a Redmond
il problema non è questo, il punto è che avendo una cache che occupa praticamente tutta la RAM, l'avvio di qualunque software abbastanza pesante che non è previsto dalle statistiche di superfetch richiede un tempo doppio rispetto all'avvio su XP
un esempio banale può essere The Sims che richiede sui 2 minuti con un Core 2 Duo
non so se hai mai notato che a volte capita che avviando un certo programma, il sistema resti "muto" per 15-20 secondi....quello è il caso descritto...in quei 15-20 secondi sta analizzando la cache per capire quali aree può liberare ( quelle occupate dai software che statisticamente vengono avviati di meno in quel determinato periodo )
la liberazione della cache richiede che vengano analizzate le stats, fatti controlli di consistenza per evitare corruzione dei dati, eventualmente deframmentare parte della memoria ( quindi spostare dati da una pagina di memoria all'altra ) per fare spazio al nuovo programma, infine le aree prescelte vanno segnate come libere
il punto è che se avviando Firefox tutto questo marchingegno richiede 20 secondi al massimo, con The Sims la faccenda diventa molto più onerosa
e in questo senso si introduce il discorso del "il kernel è troppo ciccione"
discorso che sia chiaro va esteso anche al software applicativo e infatti altre aziende, tipo la QNX software impongono che i software applicativi facciano uso di librerie condivise piuttosto che statiche ( si risparmia un mucchio di RAM ), siano modulari e senza ridondanze eccessive
tutto questo invece MS non lo fa, cominciando a punto dal sistema operativo stesso
la retrocompatibilità è assai relativa, a che serve mantente codice legacy nel sistema quando nonostante ciò il 60% del software XP non gira su Vista? a questo punto viene da chiedersi di che retrocompatibilità parlino a Redmond
Scusa
ma non credo proprio che gli serva tutto quel tempo per fare quei controlli di memoria.
Buona parte dei tempi di caricamento viene preso dal transfer dal hd. Tanto è vero che la cache serve proprio a questo
Althotas
14-10-2008, 10:36
Senza contare che pensar di far funzionare Vista su sistemi basati su cpu inferiori a 3GHz o equivalenti con meno di 1GB di ram è una mezza follia.
Wrong. Lo sto usando da qualche giorno su un notebook nuovo di un amico (che gli sto "preparando), un DELL con Intel T7250 a 2 GHz, e va alla grande. Evidentemente parli per sentito dire ;)
Per quanto riguarda la RAM, con 2 GB và come un fulmine.
Su tutto il resto che hai scritto non commento. Le tue idee mi sembrano alquanto "originali".
zanardi84
14-10-2008, 11:06
Wrong. Lo sto usando da qualche giorno su un notebook nuovo di un amico (che gli sto "preparando), un DELL con Intel T7250 a 2 GHz, e va alla grande. Evidentemente parli per sentito dire ;)
Per quanto riguarda la RAM, con 2 GB và come un fulmine.
Su tutto il resto che hai scritto non commento. Le tue idee mi sembrano alquanto "originali".
Sì, non ho specificato io.. intendevo una cpu single core inferiore a un P4 3000 o equivalente! Su un Athlon 64 3000 Newcastle (che è il mio fisso) con 1GB di ram fa molta fatica. Lavora bene coi giochi (ma sono tutti titoli che richiedono cpu ben più lente) ma con i software normali è davvero lento. Basti pensare che il software di covnersione multimediale SUPER ci mette una vita a lavorare su file piuttosto "agevoli" mentre su xp le cose sono decisamente migliori.
La cpu di cui parli te ce l'ho sul note in sign. Concordo sul fatto che giri bene, anche se a volte ho inspiegabili rallentamenti alternati a momenti in cui lavora benissimo. E non parlo di autodefrag o defender che lavorano. Notare poi che il sistema è installato da alcuni mesi e il discorso indicizzazione e superfetch dovrebbe essere sistemato da un bel po'. Ah, figata l'ibernazione, utile davvero!
Ah, figata l'ibernazione, utile davvero!
per chi non lo sapesse... è presente anche su Xp (si chiama sospensione)
Althotas
14-10-2008, 11:23
La cpu di cui parli te ce l'ho sul note in sign. Concordo sul fatto che giri bene, anche se a volte ho inspiegabili rallentamenti alternati a momenti in cui lavora benissimo. E non parlo di autodefrag o defender che lavorano. Notare poi che il sistema è installato da alcuni mesi e il discorso indicizzazione e superfetch dovrebbe essere sistemato da un bel po'. Ah, figata l'ibernazione, utile davvero!
Se uno si mette d'impegno e ha le opportune conoscenze, di solito riesce ad individuare a cosa possono essere dovuti certi "rallentamenti". Ci vuole un po' di tempo e pazienza.
Riguardo all'ibernazione, non ho capito se era una battuta o dicevi sul serio. Per come uso io il pc, la trovo una cosa molto comoda (anche perchè sul mio funziona bene). Io uso l'ibernazione ibrida.
zanardi84
14-10-2008, 12:21
Se uno si mette d'impegno e ha le opportune conoscenze, di solito riesce ad individuare a cosa possono essere dovuti certi "rallentamenti". Ci vuole un po' di tempo e pazienza.
Riguardo all'ibernazione, non ho capito se era una battuta o dicevi sul serio. Per come uso io il pc, la trovo una cosa molto comoda (anche perchè sul mio funziona bene). Io uso l'ibernazione ibrida.
Non è per niente ironica. Su xp a dire il vero non penso serva a molto.. i tempi di boot sono rapidi e a dirla tutta, dopo un po' che la sessione è aperta le prestazioni degradano. Su Vista invece rimangono costanti tranne in quei momenti di rallentamento in cui tralaltro l'hard disk gratta come non mai (indicizzazione, defender e defrag spenti).
pabloski
14-10-2008, 14:19
Se uno si mette d'impegno e ha le opportune conoscenze, di solito riesce ad individuare a cosa possono essere dovuti certi "rallentamenti". Ci vuole un po' di tempo e pazienza.
Riguardo all'ibernazione, non ho capito se era una battuta o dicevi sul serio. Per come uso io il pc, la trovo una cosa molto comoda (anche perchè sul mio funziona bene). Io uso l'ibernazione ibrida.
c'è poco da individuare, quei rallentamenti randomici sono legati al dropping di pagine allocate per la cache
quello che molti non realizzano è che per Vista la cache non è un'area riservata per futuro uso, ma è un'area di memoria piena di dati reali e quest'area occupa tutta la RAM
come ho detto basta che un giorno l'utente segua un pattern diverso da quello previsto, caricando applicazioni non previste statisticamente ( e che quindi non sono già in cache ) e inizia la trafila dei rallentamenti
c'è poco da individuare, quei rallentamenti randomici sono legati al dropping di pagine allocate per la cache
quello che molti non realizzano è che per Vista la cache non è un'area riservata per futuro uso, ma è un'area di memoria piena di dati reali e quest'area occupa tutta la RAM
come ho detto basta che un giorno l'utente segua un pattern diverso da quello previsto, caricando applicazioni non previste statisticamente ( e che quindi non sono già in cache ) e inizia la trafila dei rallentamenti
opinione tua (per inciso.. suffragata da quale prova?)... che porterebbe all'inutilità della cache (e vale per qualsiasi SO)
Se tu non la avessi, al momento di caricare un applicativo pesante avresti ram libera (quindi risparmio di.. diciamo qualche secondo per lo svuotamento della cache) e poi decine di secondi per l'accesso ed il tranfer dei dati dal disco.
Con la cache, la prima volta avresti (nella peggiore delle ipotesi con nessun dato in cache) un aggravio di qualche secondo nel caricamento, ma dai caricamenti successivi sicuramente un risparmio.
E' ovvio che se accedi a questo applicativo pesante una volta al mese non avrai mai dati in cache (e con qualsiasi SO avresti sempre lentezza nel caricamento) ma sicuramente in quel mese avrai beneficiato di prestazioni maggiori perchè dubito che un utilizzatore acceda tutti i giorni ad applicativi sempre differenti e mai acceduti nei giorni precedenti
pabloski
14-10-2008, 15:16
opinione tua (per inciso.. suffragata da quale prova?)... che porterebbe all'inutilità della cache (e vale per qualsiasi SO)
Se tu non la avessi, al momento di caricare un applicativo pesante avresti ram libera (quindi risparmio di.. diciamo qualche secondo per lo svuotamento della cache) e poi decine di secondi per l'accesso ed il tranfer dei dati dal disco.
Con la cache, la prima volta avresti (nella peggiore delle ipotesi con nessun dato in cache) un aggravio di qualche secondo nel caricamento, ma dai caricamenti successivi sicuramente un risparmio.
E' ovvio che se accedi a questo applicativo pesante una volta al mese non avrai mai dati in cache (e con qualsiasi SO avresti sempre lentezza nel caricamento) ma sicuramente in quel mese avrai beneficiato di prestazioni maggiori perchè dubito che un utilizzatore acceda tutti i giorni ad applicativi sempre differenti e mai acceduti nei giorni precedenti
e infatti è quello che sto dicendo
il punto è che l'analisi statistica del comportamento dell'utente non è sicura al 100% e lo si è ampiamente dimostrato con altri meccanismi simili come quello della branch prediction nei processori
in sostanza nessuno userà mai gli stessi identici applicativi....inoltre converrai che più gli applicativi "cachati" sono grossi e meno sarà il numero di quelli che possono essere cachati....
non è difficile in sostanza pensare ad un centinaia di MB solo per stoccare IE nella cache....
realisticamente nessuno fa uso esclusivo di soli 4-5 programmi e nessuno usa sempre gli stessi identici programmi giorno dopo giorno
e così quando compare all'orizzonte il voracissimo The Sims, per forza di cose il sistema sarà costretta a svuotare un buon 40% della cache.....
quel meccanismo funziona bene solo se si usano sempre gli stessi applicativi in una sessione di lavoro e a patto che questi applicativi entrino tutti in RAM
e infatti è quello che sto dicendo
il punto è che l'analisi statistica del comportamento dell'utente non è sicura al 100% e lo si è ampiamente dimostrato con altri meccanismi simili come quello della branch prediction nei processori
in sostanza nessuno userà mai gli stessi identici applicativi....inoltre converrai che più gli applicativi "cachati" sono grossi e meno sarà il numero di quelli che possono essere cachati....
non è difficile in sostanza pensare ad un centinaia di MB solo per stoccare IE nella cache....
realisticamente nessuno fa uso esclusivo di soli 4-5 programmi e nessuno usa sempre gli stessi identici programmi giorno dopo giorno
e così quando compare all'orizzonte il voracissimo The Sims, per forza di cose il sistema sarà costretta a svuotare un buon 40% della cache.....
quel meccanismo funziona bene solo se si usano sempre gli stessi applicativi in una sessione di lavoro e a patto che questi applicativi entrino tutti in RAM
Sono daccordo, però più ram hai a disposizione e più il meccanismo a possibilità di funzionare in quanto potrai "cachare" una maggior quantità di dati. Ed oggi la quantità di ram non è più il collo di bottiglia delle macchine
Vista usa tutta la ram che può e nel caso, ad esempio, di configurazioni con 4GB (come la mia con x64) ha generalmente una cache di circa 2 - 2,5 GB. In questa cache entrano tranquillamente i programmi più utilizzati (IE, Firefox, client di posta, Word, Excel ecc... ).
Sicuramente con configurazioni con meno di 2GB il meccanismo non funziona alla stessa maniera ma è anche vero che su tali macchine sarà comunque più diffcoltoso fa girare con scioltezza applicativi molto esigenti
pabloski
14-10-2008, 15:44
vero, tranne quando per necessità si fa uso di software esoso, che so per esempio CADDS che richiede decine di gigabyte per funzionare....in quel caso superfetch è solo un problema
l'altro problema è che in questo modo si da man forte alla lazyness dei programmatori, i quali vengono ancor meno stimolati ad ottimizzare il software, tanto alla fine c'è superfetch
l'altro intoppo ovviamente è che quei dati vanno caricati e con superfetch il caricamento avviene al boot, rallentandolo
in generale è un buon sistema, però non bisogna dimenticare che la strada maestra è quella dell'ottimizzazione, soprattutto in ambiente PC dove ormai è normale trovarsi ad aver a che fare con video che superano i 600-800 MB
in questo senso il software, tutto il software ovviamente, dovrebbe contribuire a ridurre il consumo di RAM, purtroppo da 10 anni almeno avviene l'opposto
vero, tranne quando per necessità si fa uso di software esoso, che so per esempio CADDS che richiede decine di gigabyte per funzionare....in quel caso superfetch è solo un problema
l'altro problema è che in questo modo si da man forte alla lazyness dei programmatori, i quali vengono ancor meno stimolati ad ottimizzare il software, tanto alla fine c'è superfetch
l'altro intoppo ovviamente è che quei dati vanno caricati e con superfetch il caricamento avviene al boot, rallentandolo
in generale è un buon sistema, però non bisogna dimenticare che la strada maestra è quella dell'ottimizzazione, soprattutto in ambiente PC dove ormai è normale trovarsi ad aver a che fare con video che superano i 600-800 MB
in questo senso il software, tutto il software ovviamente, dovrebbe contribuire a ridurre il consumo di RAM, purtroppo da 10 anni almeno avviene l'opposto
ok, però i tuoi esempi sono dei casi estremi di utilizzo che non riguardano la maggior parte degli utenti.
Per quanto riguarda il boot non è che viene proprio rallentato in quanto il superfetch parte non appena Vista ha terminato la fase di caricamento. A quel punto senti l'hd che continua a lavorare (in background) e non genera particolari intoppi. Magari su macchine aventi hd meno performanti non nego possano esserci dei piccoli rallentamenti quando cerchi di accedere al disco. Però proprio in questi casi la cache gli migliorerà sicuramente le performance
Per quanto riguarda il sw... beh per i programmatori ora non è più "necessario" lesinare sulla tipologia di variabili da utilizzare o sulla quantità di memoria allocata. Questo perchè gli sforzi in più fatti servirebbero a risparmiare sicuramente qualche MB ma avendone a diposizione ormai quantità enormi.... il solito discorso cost/beneficio.
Basta vedere .NET
Althotas
14-10-2008, 18:25
c'è poco da individuare, quei rallentamenti randomici sono legati al dropping di pagine allocate per la cache (cut)
Bella risposta quella.. complimenti!
Usi la sfera di cristallo per individuare il comportamento di un pc in particolari condizioni? Cazzarola.. è arrivato mago zurlì!
Ho letto anche gli altri tuoi post.. secondo me tu Vista lo conosci per "sentito dire", a cominciare da quello che carica il superfetch e da come funziona.
Non è che per caso sei un linuxiano? Non so' perchè, ma certi tuoi commenti mi ricordano quelli di un paio di altri personaggi che non riescono a fare a meno di fare un salto in questa sezione almeno un paio di volte al mese per sfogare le proprie frustrazioni.
Se MS aggiunge certe funzioni all'OS, non servono a molto, se non lo fa allora è il solito sfigato, se lo fanno gli altri allora è sempre una grande cosa! Ma fatemi il piacere.. :rolleyes:
[...]infatti altre aziende, tipo la QNX software impongono che i software applicativi facciano uso di librerie condivise piuttosto che statiche ( si risparmia un mucchio di RAM ), siano modulari e senza ridondanze eccessive
tutto questo invece MS non lo fa, cominciando a punto dal sistema operativo stesso
la retrocompatibilità è assai relativa, a che serve mantente codice legacy nel sistema quando nonostante ciò il 60% del software XP non gira su Vista? a questo punto viene da chiedersi di che retrocompatibilità parlino a Redmond
Continui a confrontare QNX che è un software critico con Windows che è un software di massa, che per tanto oltre ad avere scopi diammetralmente opposti, target diversi, hanno anche modelli di sviluppo diversi.
Poi vorrei sapere qual è sto 60% di software XP che nn gira su Vista (escludendo l'OVVIO limite che viene imposto da alcune applicazioni scritte male, con UAC?).
Poi tutto questo discorso non ha senso se non rapportato alle motivazioni che hanno condotto ad alcune scelte, cosa che probabilmente in molti qua dentro nn sapremmo comprendere.
Sono pochi direi gli sviluppatori di SO per il pubblico. E a dire la verità non vedo tutto questo abisso tra MS ed altri competitors (anche perché voglio vedere quei SO girare sul 90% delle macchine).
stanno da 10 anni con questo benedetto WinFS e non arrivano a concludere, quando BeOS lo offriva di default un filesystem transazionale
WinFS è stato abbandonato perché avrebbe dato basse performance per fare le stesse cose che ottieni con l'indicizzazione basata sui Tag, anzi offre anche di più come ad esempio l'indicizzazione del contenuto di un file. Non realizzabile con WinFS.
Leggi anche questo interessante articolo coi link e commenti: http://aovestdipaperino.com/posts/winfs.aspx
non so se hai mai notato che a volte capita che avviando un certo programma, il sistema resti "muto" per 15-20 secondi....quello è il caso descritto...in quei 15-20 secondi sta analizzando la cache per capire quali aree può liberare ( quelle occupate dai software che statisticamente vengono avviati di meno in quel determinato periodo )
la liberazione della cache richiede che vengano analizzate le stats, fatti controlli di consistenza per evitare corruzione dei dati, eventualmente deframmentare parte della memoria ( quindi spostare dati da una pagina di memoria all'altra ) per fare spazio al nuovo programma, infine le aree prescelte vanno segnate come libere
I tempi che affermi sono ridicolmente ENORMI per fare le cose che supponi (gestite tra l'altro dall'MMU in HW). Sono operazioni VELOCISSIME di millisecondi.
il punto è che se avviando Firefox tutto questo marchingegno richiede 20 secondi al massimo, con The Sims la faccenda diventa molto più onerosa
Ti ripeto che secondo me hai problemi di HW/SW perché citi tempi assurdamente lenti che non corrispondono alla realtà... e ti parlo dal modesto PC in firma.
Se non ricordo male qualche tempo fa dicevi anche che da te l'ibernazione ci metteva oltre 1 minuto, quando di norma sugli altri sistemi ci mette sui 20-30 secondi max...
la retrocompatibilità è assai relativa, a che serve mantente codice legacy nel sistema quando nonostante ciò il 60% del software XP non gira su Vista? a questo punto viene da chiedersi di che retrocompatibilità parlino a Redmond
Ma stiamo scherzando? Gira praticamente TUTTO su Vista, solo che devi tenere presente certe cose che sono cambiate: http://www.hwupgrade.it/forum/showthread.php?t=1746889
per chi non lo sapesse... è presente anche su Xp (si chiama sospensione)
È molto poco affidabile però e servizi e rete a random impazziscono dopo un po' di volte su XP. Su Vista invece è affidabile al 100% tanto da poterlo (DOVERLO!) sostituire al vecchio Arresta il sistema.
Se uno si mette d'impegno e ha le opportune conoscenze, di solito riesce ad individuare a cosa possono essere dovuti certi "rallentamenti". Ci vuole un po' di tempo e pazienza.
In realtà Vista offre anche degli utili strumenti di auto-analisi anche in questi casi: search "prestazioni", a lato Strumenti avanzati, la prima voce sotto...
Vista, nel tanto denigrato bloatware dei sui MB occupati, offre anche taaaante cose che gli altri OS ad onor del vero non hanno.
pabloski
14-10-2008, 20:02
Bella risposta quella.. complimenti!
Usi la sfera di cristallo per individuare il comportamento di un pc in particolari condizioni? Cazzarola.. è arrivato mago zurlì!
no ma basta fare un ragionamento deduttivo per concludere che i responsabili di quei rallentamenti sono nell'ordine UAC, l'antimalware integrato e superfetch
Ho letto anche gli altri tuoi post.. secondo me tu Vista lo conosci per "sentito dire", a cominciare da quello che carica il superfetch e da come funziona.
mi dispiace per te ma lo sto usando in questo momento per risponderti
Non è che per caso sei un linuxiano? Non so' perchè, ma certi tuoi commenti mi ricordano quelli di un paio di altri personaggi che non riescono a fare a meno di fare un salto in questa sezione almeno un paio di volte al mese per sfogare le proprie frustrazioni.
uso anche Linux su server e lo uso in tutti i sistemi embedded su cui lavoro, non sono un frustrato e non penso che Linux, la comunità OSS o gli sviluppatori Linux si sentano frustrati
le tue affermazioni mi fanno dedurre che ci sono molti nella comunità Windows che non accettano critiche....un comportamento piuttosto da talebani
Se MS aggiunge certe funzioni all'OS, non servono a molto, se non lo fa allora è il solito sfigato, se lo fanno gli altri allora è sempre una grande cosa! Ma fatemi il piacere.. :rolleyes:
dipende dalle funzionalità, dai vantaggi e dagli svantaggi che apportano
tant'è che mi pare di non aver detto che superfetch è una merda, non vale niente, ecc.... ho solo illustrato tecnicamente in quali situazioni superfetch può essere una palla al piede piuttosto che un vantaggio
Continui a confrontare QNX che è un software critico con Windows che è un software di massa, che per tanto oltre ad avere scopi diammetralmente opposti, target diversi, hanno anche modelli di sviluppo diversi.
vero, però concorderai che l'ottimizzazione non è una tecnica per fanatici o sistemi operativi per centrali nucleari
il fatto che windows sia un sistema di massa non giustifica il fatto che non è ottimizzato....posso essere d'accordo che un windows non ottimizzato non fa danni mentre uno qnx creerebbe parecchi grattacapi, però concorderai che un windows superottimizzato sarebbe meglio
Poi vorrei sapere qual è sto 60% di software XP che nn gira su Vista (escludendo l'OVVIO limite che viene imposto da alcune applicazioni scritte male, con UAC?).
ad oggi sono pochi, ma quando è uscito la situazione era quella....io stavo parlando di retrocompatibilità ed è inutile lavorare sulla retrocompatibilità quando poi comunque gli sviluppatori 3rd party devono mettere mano al codice....stesso discorso per i driver....lo so che i driver adesso ci sono, ma dopo che ci hanno lavorato a perdifiato....questo non è garantire la retrocompatibilità
Sono pochi direi gli sviluppatori di SO per il pubblico. E a dire la verità non vedo tutto questo abisso tra MS ed altri competitors (anche perché voglio vedere quei SO girare sul 90% delle macchine).
90% di macchine desktop e questa è stata la salvezza di MS....del resto mi pare che tu abbia detto la stessa cosa quando hai affermato che Windows è un sistema di massa, quindi un sistema per PC ( office automation e home computing in primis ).....questo per dire che MS si trova in una posizione invidiabile, visto che può trascurare l'ottimizzazione
WinFS è stato abbandonato perché avrebbe dato basse performance per fare le stesse cose che ottieni con l'indicizzazione basata sui Tag, anzi offre anche di più come ad esempio l'indicizzazione del contenuto di un file. Non realizzabile con WinFS.
Leggi anche questo interessante articolo coi link e commenti: http://aovestdipaperino.com/posts/winfs.aspx
difficile credere che ci siano cose che un filesystem relazionale non riesca a fare mentre uno basato su tag è in grado di farle
le possibilità offerte da un sistema relazionale sono infinitamente superiori rispetto ad un banale sistema basato su metatag, nonchè più veloci
se conosci il funzionamento dei database relazionali non potrai non essere d'accordo
I tempi che affermi sono ridicolmente ENORMI per fare le cose che supponi (gestite tra l'altro dall'MMU in HW). Sono operazioni VELOCISSIME di millisecondi.
15-20 secondi per liberare mezzo giga di cache ti pare troppo? ti faccio notare che il contenuto della cache non viene semplicemente eliminato ma va swappato sul disco, come normalmente accade per tutto ciò che si trova in RAM e va temporaneamente messo da parte
fai caso che Vista appena parte ha già allocato 1 giga e mezzo o anche più sul file di swap
Ti ripeto che secondo me hai problemi di HW/SW perché citi tempi assurdamente lenti che non corrispondono alla realtà... e ti parlo dal modesto PC in firma.
Se non ricordo male qualche tempo fa dicevi anche che da te l'ibernazione ci metteva oltre 1 minuto, quando di norma sugli altri sistemi ci mette sui 20-30 secondi max...
bah non direi....i tempi che ho riportato sono quelli, non li sto inventando....per quanto riguarda i problemi hardware ho in dualboot Ubuntu e l'hardware fila come un treno
ho notato i tempi di cui parli tu su un iMac, forse è per via del disco da 5400 rpm che ho sul notebook....questo perchè non è un problema del notebook ma è un problema dovuto alla mancata ottimizzazione di cui parlavo prima
insomma se Ubuntu fila e Vista no, posso mai concludere che l'hardware è difettoso?
Ma stiamo scherzando? Gira praticamente TUTTO su Vista, solo che devi tenere presente certe cose che sono cambiate: http://www.hwupgrade.it/forum/showthread.php?t=1746889
lo so, quello che ho affermato è riferito al discorso sulla retrocompatibilità e va letto in questi termini: "com'è possibile che MS spiattela la storia della retrocompatibilità di continuo quando poi ad ogni major release di Windows bisogna modificare il software?"
retrocompatibilità binaria vuol dire che il programma X funziona su Vista senza modifiche, questo non è successo
ripeto, io non capisco il perchè di tanta ostilità nei confronti di chi vi fa notare le carenze di Windows e di Vista in particolare
se ti dico che il mio notebook boota in 2 minuti e 40, spari a zero sul notebook ( almeno tu sei stato intellettualmente onesto, l'altro ha cominciato con gli improperi contro i linuxiani ecc.... )
mi rendo conto che con un hard disk 10.000 rpm, un processore quad core 3GHz e 8 GB di RAM ( test effettuato da tomshw.it ), Vista fila come un siluro
però converrai che in un benchmark Vista contro MacOS, per esempio, Vista perde su tutta la linea....
il punto è che il software evolve quando diventa più performante e meno avido di risorse, cosa che oggi giorno invece non accade quasi mai e questo non solo da parte di MS
in avvio, Vista NON swappa 1 GB ed oltre sul disco. Basta andare in performance ed monitor e visualizzare la % di file di paging utilizzato. Con 2GB non arriva a 50 MB, con 4GB è ZERO
pabloski
14-10-2008, 20:37
in avvio, Vista NON swappa 1 GB ed oltre sul disco. Basta andare in performance ed monitor e visualizzare la % di file di paging utilizzato. Con 2GB non arriva a 50 MB, con 4GB è ZERO
a me con 3 GB di RAM prealloca uno swap file di 6 GB di cui 1,3 GB sono occupati, questo dopo aver avviato vari programmi non facenti parte della lista di cui si occupa superfetch
questo dimostra che lo swap è utilizzato per stoccare i dati durante i cache shrink
a me con 3 GB di RAM prealloca uno swap file di 6 GB di cui 1,3 GB sono occupati, questo dopo aver avviato vari programmi non facenti parte della lista di cui si occupa superfetch
questo dimostra che lo swap è utilizzato per stoccare i dati durante i cache shrink
che allochi spazio è una cosa, che lo usi è un altro. Controlla in performance e monitor quanto ne usi effettivamente
Lo può usare per qualsiasi cosa non solo per metterci la cache (non sono nemmeno sicuro che ce la metta)
pabloski
14-10-2008, 20:58
che allochi spazio è una cosa, che lo usi è un altro. Controlla in performance e monitor quanto ne usi effettivamente
Lo può usare per qualsiasi cosa non solo per metterci la cache (non sono nemmeno sicuro che ce la metta)
1.3 GB sono occupati
e si la cache è swappabile
Althotas
14-10-2008, 20:59
le tue affermazioni mi fanno dedurre che ci sono molti nella comunità Windows che non accettano critiche....un comportamento piuttosto da talebani
Le critiche serie le ho sempre accettate, ma da chi mi dimostra di capirne qualcosa di quello che va scrivendo su un forum. Da quanto hai scritto prima, e da certe cose che leggo adesso (15-20 secondi.. come viene gestito da Vista il pagefile, et similia) sono ormai certo che tu, Vista, lo conosci poco o niente.
E nutro seri dubbi anche sulle tue capacità (per non parlare delle metodologie) utilizzate per individuare una problematica, visto quanto hai scritto prima.
Vuoi consiglio? Lascia perdere Vista e dedicati solo a linux, vedrai che sarai più felice ;)
Stammi bene, ciao :)
1.3 GB sono occupati
e si la cache è swappabile
cioè tu stai usando 1.3 GB in performance e monitor alla voce % di file di paging utilizzato (c:\pagefile.sys)?
pabloski
14-10-2008, 21:13
cioè tu stai usando 1.3 GB in performance e monitor alla voce % di file di paging utilizzato (c:\pagefile.sys)?
si dei 6 GB allocati, 1.3 GB sono occupati
difficile credere che ci siano cose che un filesystem relazionale non riesca a fare mentre uno basato su tag è in grado di farle
Ma l'hai letto il link e i link correlati?
Guarda che lo scopo era quello di una ricerca veloce dei file e documenti, per richiesta di Bill Gates in persona ai programmatori di Windows...
le possibilità offerte da un sistema relazionale sono infinitamente superiori rispetto ad un banale sistema basato su metatag, nonchè più veloci
Per niente quando parli di HD con un infinità di file. Per un modesto sistema desktop casalingo non era adatto. Guarda che sono programmatori professionisti quelli che scrivono per MS. C'è sempre chi pensa che siano imbecilli da sottoscala.... mah... Questo per dirti che ti assicuro che gli esperimenti furono fatti ai tempi e fu scelto di abbandonare il WinFS per via delle risorse massicce che di fatto richiedeva...
15-20 secondi per liberare mezzo giga di cache ti pare troppo?
Decisamente, e infatti non è quello ti assicuro. Se poi ti vuoi convincere di una tua supposizione...
bah non direi....i tempi che ho riportato sono quelli, non li sto inventando....per quanto riguarda i problemi hardware ho in dualboot Ubuntu e l'hardware fila come un treno
Ho capito che sono quelli e ti dico che non sono normali. C'è qualcosa che non va nel tuo computer.
ho notato i tempi di cui parli tu su un iMac, forse è per via del disco da 5400 rpm che ho sul notebook....questo perchè non è un problema del notebook ma è un problema dovuto alla mancata ottimizzazione di cui parlavo prima
Ma l'hai visto il link al mio sistema nella mia firma? :) E il mio Vista ha tempi decisamente migliori dei tuoi. Mi confermi poi che per tornare dall'ibernazione ci metti oltre 1 minuto? Guarda che è tanto e non è normale...
insomma se Ubuntu fila e Vista no, posso mai concludere che l'hardware è difettoso?
Non dico difettoso tecnicamente, dico dell'eterno problema Bios/OS/driver/HW...
lo so, quello che ho affermato è riferito al discorso sulla retrocompatibilità e va letto in questi termini: "com'è possibile che MS spiattela la storia della retrocompatibilità di continuo quando poi ad ogni major release di Windows bisogna modificare il software?"
Scusa, ma... se MS abbandona un po' la compatibilità viene detto che è uno schifo perché non funziona più niente. Se mantiene una certa legacy (ahimè) sul groppone fa schifo perché diventa obeso... Qual è la morale? Qualunque cosa fa MS non va bene? Obiettività...
retrocompatibilità binaria vuol dire che il programma X funziona su Vista senza modifiche, questo non è successo
Non ho capito... Secondo te non ha compatibilità binaria Vista con i programmi per XP?
ripeto, io non capisco il perchè di tanta ostilità nei confronti di chi vi fa notare le carenze di Windows e di Vista in particolare
Io come ho più volte detto, sono Amighista, non difendo Vista perché sono un fan né di Win né di MS, ma in 20+ anni di informatica ho anche sviluppato, spero, un po' più di obiettività e vedo le cose da diversi punti di vista oggi.
Diversi anni mi avrebbe fatto schifo un sistema elefantico come Vista, abituato come ero ad AmigaOS ("efficienza attraverso la semplcità" e se pensi che persino BeOS l'ha copiato per ammissione stessa di Jean-Louis Gasse...) ma oggi valuto pro e contro con più maturità e senza bisogno di dire Linux è meglio perché è più ottimizzato o Vista è meglio perché ha una versatilità HW/SW infinita rispetto alla concorrenza... Sei tu che vuoi per forza assegnare un premio finale.
se ti dico che il mio notebook boota in 2 minuti e 40, spari a zero sul notebook ( almeno tu sei stato intellettualmente onesto, l'altro ha cominciato con gli improperi contro i linuxiani ecc.... )
Il tuo notebook HA PROBLEMI con Vista ;)
mi rendo conto che con un hard disk 10.000 rpm, un processore quad core 3GHz e 8 GB di RAM ( test effettuato da tomshw.it ), Vista fila come un siluro
No no, un single core AMD da 1.8GHz con solo 256KB di cache, un HD da 5400rpm etc. leggi la mia firma...
però converrai che in un benchmark Vista contro MacOS, per esempio, Vista perde su tutta la linea....
Sono confronti infantili su... ti posso rispondere con la provocazione che almeno è più stabile e sicuro dell'ultimo MacOSX Vista e le continue patch di oltre 300MB di Apple coi gravi problemi di sicurezza e non lo dimostrano.
Oggi proprio parlare di Apple in relazione alla qualità non è molto saggio... una volta la qualità era elevata, oggi il 70% delle risorse Jobs l'ha spostato sul marketing, e la cosa l'ha premiato perché sta vendendo più di prima! :doh:
il punto è che il software evolve quando diventa più performante e meno avido di risorse, cosa che oggi giorno invece non accade quasi mai e questo non solo da parte di MS
Secondo me è l'esatto opposto: MS sta notevolmente migliorando, finalmente, qualitativamente. Altri come Apple invece al contrario (leggi sopra)...
bah non direi....i tempi che ho riportato sono quelli, non li sto inventando....per quanto riguarda i problemi hardware ho in dualboot Ubuntu e l'hardware fila come un treno
guarda caso sul mio pc il boot di vista è + veloce (con av e altro) del boot di ubuntu e di mandriva (2009 installata ieri, cambia poco, carino kde 4) di qualche secondo..
compreso accesso al dominio e avvio di alcuni servizi di terze parti che mi servono...
mi sento speciale perchè ho un vista leggero e veloce...
di linux rimpiango solo il file system..se lo usassero su vista non sarebbe male, anche se ntfs ha qualche bella freccia al suo arco (acl?!)...
bio
Phoenix Fire
14-10-2008, 22:35
La più grande incompatibilità di VIsta appena uscito era con molti driver; cosa imputabile ai produttori Hardware e non a Microsoft, visto che quest'ultima ha dato le linee guida circa un anno prima. Grandi problemi poi sono stati causati dal passaggio da una modalità kernel a una user dei driver (cosa ke xò ammetto non so se riguarda solo i video o anche gli altri). Questo problema si ebbe anke con xp, ma visto la somiglianza del kernel con win2000 si poterono usare quei driver in attesa di aggiornamenti.
Con 7 questi problemi non dovrebbero comparire poikè
1 7 condivide il driver model con Vista
2 I produttori Hardware hanno già tutte le specifiche del caso
Rispondo ovviamente ad alcuni quote che mi riguardano :D
vero, però concorderai che l'ottimizzazione non è una tecnica per fanatici o sistemi operativi per centrali nucleari
Ovviamente no, ci sono alcune cose ottimizzate ed altre no, Windows non è perfetto ovviamente, ma come già abbiamo detto si porta appresso molto codice legacy...
il fatto che windows sia un sistema di massa non giustifica il fatto che non è ottimizzato....posso essere d'accordo che un windows non ottimizzato non fa danni mentre uno qnx creerebbe parecchi grattacapi, però concorderai che un windows superottimizzato sarebbe meglio
Bisogna vedere:
a) cosa c'è da ottimizzare
b) se ne vale realmente la pena
Dicevano la stessa cosa di XP, eppure mi pare che adesso tutti lo osannano, tra l'altro quando si faceva notare che un XP con tolti alcuni servizi arrivava ad occupare anche a 70mb lo si considerava cmq pesante e scarsamente ottimizzato, ma vabbè...
ad oggi sono pochi, ma quando è uscito la situazione era quella....io stavo parlando di retrocompatibilità ed è inutile lavorare sulla retrocompatibilità quando poi comunque gli sviluppatori 3rd party devono mettere mano al codice....stesso discorso per i driver....lo so che i driver adesso ci sono, ma dopo che ci hanno lavorato a perdifiato....questo non è garantire la retrocompatibilità
Abbi pazienza, ma è normale che bisogna trovare un certo compromesso tra "mettere mano al codice" come dici te e riscrivere un'applicazione da 0. Qual è la cosa migliore? Reinventare ad ogni release del SO la ruota? Rimanere con una versione del SO per 15 anni?
Non c'è alcun sistema che evolvendosi possa garantire la piena retrocompatibilità senza toccare una linea di codice. E' lo stesso discorso che si può fare con la portabilità di Java tra diversi ambienti operativi, sulla carta è portabile, sulla pratica è tutta un'altra cosa e per applicazioni di una certa complessità bisogna cmq mettere mano al codice.
Alcune modifiche in vista hanno richiesto in parte la riscrittura (vedi le modifiche al driver model, che ovviamente nn verrà toccato in Windows 7 perché è un lavoro recente), i drivers c'erano anche prima, io uso Vista da quando è uscito più o meno, avevo un Opteron 146 (single core quindi), 1gb di ram e una 6800LE prima di passare a questo sistema. Aggiungiamoci che all'uscita i drivers nVidia non erano neanche granché, eppure già dalla beta2 mi accorsi una reattività nella GUI di gran lunga superiore a quella di XP.
Bisogna anche dare parte delle responsabilità agli sviluppatori che cmq hanno avuto in mano da prima gli strumenti di sviluppo e potevano lavorare sulle versioni preliminari.
90% di macchine desktop e questa è stata la salvezza di MS....del resto mi pare che tu abbia detto la stessa cosa quando hai affermato che Windows è un sistema di massa, quindi un sistema per PC ( office automation e home computing in primis ).....questo per dire che MS si trova in una posizione invidiabile, visto che può trascurare l'ottimizzazione
Beh quel 90% se l'è conquistato abbastanza meritatamente, l'unica azienda che gli poteva fare concorrenza ha scelto un'altra strada, e intanto solo nel 2004 Linux introdusse il mounting automatico delle periferiche USB.
Ripeti sempre lo stesso discorso sull'ottimizzazione, ma né io né te sappiamo che grado di ottimizzazione abbia un sistema complesso come Windows, se alcuni moduli sono più ottimizzati di altri (come è possibile), ad esempio l'aver introdotto alcuni meccanismi di I/O penalizzano in certi ambiti ma danno dei vantaggi in altri.
E' tutto un compromesso, sempre. E per il mantenimento di un software complesso in alcuni casi si preferisce avere del codice leggibile piuttosto che guadagnare 2ms di qua o di là.
bah non direi....i tempi che ho riportato sono quelli, non li sto inventando....per quanto riguarda i problemi hardware ho in dualboot Ubuntu e l'hardware fila come un treno
ho notato i tempi di cui parli tu su un iMac, forse è per via del disco da 5400 rpm che ho sul notebook....questo perchè non è un problema del notebook ma è un problema dovuto alla mancata ottimizzazione di cui parlavo prima
insomma se Ubuntu fila e Vista no, posso mai concludere che l'hardware è difettoso?
Basta anche un driver a rallentare un SO, per problemi hardware si intendono anche problemi "legati" all'hardware... cmq sai, ho trovato sorprendente come ArchLinux con GNOME 2.22 sia meno UI responsive rispetto a Vista sul mio portatile (dell xps 1330), specialmente col Composite attivato, l'avvio dell'interfaccia grafica è veramente lento (almeno per me che sono abituato a Win), alcune cose pure richiedono dei tempi morti in cui il SO nn si sa cosa fa, poi magari a copiare un file è velocissimo per carità, ma si vede eccome che non è un SO pensato per la GUI, non parliamo poi di KDE4...
lo so, quello che ho affermato è riferito al discorso sulla retrocompatibilità e va letto in questi termini: "com'è possibile che MS spiattela la storia della retrocompatibilità di continuo quando poi ad ogni major release di Windows bisogna modificare il software?"
retrocompatibilità binaria vuol dire che il programma X funziona su Vista senza modifiche, questo non è successo
Mi chiedo se tu abbia realmente mai programmato... senza modifiche come ti ho già detto presuppone che alcuni moduli non vengano toccati, o meglio, che non venga cambiato il modo di interfacciarsi al sistema (come sarebbe auspicabile). Non ho mai visto 1 software, anche su altri SO (uso anche archlinux per la cronaca) non subire aggiornamenti per via di altre modifiche corpose al sistema operativo.
Aggiungiamoci che Vista cmq ha portato molte modifiche al codice rispetto a XP, non parliamo di SP0 vs SP3, ma di una release del kernel (che tra l'altro deriva da Windows Server 2003, quindi già presuppone delle differenze con XP) parzialmente riscritta da 0. In linux proprio stasera ho aggiornato il kernel 2.6.27 e ho dovuto anche scaricarmi come dipendenza una nuova versione del driver nvidia, la stessa di prima, solo con un revisioning diverso.
La retrocompatibilità che dici tu non esiste se non nel mondo della teoria dei sogni.
pabloski
15-10-2008, 08:16
mah qui tutti con Vista che boota in 13 secondi come il tizio di vistabuntu :D
però è strano, per esempio posso essere d'accordo sul caso ubuntu riportato ( anche se non esageriamo, ubuntu è molto più veloce di vista )
però mandriva e addirittura arch con kde4
comunque sia riguardo l'ottimizzazione, ma scusate c'è bisogno di disquisire? ottimizzare non vuol dire solo fare le scelte algoritmiche giuste....pure nel caso linux, un kernel con interrupt timer settati 1 300hz non è ottimizzato per uso server, dove la latenza non è un problema
per ottimizzazione io intendo l'insieme di moduli, procedure, codice che si può alleggerire....un kernel con un footprint di 180 MB non è ottimizzato e non ci vuole mago zurlì per capirlo
se poi lo ritenete normale, beh, allora abbiamo a che fare con due mondi informatici completamente diversi
per quanto riguarda winfs, non è vero che ms l'ha cassato, caro hexxae vatti a leggere un pò di documentazione sull'architettura oslo e verdrai che è lì vivo e vegeto e completamento integrato in midori....è solo che su windows non era realizzabile, perchè windows segue un paradigma anni '70, come pure linux e macos, tutto qui....winfs non è irrealizzabile in assoluto, anzi progettato a dovere può fornire performance superiori ai normali filesystem ( e gli rdbms dimostrano ogni giorno la loro capacità di trovare oggetti, combinarli, selezionarli, fonderli, ecc... )
per quanto riguarda i 15-20 secondi sono riferiti al tempo di attesa relativo all'avvio di The Sims....un gioco con simile richieste hardware costringe a swappare buona parte della memoria.....e non è anormale un tempo simile per quasi un giga....
per l'eterno problema OS/BIOS e compagnia mi pare decisamente curioso, visto che XP sullo stesso portatile non dà problemi di sorta....o dobbiamo ammettere che vista ha fatto un passo indietro nel supporto hardware? non credo
è superfetch il motivo di quelle latenze nell'avvio di alcuni programmi non previsti dalla sua tabella di marcia....è chiaro se il software che avvii è firefox non te ne accorgi quasi, ma se è The Sims si nota eccome
ma il mio era solo un esempio estremo, il succo del discorso era che superfetch in alcune situazioni d'uso può penalizzare piuttosto che aiutare, così come un cache miss costringe la CPU ad invalidare l'intera cache....è il problema di tutti i sistemi che cercano di prevedere il futuro....
almeno su questo siamo d'accordo?
per quanto riguarda la retrocompatibilità non sto dicendo che ms sbaglia a priori....dico solo che, visto che comunque la retrocompatibilità non è mai garantita al 100% e non può esserlo del resto, magari ogni tanto fare un colpo di testa e ripulire un pò il codice di windows
e infine si, ho programmato, lo faccio per mestiere ma nel mio mestiere preferisco ogni tanto fare una bella ripulita, piuttosto che continuare ad aggiungere layer su layer di codice che poi il tutto diventa oscenamente pesante.....l'importante è la stabilità delle interfacce in modo da permettere ad altri componenti software di continuare a funzionare senza problemi
non è impossibile per ms rimodellare parte dell'os lasciando inalterata l'api win32....ovviamente questo costa tempo e fatica e per questo motivo non lo faranno mai continuando a menarla con la storia della retrocompatibilità
Si però se vi si dice che la ram occupata dai programmi precaricati NON va svuotata e ricaricata, nel momento in cui qualche programma non compreso nei precaricati la richiede, e si continua col dire che ci vuole tempo a fare quell'operazioni i discorsi difficilmente proseguono. :)
Se un programma è precaricato parte all'istante, se non è precaricato lo si carica in ram come succedeva prima con XP senza penalità. Va a sovrascrivere porzioni ri ram occupate ma spuntate come "sovrascrivibili" e che quindi non necessitano di essere svuotate e ricaricate. In sostanza la ram occupata dal prefetch è occupata e libera allo stesso tempo a seconda delle situazioni/circostanze.
pabloski
15-10-2008, 11:19
Si però se vi si dice che la ram occupata dai programmi precaricati NON va svuotata e ricaricata, nel momento in cui qualche programma non compreso nei precaricati la richiede, e si continua col dire che ci vuole tempo a fare quell'operazioni i discorsi difficilmente proseguono. :)
Se un programma è precaricato parte all'istante, se non è precaricato lo si carica in ram come succedeva prima con XP senza penalità. Va a sovrascrivere porzioni ri ram occupate ma spuntate come "sovrascrivibili" e che quindi non necessitano di essere svuotate e ricaricate. In sostanza la ram occupata dal prefetch è occupata e libera allo stesso tempo a seconda delle situazioni/circostanze.
su questo punto ci andrei cauto
liberare la cache non è così banale come dici....in primo luogo si crea un livello di frammentazione elevato che richiede una deframmentazione frequente, poi non è dato sapere se la cache "liberata" viene swappata sul disco e di cosa questa cache è composta.....per quel che ne sappiamo potrebbe essere un'area piena di byte crudi letti dal disco, ma potrebbe benissimo essere un'area in cui vengono stoccate le strutture logiche per l'avvio del processo, l'ambiente runtime, ecc.... questo renderebbe la cache molto importante e oggetto di swap
non ho verificato se effettivamente swappa però quello che ho notato è che tende a swappare altre aree di memoria pur di mantenere la cache ( ovviamente finchè lo swapout è sufficiente )
lo so pure io che liberare RAM non richiede molto sforzo, anche se nel caso di superfetch non sarebbe comunque banale e non si tratterebbe di avere un'area occupata segnata come sovrascrivibile, bisognerebbe comunque stabilire quali programmi buttare fuori dalla cache, ma non è comunque eccessivamente oneroso
però rimane il fatto che ho visto con vari software molto pesanti primo che la cache di superfetch ha priorità rispetto alla memoria dei processi e secondo che i tempi di avvio fanno pensare che vi sia uno swapout in corso
Consiglio a tutti una lettura di questi link... Vengono spiegate per bene davvero molte cose su vista e le migliorie apportate sotto la scocca.
http://technet.microsoft.com/it-it/magazine/cc162494.aspx
http://technet.microsoft.com/it-it/magazine/cc162480.aspx
http://technet.microsoft.com/it-it/magazine/cc162458.aspx
Althotas
15-10-2008, 11:43
Se ritrovo i documenti, divisi in 3 puntate, in cui vengono spiegate per bene molte cose su vista te li passo. Qui non è questione di "secondo me funziona così" oppure "è difficile che va così"... Qui è questione di leggere ed imparare come funziona una cosa. Stop :)
Immagino tu ti riferisca a QUESTO (http://technet.microsoft.com/it-it/magazine/cc162480.aspx) :D
Quella che ho indicato nel link è la Parte 2, che tratta Superfetch etc. E' disponibile, ovviamente, anche la versione in lingua inglese.
ps. perchè hai cancellato il tuo post? Non ci ho trovato nulla di sbagliato.
pabloski
15-10-2008, 11:59
si tutto molto interessante ma dice quello che già sappiamo
quando la memoria si libera e blah blah, superfetch chiede al memory manager di ricaricare i dati e il codice blah blah
ma che succede quando superfetch riempie tutta la memoria e io avvio un software memory intensive?
viene semplicemente annullata parte della cache, cosa che comunque non può avvenire ad capocchiam ma c'è bisogna di valutare quali pagine della cache possono essere droppate
oppure parte della cache va sul disco? e la priorità della cache rispetto alla memoria occupata dai processi? è più alta, più bassa, si scarica prima la cache, si preferisce liberare la RAM occupata, oppure si valuta a seconda delle statistiche raccolte, se per esempio la cache contiene codice di programmi che vengono usati spessissimo si preferisce fare lo swapout della ram occupata?
inoltre superfetch non è così semplice come molti di voi l'hanno descritto, da quei documenti postati si capisce chiaramente che finiscono in cache anche i dati più usati dalle applicazioni, il che riduce il numero di applicazioni cacheabili
e infine la cache di superfetch, sempre dai documenti postati, si evince chiaramente che viene usata come "swap file" veloce...quando dice il fatto che chiede al memory manager, ecc.... vuol dire che superfetch subentra a livello di processo e non di raw code, quindi come pensavo nella cache ci finisce il codice, parte dei dati usati dall'applicazioni, le strutture dell'OS che identificano il processo e quelle che componogno l'ambiente a runtime
detto ciò quando la cache riempie tutta la RAM e bisogna fare spazio per un altro software non si può non fare lo swapout delle parti di cache che si vogliono liberare
quindi la vera funzione di superfetch è di creare un "file swap" veloce nella ram da usare per lo swap-in/swap-out delle applicazioni memory intensive
mah qui tutti con Vista che boota in 13 secondi come il tizio di vistabuntu :D
Sul mio portatile, avevo anche fatto un video, Vista era usabile in meno di 1 minuto, compresa identificazione tramite impronte digitali ;)
però è strano, per esempio posso essere d'accordo sul caso ubuntu riportato ( anche se non esageriamo, ubuntu è molto più veloce di vista )
però mandriva e addirittura arch con kde4
comunque sia riguardo l'ottimizzazione, ma scusate c'è bisogno di disquisire? ottimizzare non vuol dire solo fare le scelte algoritmiche giuste....pure nel caso linux, un kernel con interrupt timer settati 1 300hz non è ottimizzato per uso server, dove la latenza non è un problema
per ottimizzazione io intendo l'insieme di moduli, procedure, codice che si può alleggerire....un kernel con un footprint di 180 MB non è ottimizzato e non ci vuole mago zurlì per capirlo
se poi lo ritenete normale, beh, allora abbiamo a che fare con due mondi informatici completamente diversi
In realtà il fatto che si pigli liberamente 180mb magari in idle non significa che ne consumerà sempre 180, se adotti un programma che usa molta ram, sia Vista che il suo kernel ridimensionano l'uso dedicato a loro, tant'è che avevo postato qualche pagina fa, dopo una sessione con Prime95 in Blend (che occupa il 93% della ram) Vista occupa 315mb, il kernel un centinaio.
Poi ripeto io non ho accesso al codice per poter dire una cosa del genere, considerando che cmq Vista carica tutti i moduli perché deve poter essere eseguito su tutte le macchine. Chiaro sarebbe meglio un'approccio adattativo.
ma il mio era solo un esempio estremo, il succo del discorso era che superfetch in alcune situazioni d'uso può penalizzare piuttosto che aiutare, così come un cache miss costringe la CPU ad invalidare l'intera cache....è il problema di tutti i sistemi che cercano di prevedere il futuro....
almeno su questo siamo d'accordo?
Anche se non ho riscontrato rallentamenti esagerati come dici te, lo troveresti strano dal momento che è un meccanismo per caricare più velocmente i programmi che si usano spesso?
Onestamente a me sembra una scelta intelligente, se uso un programma 1 sola volta nell'arco di diverso tempo, non mi interessa aspettare un po' di più per il caricamento. Discorso diverso per le applicazioni di tutti i giorni.
Continuo a non trovarci nulla di male, anzi, è stata fatta una scelta, imho anche corretta in questo caso, visto il target di Windows.
per quanto riguarda la retrocompatibilità non sto dicendo che ms sbaglia a priori....dico solo che, visto che comunque la retrocompatibilità non è mai garantita al 100% e non può esserlo del resto, magari ogni tanto fare un colpo di testa e ripulire un pò il codice di windows
Su questo siamo più che d'accordo, c'è un sacco di codice legacy che andrebbe eliminato, a nessuno interessa che Vista giri su un P3.
e infine si, ho programmato, lo faccio per mestiere ma nel mio mestiere preferisco ogni tanto fare una bella ripulita, piuttosto che continuare ad aggiungere layer su layer di codice che poi il tutto diventa oscenamente pesante.....l'importante è la stabilità delle interfacce in modo da permettere ad altri componenti software di continuare a funzionare senza problemi
Esatto, anche perché ad un certo punto mi insegnano che è meglio ripartire da 0 piuttosto che continuare a modificare (anche per l'insorgere di eventuali bug).
non è impossibile per ms rimodellare parte dell'os lasciando inalterata l'api win32....ovviamente questo costa tempo e fatica e per questo motivo non lo faranno mai continuando a menarla con la storia della retrocompatibilità
Io spero solo che MS non deluda le aspettative che si sono venute a creare con Windows 7.
Serve un OS più intelligente capace di adattarsi all'utente, e MS in parte (per quanto riguarda il "comportamento") diciamo che l'ha fatto.
Ora tocca ai moduli del SO. Dicevano appunto di voler ridurre il numero di servizi, voglio sperare che mantengano l'intenzione almeno.
@pabloski
Cosa vuoi che ti dica, se ti sei beccato la sfiga! ;) Ti assicuro che Vista per la maggior parte degli altri utenti non ci mette oltre 1 minuto a recuperare dall'ibernazione come da te ma intorno ai 30 secondi...
Quei link al WinFS che ho dato guarda che sono stati scritti da gente che lavora in MS, quindi di prima mano... dubito che dicano sciocchezze. Non so dove tu abbia visto il WinFS in Midori. Fornisci pure i link, ma che non siano supposizioni di qualche "giornalaio"....
Se sei tanto convinto che il superfetch sia la causa della lentezza del tuo PC disattiva il servizio. Vedrai che non è per supposti scambi di swap da/alla cache del superfetch che ti dà quei tempi il sistema (rimarranno uguali e/o peggioreranno i tempi di caricamento per nuove applicazioni). Fai sapere...
PS
Che scheda video e driver usi e su che portatile esattamente? Ho il sospetto che possano c'entrare qualcosa. C'è una swap della memoria video in Vista a causa del Desktop Composition...
Quei link al WinFS che ho dato guarda che sono stati scritti da gente che lavora in MS, quindi di prima mano... dubito che dicano sciocchezze. Non so dove tu abbia visto il WinFS in Midori. Fornisci pure i link, ma che non siano supposizioni di qualche "giornalaio"....
Che io sappia avete ragione entrambi. Il codice non è stato buttato, è stato utilizzato a piene mani per SQL 2008 e verrà sfruttato anche per il prossimo.
Invece per quanto riguarda l'impiego pratico come layer per un futuro fs, l'idea non è morta, ma il codice fin qui scritto si.
Althotas
15-10-2008, 20:37
I tempi di ripresa da una ibernazione variano anche in funzione della RAM installata sul sistema, in quanto l'OS fa una esatta immagine della RAM e la salva nel file hiberfil.sys, nascosto e presente in C:. Pertanto, se il pc ha 1 GB di RAM, il file che l'OS caricherà è grande 1 GB, se il pc ha 2 GB il file è 2 GB, e così via. Di conseguenza, anche la velocità dell'hard disk e lo "stato" nel quale si trova (più o meno pieno) incidono un po'.
Ho provato adesso a mandare in ibernazione un notebook DELL nuovo con Vista business 32 bit, processore dual core intel T7250 2 GHz, 2 GB di RAM e HD da 160 GB 7200 rpm diviso in 2 partizioni (quella dell'OS è da 60 GB), con un po' di software serio installato (Office, Adobe Reader, etc), antivirus (Avast), e tutti i Servizi di Vista abilitati come da default. L'OS non è stato tweakkato, gli unici 2 accorgimenti adottati sono stati l'eliminazione dell'immagine di sfondo (il desktop si presenta con lo sfondo nero) e l'eliminazione della bitmap di Vista che viene caricata all'avvio (che è impostabile dall'utente). La ripresa dell'ibernazione fino alla richiesta del login ha richiesto 11-12 secondi, tentando di escludere il tempo iniziale richiesto dal BIOS (qualche secondo). Dalla schermata di login a desktop caricato ci mette altri 2-3 secondi. L'HD, dopo la disponibilità del desktop, può continuare a lavorare in background (senza incidere minimamente) per un periodo più o meno lungo, in funzione delle operazioni che sono state previste dall'OS a quell'avvio (eventuale creazione automatica di un punto di ripristino, indicizzazione, etc.).
Il mio desktop Fujitsu-Siemes Esprimo P5925 EPA, Intel E8400, HD 250 GB 7200 rpm, 2 GB di RAM, Vista business 32 bit, ed il resto messo più o meno nella stessa situazione del DELL sopracitato, impiega praticamente lo stesso tempo del DELL a riprendersi da una ibernazione. Lo avevo verificato tempo fa.. in questo momento l'ho scollegato per far spazio al notebook DELL che sto "preparando" per un amico.
I tempo sopraindicati li ho misurati con il cronometro dell'orologio, quindi non sono precisissimi, ma al massimo avrò sbagliato di 1 o 2 secondi in più o in meno.
Il tempo di avvio normale (non di ripresa da una ibernazione) dei due pc sopracitati, fino alla disponibilità del desktop è per entrambi inferiore ai 60 secondi. Se serve posso riprovare a cronometrare l'avvio del DELL (lo avevo fatto qualche giorno fa, ma non mi son segnato il tempo esatto). Io sono soddisfatto.
E' chiaro che i tempi possono variare in funzione di altre operazioni "extra" che un pc può essere costretto a fare all'avvio, in funzione di come è stato impostato dall'utente, dal software in autorun, etc.
però rimane il fatto che il codice di Vista è troppo ridondante, se 180 MB sono necessari al solo kernel con i demoni di default....mi pare un pò troppo, del resto lo stesso kernel nudo e credo ( il famoso MinWin ) non è riuscito a scendere sotto i 40 MB
Nel video http://www.istartedsomething.com/20071019/eric-talk-demo-windows-7-minwin/ in realtà dice che MinWin occupa circa 25 MB (e stringendosi nelle spalle ammette che avrebbero voluto snellirlo ulteriormente ma...) e ne richiede una 40ina per girare, solo per essere precisi ;)
Che io sappia avete ragione entrambi. Il codice non è stato buttato, è stato utilizzato a piene mani per SQL 2008 e verrà sfruttato anche per il prossimo.
Invece per quanto riguarda l'impiego pratico come layer per un futuro fs, l'idea non è morta, ma il codice fin qui scritto si.
Avevo letto di sfuggita che alcune cose sono state integrate in C#, ad esempio con LINQ l'utilizzo di query per accedere alle strutture dati...
Cmq si useranno alcune cose per altri prodotti.
Nel video http://www.istartedsomething.com/20071019/eric-talk-demo-windows-7-minwin/ in realtà dice che MinWin occupa circa 25 MB (e stringendosi nelle spalle ammette che avrebbero voluto snellirlo ulteriormente ma...) e ne richiede una 40ina per girare, solo per essere precisi ;)
Si già gliel'avevo fatto notare, tra l'altro gira anche un server web su quel sistema.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.