PDA

View Full Version : Il kernel Linux è ingrassato troppo


Redazione di Hardware Upg
25-09-2009, 08:48
Link alla notizia: http://www.hwupgrade.it/news/software/il-kernel-linux-e-ingrassato-troppo_30220.html

Linus Torvalds afferma che il kernel Linux ha raggiunto dimensioni troppo elevate

Click sul link per visualizzare la notizia.

lucusta
25-09-2009, 08:52
mircokernel... qux docet.

fpg_87
25-09-2009, 08:53
credo che sia anche normale...
Se vuoi un motore + potente, devi necessariamente farlo + grande... puoi fare tutte le ottimizzazioni che vuoi, ma in ogni caso + grande diventa sempre...
La bravura sta nell'ottimizzare lo spazio, o cm in questo casa, ottimizzare i moduli che vengono caricati, ed eliminare funzioni che nn servono +.

Human_Sorrow
25-09-2009, 08:54
E' ovvio che finchè Linux era una shell e un webserver Apache era "snello, leggero e reattivo" e adesso che ci si stanno mettendo le normali funzionalità Desktop diventi ogni giorno più "pesante, lento e non-reattivo" ...

L'importante secondo me è aprire due filoni con Linux: uno per professionisti e uno Windows-Killer e mantenerli distinti già a livello di kernel e in entrambi va mantenuto " l'ottimo livello qualitativo del Kernel e la velocità con la quale i bug vengono risolti." ;)

IMHO

pabloski
25-09-2009, 08:55
cavolo adesso ve ne siete accorti di questa news? su pi si stanno dando battaglia da 2 giorni tra troll winari e linari

il problema esposto da Torvalds gli fu già presentato anni fa da Tannenbaum e fino a prova contraria solo i microkernel sono in grado di salvare capra e cavolo

poi ci sono le derive dei big, tipo intel che sviluppa gem ma nessun altro lo usa....

questi sono i problemi strutturali di linux, poca pianificazione a monte e un'architettura che permette a chiunque di fare porcate

Willy_Pinguino
25-09-2009, 08:59
Se non ricordo male qualche anno fa lo stesso Torvald criticava OSX ed il kernel Mach di provenienza Next per la sua conformazione di microkernel... Ora però lui stesso si rende conto che i kernel monolitici soffrono all'aumento delle funzioni richieste...
Una possibile via di fuga era stata indicata in passato nei moduli dinamici in user space, ma l'esperienza attuale dimostra che i meccanismi fino ad ora implementati non sono in grado di rendere questa soluzione sufficentemente agile...
vista anche la resa in termini di reattività, io esplorerei le soluzioni (ormai decennali) sviluppate con il defunto BeOS (ma Palm che se ne fa di un sistema operativo del genere??? lo regalasse alla comunità...) e riprese ora in Haiku (vedi questa notizia (http://www.hwupgrade.it/news/software/haiku-un-sistema-operativo-ispirato-a-beos_30156.html) di qualche giorno fa...), è la volta che un'ottica diversa puo' significare rivoluzione, ma anche ottimizzazione estrema!

Comunque no, non sono le funzioni "windows like" che appesantiscono il kernel e no, non è la divisione del kernel la soluzione, in quanto gli sviluppatori non hanno ne modo ne senso di dividersi tra "pro" e "home"...
il kernel si appesantisce per la presenza dei moduli precompilati come gli scheduler per i vari filesistem, i drivers di gestione delle periferiche usb (non esiste un driver standard per tutte le macchinine fotografiche per esempio, e se non lo introduci a livello kernel , poi chi lo sente l'utente sprovveduto che alla parola "ricompilare" chiude tutto e torna a windows???) o per esempio decine di schede tv supportate in kernel nelle distro più comuni.... a volte si tratta anche di moduli proprietari come i drivers delle schede video che per loro natura non sono molto ottimizzati...
ci fosse un modo facile e sicuro anche per l'utente più niubbo di ricompilare il kernel sulla base di ciò che è effettivamente installato ed usato sul proprio computer si potrebbe rimandare di qualche anno la definizione di "obeso" ma fino a che le distro principali distribuiscono dei kernel "cicci" per accontentare tutti, nessuno potrà impedire che l'obesità diventi la regola...

modifica delle 13.30

Hemmm... forse nella fretta mi son spiegato male e ho dato per scontate troppe cose... il kernel di suo non è bello chiuso e immodificabile se non da torvald in persona, ma anzi tutte le distro ne modificano i sorgenti per introdurre quello che a loro pare utile... questo per quanto riguarda la gran massa delle funzioni windows like e per particolari usi di nicchia di certe distro (vedi Red Hat con il codice di Xen o distro multimediali con il supporto a tutte le schede tv e satellite più comuni o ancora alcune distro industriali con le varianti realtime dello scheduler dei processi). Io stimo che Torvald non si riferisse a questo, ma alle funzioni comuni di base che stanno appesantendo il kernel... per esempio il supporto nativo ad oltre 60 file system diversi, a 3 gestioni diverse per gli interrupt degli eventi e allo scheduler per l'accesso allla memoria, che per garantire retrocompatibilità alle varie tecnologiepresenti e passate si appesantisce di migliaia di righe di codice... cose del genere sono quello che Human_Sorrow vorrebbe sicuramente includere nella versione PRO del kernel, ma non ce n'è bisogno... il kernel è PRO e sopra ci vengono aggiunte funzioni HOME, ma questo non è l'equivalente del passaggio da xp a vista...non c'è proprioo paragone tra la reattività dei sistemi unix-like e i sistemi M$.

Da come leggo io la notizia, Torvald chiede di pulire meglio il codice e di rivedere se possibile le parti più vecchie, non solo di mirare ad aggiungere nuove funzioni e compatibilità... Le funzioni HOME le aggiungono le varie distro e sono queste che si occupano della maggiore facilità di utilizzo nell'ambito in cui vogliono collocare la loro distro. Torvald ha sempre avuto l'abitudine di strillare a voce alta un "attenti al lupo" ma fino ad ora ha sempre dimostrato di averci visto abbastanza bene e comunque i suoi richiami servono da warning ai vari programmatori e manutentori del codice al fine di mantenere il controllo del codice sotto la sua responsabilità. Insomma è un papà, pronto a strillarti più che a dirti bravo, ma il figliuolo suo mi sembra che continui a crescere bene ;)

scusate il papiro, se necessario edito e riassumo :D

bs82
25-09-2009, 09:14
Che linux sta diventando tutto l'opposto di quello che era alla nascita.

Ormai non ha niente da invidiare, negativamente parlando, a tutti gli altri SO ...

Pr|ckly
25-09-2009, 09:17
A me pare la sua classica presa di posizione contro Stallman.
Oramai i due non si sopportano e sono sempre pronti a punzecchiarsi a vicenda.

Pokeroso
25-09-2009, 09:20
A me pare la sua classica presa di posizione contro Stallman.
Oramai i due non si sopportano e sono sempre pronti a punzecchiarsi a vicenda.

Ma Stallman cosa c'entra?
Il kernel Linux non è "mantenuto" da Torvalds?

guyver
25-09-2009, 09:23
dovrebbero rendere la compilazione del kernel userfriendly

lagunaloires
25-09-2009, 09:26
@bs82
Sono ignorante, puoi delucidare meglio le negatività che non invidia?
Grazie.

tarek
25-09-2009, 09:28
""Se vuoi un motore + potente, devi necessariamente farlo + grande... puoi fare tutte le ottimizzazioni che vuoi, ma in ogni caso + grande diventa sempre...""

questa è proprio una str..... con un 1400 oggi si hanno fino a 180cv mentre fino a 5 anni fa non poteva darne più di 100. L'avanzamento tecnologico permette ottimizzazioni, hai scelto l'esempio sbagliato.

Human_Sorrow
25-09-2009, 09:30
Comunque no, non sono le funzioni "windows like" che appesantiscono il kernel e no, non è la divisione del kernel la soluzione, in quanto gli sviluppatori non hanno ne modo ne senso di dividersi tra "pro" e "home"...
il kernel si appesantisce per la presenza dei moduli precompilati come gli scheduler per i vari filesistem, i drivers di gestione delle periferiche usb (non esiste un driver standard per tutte le macchinine fotografiche per esempio, e se non lo introduci a livello kernel , poi chi lo sente l'utente sprovveduto che alla parola "ricompilare" chiude tutto e torna a windows???) o per esempio decine di schede tv supportate in kernel nelle distro più comuni.... a volte si tratta anche di moduli proprietari come i drivers delle schede video che per loro natura non sono molto ottimizzati...


Lo hai detto tu che si appesantisce per l'introduzione delle USB delle macchine fotografiche o delle schede TV ecc...
Per me un server mail non ha bisogno di questa roba quindi: Linux PRO e Linux Home è la soluzione ;), il primo con il kernel senza fronzoli di qualche anno fa e il secondo con il kernel pachidermico pieno di usb e drivers :D
Poi ho detto IMHO appunto perchè io la vedo così e tu no :stordita:

lucusta
25-09-2009, 09:32
ehm.. non esageriamo..
linux si salvera' sempre in confronto agli altri sistemi perche' comunque offre un parco di distribuzioni estremamente elevato (e gratuito), invece che una e solo una su cui ti devi adoperare con una miriade di tools per renderla pulita.
un sistema non e' solo kernel, che ti da' la possibilita' di fruttare o meno una features, ma anche il set di programmi e utility che ci infili dentro e che risulta difficile purgare a posteriori (perche' devo trovarmi l'OS gia' zozzo di inutilita' nella prima istallazione?).
linux spazia con distro come ubuntu fino ad arrivare a puppy (che e' ancora bella fornita per un uso desktop, e gira su un 486), a confronto di distribuzioni che oltre ad avere un kernel monolitico e precompilato bello grasso e pesante, sono anche poco flessibili e piene di inutilita'...
quando microsoft cedera' anche sulla possibilita' di scegliere i programmi e le utility da installare, invece del solito click di acettazione di tutto il possibile ed immaginabile, allora le cose cambieranno un pochino anche sui suoi sistemi.

danlo8600
25-09-2009, 09:38
Lento??? linux lento??? Scusate ma perchè non le provate le cose prima di sparare cavolate? Kubuntu 9.04 la distribuzione linux più lenta che sia stata fatta, piena zeppa di robba compreso il server apache e un bel po di programmi per lo sviluppo, fà il boot, avvia i vari programmi e si spegne molto più velocemente di Windows 7 semi vuota... Per non parlare poi di kubuntu 9.10 che uscirà a fine ottobre, il boot avviene in 15 secondi, i vari software si avviano con una velocità inaudita, e il pc si spegne in 5 secondi se questo è lento vi consiglio di lasciar perdere il pc e magari provare a divertirsi con una Lamborghini.

Il kernel pesante? già si sapeva... Lo stesso problema lo ha anche microsoft che lo risolve eliminando sui nuovi sistemi operativi il supporto ai vecchi hardware... Apple neanche la cito... Hanno 4 pezzi di hardware che vengono mischiati per fare pc più o meno performanti, alla fine quanti moduli ci saranno montati su osx 30, di cui ne servono 4? Avere pochi moduli non vuoldire essere più bravi vuoldire semplicemente avere mento supporto all'hardware, infatti osx gira solo su un numero limitatissimo di macchine che hanno anche un numero limitatissimo di componenti hardware.

Le scelte sono 2 o cominciare ad eliminare roba vecchia oppure continuare così. Anche il fatto dei moduli io non lo capisco... Perchè dite sono implementati male? il kernel fornisce dei moduli di base, all'installazione del sistema viene deciso quali sono i moduli che devono essere montati sempre, quali devono essere montabili, quindi? Di certo ricompilando il kernel si può eliminare un sacco di roba inutile ma non credo che serva a molto.... Io dal canto mio penso solo una cosa, al momento il kernel più patchato in circolazione è sicuramente quello di Ubuntu e le sue "sorelle"... Alla fine pesa, penso, meno di 100MB tra image e header, a me non sembra eccessivo... Se poi parliamo di un peso inteso in senso che il codice è troppo grosso e problematico allora sarà compito loro quello di sistemarlo, daltronde è il loro lavoro. Quindi alla fine fine mi spiegate qual'è il problema? perché io non l'ho capito.

MadJackal
25-09-2009, 09:38
dovrebbero rendere la compilazione del kernel userfriendly

Lo è già.
Non ci vuole molto a compilarsi il kernel, eh, una volta che hai lspci/lsusb installato, se non hai hw strambo.

Lo hai detto tu che si appesantisce per l'introduzione delle USB delle macchine fotografiche o delle schede TV ecc...
Per me un server mail non ha bisogno di questa roba quindi: Linux PRO e Linux Home è la soluzione ;), il primo con il kernel senza fronzoli di qualche anno fa e il secondo con il kernel pachidermico pieno di usb e drivers :D
Poi ho detto IMHO appunto perchè io la vedo così e tu no :stordita:

Se non ti serve quella roba non la compili e la inserisci nel kernel.
Nessun bisogno di dividere il kernel in due. :rolleyes:

bicchiere
25-09-2009, 09:39
Serve una gerarchia, meglio se una struttura piramidale.

Torvalds quando si è accorto che alcuni collaboratori avevano troppa libertà, li ha liquidati e ha messo a posto le cose.

guyver
25-09-2009, 09:43
che puppy giri su 486 è da vedere...
in terminale forse X ne dubito

cmq più che il kernel è pesante tutto l'ecosistema che ci gira intorno (GNU)

danlo8600
25-09-2009, 09:45
Human_Sorrow non te lo volevo dire ma è già così :D

Non per niente esiste ubuntu desktop e ubuntu server. La ubuntu server non monta una marea di roba a partire da xorg e desktop. Hai mai scaricato un kernel vanilla? se nò fallo, ricompilalo senza patcharlo e vedi quanta roba ti funziona... Così è il kernel più leggero che si può ma poi ti ripeto dimmi quanta roba ti funziona.

Human_Sorrow
25-09-2009, 09:49
Se non ti serve quella roba non la compili e la inserisci nel kernel.
Nessun bisogno di dividere il kernel in due. :rolleyes:


E l'utente medio/basso lo sa fare ?????? ;)
Se sono 'compresi' di natura è perchè per guadagnarsi mercato Linux deve diventare semplice per gli utenti meno 'smanettoni' :)
( oppure può scegliere di rimanere il 2 o 3% )

MadJackal
25-09-2009, 09:54
E l'utente medio/basso lo sa fare ?????? ;)
Se sono 'compresi' di natura è perchè per guadagnarsi mercato Linux deve diventare semplice per gli utenti meno 'smanettoni' :)
( oppure può scegliere di rimanere il 2 o 3% )

L'utente medio basso che vuole farsi il server prende una distribuzione adatta, non ubuntu desktop per poi tentare di "adattarla". Ma farsi un server non grafico e con il kernel ridotto al minimo per un utente che non sa dove mettere le mani, beh, mi pare una cazzata immensa ;)

Ripeto che ricompilarsi il kernel non è difficile, che lo sia è una leggenda metropolitana. Basta avere voglia di mettersi lì un attimo, le pciutils e le usbutils.
Non ci vuole molto di più che a cercare il modo di disattivare i servizi inutili sotto vista.

RunAway
25-09-2009, 09:56
Forse anche a linux (inteso proprio come il kernel) serve un periodo di "no new feature" e cioè di sola ottimizzazione come ha fatto Apple con Leopard->Snow Leopard e Microsoft con Vista->7.
La mia impressione è che dal 2.6 in poi il kernel abbia cominciato a crescere e gonfiarsi freneticamente con una frenesia di microrelease o addirittura micro micro release.
Sintomo appunto di uno sviluppo frenetico e quindi molto probabilmente di una minore attenzione a far le cose "bene e con calma".
Di qui il mio pensiero, prendere appunto un periodo di sola ottimizzazione, magari in un branch separato, per smorzare gli effetti dell'ingrassamento rapido subito ultimamente.

RunAway
25-09-2009, 09:56
Doppio post sorry, cancellate pure questo

mjordan
25-09-2009, 10:02
dovrebbero rendere la compilazione del kernel userfriendly

La compilazione del kernel non può essere piu' userfriendly di quanto non lo sia già. Perchè l'utente per compilare un kernel deve sapere cosa vuole, quindi non può essere utont friendly a prescindere. Per il resto un make menuconfig; make bzImage; make modules; make modules_install non mi sembra tutta questa operazione trascendentale.

Scegliere un'anticipatory scheduler rispetto a un'altro algoritmo è un'operazione che non si può rendere a "prova di utente ignorante". Compilare un kernel richiede sapere quello che si vuole, non si scappa.

P.S.: Per me gli utenti Linux sono quelli che dopo installato un sistema si configurano il kernel come prima cosa. Tutti gli ubuntari che stanno in giro nemmeno li considero utenti Linux, figuriamoci. C'è gente che parla della pesantezza di Linux e poi tiene ancora il driver per il floppy disk caricato in memoria.

RunAway
25-09-2009, 10:08
C'è gente che parla della pesantezza di Linux e poi tiene ancora il driver per il floppy disk caricato in memoria.

Non so se è un esempio tanto per dire e non realistico, ma un sistema minimamente "intelligente" non dovrebbe autometicamente e in modo del tutto trasparente evitare di considerare il driver del floppy se non rileva nessun drive floppy nel sistema?
Mi pare strano che non sia già così in generale, forse appunto era un esempio non proprio azzeccato...


P.S.: Pretendere che qualcuno sappia configurarsi un kernel e ricompilarselo per avere un sistema reattivo, nel 2009, è folle, assurdo, totalmente fuori da ogni logica (parlando di ambito desktop ovviamente).

mjordan
25-09-2009, 10:11
Ripeto che ricompilarsi il kernel non è difficile, che lo sia è una leggenda metropolitana. Basta avere voglia di mettersi lì un attimo, le pciutils e le usbutils.
Non ci vuole molto di più che a cercare il modo di disattivare i servizi inutili sotto vista.

Fosse solo capire quali driver ricompilare per l'hardware. Compilare un kernel richiede di piu'. Altrimenti è meglio il kernel di default di Ubuntu. :asd:

pabloski
25-09-2009, 10:11
Non so se è un esempio tanto per dire e non realistico, ma un sistema minimamente "intelligente" non dovrebbe autometicamente e in modo del tutto trasparente evitare di considerare il driver del floppy se non rileva nessun drive floppy nel sistema?

e infatti non lo considera, però il suo codice sta nell'eseguibile e te lo porti dietro a vita

per questo furono inventati i LKM

solo che ci sono funzionalità che non possono essere messi in moduli pena l'impossibilità di avviare il sistema....i microkernel risolvono problema questo problema di boot mantenendo funzionalità fondamentali in moduli separati

ecco perchè i microkernel sono migliori in termini di efficienza

axias41
25-09-2009, 10:11
La compilazione del kernel non può essere piu' userfriendly di quanto non lo sia già. Perchè l'utente per compilare un kernel deve sapere cosa vuole, quindi non può essere utont friendly a prescindere. Per il resto un make menuconfig; make bzImage; make modules; make modules_install non mi sembra tutta questa operazione trascendentale.

Scegliere un'anticipatory scheduler rispetto a un'altro algoritmo è un'operazione che non si può rendere a "prova di utente ignorante". Compilare un kernel richiede sapere quello che si vuole, non si scappa.

P.S.: Per me gli utenti Linux sono quelli che dopo installato un sistema si configurano il kernel come prima cosa. Tutti gli ubuntari che stanno in giro nemmeno li considero utenti Linux, figuriamoci. C'è gente che parla della pesantezza di Linux e poi tiene ancora il driver per il floppy disk caricato in memoria.

Ti ringrazio per non considerarmi; del resto come utente Ubuntu non so proprio cosa voglia dire visudo, che ho dovuto usare per modificare a mano sudoers, per far partire all'avvio del sistema il daemon di wicd dopo averlo installato dai sorgenti. Ma resto un utente ubuntu, quindi non mi considero un vero utente Gnu\Linux.
Del resto, se Torvalds usa Fedora perché non ha voglia e tempo per smanettare in tutto quello che non gli interessa un motivo ci sarà e lo dice lui stesso: il suo ambito di interesse è estremamente specializzato, tutto il resto lo vuole semplice e immediato. Chissà, forse neanche lui è un vero utente linux.
È così che si diffonde la cultura alla base di Gnu\Linux, non considerando chi non è sufficientemente smanettone? Secondo me, no.

spammone
25-09-2009, 10:12
Forse anche a linux (inteso proprio come il kernel) serve un periodo di "no new feature" e cioè di sola ottimizzazione come ha fatto Apple con Leopard->Snow Leopard e Microsoft con Vista->7.

Ti quoto in toto. Linux (si parlo del kernel, non dei sistemi operativi che lo usano) è cresciuto moltissimo negli ultimi anni, sia in termini di forza lavoro impegnata nel suo sviluppo che in termini di features implementate. E' normale, quasi fisiologico, che in un momento di crescità di questo tipo la qualità del codice scritto sia minore: vuoi per la minor possibilità di coordinare gli sviluppatori, vuoi per la voglia crescente di sviluppare nuove features a scapito dell'eleganza, della scalabilità e della velocità del codice.
Ci vorrebbe un momento di freeze: ci si ferma nello sviluppo e si cerca di ottimizzare il tutto.

Alfhw
25-09-2009, 10:13
il defunto BeOS (ma Palm che se ne fa di un sistema operativo del genere??? lo regalasse alla comunità...)

BeOS non è più di proprietà Palm da diversi anni. Diventò di proprietà PalmSource che si separò da Palm nel 2003. Poi nel 2005 PalmSource fu acquisita dalla giapponese Access.
Cosa se ne fa Access? Boh... :boh:

Vash1986
25-09-2009, 10:14
Fu così che arrivò il prof. Tanenbaum e disse a Torvalds: te l'avevo dettooooo! :D

mjordan
25-09-2009, 10:14
Non so se è un esempio tanto per dire e non realistico, ma un sistema minimamente "intelligente" non dovrebbe autometicamente e in modo del tutto trasparente evitare di considerare il driver del floppy se non rileva nessun drive floppy nel sistema?
Mi pare strano che non sia già così in generale, forse appunto era un esempio non proprio azzeccato...


Era un esempio forzato per fare una battuta. Ma fino a un certo punto. Perchè i moduli del kernel hanno delle dipendenze. E molto spesso determinate dipendenza vanno eliminate togliendo altra roba che l'utente spesso può ignorare. Senza togliere che esistono moduli compilati staticamente perchè richiedono di essere statici. E poi il kernel compilato da una distribuzione DEVE necessariamente includere tutto quanto è di uso comune, dal computer preistorico al computer moderno.


P.S.: Pretendere che qualcuno sappia configurarsi un kernel e ricompilarselo per avere un sistema reattivo, nel 2009, è folle, assurdo, totalmente fuori da ogni logica (parlando di ambito desktop ovviamente).

Io penso che il desktop, su un sistema unix è una forzatura di quest'ultimo decennio. Sicuramente che si evolva sotto quel piano è una cosa buona. Ma io non voglio che Linux diventi come MacOS X. Proprio per niente. Considero distribuzioni come Ubuntu il cancro di Linux. Non lo rappresentano proprio. Con questo non voglio dire che il sistema buono è il sistema arduo. Voglio solo dire che quello di Ubuntu a mio avviso non è il giusto modo di procedere.
Sono dell'opinione che determinati utenti dovrebbero semplicemente stare lontani da Linux. Non sono di certo un'evangelista dell'open source come fanno molti.

EDIT: Proprio mentre postavo, è arrivata la mailing list Red Hat, segno del destino :D

MadJackal
25-09-2009, 10:16
Fosse solo capire quali driver ricompilare per l'hardware. Compilare un kernel richiede di piu'. Altrimenti è meglio il kernel di default di Ubuntu. :asd:

Zut zut. lspci ed lsusb mi forniscono tutte le info di cui ho bisogno a riguardo, eccetto magari il tipo di FS che sto usando ;)
Dico per esperienza, non per altro - poi se vuoi sceglierti uno scheduler diverso dal default...

hermanss
25-09-2009, 10:20
E' ovvio che finchè Linux era una shell e un webserver Apache era "snello, leggero e reattivo" e adesso che ci si stanno mettendo le normali funzionalità Desktop diventi ogni giorno più "pesante, lento e non-reattivo" ...

L'importante secondo me è aprire due filoni con Linux: uno per professionisti e uno Windows-Killer e mantenerli distinti già a livello di kernel e in entrambi va mantenuto " l'ottimo livello qualitativo del Kernel e la velocità con la quale i bug vengono risolti."

IMHO


*

MadJackal
25-09-2009, 10:20
Non so se è un esempio tanto per dire e non realistico, ma un sistema minimamente "intelligente" non dovrebbe autometicamente e in modo del tutto trasparente evitare di considerare il driver del floppy se non rileva nessun drive floppy nel sistema?
Mi pare strano che non sia già così in generale, forse appunto era un esempio non proprio azzeccato...


Attualmente, molti moduli vengono montati automaticamente alla connessione dei dispositivi se si usano HAL/UDEV. Non so se poi vengano smontati alla disconnessione, però, non mi è mai importato molto a dir la verità.

khelidan1980
25-09-2009, 10:20
A mio modestissimo parere,Linus non si riferiva al numero di modulo,quelli si possono sempre non compilare ed eliminare quelli obsoleti è roba da poco,ho paura che il problema sia proprio il kernel,il design del codice

.
P.S.: Per me gli utenti Linux sono quelli che dopo installato un sistema si configurano il kernel come prima cosa. Tutti gli ubuntari che stanno in giro nemmeno li considero utenti Linux, figuriamoci. C'è gente che parla della pesantezza di Linux e poi tiene ancora il driver per il floppy disk caricato in memoria.

per carità ma figurati se nel 2009 devo ancora preoccuparmi di ricompilarmi il kernel, "configuration over usability" definizione che ha coniato un mio collega parafrasando l'originale riguardante le metodologie agili

mjordan
25-09-2009, 10:21
ecco perchè i microkernel sono migliori in termini di efficienza

Efficienza è una parola che senza un contesto non significa niente. Efficienza di cosa? Di prestazioni? Di sviluppo? Di facilità di scrivere codice? Le argomentazioni di Torvalds sul perchè un microkernel è una scelta piu' accademica che adatta a un mondo pratico a me sembrano molto valide. Tra l'altro tutto il sistema di signaling e message passing richiesto da un microkernel, per un sistema che deve funzionare nel mondo reale e non si chiama Minix aggiunge una complessità spaventosa.

mjordan
25-09-2009, 10:25
per carità ma figurati se nel 2009 devo ancora preoccuparmi di ricompilarmi il kernel

Linux è differente da Windows proprio per questo. Windows ha di default servizi che nessuno usa. Io su Windows 7 ho attivi di default i servizi per il touch. Francamente a me di quello che pensi tu frega poco, nel 2009 potersi ricompilare un kernel è invece una grande feature, non una pecca come vuoi far credere. Chi è capace lo fa. Chi non è capace usa quelle pseudo distribuzioni dal nome africano. Siamo tutti contenti. Ma se Linux deve venire incontro a utenti come te, preferisco perderli, questi utenti.

Alfhw
25-09-2009, 10:29
Lento??? linux lento??? Scusate ma perchè non le provate le cose prima di sparare cavolate? Kubuntu 9.04 la distribuzione linux più lenta che sia stata fatta, piena zeppa di robba compreso il server apache e un bel po di programmi per lo sviluppo, fà il boot, avvia i vari programmi e si spegne molto più velocemente di Windows 7 semi vuota... Per non parlare poi di kubuntu 9.10 che uscirà a fine ottobre, il boot avviene in 15 secondi, i vari software si avviano con una velocità inaudita, e il pc si spegne in 5 secondi se questo è lento vi consiglio di lasciar perdere il pc e magari provare a divertirsi con una Lamborghini.


L'unico che spara cavolate sei tu. Sul mio pc Windows 7RC (con 2-3 programmi all'avvio) si avvia 2 secondi più velocemente di Kubuntu 9.04 vuoto e si spegne pure 2 secondi più velocemente. Tempi cronometrati.
La vera differenza è nell'occupazione della memoria dove Kubuntu occupa 300 MB ram e Win 7 500 MB. Ma nelle prestazioni la differenza che tu paventi non c'è.
Forse faresti bene a provarle e ti accorgeresti che alcune distro Linux sono un po' ingrassate tanto da farsi raggiungere da windows che non è mai stato famoso per essere una piuma...

chiaro_scuro
25-09-2009, 10:29
Avete fatto dei test per vedere quanto si "appesantisce" il sistema con un kernel generico rispetto a quello compilato?

Ciao.

zappy
25-09-2009, 10:30
penso che torvalds parlasse dei sorgenti, i quali comprendono il supporto a un macello di periferiche (parlando in termini Windows, sono inclusi driver per un macello di periferiche).

Una volta compilato, quello che "gira" dovrebbero essere solo i "driver" che servono (esattamente come in windows).
Le distribuzioni forniscono un kernel generico + dei moduli compilati a parte (i "driver") e quindi anche se non si sa compilare un kernel, la situazione è a posto (=gira quello che serve)

Quindi non vedo questo dramma, salvo quando si vuole aggiornare/scaricare i soegenti x cui c'è da tirar giù un macello di MB.

C'è comunque da dire che in genere le distribuzioni ed il sw che gira SOPRA il kernel stanno diventando pesantissime e lentissime: tanto GNOME che KDE imho NON SONO GUI ALL'ALTEZZA DI WINDOWS 2000 o XP, pur richiedendo fiumi di ram e risorse hw. Insomma, il problema sono le GUI piene di effetti e minchiate varie, pesantissime e tuttavia ancora poco funzionali.

Vash1986
25-09-2009, 10:31
Linux è differente da Windows proprio per questo. Windows ha di default servizi che nessuno usa. Io su Windows 7 ho attivi di default i servizi per il touch. Francamente a me di quello che pensi tu frega poco, nel 2009 potersi ricompilare un kernel è invece una grande feature, non una pecca come vuoi far credere. Chi è capace lo fa. Chi non è capace usa quelle pseudo distribuzioni dal nome africano.

Io un po' la penso come te. E' giusto che esistano distribuzioni "complicate" da usare diciamo, destinate agli smanettoni che godono nell'editare manualmente file di configurazione e vogliono ottimizzare il sistema fino all'osso compilando il kernel e magari anche tutti i pacchetti.

D'altro canto, fa comodo avere un concorrente gratuito di windows, e quindi ha un senso l'esistenza di distribuzioni come Fedora e Ubuntu.

Tuttavia io penso che un sistema operativo destinato ad una utenza esperta e professionale non deve per forza di cose essere complicato. Essere un esperto in informatica non significa anche avere la passione per "smanettare" col sistema. O semplicemente, si potrebbe non avere il tempo.

Io studio ingegneria informatica e sono vicino alla laurea, e contrariamente a molti miei colleghi mi trovo meglio con Windows e MacOS, pur avendo studiato accademicamente e utilizzato praticamente linux, per il semplice motivo che non ho voglia e tempo di smanettare.

Poi è ovvio che bisogna anche considerare il contesto... per il desktop è chiaro che preferisco Windows, ma trovo spaventosa l'idea di utilizzarlo in un ambiente di lavoro.

mika480
25-09-2009, 10:31
Che il kernel di ububtu sia pesante,non ci piove...
ma non c'e' solo ubuntu...
un gentoo ben installato e con il kernel compilato a dovere
corre come una scheggia!
E' la solita differenza tra win e linux...
gli UTONTI hanno tutto e vanno lenti...
chi sa metterci le mani...ripulisce il kernel...lo ricompila
e questi discorsi sono aria fritta.
La solita differenza tra utente e utonto!
Nulla di nuovo sotto il sole...
nessun paragone comunque e' proponibile tra il catafalco Win
e il piu' deludente sistema linux(ubuntu per esempio?)
Ciao ciao!

khelidan1980
25-09-2009, 10:31
Linux è differente da Windows proprio per questo. Windows ha di default servizi che nessuno usa. Io su Windows 7 ho attivi di default i servizi per il touch. Francamente a me di quello che pensi tu frega poco, nel 2009 potersi ricompilare un kernel è invece una grande feature, non una pecca come vuoi far credere. Chi è capace lo fa. Chi non è capace usa quelle pseudo distribuzioni dal nome africano. Siamo tutti contenti. Ma se Linux deve venire incontro a utenti come te, preferisco perderli, questi utenti.

invece quelli come te sono proprio un affare! :D

mjordan
25-09-2009, 10:32
Zut zut. lspci ed lsusb mi forniscono tutte le info di cui ho bisogno a riguardo, eccetto magari il tipo di FS che sto usando ;)
Dico per esperienza, non per altro - poi se vuoi sceglierti uno scheduler diverso dal default...

Io compilo i kernel dal 1995, non mi serve la lezione. Quello che sto dicendo è che per scegliere uno scheduler e fare una scelta adatta richiede almeno sapersi leggere due righe delle features critiche. Cosa che in pochi fanno.
Compilare un kernel non è solo rilevare l'hardware. Ci sono molte features che non hanno nulla a che vedere con l'hardware o con il sistema in se, ma sono li per determinati servizi che si andranno a usare (e ne sono proprio tante, ma proprio tante). Quelle features se le rimuovi senza criterio portano comunque a un kernel funzionante ma a un sistema complessiva monco o mal funzionante. Se le lasci, molto spesso ti ritrovi un'accrocco di roba che non serve. In sostanza scegliere richiede cognizione di causa. E avere cognizione di causa sull'intero kernel, grosso com'è e su tutte le tecnologie che va a toccare non è sempre facile. Nemmeno con l'esperienza. Poi ovvio, se si compila solo sul proprio PC al decimo tentativo riesce. :D

bicchiere
25-09-2009, 10:32
Windows ha di default servizi che nessuno usa. Io su Windows 7 ho attivi di default i servizi per il touch... nel 2009 potersi ricompilare un kernel è invece una grande feature, non una pecca come vuoi far credere. Chi è capace lo fa.

Molto significativa questa frase, che esprime una cosa che sostengo da tempo.

Molto spesso non si dedica a Windows lo stesso tempo che si dedica nell'ottimizzazione di Linux. Provate a tweakare un po' Windows e vedrete come va.

Mister24
25-09-2009, 10:32
Ma se Linux deve venire incontro a utenti come te, preferisco perderli, questi utenti.

Rimareste veramente in tre gatti se perdessi tutti gli utenti che non si compilano il kernel.

La compilazione è una cosa particolarmente complessa anche per chi è esperto e se non si hanno esigenza particolari come hardware non supportato o ottimizzazioni particolari non ne vedo l'utilità.

mika480
25-09-2009, 10:33
Si..un affare per Ballmer!
ma per favore....

mjordan
25-09-2009, 10:34
invece quelli come te sono proprio un affare! :D

Quelli come me sono quelli per cui alcuni costruiscono ancora distribuzioni Linux che si possono ancora definire Linux. Altrimenti avevamo un'altro clone funzionante a finestre di un sistema che per caricare le canzoni su un lettore MP3 richiedeva un software dedicato e si poteva installare solo su hardware imposto.

Ntropy
25-09-2009, 10:34
La settimana scorsa ho scaricato Slackware 13.0 l'aspettavo da tempo :D leggo i readme e trovo Kde 4, una montagna di programmi ecc. ecc. un kernel pieno zeppo di roba ecc. ecc. Ho installato il minimo necessario, mi sono ricompilato il kernel riducendo tutto all'osso e ho messo su apache, mysql, php. Configurato samba e cups per condividere file vari e stampante con il pc di mio fratello e un server bittorent. Mi dispiaceva però non avere nemmeno uno straccio di Desktop e ho pensato di mettere fluxbox giusto per.....ma a sto punto ho pensato di metterci pure un browser web, vada per firefox compilato a mano ovviamente.
Sono già 3-4 giorni che il pc è acceso e posso finalmente dire...caspita che fulmine sta slackware........non l'avrei mai pensato con un celeron 633 con 256mb di ram :old:
Ovviamente la mia personalissima esperienza è più che altro una provocazione nei confronti di tutti quelli che pensano sia necessario fare divisioni o reputano linux non più brillante come un tempo.

Un biasimo particolare però va a chi continua a dire, in modo direi quasi patetico, che se linux rimane così difficile non avrà mai la popolarità di altri s.o. :rolleyes: e mi viene dal cuore......basta con questa lagna!

mjordan
25-09-2009, 10:36
Rimareste veramente in tre gatti se perdessi tutti gli utenti che non si compilano il kernel.


Sai quanto me ne importerebbe. E sai che perdita. Linux è diventato quello che è oggi proprio da 3 gatti. Non sono di certo gli utonti che portano avanti un sistema. io guardo le mie esigenze, quelle degli altri non mi interessano.


La compilazione è una cosa particolarmente complessa anche per chi è esperto e se non si hanno esigenza particolari come hardware non supportato o ottimizzazioni particolari non ne vedo l'utilità.

L'utilità è quella di avere un sistema uber ridotto al minimo indispensabile. Ovvero quello che serve. Molti non ci vedono utilità e poi si lamentano che Windows è pesante. In genere sono gli stessi utenti. Un netbook per esempio. Prendi un netbook. Praticamente tutti i kernel di default, per fare un'esempio, includono il modulo per la porta parallela. A me già solo sapere che c'è mi infastidisce.

mika480
25-09-2009, 10:36
@Ntropy...infatti...ma forse la gente qui e' piu' interessata al fatto che la scheda video supporti directx 11 !!!
Tra non vedere l'utilita' di ricompilare il kernel e non saperlo fare...la differenza e' sottile ma sostanziale....
ciao ciao

Alfhw
25-09-2009, 10:37
Efficienza è una parola che senza un contesto non significa niente. Efficienza di cosa? Di prestazioni? Di sviluppo? Di facilità di scrivere codice? Le argomentazioni di Torvalds sul perchè un microkernel è una scelta piu' accademica che adatta a un mondo pratico a me sembrano molto valide. Tra l'altro tutto il sistema di signaling e message passing richiesto da un microkernel, per un sistema che deve funzionare nel mondo reale e non si chiama Minix aggiunge una complessità spaventosa.

Ho visto una volta un video in cui Stallman parlava dei problemi di sviluppo del microkernel Hurd e diceva che il microkernel è sì più efficiente dal punto di vista computazionale ma lo sviluppo e in particolare il debugging è un casino pazzesco richiedendo moltissimo lavoro.

MadJackal
25-09-2009, 10:37
Io compilo i kernel dal 1995, non mi serve la lezione. Quello che sto dicendo è che per scegliere uno scheduler e fare una scelta adatta richiede almeno sapersi leggere due righe delle features critiche. Cosa che in pochi fanno.
Compilare un kernel non è solo rilevare l'hardware. Ci sono molte features che non hanno nulla a che vedere con l'hardware o con il sistema in se, ma sono li per determinati servizi che si andranno a usare (e ne sono proprio tante, ma proprio tante). Quelle features se le rimuovi senza criterio portano comunque a un kernel funzionante ma a un sistema complessiva monco o mal funzionante. Se le lasci, molto spesso ti ritrovi un'accrocco di roba che non serve. In sostanza scegliere richiede cognizione di causa. E avere cognizione di causa sull'intero kernel, grosso com'è e su tutte le tecnologie che va a toccare non è sempre facile. Nemmeno con l'esperienza. Poi ovvio, se si compila solo sul proprio PC al decimo tentativo riesce. :D

Non era una lezione, semplicemente non avevo capito che intendessi ;)
A me ripeto, è sempre bastato leggere le varie pagine di help in makeconfig ed informarmi un attimo su quel che non capivo. Non so se poi i miei kernel siano un accrocchio o meno, quello che so è che vanno tranquillamente e senza troppo sbattimento :Prrr:

La vera cosa pesante IMHO comunque non è il Kernel. Ubuntu fa partire 20000 servizi inutili.

devilred
25-09-2009, 10:38
Io penso che il desktop, su un sistema unix è una forzatura di quest'ultimo decennio. Sicuramente che si evolva sotto quel piano è una cosa buona. Ma io non voglio che Linux diventi come MacOS X. Proprio per niente. Considero distribuzioni come Ubuntu il cancro di Linux. Non lo rappresentano proprio. Con questo non voglio dire che il sistema buono è il sistema arduo. Voglio solo dire che quello di Ubuntu a mio avviso non è il giusto modo di procedere.
Sono dell'opinione che determinati utenti dovrebbero semplicemente stare lontani da Linux. Non sono di certo un'evangelista dell'open source come fanno molti.

bah!! secondo me ragioni con i piedi, e confermi di essere linuxiano al 100%. perche rispecchi alla perfezione il mondo linux, prima si deve difendere e diffondere perche e gratis, poi perche si deve fare concorrenza a microsoft, poi passiamo al famigerato terminale che tutti devono imparare a usare, adesso cerchi di allontanare tutti dal mondo linux, perche quegli imbecilli di ubuntu hanno permesso a linux di farsi conoscere. bah!!!! che dire??? sei forse un pinguino??? perche mi pare di capire che lo vuoi stile dos!!! se e cosi sarete pochi al mondo a usarlo, e da parte mia ribadisco che non ho nessuna voglia di studiare per poterlo usare tutti i giorni come faccio con windows. infatti come poi capire io ci sto proprio alla larga da linux, quindi almeno io te la do vinta.

mika480
25-09-2009, 10:41
Ubuntu concettualmente e' destinato al fallimento...
chi lo usa viene da win e glielo ha installato un amico...
tranquillo dopo 15 giorni ritorna al suo craccato win ed ai sui craccati prgs!
Chi si appassiona a linux...o salta direttamente la fase ubuntu...
o dopo 1 mese ha gia' nel pc una distro seria!
ubuntu...il re dei dual boot mai usati!

mjordan
25-09-2009, 10:41
La settimana scorsa ho scaricato Slackware 13.0 l'aspettavo da tempo :D leggo i readme e trovo Kde 4, una montagna di programmi ecc. ecc. un kernel pieno zeppo di roba ecc. ecc. Ho installato il minimo necessario, mi sono ricompilato il kernel riducendo tutto all'osso e ho messo su apache, mysql, php. Configurato samba e cups per condividere file vari e stampante con il pc di mio fratello e un server bittorent. Mi dispiaceva però non avere nemmeno uno straccio di Desktop e ho pensato di mettere fluxbox giusto per.....ma a sto punto ho pensato di metterci pure un browser web, vada per firefox compilato a mano ovviamente.
Sono già 3-4 giorni che il pc è acceso e posso finalmente dire...caspita che fulmine sta slackware........non l'avrei mai pensato con un celeron 633 con 256mb di ram :old:
Ovviamente la mia personalissima esperienza è più che altro una provocazione nei confronti di tutti quelli che pensano sia necessario fare divisioni o reputano linux non più brillante come un tempo.

Un biasimo particolare però va a chi continua a dire, in modo direi quasi patetico, che se linux rimane così difficile non avrà mai la popolarità di altri s.o. :rolleyes: e mi viene dal cuore......basta con questa lagna!

Hai reso l'idea, anche se ricompilarsi Firefox ha un pò dell'estremismo.

mjordan
25-09-2009, 10:46
bah!! secondo me ragioni con i piedi, e confermi di essere linuxiano al 100%. perche rispecchi alla perfezione il mondo linux, prima si deve difendere e diffondere perche e gratis, poi perche si deve fare concorrenza a microsoft, poi passiamo al famigerato terminale che tutti devono imparare a usare, adesso cerchi di allontanare tutti dal mondo linux, perche quegli imbecilli di ubuntu hanno permesso a linux di farsi conoscere. bah!!!! che dire??? sei forse un pinguino??? perche mi pare di capire che lo vuoi stile dos!!! se e cosi sarete pochi al mondo a usarlo, e da parte mia ribadisco che non ho nessuna voglia di studiare per poterlo usare tutti i giorni come faccio con windows. infatti come poi capire io ci sto proprio alla larga da linux, quindi almeno io te la do vinta.

Se lo vuoi sapere ti sto scrivendo da Windows 7 Ultimate 64 bit RTM. :asd:
Io sono un'utente Linux dal 1995 quasi esclusivamente. Non ho mai snobbato Windows, perchè credo che sia adatto proprio a quelli che non vogliono accettare che un sistema differente è differente. A quegli utenti IO non ho mai consigliato Ubuntu, perchè non sono un bigotto. A quegli utenti consiglio Windows. Linux lo consiglio a chi ne ha bisogno veramete, ovvero non lo consiglio mai, perchè chi ne ha bisogno veramente lo usa già e sa quello che gli serve. Non sono mai stato un bigotto o uno stupido fanboy predicatore di ideali open source. Io quel genere di utenti, che vanno facendo gli evangelisti, li odio e penso che siano proprio il male piu' grande di Linux. Perchè consigliano e parlano di Linux anche quando non ce n'è bisogno e in modo troppo religioso. Non faccio OS wars, io. Mi fa solo ribrezzo MacOS X, ma piu' per l'azienda che ha dietro e le sue politiche che non per il software in se. Quando devo giocare a The Witcher, avvio volentieri la mia licenza di Windows. Ma Linux, per me è Linux. Non ho la pretesa di farlo diventare un Windows open source per adattarlo alle esigenze di persone che in fondo non hanno alcuna esigenza. Io stesso, quando ho bisogno di Windows, avvio Windows. Non vado predicando che Linux deve diventare "user friendly".

devilred
25-09-2009, 10:48
Ubuntu concettualmente e' destinato al fallimento...
chi lo usa viene da win e glielo ha installato un amico...
tranquillo dopo 15 giorni ritorna al suo craccato win ed ai sui craccati prgs!
Chi si appassiona a linux...o salta direttamente la fase ubuntu...
o dopo 1 mese ha gia' nel pc una distro seria!
ubuntu...il re dei dual boot mai usati!

su questo ti quoto al 100%, ma non credo sia colpa dell'utente se ha paura a lasciare windows x altro, per me era gia traumatico passare da gnome a KDE. una semplice interfaccia grafica mi mandava in tilt!! e non solo l'unico. se invece di creare 100 distribuzioni si lavorava seriamente su una sola oggi le cose sarebbero molto diverse, c'e troppa confusione nel mondo linux e questo il problema principale, anche perche in ogni distribuzione trovi un modo diverso di ragionare e sei costretto a ricominciare da capo, soprattutto se sei utente medio e non hai le basi del mondo linux.

mjordan
25-09-2009, 10:52
L'unico che spara cavolate sei tu. Sul mio pc Windows 7RC (con 2-3 programmi all'avvio) si avvia 2 secondi più velocemente di Kubuntu 9.04 vuoto e si spegne pure 2 secondi più velocemente. Tempi cronometrati.
La vera differenza è nell'occupazione della memoria dove Kubuntu occupa 300 MB ram e Win 7 500 MB. Ma nelle prestazioni la differenza che tu paventi non c'è.
Forse faresti bene a provarle e ti accorgeresti che alcune distro Linux sono un po' ingrassate tanto da farsi raggiungere da windows che non è mai stato famoso per essere una piuma...

Certo che poi ecco perchè io dico quello che dico. Perchè la gente usa Ubuntu e Kubuntu e pretende pure di stare parlando di Linux..

Ntropy
25-09-2009, 10:53
Hai reso l'idea, anche se ricompilarsi Firefox ha un pò dell'estremismo.

Eh lo so, sono un pò fanatico :D pensa tu che volevo ricompilare X.

P.S.
ho abilitato il frame buffer per la scheda video integrata, usando links per navigare con il supporto per il driver vesa........aaaaahhhh....esperienza mistica :fagiano:

scherzi a parte pernso che tolgo firefox e mi compilo il browser dillo, dovrebbe permettermi di navigare più velocemente

chiaro_scuro
25-09-2009, 10:53
Avete fatto dei test per vedere quanto si "appesantisce" il sistema con un kernel generico rispetto a quello compilato?

Ciao.

mjordan
25-09-2009, 10:55
su questo ti quoto al 100%, ma non credo sia colpa dell'utente se ha paura a lasciare windows x altro, per me era gia traumatico passare da gnome a KDE. una semplice interfaccia grafica mi mandava in tilt!! e non solo l'unico. se invece di creare 100 distribuzioni si lavorava seriamente su una sola oggi le cose sarebbero molto diverse, c'e troppa confusione nel mondo linux e questo il problema principale, anche perche in ogni distribuzione trovi un modo diverso di ragionare e sei costretto a ricominciare da capo, soprattutto se sei utente medio e non hai le basi del mondo linux.

Per me invece è il contrario. Le varie distribuzioni creano concorrenza interna e questo giova allo sviluppo. Consente inoltre di fare una vera e propria scelta consapevole in base a quello che serve o ai propri gusti. E' vero che all'inizio disorienta. Ma la disorientazione diminuisce con l'esperienza. Daltronde senza esperienza probabilmente non serve proprio Linux. L'ultima cosa che voglio è una sola distribuzione sul mercato. Tanto alla fine a dettare legge e sempre e solo Red Hat. Ma almeno gli altri contribuiscono ;)

bicchiere
25-09-2009, 10:56
Perchè la gente usa Ubuntu e Kubuntu e pretende pure di stare parlando di Linux..

Attenzione!!! Potresti scoprire che, pur ricompilando kernel e programmi in tutte le salse, Windows sia ugualmente piu' veloce.

Vash1986
25-09-2009, 10:56
Eh lo so, sono un pò fanatico :D pensa tu che volevo ricompilare X.

P.S.
ho abilitato il frame buffer per la scheda video integrata, usando links per navigare con il supporto per il driver vesa........aaaaahhhh....esperienza mistica :fagiano:

scherzi a parte pernso che tolgo firefox e mi compilo il browser dillo, dovrebbe permettermi di navigare più velocemente

Mah... Dillo sicuramente si apre in meno tempo e consuma meno RAM di Firefox, che è diventato pachidermico ormai. Ma che tu possa navigare più velocemente, beh di questo io dubito. E anche quando, se tu consideri il tempo che perdi a ricompilare ogni cosa, è molto maggiore dei microsecondi che risparmi qua e là per l'utilizzo del pc.

devilred
25-09-2009, 11:00
Se lo vuoi sapere ti sto scrivendo da Windows 7 Ultimate 64 bit RTM. :asd:
Io sono un'utente Linux dal 1995 quasi esclusivamente. Non ho mai snobbato Windows, perchè credo che sia adatto proprio a quelli che non vogliono accettare che un sistema differente è differente. A quegli utenti IO non ho mai consigliato Ubuntu, perchè non sono un bigotto. A quegli utenti consiglio Windows. Linux lo consiglio a chi ne ha bisogno veramete, ovvero non lo consiglio mai, perchè chi ne ha bisogno veramente lo usa già e sa quello che gli serve. Non sono mai stato un bigotto o uno stupido fanboy predicatore di ideali open source. Io quel genere di utenti, che vanno facendo gli evangelisti, li odio e penso che siano proprio il male piu' grande di Linux. Perchè consigliano e parlano di Linux anche quando non ce n'è bisogno e in modo troppo religioso. Non faccio OS wars, io. Mi fa solo ribrezzo MacOS X, ma piu' per l'azienda che ha dietro e le sue politiche che non per il software in se. Quando devo giocare a The Witcher, avvio volentieri la mia licenza di Windows. Ma Linux, per me è Linux. Non ho la pretesa di farlo diventare un Windows open source per adattarlo alle esigenze di persone che in fondo non hanno alcuna esigenza.

eeeeee su questo pure hai torto!! pensa che io come logico che sia il primo os che ho usato e stato xp su una macchina nata x 98, eppure mi sono avvicinato al mondo linux grazie alla fantomatica e mega super red hat 9.2 e ti posso garantire che mi ambientai alla grande infatti sul dual boot era xp che dormiva. poi ho cominciato a cambiare pc sempre piu nuovi e siccome linux non regge mai il passo l'ho dovuto lasciare( non hai manco idea di quanto mi piaceva red hat e quanto mi manca). pero pretendere e dichiarare che linux deve essere installato solo da pochi non mi piace x niente, che fai mi levi la scelta??? io vado matto x linux pero non voglio andare al manicomio, se si organizzano meglio vedrai che sfondano di sicuro. a differenza tua lo consiglio sempre a tutti ( anche se poi qualcuno mi manda a *anculo).

Alfhw
25-09-2009, 11:01
Certo che poi ecco perchè io dico quello che dico. Perchè la gente usa Ubuntu e Kubuntu e pretende pure di stare parlando di Linux..

Quoto. Aggiungici poi gli utenti come danlo8600 che confondono Kubuntu con altre distro ben più veloci e siamo a posto.

mjordan
25-09-2009, 11:01
Avete fatto dei test per vedere quanto si "appesantisce" il sistema con un kernel generico rispetto a quello compilato?

Ciao.

Già togliere molti servizi dal runlevel 3 porta seri vantaggi in termini di boot.
Mettiamoci pure che molti kernel forniti di default, anche se in forma minima, vengono sempre compilati con qualche simbolo di debug di troppo e si fanno due conti. Quando si parla di queste cose è spesso difficile percepire a occhio le differenze. Le differenze stanno solo nel fatto che un sistema configurato ad hoc funziona necessariamente meglio di un'accrocco preconfezionato. Il "meglio" in questo caso può essere accademico. Ma non è detto che non sia importante per qualcuno. Su un server web Apache di certo non ci tengo installati i servizi CUPS e i driver per la stampante.

ercole69
25-09-2009, 11:02
Ingrassato è ingrassato sicuramente (almeno a livello di sorgenti), però ho controllato il kernel (standard!) della mia distribuzione ed il vmlinux è 2.5MByte quindi non mi pare (ancora) il caso di fasciarsi la testa..
Inoltre come fatto notare da mjordan i microkernel non sono questo mostro di efficienza dal punto di vista delle prestazioni sul campo:di tutti quelli che vantano la superiorità del microkernel qualcuno sa citare dei sistemi operativi orientati al desktop *funzionanti* e ancora sviluppati basati su microkernel ?

mjordan
25-09-2009, 11:05
eeeeee su questo pure hai torto!! pensa che io come logico che sia il primo os che ho usato e stato xp su una macchina nata x 98, eppure mi sono avvicinato al mondo linux grazie alla fantomatica e mega super red hat 9.2 e ti posso garantire che mi ambientai alla grande infatti sul dual boot era xp che dormiva. poi ho cominciato a cambiare pc sempre piu nuovi e siccome linux non regge mai il passo l'ho dovuto lasciare( non hai manco idea di quanto mi piaceva red hat e quanto mi manca). pero pretendere e dichiarare che linux deve essere installato solo da pochi non mi piace x niente, che fai mi levi la scelta??? io vado matto x linux pero non voglio andare al manicomio, se si organizzano meglio vedrai che sfondano di sicuro. a differenza tua lo consiglio sempre a tutti ( anche se poi qualcuno mi manda a *anculo).

Ti mandano *anculo e fanno bene. Perchè uno che consiglia Linux "a tutti" e una persona senza cognizione di causa, figuriamoci quindi quanto può dire a me che ho torto. Le RedHat vecchio stile (serie 9 e precedenti) erano il vero Linux. Guarda che schifo che stanno facendo adesso con le distro moderne, tolte quelle blasonate e fedeli alla "filosofia"... Altri 5 anni e manca che la console ce la dobbiamo attivare perchè disabilitata. Se questo è il Linux che si prospetta fra un decennio, allora a buon ragione dico che certi utenti, in Linux, non mi interessano e, a mio modo di vedere è meglio perderli che acquisirli. Tanto come giustamente ha detto qualcuno, per la maggior parte quegli utenti sono gli utenti dei dual boot mai usati.

devilred
25-09-2009, 11:14
Ti mandano *anculo e fanno bene. Perchè uno che consiglia Linux "a tutti" e una persona senza cognizione di causa, figuriamoci quindi quanto può dire a me che ho torto. Le RedHat vecchio stile (serie 9 e precedenti) erano il vero Linux. Guarda che schifo che stanno facendo adesso con le distro moderne, tolte quelle blasonate e fedeli alla "filosofia"... Altri 5 anni e manca che la console ce la dobbiamo attivare perchè disabilitata. Se questo è il Linux che si prospetta fra un decennio, allora a buon ragione dico che certi utenti, in Linux, non mi interessano e, a mio modo di vedere è meglio perderli che acquisirli. Tanto come giustamente ha detto qualcuno, per la maggior parte quegli utenti sono gli utenti dei dual boot mai usati.

ma dai no!!! io l'ho consiglio soprattutto a quella gente che senza porno non puo vivere e non sono pochi, infatti da quando hanno linux filano lisci come l'olio e non mi mandano ai matti ogni 10 giorni. su red hat hai ragione, quella era una distribuzione con i contro *oglioni, quella di oggi non l'ho provata ma mai dire mai, daltronde come si dice!!? il primo amore non si scorda mai. su ubuntu e cose varie di oggi ti quoto al 100%, ormai sono snaturate. vittime di scelte a volte giustificate a volte discutibili.

mjordan
25-09-2009, 11:16
Attenzione!!! Potresti scoprire che, pur ricompilando kernel e programmi in tutte le salse, Windows sia ugualmente piu' veloce.

Mai sostenuto il contrario. Anche perchè la velocità di un sistema non si misura certo dai moduli built-in ma dagli algoritmi che implementa. Le latenze dovute a un modulo sono dell'ordine dei microsecondi. Io parlo di una configurazione generale del sistema, non solo di ricompilare un kernel per determinati scopi. Inutile compilare un kernel se poi ci sono dei servizi che non si usano. Non travisate quello che dico.

mjordan
25-09-2009, 11:18
ma dai no!!! io l'ho consiglio soprattutto a quella gente che senza porno non puo vivere e non sono pochi

Per i porno, proprio Linux consigli? :asd:
Uno dei mal di testa piu' grossi di un sistema del genere sono proprio i codec per formati esoterici provenienti da non si sa quale galassia... :asd:

EDIT: scusate i post multipli ma questo forum al posto di mandarmi una notifica con il link all'ultimo messaggio letto mi bombarda di email e non riesco a stare al passo con i multi-quote.

mika480
25-09-2009, 11:20
Ci siamo detti molto...
e sostanzialmente siamo daccordo su molti punti...
Una ultima considerazione da parte mia...
Chi usa Windows ha un golem inside e lo sa....
chi usa linux ha la scelta...distro pesante o leggera...dipende
dai gusti...dalle esigenze...da quanto si sappia smanettarci dentro...
ma il fatto della SCELTA...cosa che mai avrai con win...
da a Linux 100000000000000 marce in piu'....
poi ognuno libero di affogarsi
o sul bicchiere o nella fossa delle marianne

chiaro_scuro
25-09-2009, 11:24
>Quando si parla di queste cose è spesso difficile percepire a occhio le differenze.

A parte il tempo di boot che a me non interessa più di tanto, il fatto che queste differenze non siano percepibile la dice lunga sul fatto che un conto è la teoria e un altro conto è la pratica.
Che il kernel compilato porti delle ottimizzazioni è indubbio ma praticamente quanto pesano queste ottimizzazioni?
Per la mia poca esperienza mi permetto di dire che in ambito desktop siano quasi ininfluenti mentre hanno un senso in ambito server ma solo su macchine specializzate, che lavoro quasi al limite e ancor di più se virtualizzate. Nelle piccole e medio-piccole aziende praticamente questo non avviene mai e nelle medie aziende questo avviene ma solo su pochi servizi.
Ma in una media e grande azienda che hanno di queste esigenze non credo sia difficile trovare uno capace di compilarsi il kernel su misura.

Alla fine della fiera, credo che almeno l'80% delle persone non notino differenze apprezzabili tra l'avere un kernel ciccioso e pronto a tutto ed un snello e ottimizzato nei minimi particolari.

Ovviamente la soddisfazione di avere tutto ottimizzato è impagabile per lo smanettone, ma per chi ha poco tempo e non ha di queste passioni questa ottimizzazione ha veramente poco senso.

Tutto questo è secondo la mia modesta opinione.

Ciao.

mika480
25-09-2009, 11:26
Chi ha poco tempo e non ha di queste passioni....
resti felicemente per noi e per lui a win vista second edition (seven)
;)

mjordan
25-09-2009, 11:27
Non le notano, perchè un kernel "ciccioso" come dici tu, non carica nulla in memoria se non espressamente richiesto da qualche interrupt. I moduli risiedono in forma binaria sull'hard disk e solo in caso di determinati eventi vengono caricati in memoria. Avere un kernel "ciccioso" quindi probabilmente ha lo stesso footprint di uno snello, a meno ovviamente del supporto per includere tali moduli su richiesta. Il mio discorso era piu' orientato a un sistema ben configurato che non alla ricerca delle prestazioni estreme. Una cosa è certa: quando un sistema degrada in performance è sicuramente perchè c'è una somma di tantissime cose che prese singolarmente sono irrilevanti. Anche gli anni sono la somma di tanti microsecondi, insomma. :D

chiaro_scuro
25-09-2009, 11:34
>Il mio discorso era piu' orientato a un sistema ben configurato

Qua c'è da guadagnare moltissimo, ma questo articolo parla di kernel ed io mi riferivo a quello.
Mi è sembrato di capire in molti post che senza kernel compilato a manina non si può vivere mentre io penso che non sia affatto così.

Ciao.

Savius
25-09-2009, 11:51
Da un semplice articolo sul codice del kernel siamo arrivati ad una flame war di distro! XD
Scherzi a parte io credo che *buntu vari siano sempre e comunque sistemi GNU/Linux e quindi il kernel quello è, mo chiamateli come volete ma non potete dire che Ubuntu non è Linux... Io uso Slackware ormai da diverso tempo ma consiglio a chi è alle prime armi e vorrebbe provare Linux una Ubuntu, perché rende le cose più semplici all'utente medio che ha già un "micro-trauma" solo nel passaggio Windows <-> GNU/Linux...

Quel che bisogna precisare è che: SE vuoi conoscere bene Linux allora ti servono distribuzioni più complesse dei vari *buntu ma se non vuoi conoscerlo bene allora resti con queste distro molto più user friendly.

Io non critico mai chi ha Ubuntu, Mandriva o quel che sia anzi, lo elogio perché è un altro linaro come me! :D

veoloz
25-09-2009, 11:57
Ciao a tutti volevo raccontarvi per provare a cercare di chiarire le idee.

Ho un dottorato in reti neurali quindi rientro nella fascia degli "smanettoni"... ma a che prezzo..

Per seguire la filosofia vera di linux mi son sempre compilato il kernel su misura (vengo da debian e poi gentoo) ma in molti casi Xp (quindi con kernel generico) era tremendamente + reattivo.

Linux può essere tutto e niente. Attualmente il pc domestico deve offrire dei servizi senza far perdere troppo tempo oer capire come attivarli... penso che tutti abbiano poco tempo e non vogliano dedicare nottate ad aspettare la ricompilazione.

Con l'immensità di scelta di periferiche (tranne che per MacOs) secondo me la semplicità d'uso è fondamentale. Mi sono bastati 5 minuti per installare programmi e sincronizzare il mio omnia hd con outllook, con linux avrei perso tempo senza essere sicuro che il tutto funzionasse.

La microsoft grazie alla sua diffusione e contratti con tutti i produttori di hardware di qualsiasi tipo propone un prodotto che funziona bene nella maggior parte dei casi. Con linux ripeto dovremmo spendere tanto tempo e non essere sicuri di avere gli stessi risultati (ovviamente parlando di un uso Home).

Il fatto che il kernel generico di linux cresca è una cosa normale e finalmente si potrà avere un resoconto dei vari OS con una tipologia del tipo : servizi offerti / facilià d'installazione e d' uso / sicurezza/ tempo di know-how

Vi ricordo che linux non è esente da falle di sicurenza... anzi.

MacOs è storia a se... il kernel è compilato per usare lo stesso hardware su tutte le macchine, una grave pecca ovviamente col confronto win e linux.

Ovviamente IMHO

Lotharius
25-09-2009, 12:09
Personalmente ritengo che in effetti Linux negli ultimi tempi si sia piuttosto appesantito e rallentato, ovviamente in ambito desktop; ma purtroppo questo è un effetto collaterale del cercare di essere "compatibile" ad ogni genere di utilizzo e di utilizzatore.
Però è anche vero che esistono molte distribuzioni Linux, dalle professionali alle casalinghe; quindi semplicemente, per chi come me non ha tempo nè risorse da dedicare a ricompilazioni, ottimizzazioni ecc, ha bisogno di una distro decente, compatibile con molte periferiche, a scapito delle prestazioni, si sceglie Ubuntu o OpenSUSE o simili; mentre chi ha bisogno di una distro più specializzata, reattiva o altro si sceglie Slackware, Gentoo ecc...
Poco più di tre anni fa mi ero ricompilato integralmente il kernel di Slackware ed ero riuscito bene o male a mettermi su un sistema che girasse degnamente su un Pentium II 350Mhz con 256Mb di RAM; però devo dire che il gioco non vale la candela: troppe risorse (in termini di tempo e di ricerche online) per ottenere benefici che non mi hanno cambiato un granchè la vita. Quindi ora, che ho molto meno tempo di prima, preferisco affidarmi a queste tanto criticate distro per utenti deficienti che, però vanno bene, fanno un po' di tutto e, considerando la potenza dei PC attuali e il costo ridotto di upgrade hardware, vanno veloci comunque.

Poi sono d'accordo in ogni caso sul fatto che non si debba trascurare l'ottimizzazione del codice a causa di una corsa senza sosta per implementare la compatibilità con ogni cosa esistente o l'aggiunta di features...

!fazz
25-09-2009, 12:16
perchè ogni thread del genere sfocia sempre in una classica os-war?

vedete di smetterla altrimenti si comincia a sospendere

questo thread non è osx vs windows vs ubuntu vs resto del mondo, mettevelo in testa

CaFFeiNe
25-09-2009, 12:20
Che linux sta diventando tutto l'opposto di quello che era alla nascita.

Ormai non ha niente da invidiare, negativamente parlando, a tutti gli altri SO ...

ehm.... non sai come funge linux ammettilo

per quanto linus abbia ragione...
c'è da dire che un utente smaliziato puo' sempre prendere e ricompilare un kernel di pochi mbyte....

M4rk191
25-09-2009, 12:57
il continuo sviluppo del kernel mi ha sempre lasciato perplesso. Possso comprendere la necessità da parte delle aziende di includere il maggior numero di driver, a necessità di implementare nuovi FS e di inserirli nel kernel, per il resto (considerando ciò che ha detto Torvalds riguardo ai bug) mi sembra inutile continuare a scrivere codice, che non fà altro che diminuire le prestazioni. Ad ogni modo, questa è la situazione non può cambiare, né oggi ne mai, si tratta di un kernel monilitico, di per sé già di difficile comprensione, inoltre ha milioni di righe di codici che anche con documentazione e commenti rendono difficile la comprensione da parte di nuovi programmatori.



ah un'altra cosa: trovo incredibile come una notizia riguardante Linux (un kernel) si possa trasformare in una OS war, avrei potuto capire se trattasse di una distribuzione GNU/Linux, ma qui si tratta di un kernel :muro:

bicchiere
25-09-2009, 13:27
trovo incredibile come una notizia riguardante Linux (un kernel) si possa trasformare in una OS war

Che c'è di strano? Conosco linari che (indipendentemente dalla distro) si sono sempre vantati del loro kernel meraviglioso (naturalmente non voi che leggete, voi non l'avete mai fatto)... sono sicuro che anche tu ne conosci.
Ora questi linari MEDITERANNO.

FRANLELLI
25-09-2009, 13:52
Io credo che sia inevitabile che il kernel linux diveti sempre più "cicciotto" :
se si vuole estendere la compatibilità al parco hardware esistente sempre di più e usabile il s.o. da quanti più utenti, o si passa a un kernel "ibrido", come windows ( e adesso tutti a tirarmi le pietre), o a un microkernel con tutte le difficoltà già esposte da molti. A me la via più praticabile pare quella del kernel "mastodontico" con attivati soltanto i servizi necessari (non mi pare che rallentino così tanto le macchine) come accade per le distribuzioni ubuntu.
Non capisco perchè alcune persone ritengano che per usare linux sia per forza necessario essere dei super smanettoni o degli sviluppatori. Chi vuole può compilarsi un kernel per affari suoi, chi non vuole o non ha tempo si terrà il kernel sovradimensionato, ma efficente dalla prima installazione sul suo pc.

Recentemente ho installato ubuntu netbook remix sul mio eee1000h e non dover fare tutto il lavoro è stato uno di quei motivi che mi ha portato a scegliere quel tipo di installazione. l'unica necessità è stata quella di ricompilare il kernel generico con i driver alsa più aggiornati per poter usare appieno skype, e passare poi a installare dai repository il software che mi serviva.
Avessi dovuto compilare un kernel vanilla, scaricare e compilare i sorgenti dei vari software che mi servono (pc che uso in mobiltà per lavoro), probabilmente avrei lasciato perdere.
Qualcuno ha già detto che se non si hanno le conoscenze per fare determinate cose è bene lasciar perdere: Io credo invece che un buon so sia un so dove chi ha maggiori conoscenze può ottimizzare tutto a suo piacimento e chi ne ha meno, CIOè POI UN UTENTE COMUNE, abbia comunque modo di avere un sistema usabile con facilità senza dover stare una giornata davanti al terminale per installarsi un browser.
Daltronde GUI come gnome, kde, e quelle dei vari windows o osx ci sono proprio per rendere più semplici e veloci operazioni che altrimenti scoraggerebbero i più.
Altrimenti potevamo rimanere tutti a usare sistemi a riga di comando .

fankilo
25-09-2009, 13:53
Appello a tutti quanti: smettetela di parlare di Ubuntu come un cancro e come una distro per utonti e non linuxiana. State solo facendo gli snob!
Primo perchè Ubuntu ha avuto il pregio di diffondere (e di molto) il "metodo" linux. Mi riferisco al diverso modo di ragionare rispetto a Win. (nel bene e nel male).
Secondo perchè sotto è pur sempre Linux (metodo Debian per l' esattezza) e se lo vuoi ritrovare basta aprire una shell. E se non ti frega puoi usarlo così com'è in alternativa a win.

Terzo perchè sui miei personal Pc installo Ubuntu sempre più spesso e non mi considero utonto per niente.......e vi risparmio le dimostrazioni.

Ntropy
25-09-2009, 14:53
Mah... Dillo sicuramente si apre in meno tempo e consuma meno RAM di Firefox, che è diventato pachidermico ormai. Ma che tu possa navigare più velocemente, beh di questo io dubito. E anche quando, se tu consideri il tempo che perdi a ricompilare ogni cosa, è molto maggiore dei microsecondi che risparmi qua e là per l'utilizzo del pc.

Eh vabbè lo compili una sola volta e basta dai :D Ma penso che tolgo X anche perchè questa macchina che uso come server la controllo con ssh.

Cmq più che altro il mio sono è solo un esempio, o meglio una provocazione ed anzi sfido chiunque a fare una sistema con tutti questi servizi attivi con un s.o. che non sia modulare come linux. Oh badate bene che è un celeron 633 e la distro è la stessa che uso sul portatile dove gira con kde 4 e quindi di scalabilità ne ha da vendere altro che xubuntu vs windows 7.

Simock85
25-09-2009, 15:03
Linux è differente da Windows proprio per questo. Windows ha di default servizi che nessuno usa. Io su Windows 7 ho attivi di default i servizi per il touch.Ma sei sicuro? quei servizi non dovresti averli attivi di default, te li avvia dal momento in cui colleghi una tavoletta, o magari hai un tablet.. peraltro col triggering dei servizi tornano inattivi appena scolleghi, lo stesso succede con i servizi legati ai dispositivi di archiviazione di massa...
...Ma se Linux deve venire incontro a utenti come te, preferisco perderli, questi utenti.
Su questo sono d'accordissimo, è da tempo che lo sostengo e mi becco sempre una vagonata di insulti. Peraltro sono tra quelli che usano Linux solo in ambiti ben specifici (Red Zones di solito), ultimamente esclusivamente su VM, ovviamente senza DE.
Personalmente mi sento di spezzare una lancia a favore di Ubuntu, le server Edition LTS non mi fanno così schifo, anzi le ho adottate un paio di volte al posto di Debian Lenny. Ma preferisco comunque RH e derivate, di solito CentOS, non disdegno SME soprattutto in ambienti di rete molto piccoli, e a quel punto il solo server SME sta nella Green Zone...

chiaro_scuro
25-09-2009, 15:15
>State solo facendo gli snob!

La penso come te. Io uso Debian per i server e a casa uso Ubuntu. A qualche amico che vuole seriamente usare linux, non smanettare o mettere su un server, consiglio Ubuntu per iniziare e c'è chi ci è rimasto e chi ha usato altre distribuzioni.

Conosco diversi colleghi che stanno migrando man mano che arrivano server nuovi da Debian a Ubuntu server e tutti mi hanno detto di trovarsi bene.

Io per ora non ho intenzione di farlo perchè sono anni che uso Debian e non ho mai avuto problemi.

Un ultima cosa: perchè in tanti siete terrorizzati dalla linea di comando? Una volta presa la mano è veramente difficile farne a meno. Credo se ne sia accorta anche Microsoft con la sua powershell....

Altro terrore sono i file di configurazione in formato testo: per me non c'è niente di meglio. Con un copia incolla si ripristinano le configurazioni dei programmi/sistema in un secondo.

Ciao.

zephyr83
25-09-2009, 15:17
Forse anche a linux (inteso proprio come il kernel) serve un periodo di "no new feature" e cioè di sola ottimizzazione come ha fatto Apple con Leopard->Snow Leopard e Microsoft con Vista->7.
La mia impressione è che dal 2.6 in poi il kernel abbia cominciato a crescere e gonfiarsi freneticamente con una frenesia di microrelease o addirittura micro micro release.
Sintomo appunto di uno sviluppo frenetico e quindi molto probabilmente di una minore attenzione a far le cose "bene e con calma".
Di qui il mio pensiero, prendere appunto un periodo di sola ottimizzazione, magari in un branch separato, per smorzare gli effetti dell'ingrassamento rapido subito ultimamente.
scusate ma nn è stato detto che linux è pesante e fa schifo e la situazione che critica!!! Torvalds ha detto che è ingrassato e sta "prendendo" la strada di windows e si deve cercare una "soluzione". Attualmente linux come reattività e velocità mi sembra messo meglio della concorrenza!!!

Riguardo la questione microkernel a me nn pare proprio una soluzione e nn mi pare che osx e windows lo siano, dovrebbero essere kernel ibridi.
Nn è che il microkernel sia la panacea e da solo vantaggi! ad esempio il symbian usa un microkernel eppure gli smartphone cn linux sn decisamente più reattivi e veloci!!! A quanto pare il problema nn è propriamente questo!

zephyr83
25-09-2009, 15:41
Che c'è di strano? Conosco linari che (indipendentemente dalla distro) si sono sempre vantati del loro kernel meraviglioso (naturalmente non voi che leggete, voi non l'avete mai fatto)... sono sicuro che anche tu ne conosci.
Ora questi linari MEDITERANNO.
mi spieghi come hai fatto a capire dal discorso di Torvalds che il kernel linux faccia schifo? :stordita: Per me i linari fanno benissimo a vantarsi del kernel di linux e se facesse così schifo nn si troverebbe dentro a tantissimi dispositivi embedded, sta spopolando sui telefoni (android, maemo, LiMo, WebOs, e ce ne sn tanti altri).....ma se è così pensante come fa a girare su un telefono?
Torvalds nn ha detto che il kernel fa schifo, ha solo detto che si sta "gonfiando" troppo e che è meglio pensare (prima che sia tardi) a qualcosa per evitare che diventi come i sistemi operativi della concorrenza.
Provare una distro linux nn vuol dire valutare le prestazioni del kernel perché ci sn tanti altri fattori che incidono! io noto differenze di velocità e reattività passato da ubuntu a kubuntu! la mia frugalware linux cn installazione di default è più veloce e reattiva di windows xp e anche di windows serven (che ho messo al posto di vista che per me è indifendibile).
Io continuo a meditare sugli utenti che hanno sempre usato un solo sistema operativo e si fossilizzano su quello

bongo74
25-09-2009, 16:08
questa è proprio una str..... con un 1400 oggi si hanno fino a 180cv mentre fino a 5 anni fa non poteva darne più di 100. L'avanzamento tecnologico permette ottimizzazioni, hai scelto l'esempio sbagliato.

si ma quanto ti dura un 1.4 180cv di oggi rispetto al 100di ieri?
rimanendo it, chissene frega se il kernel è ciccione, devi misurarsi con i pc di oggi, con 40euro+iva ti fai un dual core d'oro

zephyr83
25-09-2009, 16:13
si ma quanto ti dura un 1.4 180cv di oggi rispetto al 100di ieri?
rimanendo it, chissene frega se il kernel è ciccione, devi misurarsi con i pc di oggi, con 40euro+iva ti fai un dual core d'oro
nn è la filosofia di linux :stordita:

bicchiere
25-09-2009, 16:15
x zephyr83

Bastano le parole letterali a far riflettere.
Abbiamo un "il kernel è BLOATED, HUGE, SCARY" detto da TORVALDS.

Ti ricordi una critica peggiore rivolta al kernel, nella storia? Io no.

Inoltre, cui prodest?
A Torvalds NON conviene parlare male del suo kernel.

Se l'ha fatto, significa che gli conviene parlare male del suo kernel,
ossia che la situazione in realtà è TOTALMENTE INGESTIBILE,
e che Torvalds abbia ritenuto INDISPENSABILE lanciare questo allarme
per tentare di aggiustare il problema finché è possibile.

chiaro_scuro
25-09-2009, 16:18
>si ma quanto ti dura un 1.4 180cv di oggi rispetto al 100di ieri?

Quanto quello di ieri e con intervalli di manutenzione aumentati di 2-3 volte (oggi il tagliando si fa quasi sempre ogni 20-30.000 km mentre ieri quasi sempre ogni 10.000).

>chissene frega se il kernel è ciccione, devi misurarsi con i pc di oggi, con 40euro+iva ti fai un dual core d'oro

Questo giustifica il fatto che si possa evitare un'ottimizzazione spinta ma non può giustificare una mancanza di ottimizzazione, altrimenti l'evoluzione ce l'hai solo sull'hardware e non sul software e quindi ci sarebbe poco da vantarsi.

jappilas
25-09-2009, 16:36
penso che torvalds parlasse dei sorgenti,
esattamente, Torvalds parlava del source tree del kernel, e del fatto che in una tale code base con contributi sempre più eterogenei la qualità media (come efficienza, leggibilità e media di bug ) stia calando

i quali comprendono il supporto a un macello di periferiche (parlando in termini Windows, sono inclusi driver per un macello di periferiche).
periferiche, ma anche architetture (ISA di cpu) , piattaforme (intese come core logic e bus), configurazioni (sistemi destop monoprocessore, server multiprocessore, numa, cluster, ecc), file system, ...

jappilas
25-09-2009, 17:20
Un ultima cosa: perchè in tanti siete terrorizzati dalla linea di comando? Una volta presa la mano è veramente difficile farne a meno.
la questione è soggettiva aka de gustibus non est disputandum...
personalmente, seguo e uso i vari OS open e closed source da anni, e programmo, eppure riesco della linea di comando posso fare volentieri a meno, visto che come interfaccia uomo macchina:
è essenzialmente antiintuitiva (nota: non ho scritto difficile) cioè priva di discoverability (senza conoscenza pregressa o un manuale a disposizione, l' utente si trova di fronte a un prompt vuoto con cui non sa come interagire, e potrebbe impiegare molto tempo a svolgere a tentativi quella che magari poteva essere un' operazione banale),
è spesso meno produttiva (se a parità di operazione da compiere esistono strumenti che consentono di compierla in meno tempo e con meno clic o digitazioni),
non è necessariamente consistente (le variazioni nelle sintassi dei parametri tra i molti tool command line incontrati, mi portano a pensare l' opposto),
non dà nè implica (contrariamente a quanto spesso propalato) maggiore conoscenza del funzionamento del sistema operativo (lanciare programmi digitando comandi invece che cliccando su delle icone, al più darà maggiore conoscenza delle funzioni dei programmi stessi e della loro sintassi) ,
introduce inconsistenze nell' utilizzo del sistema: nel' ottica del sw design, se il sistema supporta una determinata funzionalità, per essere consistente dovrebbe permetterne l' utilizzo tramite interfaccia sia testuale sia visuale... funzioni inaccessibili via gui ma solo scrivendo comandi o editando a mano file di testo (il cui parsing peraltro introduce inefficienze) non sono "più avanzate", sono solo inconsistenze dovute alla mancanza di tool visuali e alla difficiltà o impossibilità per gli sviluppatori di progettarne uno
va in effetti detto che progettare una buona gui è molto più difficile che implementare un programma a riga di comando, e richiede competenze che non tutti gli sviluppatori hanno...
Credo se ne sia accorta anche Microsoft con la sua powershell....la powershell non è stata introdotta pensando agli utenti finali, ma per gli sviluppatori che avevano bisogno di scriptare e far comunicare tra loro oggetti .net
peraltro, l' idea di oggetti comunicanti tra loro in un modo altro che non le pipe testuali , è stato ripreso anche su linux da come hotwire ;)

zephyr83
25-09-2009, 18:20
x zephyr83

Bastano le parole letterali a far riflettere.
Abbiamo un "il kernel è BLOATED, HUGE, SCARY" detto da TORVALDS.

Ti ricordi una critica peggiore rivolta al kernel, nella storia? Io no.

Inoltre, cui prodest?
A Torvalds NON conviene parlare male del suo kernel.

Se l'ha fatto, significa che gli conviene parlare male del suo kernel,
ossia che la situazione in realtà è TOTALMENTE INGESTIBILE,
e che Torvalds abbia ritenuto INDISPENSABILE lanciare questo allarme
per tentare di aggiustare il problema finché è possibile.
no, è che nn conosci Torvalds, oltre che programmatore è anche uomo di "spettacolo" alla Ballmar o alla Jobs!
Cmq anche io sn criticissimo cn le mie cose anche se magari sn migliori di quelle dei miei amici....ma nn ci vedo niente di male nell'essere troppo critici!

killercode
25-09-2009, 18:32
Effettivamente è diventato un pò grasso.......e effettivamente linus esagera come al solito :D
C'è la possibilità di ricompilarlo come si vuole, non vedo il problema

chiaro_scuro
25-09-2009, 18:52
>è essenzialmente antiintuitiva
Non ho detto che deve esistere solo la GUI, ma che non ci si deve spaventare della linea di comando.

Quando devo compiere azioni ripetitive la linea di comando mi aiutata tantissimo e penso che quando si conosce un minimo la linea di comando farsi qualche script diventa naturale.

Ripeto, non aborro la GUI ma è un peccato che molti considerino l'esistenza della linea di comando come un peso. E non parlo della comodità dell'amministrazione remota tramite linea di comando....

Ciao.

saeba77
25-09-2009, 20:47
la mia prima distro linux è stata la redhat5 nel 97...poi suse e debian durante l'università...finita l'uni ogni 5-6 mesi mi veniva la Saudagi:) e reinstallavo la prima versione che trovavo nelle riviste...dopo una settimana mi stufavo di compilare e tornavo da windows:)
ora uso la slax da chiavetta sul portatile di ufficio

cosa centra tutto questo con la news? niente ma volevo scrivere prima di uscire a bere qualcosa:)

ciao ciao

jappilas
25-09-2009, 21:07
e infatti non lo considera, però il suo codice sta nell'eseguibile e te lo porti dietro a vita

per questo furono inventati i LKM

solo che ci sono funzionalità che non possono essere messi in moduli pena l'impossibilità di avviare il sistema....
ricordo di una demo di QNX in cui un sistema embedded basato su Atom passava da spento o reset, a glxgears in esecuzione con accelerazione opengl, in un secondo e mezzo circa, grazie a un firmware costituito da un ipl custom
in quel caso ciò era reso possibile dalla modalità di inizializzazione dei sottosistemi, differita e fatta solo quando questi fossero stati richiesti dalle applicazioni (quindi prima di ogni altra cosa opengl e il chip grafico, mentre lo storage mai, essendo tutto caricato da memoria flash e non essendo presente alcun hard disk si evitavano i tempi morti dovuti all' eventuale probing)
a sua volta resa "naturale" su qnx data la compartimentazione tipica dei microkernel, ma non impossibile da ottenere su altri kernel
ad ogni modo, qualunque funzionalità può essere implementata esternamente al kernel, a patto che il boot loader stage 1 (che tutti gli os usano, compreso linux) sia capace di caricare il modulo relativo, oltre al kernel stesso...

i microkernel risolvono problema questo problema di boot mantenendo funzionalità fondamentali in moduli separati
ecco perchè i microkernel sono migliori in termini di efficienza
un sistema a microkernel ben progettato può essere migliore di un sistema a macrokernel scadente o privo di particolari accorgimenti
ma in genere i microkernel sono migliori sotto il profilo dell' eleganza concettuale e della sicurezza, nonchè per un altro motivo...

avendo realizzato fin da subito che il porre in processi user space della funzionalità vitale (su un microkernel puro come quelli della famiglia l4 anche il vm pager) determina un certo overhead, ci si è impegnati nello studio di meccanismi che lo mitigassero attraverso una comunicazione interprocesso più flessibile ed efficiente di quanto non siano su kernel classici come linux, i socket raw

se si comunica con un altro processo è nella maggioranza dei casi (a maggior ragione su un un os a microkernel ) non tanto o non solo per per effettuare un semplice trasferimento di dati, quanto per richiedere un servizio (far eseguire a un altro processo una determinata funzione e avere un risultato in risposta), cioè una RPC (remote procedure call), nell' esecuzione della quale confluisce un identificatore del metodo da invocare e gli argomenti da passare
la prassi seguita abitualmente consiste nel formattare un messaggio contenente identificatore e argomenti, serializzati e codificati, che il processo server deserializzerà a destinazione, per poi lavorare e formattare a sua volta un pacchetto di risposta (cosiddetto marshaling - unmarshaling)
questo procedimento permette di riutilizzare lo stesso approccio ( se non lo stesso codice ) sia per sistemi distribuiti (processo client, processo server, eventuale agente broker, su macchine distinte) sia in locale (processo server e client sullo stesso sistema), e sia per la rpc che per il data messaging tra sistemi interconnessi
ora, se in quest' ultimo caso soprattutto a certi livelli (come a livello enterprise dove si possono muovere anche centinaia di MB per messaggio) l' overhead del marshaling può essere irrisorio rispetto ad altri fattori, nel caso locale non è la soluzione più efficiente possibile, anche già per lo scambio di dati strutturati

per questo motivo i principali microkernel successivi a minix e alla prima generazione di Mach, sono stati progettati intorno a un sistema di IPC più flessibile ed efficiente di suo, si è spesso integrato quest' ultimo con un IDL ( affinchè sviluppatori di servizi e applicazioni locali potessero sfruttare le primitive di ipc senza dover implementare esplicitamente aspetti quali il marshaling o la gestione delle sessioni di cui si occupa il compilatore generando lo stub code) con annesso compilatore (capace di generare codice efficiente tenendo conto della dimensione delle strutture dati da trasferire pper cui le primitive di ipc a livello kernel sono ottimizzate - oltre che spesso differenziate), e infine, su certi microkernel (ad es mach) e su alcui kernel ibridi (nella fattispecie nt) si è cercato di implementare meccanismi quali LRPC (http://pages.cs.wisc.edu/~sschang/OS-Qual/process/LRPC.htm) o le event pairs della quick lpc (e qualcuno ha provato a sviluppare soluzioni analoghe (http://plan99.net/~mike/fastrpc/) anche su linux) che consentivano un aumento di prestazioni tangibile, visto che per la maggior parte delle transazioni il tempo passato a fare marshaling e copia di dati tra buffer superava il tempo effettivo di calcolo

inoltre si è visto (http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.7.2754) che in un sistema multiserver la maggiore sicurezza e flessibilità viene da una comunicazione opaca e asincrona - questo è uno dei motivi per cui sui sistemi a microkernel solitamente API di comunicazione "standard" come i sockets, sono implementate al di sopra di primitive di IPC non standard ancorchè più flessibili, accessibili dai programmi nativi attraverso API specifiche, spesso basate sul modello publish/subscribe (un programma che esporta una funzionalità la dichiara in un namespace con un identificatore univoco noto, e uno che ne necessita la richiede attraverso quell' identificatore, senza bisogno di reimplementare e seguire protocolli di autenticazione e session management), nonchè mediate dal kernel (perchè tale mediazione diventa l' unica altra ragione d' esistere del kernel, oltre allo scheduling dei processi e al dispatching degli interrupt )

ed è per questo motivo che la ipc di un microkernel (od anche Binder di Android- su cui ci sarebbe altro da dire - per restare in ambito linux) sono soluzioni intrinsecamente più efficienti che non DBUS, che pure si pone simili obiettivi ma è implementata esattamente all' opposto, introducendo overhead rispetto anche all' uso dei socket raw...

jappilas
25-09-2009, 21:23
Tra l'altro tutto il sistema di signaling e message passing richiesto da un microkernel, per un sistema che deve funzionare nel mondo reale e non si chiama Minix aggiunge una complessità spaventosa.
poc' anzi menzionavo sistemi di ipc e procedure call che per una ricerca personale ho passato in rassegna in modo relativamente approfondito non molto tempo fa , e a meno che non mi sbagli (possibile) vi ho trovato molto ragionamento e scelte implementative tutto fuorchè improvvisate, ma comunque nulla che faccia pensare a una complessità "spaventosa" e non sia alla portata di un "addetto ai lavori" (uno di mente aperta, quantomeno) ;)
sbaglio? :O

GByTe87
25-09-2009, 21:29
esattamente, Torvalds parlava del source tree del kernel, e del fatto che in una tale code base con contributi sempre più eterogenei la qualità media (come efficienza, leggibilità e media di bug ) stia calando

Detta così sembrerebbe il fallimento della filosofia bazaar :)

macfanboy
25-09-2009, 22:01
MacOs è storia a se... il kernel è compilato per usare lo stesso hardware su tutte le macchine, una grave pecca ovviamente col confronto win e linux.


Ancora con questa storia?
OS X è un OS generico come Linux o Win. E' tutt'altro che specifico per l'hardware che vende la Apple. Tanto che gli "hackintosh" si sprecano, e ci gira sopra ugualmente bene. Basta avere i DRIVER. Ma non ce li devi compilare DENTRO come in Linux perchè OS X è fondamentalmente (anche se un po' bastatardizzato) un MICROKERNEL.

macfanboy
25-09-2009, 22:04
ricordo di una demo di QNX in cui un sistema embedded basato su Atom passava da spento o reset, a glxgears in esecuzione con accelerazione opengl, in un secondo e mezzo circa, grazie a un firmware costituito da un ipl custom

Ci ho giocato anche io un po' con QNX anni fà ed era davvero impressionante. Forse il miglior microkernel mai scritto. Ma che fine ha fatto?!?!

domyno
26-09-2009, 02:03
Cià a tutti


Scusate, sarò pure un novellino però vorrei dire la mia! :D

Devo dire che il kernel Linux risulta essere sì più pesante ma allo stesso tempo si consideri bene che tutte le distro presenti (Ubuntu, ex Red Had ora Fedora, Knoppix, Debian, Conectiva [spagnola, ma ora credo sia morta del kenerl 2.4.40, mah], Suse, la ex Lindows, etc...) usano kernel precompilati adatti a quasi, se non a tutti, i pc presenti ora in commercio! I kernel controlla tutte le risorse hardware in quanto deve gestire i programmi che ci girano sopra eseguendo lo scheduling sugli stessi!

Uso gentoo linux come distro ed è tutta compilata da zero, devo dire che come applicazioni quello che cerchi ormai esiste, ma in fatto d cuore (2.6.30-r6) quando si devono scegliere i "drivers" ci si perde, troppa roba... Quando inizi a spuntare tutto quello che non ti serve, diventa moooolto più leggero. So che non è cosa da tutti ricompilare un kernel però alleggerire eliminando cose oramai obsolete non sarebbe una brutta cosa! (Si trova ancora il supporto per l'Amigafs, ext2 [oramai obsoleto, sorpassato dall'ext3], supporto per fs mai senti nominare! Driver per audio o periferiche ISA, schede video che non avete idea di quanto vecchie siano [penso anche più vecchie del 1995] :D :eek:, controller nastri ed esiste ancora il supporto per CPU 80386 e 80486 [old school]:D :p nonostante le architetture siano cambiate quasi radicalmente)!

In poche parole :D -->With root power<--
#emerge gentoo-sources
#emerge genkernel
#genkernel --menuconfig all
---compile---
#emerge your life :D
----> beacuse Windows is a toilet paper <--- :D :D

senza offesa ai windowsiani, rispetto:D

ragazzocattivo
26-09-2009, 06:17
non solo per linux ma anche per windows, vale a dire una utility che una volta installato il s.o. e trascorsi mettiamo 3\4 giorni senza problemi, parta con una sorta di "wizard" e un'avviso tipo questo:

" Attenzione! Sta per partire la fase di ottimizzazione dell'ardware se si dispone di accessori (macchine fotografiche, stampanti, modem, joistik, cellulari, lettori mp3, dischi esterni, e qualsiasi altra periferica disponibile collegarla ora ed attendere la configurazione automatica, premere "ok" per proseguire"

Dopodichè la stessa utility provvede a riavviare eliminando sia dal kernel che da ogni piega e sottopiega del s.o. tutti i moduli le dipendenze i diver e il supporto che non risulta utilizzato....E vale anche per windos, compreso il supporto per le lingue i diver di schede audio e video vecchi di 15 anni, chipset preistorici, i caratteri arabi, cinesi ec ecc ecc
Insomma una volta che il s.o. si è "accomodato" sul pc, provvede da solo a tagliare ed eliminare tutti i rami secchi.....O NO?

G1971B
26-09-2009, 08:26
non solo per linux ma anche per windows, vale a dire una utility che una volta installato il s.o. e trascorsi mettiamo 3\4 giorni senza problemi, parta con una sorta di "wizard" e un'avviso tipo questo:

" Attenzione! Sta per partire la fase di ottimizzazione dell'ardware se si dispone di accessori (macchine fotografiche, stampanti, modem, joistik, cellulari, lettori mp3, dischi esterni, e qualsiasi altra periferica disponibile collegarla ora ed attendere la configurazione automatica, premere "ok" per proseguire"

Dopodichè la stessa utility provvede a riavviare eliminando sia dal kernel che da ogni piega e sottopiega del s.o. tutti i moduli le dipendenze i diver e il supporto che non risulta utilizzato....E vale anche per windos, compreso il supporto per le lingue i diver di schede audio e video vecchi di 15 anni, chipset preistorici, i caratteri arabi, cinesi ec ecc ecc
Insomma una volta che il s.o. si è "accomodato" sul pc, provvede da solo a tagliare ed eliminare tutti i rami secchi.....O NO?

E quando ci devi collegare in un secondo momento una nuova perfiferica che fai? Ricompili a manesco i driver?

ragazzocattivo
26-09-2009, 09:10
E quando ci devi collegare in un secondo momento una nuova perfiferica che fai? Ricompili a manesco i driver?

Beh! non penso che l'utente tipico compri periferiche di continuo come comprare il pane e nel caso, l'utility si potrebbe collegare al server scaricando solo i moduli\diver\dipendenze necessarie...... Dopotutto è già oggi così per i vari diver nvidia\ati... E c'è pure envy che già lo fa.....il punto è che dopo aver istallato quelli Proprietari, non elimina le vagonate di altri generici e compatibili che restano sul disco fisso come incrostazioni inutili...
Al limite se si vuole proprio andarci con i "piedi di piombo" si potrebbe far si che envy tenesse una copia del diver generico in funzione prima dell'istallazione di quelli propietari, ed eliminasse tutti gli altri che sono comunqe una bella pacconata di roba del tutto inutile.

Per windows il discorso neppure si pone, visto che ogni periferica venduta dispone di driver adatti.

MadJackal
26-09-2009, 09:48
Ancora con questa storia?
OS X è un OS generico come Linux o Win. E' tutt'altro che specifico per l'hardware che vende la Apple. Tanto che gli "hackintosh" si sprecano, e ci gira sopra ugualmente bene. Basta avere i DRIVER. Ma non ce li devi compilare DENTRO come in Linux perchè OS X è fondamentalmente (anche se un po' bastatardizzato) un MICROKERNEL.

E' molto bastardizzato, ha perso quasi tutte le caratteristiche di Mach.
Mantiene solamente l'interfaccia IPC, ma non è un microkernel.

Ed in linux non devi obbligatoriamente compilare i moduli dentro al kernel.
Pensa un pò ai driver closed di terze parti.

Ci ho giocato anche io un po' con QNX anni fà ed era davvero impressionante. Forse il miglior microkernel mai scritto. Ma che fine ha fatto?!?!

E' vivo, è vivo.
E mi pare stia piuttosto bene :D

macfanboy
26-09-2009, 10:16
E' molto bastardizzato, ha perso quasi tutte le caratteristiche di Mach.
Mantiene solamente l'interfaccia IPC, ma non è un microkernel.


Gli hanno messo a livello di kernel parti di BSD. Ovviamente molto stabili e affidabilissime. Per il resto rimane l'architettura a microkernel tipica di Mach.

Questo è un po' vecchio (credo si riferisca al 10.3, panther, poi le cose sono state un po' ottimizzate per la parte BSD rendendo l'integrazione più granulare), ma rende l'idea:
http://osxbook.com/book/bonus/ancient/whatismacosx//arch_xnu.html

MadJackal
26-09-2009, 10:49
Gli hanno messo a livello di kernel parti di BSD. Ovviamente molto stabili e affidabilissime. Per il resto rimane l'architettura a microkernel tipica di Mach.

Questo è un po' vecchio (credo si riferisca al 10.3, panther, poi le cose sono state un po' ottimizzate per la parte BSD rendendo l'integrazione più granulare), ma rende l'idea:
http://osxbook.com/book/bonus/ancient/whatismacosx//arch_xnu.html

"XNU's Mach component is based on Mach 3.0, although it's not used as a microkernel. The BSD subsystem is part of the kernel and so are various other subsystems that are typically implemented as user-space servers in microkernel systems."

Da qui mi pare di capire che XNU non è un microkernel, anche se ne possiede determinate caratteristiche (come già citavo prima, l'IPC, ad esempio), perchè esse fanno parte del kernel, non sono implementate in user-space.

guyver
26-09-2009, 11:03
.

pabloski
26-09-2009, 16:34
microkernel, è quella la soluzione, c'è poco da fare....nel 92 Torvalds ebbe ragione nel criticare Tanenbaum, perchè all'epoca il massimo era Mach ( che definirlo microkernel è una vera forzatura )

oggi però microkernel come L4, ma la stessa ultima versione di Minix, hanno dimostrato che i microkernel possono essere performanti quanto i monolitici ed in più offrire maggiore robustezza, affidabilità, footprint ridotti, latenze ridottissime, riusabilità del codice e modularità estrema

all'epoca fu la scelta migliore creare un monolitico, ma oggi non lo sarebbe di certo

riguardo Macos, non è un microkernel, ma sfrutta un microkernel su cui innesta un sistema operativo monolitico, anche si l'uso dell'IPC praticamente ovunque non ne fa un monolitico in senso stretto....li chiamano sistemi ibridi proprio per questo

pure Haiku ad esempio usa Newos che è microkernel però fa girare i driver in kernel space ( ma ha la modularità dei microkernel però ed ecco perchè si chiamano ibridi )

Linux invece ha portato in userspace i driver ( alcuni tramite fuse ) e mira a portare in userspace più roba possibile, come se poi il vero vantaggio dei microkernel fosse quello e non la modularità

infine QNX sta benissimo, conta decine di milioni d'installazioni in giro per il mondo in aerei da combattimento, centrali nucleari, apparecchiature mediche, ecc.... ed è divenuto da poco più di un anno opensource

lagunare
26-09-2009, 18:31
Lo hai detto tu che si appesantisce per l'introduzione delle USB delle macchine fotografiche o delle schede TV ecc...
Per me un server mail non ha bisogno di questa roba quindi: Linux PRO e Linux Home è la soluzione ;), il primo con il kernel senza fronzoli di qualche anno fa e il secondo con il kernel pachidermico pieno di usb e drivers :D
Poi ho detto IMHO appunto perchè io la vedo così e tu no :stordita:

Go Gentoo :D

khelidan1980
26-09-2009, 18:48
sono 6 pagine che 3/4 della gente continua a parlare dei driver compilati....suppongo che Linus sappia dell'esistenza di HAL e della possibilità di caricare solo i driver necessari! :asd: :asd:

MadJackal
27-09-2009, 08:50
sono 6 pagine che 3/4 della gente continua a parlare dei driver compilati....suppongo che Linus sappia dell'esistenza di HAL e della possibilità di caricare solo i driver necessari! :asd: :asd:

Ma infatti personalmente credo che lui si riferisca alle dimensioni dei sorgenti che in effetti aumentano di dimensioni ogni volta che esce una nuova release del kernel. :rolleyes:

elevul
28-09-2009, 01:32
Ubuntu concettualmente e' destinato al fallimento...
chi lo usa viene da win e glielo ha installato un amico...
tranquillo dopo 15 giorni ritorna al suo craccato win ed ai sui craccati prgs!
Chi si appassiona a linux...o salta direttamente la fase ubuntu...
o dopo 1 mese ha gia' nel pc una distro seria!
ubuntu...il re dei dual boot mai usati!

Confermo... :asd:

Avevo installato una ubuntu un anno e rotti fa, ci avevo giochicchiato per un paio di settimane e poi l'ho abbandonata... :asd:
C'è da dire, però, che Compiz è una figata! :sofico:

Prima o poi mi ci metto d'impegno e m'imparo una distro seria. :D

elevul
28-09-2009, 01:35
Eh lo so, sono un pò fanatico :D pensa tu che volevo ricompilare X.

P.S.
ho abilitato il frame buffer per la scheda video integrata, usando links per navigare con il supporto per il driver vesa........aaaaahhhh....esperienza mistica :fagiano:

scherzi a parte pernso che tolgo firefox e mi compilo il browser dillo, dovrebbe permettermi di navigare più velocemente

Se sei su slack 64 prova chromium 64 + flash 64. Dovrebbe volare! :sofico:

Ntropy
28-09-2009, 08:58
Se sei su slack 64 prova chromium 64 + flash 64. Dovrebbe volare! :sofico:

Eehmm no, in realtà uso la slackware normale per cpu a 32bit :fagiano:, con un celeron 633 la vedo dura una distro a 64bit :D

omerook
28-09-2009, 09:12
Ubuntu concettualmente e' destinato al fallimento...
chi lo usa viene da win e glielo ha installato un amico...
tranquillo dopo 15 giorni ritorna al suo craccato win ed ai sui craccati prgs!
Chi si appassiona a linux...o salta direttamente la fase ubuntu...
o dopo 1 mese ha gia' nel pc una distro seria!
ubuntu...il re dei dual boot mai usati!

http://www.dell.com/content/topics/segtopic.aspx/ubuntu?c=us&cs=19&l=en&s=dhs&~ck=anavml

elevul
28-09-2009, 10:19
Eehmm no, in realtà uso la slackware normale per cpu a 32bit :fagiano:, con un celeron 633 la vedo dura una distro a 64bit :D

Ah, sorry, non me n'ero reso conto... :stordita:
Comunque, prova chromium. Dicono che ne vale la pena.

666alberto
28-09-2009, 18:27
quoto appieno Human_Sorrow !

Z80Fan
29-09-2009, 20:12
Non penso si debba arrivare a far di Linux un kernel completamente microkernel, basta potenziare il caricamento dei moduli, magari sfruttando le specifiche multiboot che anche grub ci mette a disposizione.
Sono un appassionato di sistemi operativi, e ho realizzato un piccolo schemino per un semplice kernel che vorrei sviluppare. L'idea era quella di creare un kernel totalmente compatibile con Linux ma molto più modulare e di facile espansione, cioè: i vari componenti del sistema operativo (vfs, scheduler, mmu, networking...) vengono sviluppati separatamente diciamo come delle librerie dinamiche di cui si fà tanto uso in *nix, che lavorano in user mode e in kernel mode c'è solo il minimo indispensabile per gestire i processi.
Detto così sembra un microkernel, ma quando vengono caricati e collegati dinamicamente diventano un kernel monolitico a tutti gli effetti (potrei spiegarlo meglio ma ci vorrebbero 1000 pagine :D )
In questo modo si possono caricare e scaricare i moduli a piacere, ad esempio se uso solo dischi con ext4 caricherò solo il "plugin" ext4 per il modulo filesystem; se poi attacco una chiavetta usb si carica il fat32 e quando la tolgo si scarica, molto semplice.

(se vi interessa di più questo progetto potete contattarmi tranquillamente)

Ora, passo a difendere ubuntu ;)
Ubuntu concettualmente e' destinato al fallimento...
chi lo usa viene da win e glielo ha installato un amico...
tranquillo dopo 15 giorni ritorna al suo craccato win ed ai sui craccati prgs!
Chi si appassiona a linux...o salta direttamente la fase ubuntu...
o dopo 1 mese ha gia' nel pc una distro seria!
ubuntu...il re dei dual boot mai usati!

Qualche commento:
1. ("Chi usa win...") In effetti hai ragione, vengo da Win, ma me lo sono installato da solo !:p
2. ("dopo 15 giorni...") Ho installato Ubuntu a un mio amico (vedi 1) solo perchè volevo vedere gli effetti di Compiz. Ma cmq usa vista originale, non è detto che tutti gli utenti Windows sono cracconi.
3. ("chi si appasiona...") Io avevo installato Ubuntu 8.04 e lo uso intensamente (cioè tutti i giorni) da quando ho preso l'adsl, adesso sono alla 9.04 e non ho cambiato distribuzione, perchè la ritengo una distro comunque buona con un ottimo supporto sia software sia come assistenza che ti permette sempre di fare robe "da smanettoni" come dite voi (modificare file di sistema direttamente per esempio), ma penso che questo è nello spirito di GNU/Linux quindi si può fare in qualsiasi distro. Sono uno smanettone e molte volte ho trovato molto più facile modificare i file di configurazione manualmente (p.es menu.lst di grub) ma ciò non vuol dire che non posso usare comodità grafiche come GParted per partizionare o Synaptic per installare il software.
4.("il re dei dual boot mai usati") In effetti sono in dual boot con il caro vecchi Windows XP ORIGINALE (licenza del 2003!!!) che uso solo qualche volta per fare un lan party con i miei amici a Unreal Tournament 2004 (i driver Ati fanno cagare, sopratutto sulla mia scheda vecchia)

>Perchè la gente usa Ubuntu e Kubuntu e pretende pure di stare parlando di Linux..

Ah mi sembrava che *ubuntu usassero il kernel Linux ma forse mi sbagliavo! :Prrr:

Come ripeto, non per forza uno per essere un *vero* utente gnu/linux deve per forza usare sistemi complicati, solo terminale e comfigurazione manuale. Qualche comodità può fare comodo a tutti ! Sopratutto così ci si può concentrare su quello che si vuole "smanettare" davvero.
Se vi sembra che Ubuntu di default avvii troppi servizi, basta semplicemente rimuoverli (ora non ricordo il file che contiene la lista dei servizi). In fondo, si basano sullo stesso kernel delle altre, cambia solo il parco software preinstallato e l'interfaccia utente, quindi è possibile fare con Ubuntu tutto quello che si può fare con Debian, Fedora, Red Hat, SuSE ecc... (magari poi non sarà più ubuntu ma si può fare :stordita: )