PDA

View Full Version : Nano Server, il piccolo OS di Microsoft per il cloud


Redazione di Hardware Upg
05-05-2015, 17:01
Link alla notizia: http://www.businessmagazine.it/news/nano-server-il-piccolo-os-di-microsoft-per-il-cloud_57117.html

Microsoft ha mostrato a Build 2015 alcuni dettagli del nuovo "minuscolo" sistema operativo per infrastrutture cloud. Gestibile esclusivamente da remoto e con un set essenziale di funzionalità e driver, è il primo passo verso un sistema operativo componibile

Click sul link per visualizzare la notizia.

ComputArte
05-05-2015, 18:46
AMMAZZA che faccia da OO!!!!
Condire ed infarcire il SO di backdoors e accessi da remoto per spiare meglio....ma basta!!!!!
...." abbiamo alleggerito il so operativo....ma della grafica e di cose meno utili, ma.....le nostre porticine ci sono sempre, grullotti"

Pier2204
05-05-2015, 19:23
AMMAZZA che faccia da OO!!!!
Condire ed infarcire il SO di backdoors e accessi da remoto per spiare meglio....ma basta!!!!!
...." abbiamo alleggerito il so operativo....ma della grafica e di cose meno utili, ma.....le nostre porticine ci sono sempre, grullotti"

E dove l'hai dedotta questa cosa?...hai visto le backdoors di persona?
..oppure è uno dei capitoli del complotto globale edizioni tascabili?

pabloski
05-05-2015, 20:10
E dove l'hai dedotta questa cosa?...hai visto le backdoors di persona?

Boh, forse dai 400 MB. Personalmente credo che siano frutto del semplice bloating, fatto che che un "nanoLinux" è molto più piccolo di 400 MB.


..oppure è uno dei capitoli del complotto globale edizioni tascabili?

Vabbè dai, il Datagate dovrebbe aver aperto gli occhi a molti...o no!?! :stordita:

WarDuck
05-05-2015, 22:03
Boh, forse dai 400 MB. Personalmente credo che siano frutto del semplice bloating, fatto che che un "nanoLinux" è molto più piccolo di 400 MB.



Vabbè dai, il Datagate dovrebbe aver aperto gli occhi a molti...o no!?! :stordita:

Quanto occupa un debian minimale? :rolleyes:

pabloski
05-05-2015, 22:11
Quanto occupa un debian minimale? :rolleyes:

In primo luogo perchè debian. E comunque una debian server ottimizzata può arrivare a 85MB.

CoreOS con tutti i frizzi e i lazzi per il cloud sta sui 150MB. Questi parlano di quasi 3 volte tanto e non c'è la gui ovviamente.

In 60 MB c'ho fatto entrare archlinux + xorg + fluxbox.

WarDuck
05-05-2015, 23:13
In primo luogo perchè debian. E comunque una debian server ottimizzata può arrivare a 85MB.


Debian perché è una delle distro più usate in ambito server, ma avrei potuto dire anche CentOS.

Ovviamente uno può compiere qualsiasi esercizio di stile voglia, esempio MinWin che occupa 25mb su disco e fa girare un server http.

Ma la realtà è leggermente diversa. Un SO deve far girare i programmi e per farlo servono librerie e dipendenze che per forza di cose aumentano il footprint (specie se devi tenere il peso della retrocompatibilità come Windows).

Una installazione minimale di Debian (dove per minimale intendo programmi base + server ssh) sta (al momento che scrivo) sui 934mb.

Questo usando l'installer di default senza ricorrere a "ottimizzazioni" manuali che nella maggior parte dei casi significano perdita di tempo.


CoreOS con tutti i frizzi e i lazzi per il cloud sta sui 150MB. Questi parlano di quasi 3 volte tanto e non c'è la gui ovviamente.

In 60 MB c'ho fatto entrare archlinux + xorg + fluxbox.

Non conosco CoreOS, sembra molto interessante, appena ho un po' di tempo gli darò un'occhiata, cmq vedi sopra.

Cmq è indubbio che MS sta facendo un buon lavoro su tutti i fronti, per tanto ben venga questo dimagrimento.

pabloski
05-05-2015, 23:21
Debian perché è una delle distro più usate in ambito server, ma avrei potuto dire anche CentOS.

Ma poi Debian e Centos li vai a confrontare con Windows server.


Ovviamente uno può compiere qualsiasi esercizio di stile voglia, esempio MinWin che occupa 25mb su disco e fa girare un server http.


E contiene? Kernel + terminale + l'equivalente di busybox? E linux ti dà lo stesso ma ad un quinto della dimensione.

Comunque MinWin era 40MB non 25.

Ed inoltre io non parlavo di esercizi di stile, ma di sistemi server funzionanti ed usabili ( ho citato CoreOS proprio perchè è il diretto antagonista di questo Nanoserver ).


Una installazione minimale di Debian (dove per minimale intendo programmi base + server ssh) sta (al momento che scrivo) sui 934mb.


Stai dando i numeri? In un'ISO da 600 mega ci ficcano dentro pure firefox ed openoffice.


Questo usando l'installer di default senza ricorrere a "ottimizzazioni" manuali che nella maggior parte dei casi significano perdita di tempo.


Ti stai arrampicando sugli specchi per non ammettere la verità che è davanti ai tuoi occhi.


Cmq è indubbio che MS sta facendo un buon lavoro su tutti i fronti, per tanto ben venga questo dimagrimento.

Si parla di dimagrimento quando offri le stesse cose con un footprint inferiore. Qui si tratta di kernel + libc e qualche altra libreria fondamentale + hyperv e relativi tool.

TTklaz
05-05-2015, 23:38
Una distribuzione Linux piccola e completa, per server?

La usate in molti, ha server http/s, ftp, ssh, telnet, vpn e ancora altro, compressa in 4-8 MB espansi in 16-32-64 MB di ram: la distribuzione del vostro router.

benderchetioffender
06-05-2015, 01:07
Vabbè dai, il Datagate dovrebbe aver aperto gli occhi a molti...o no!?! :stordita:

no

me levo subito dalla cerchia dei "ma tu tieni per...XYZ" no, uso i tre OS dè punta tranquillamente... tutti hanno le loro qualità e debolezze

anyway... mi spieghi come potresti controllare se linux NON ha backdoor? in tutte le sue versioni confezionate e non

cioè, nulla vieta ad NSA di aver infiltrato gente anche nello sviluppo di linux, SSH, GPG... lo so, lo dico in maniera triste, ma non esiste umano al mondo in grado di controllare riga per riga del codice linux (&varianti del caso), nemmeno Torvald che vi piaccia o meno

ergo benvenga questo piccoletto, io a casa mia non ce lo farò mai entrare per altri motivi (vecchi rancori), ma devo fare un plauso a M$, le sue ultime uscite hanno un carattere molto intrigante e prodotti che potrebbero domani -con la pappa pronta si fa sempre prima- formare una intera classe di cantinari proM$....
cioè sta sforando a costi relativamente bassi in terreni dove finora si inerpicavano solo varie distro Linux e *Bsd... la concorrenza sarà agguerrita :cry:


Una distribuzione Linux piccola e completa, per server?

La usate in molti, ha server http/s, ftp, ssh, telnet, vpn e ancora altro, compressa in 4-8 MB espansi in 16-32-64 MB di ram: la distribuzione del vostro router.

si ok, ma anche la potenza di calcolo del caso.... cioè poco piu di un silk-e-pil

GTKM
06-05-2015, 07:12
anyway...
mi spieghi come potresti controllare se linux NON ha backdoor?
in tutte le sue versioni confezionate e non

In teoria, ci sono migliaia di persone a leggere il codice, quindi è più
probabile che qualcuno le scopra. Chiaramente, non è un sistema sicuro
al 100%.

cioè, nulla vieta ad NSA di aver infiltrato gente anche nello sviluppo
di linux, SSH, GPG... lo so, lo dico in maniera triste, ma non esiste
umano al mondo in grado di controllare riga per riga del codice linux
(&varianti del caso), nemmeno Torvald che vi piaccia o meno

Ovviamente.
In realtà, secondo me, la questione è un'altra: backdoors o meno,
qualsiasi azienda che ha sede negli USA è soggetta al Patriot Act,
quindi deve, per legge, dare il cu*o dei suoi utenti alle agenzie
federali, se queste lo richiedono. Dal punto di vista legale, la
differenza tra progetti come GNU e Linux, e Windows, la differenza sta
sostanzialmente qui.

ergo benvenga questo piccoletto, io a casa mia non ce lo farò mai
entrare per altri motivi (vecchi rancori), ma devo fare un plauso a M$,
le sue ultime uscite hanno un carattere molto intrigante e prodotti che
potrebbero domani -con la pappa pronta si fa sempre prima- formare una
intera classe di cantinari proM$....
cioè sta sforando a costi relativamente bassi in terreni dove finora si
inerpicavano solo varie distro Linux e *Bsd... la concorrenza sarà
agguerrita :cry:

Da un punto di vista tecnico, Microsoft sta spingendo sull'acceleratore
in molti settori: Nano Server può essere un prodotto molto interessante,
ma è da vedere come si comporterà sul campo.

fally
06-05-2015, 08:39
AMMAZZA che faccia da OO!!!!
Condire ed infarcire il SO di backdoors e accessi da remoto per spiare meglio....ma basta!!!!!
...." abbiamo alleggerito il so operativo....ma della grafica e di cose meno utili, ma.....le nostre porticine ci sono sempre, grullotti"

ovviamente sono 100mb di os + 300mb di spyware, è noto infatti come backdoor e strumenti di indagine nascosti abbiano peso di centinaia di mega...

Pier2204
06-05-2015, 08:40
Vabbè dai, il Datagate dovrebbe aver aperto gli occhi a molti...o no!?! :stordita:

No un momento, non facciamo disinformazione.
Il primo commento di ComputeArte dice una cosa diversa, lui è sicuro che dentro il nanoserver ci siano delle backdoors per spiarci, da dove deriva questa sicurezza, io lo chiamo terrorismo.


Ovviamente.
In realtà, secondo me, la questione è un'altra: backdoors o meno,
qualsiasi azienda che ha sede negli USA è soggetta al Patriot Act,
quindi deve, per legge, dare il cu*o dei suoi utenti alle agenzie
federali, se queste lo richiedono. Dal punto di vista legale, la
differenza tra progetti come GNU e Linux, e Windows, la differenza sta
sostanzialmente qui.

.

Secondo questo concetto tutte le aziende che operano negli USA "devono" inserire porte di accesso al SO a disposizione delle agenzie federali, quindi anche Redhat, SUSE, Google, Apple, ecc..
Se esiste una legge "Patrioct Act" questa vale per tutti e tutti la devono rispettare.
Ma se fosse vero torniamo al post numero uno (Microsoft ha ideato il nanoserver per inserire le backdoors per spiarci), messa così è come se fosse una sua scelta deliberata, una sorta di spione a fini oscuri, correndo il rischio di venire scoperta e sputtanarsi... ma non scherziamo.

GTKM
06-05-2015, 08:47
Secondo questo concetto tutte le aziende che operano negli USA "devono"
inserire porte di accesso al SO a disposizione delle agenzie federali,
quindi anche Redhat, SUSE, Google, Apple, ecc..
Se esiste una legge "Patrioct Act" questa vale per tutti e tutti la
devono rispettare.

SUSE ha sede in Germania. Per il resto, sì. Tutte le aziende con sede negli USA sono soggette alle stesse leggi, indipendentemente dal modello di distribuzione del software (closed o free).


Ma se fosse vero torniamo al post numero uno (Microsoft ha ideato il
nanoserver per inserire le backdoors per spiarci), messa così è come se
fosse una sua scelta deliberata, una sorta di spione a fini oscuri,
correndo il rischio di venire scoperta e sputtanarsi... ma non
scherziamo.
Assolutamente no. Tra l'altro, non c'è nemmeno bisogno delle backdoors, è sufficiente, in alcuni casi, sfruttare i bug presenti nel software :D

pabloski
06-05-2015, 09:13
anyway... mi spieghi come potresti controllare se linux NON ha backdoor? in tutte le sue versioni confezionate e non

Semplice. Tutte le versioni confezionate e non devono obbligatoriamente essere fornite con i sorgenti. Basta leggersi i sorgenti.

E no, non è che io personalmente devo leggerli, poi devi farlo tu, poi deve farlo Torvalds, ecc... Esiste un'entità chiamata comunità, dove ognuno dà un'occhiata ad un pezzo e tutti gli occhi messi insieme vedono tutto.

Certo ci sono stati e ci saranno casi di negligenza, un esempio lampante è openssh. Ma sempre meglio di non avere proprio la possibilità di guardare il codice.


cioè, nulla vieta ad NSA di aver infiltrato gente anche nello sviluppo di linux, SSH, GPG... lo so, lo dico in maniera triste, ma non esiste umano al mondo in grado di controllare riga per riga del codice linux (&varianti del caso), nemmeno Torvald che vi piaccia o meno

Secondo te ci sono più programmatori onesti o più infiltrati della NSA. Faccio notare che Linux viene sviluppato in continuazione, per cui c'è gente che per lavoro DEVE guardarci dentro. E si, ci sono parti che non vengono mai viste, ma statisticamente è meglio così piuttosto che avere una scatola nera dentro la quale non puoi guardare.


ma devo fare un plauso a M$, le sue ultime uscite hanno un carattere molto intrigante e prodotti che potrebbero domani -con la pappa pronta si fa sempre prima- formare una intera classe di cantinari proM$....

Difficile parlare di cloud e pappa pronta. Non vorrai mica la nascita di una generazione di punta-clicca-e-lascia-il-sistema-vulnerabile per gli script kiddies.

Qua si parla di amministrare migliaia di server, gradirei che la cosa fosse gestita da gente che ha le competenze per farlo.

Per cui il discorso pappa pronta lo escluderei dai punti a favore ( che poi CoreOS e soci non è che siano chissà quali mostri di difficoltà ).

pabloski
06-05-2015, 09:25
No un momento, non facciamo disinformazione.
Il primo commento di ComputeArte dice una cosa diversa, lui è sicuro che dentro il nanoserver ci siano delle backdoors per spiarci, da dove deriva questa sicurezza, io lo chiamo terrorismo.

Di sicuro c'è solo la morte. Tuttavia ammetterai che un'azienda ( che magari tratta attività sensibili ) non andrà mai a fiducia e cercherà di cautelarsi in tutti i modi possibili ed immaginabili.

Ma poi il punto è che viviamo nell'era dei Maker, dove il cliente vuole poter costruire soluzioni su misura usando i mattoncini che gli fornisci. Windows è ancora un monolita, nel senso che è una soluzione chiavi in mano, esce così fatto dalla fabbrica e ogni eventuale customizzazione va richiesta al produttore ( se sei il Pentagono di staranno ad ascoltare, ma se sei la Mario Rossi srl? ).

Una situazione simile si è verificata con la diffusione dei SoC ARM nel mondo mobile. Solo che in quel mercato, il monopolista ( Intel ) sembra aver capito che c'è gente che chiede qualcosa in più di un semplice prodotto finito ed inscatolato.

Pier2204
06-05-2015, 09:25
Per me si sta facendo un caso sui nanoserver quando, se ci voglio spiare, ci sono i mega server che offrono più raggio di azione..

Poi basta andare su facebook e li esce fuori anche il gruppo sanguineo ..

Poi un giretto nei mega server di Google e li sai cosa mangi a colazione e che marca, pranzo che ristorante.. e la sera che dieta fai..

In quelli di Apple è inutile andarci perché tanto gli utenti sono tutti uguali, scoperto il primo gli altri sono geneticamente uguali :asd:

benderchetioffender
06-05-2015, 10:36
vedo che hai travisato il senso del mio post e non hai letto la prima frase

Semplice. Tutte le versioni confezionate e non devono obbligatoriamente essere fornite con i sorgenti. Basta leggersi i sorgenti.
E no, non è che io personalmente devo leggerli, poi devi farlo tu, poi deve farlo Torvalds, ecc... Esiste un'entità chiamata comunità, dove ognuno dà un'occhiata ad un pezzo e tutti gli occhi messi insieme vedono tutto.
Certo ci sono stati e ci saranno casi di negligenza, un esempio lampante è openssh. Ma sempre meglio di non avere proprio la possibilità di guardare il codice.

ma certo! ho forse detto "evviva M$ finalmente qualche altro serverino-a-codice chiuso-ma-che-sfrutta-al-40%-software-open"? no
Sto solo cercando di sfatare una sbagliata convinzione sulla sicurezza

ovvero: si, stare a cavalcioni su una bomba atomica O camminare sopra una collina di granate.. si certo una è piu sicura dell'altra, ma se esplodono sparisci comunque, chiaro il concetto? non è che se sei PIU al sicuro di una altra situazione, ti rende AL SICURO A PRESCINDERE come fanno intendere alcuni

Secondo te ci sono più programmatori onesti o più infiltrati della NSA
Fregasega... ne basta UNO di mantainer corrotto per avere plurime backdoor

Faccio notare che Linux viene sviluppato in continuazione, per cui c'è gente che per lavoro DEVE guardarci dentro. E si, ci sono parti che non vengono mai viste, ma statisticamente è meglio così piuttosto che avere una scatola nera dentro la quale non puoi guardare.
non cambia quanto asserito: sei piu al sicuro ed è un bene, ma non farei i balletti di gioia.

Difficile parlare di cloud e pappa pronta. Non vorrai mica la nascita di una generazione di punta-clicca-e-lascia-il-sistema-vulnerabile per gli script kiddies.
no, ma lo sappiamo entrambi che la situazione si sta evolvendo in questo modo. che ci piaccia o meno.

Qua si parla di amministrare migliaia di server, gradirei che la cosa fosse gestita da gente che ha le competenze per farlo.
Per cui il discorso pappa pronta lo escluderei dai punti a favore ( che poi CoreOS e soci non è che siano chissà quali mostri di difficoltà ).
non è una questione di punti a favore, dico solo che tra questo e la collaborazione con Arduino, M$ si sta facendo aggressiva anche in ambiti dove fino a ieri era letteralmente fuori dai giochi
riuscirà a farci business sopra? probabile, buon per loro
mi piace o mi aggrada la situazione? ovvio che no

pabloski
06-05-2015, 10:51
ma certo! ho forse detto "evviva M$ finalmente qualche altro serverino-a-codice chiuso-ma-che-sfrutta-al-40%-software-open"? no
Sto solo cercando di sfatare una sbagliata convinzione sulla sicurezza


La sicurezza è un processo composto da tanti step. Nessuno sta dicendo che open = sicuro al 100%. Ma se già parti con l'handicap del codice mancante, garantire la trasparenza del software diventa molto più difficile.

E no, non è un discorso di MS vs Linux, ma di open vs closed.


Fregasega... ne basta UNO di mantainer corrotto per avere plurime backdoor


Stai considerando solo i mantainer, dimenticando tutti gli altri ( esempio gli ingegneri di una grande società che usa software opensource e che, durante il loro lavoro, ti trovano una backdoor e vengono a chiederti spiegazioni ).

Non basta un mantainer corrotto, ci vorrebbe una comunità corrotta.


non cambia quanto asserito: sei piu al sicuro ed è un bene, ma non farei i balletti di gioia.


Uh!?! Balletti? Siamo ingegneri, facciamo calcoli non balletti. E come ho già scritto, la sicurezza è un processo composto da tanti step e ogni passo in avanti nella giusta direzione è un balzo in avanti per la sicurezza complessiva.


no, ma lo sappiamo entrambi che la situazione si sta evolvendo in questo modo. che ci piaccia o meno.

Non vedo quest'involuzione onestamente. A cosa ti riferisci? Almeno nel mondo linux restano le solite "difficoltà" che tengono alla larga parecchi punta-cliccari della domenica.


non è una questione di punti a favore, dico solo che tra questo e la collaborazione con Arduino, M$ si sta facendo aggressiva anche in ambiti dove fino a ieri era letteralmente fuori dai giochi

Beh ovvio, non vuole perdere tutti i treni che stanno passando. Ma c'è da vedere se il loro modo di operare è quello giusto. Imho no, soprattutto se parliamo di Arduino ( e quindi dei maker ). I maker non vogliono un prodotto, vogliono dei mattoncini con cui costruire le loro innovazioni.

WarDuck
06-05-2015, 11:05
Ma poi Debian e Centos li vai a confrontare con Windows server.


Nanoserver sarà il prossimo Windows Server, si sta parlando di questo.


E contiene? Kernel + terminale + l'equivalente di busybox? E linux ti dà lo stesso ma ad un quinto della dimensione.

Comunque MinWin era 40MB non 25.


40 mb di ram, 25 mb su disco.

Dopodiché ovvio che con Linux per fare un router basta un kernel compilato ad-hoc, 2 mb e te la cavi.


Ed inoltre io non parlavo di esercizi di stile, ma di sistemi server funzionanti ed usabili ( ho citato CoreOS proprio perchè è il diretto antagonista di questo Nanoserver ).


L'ISO di CoreOS stable sono 161mb... bisogna vedere una volta installato.


Stai dando i numeri? In un'ISO da 600 mega ci ficcano dentro pure firefox ed openoffice.


No, è quanto riporta df -h su un debian installato da mini.iso su qemu.

Dopodiché l'ISO è una cosa, lo spazio occupato su disco dopo l'installazione un'altra.


Ti stai arrampicando sugli specchi per non ammettere la verità che è davanti ai tuoi occhi.


Non vedo come, sto solo riportando dei fatti.

Poi ovvio si può personalizzare tutto, con lo dovuto sbattimento.

Sicuramente in tal senso GNU/Linux ha offerto da sempre una marcia in più in quanto puoi compilare/installare solo quello che ti serve. Ma è una cosa che richiede tempo.


Si parla di dimagrimento quando offri le stesse cose con un footprint inferiore. Qui si tratta di kernel + libc e qualche altra libreria fondamentale + hyperv e relativi tool.

Alleggerimento, chiamalo come ti pare è solo un termine per indicare quello che stanno facendo.

pabloski
06-05-2015, 12:00
Nanoserver sarà il prossimo Windows Server, si sta parlando di questo.

No. Dall'articolo

"versione "microscopica" di Windows Server pensata per gli allestimenti cloud."

"non includa nulla se non i componenti essenziali per il funzionamento."

Come ho scritto prima, è kernel+libc+altre librerie di sistema+hyperv. Niente più di questo. Ed è per questo che dicevo che non è logico confrontarla con Debian ma con CoreOS.

Rimane il fatto innegabile che Linux ha un footprint che è 1/3, a parità di funzionalità offerte. Semplice constatazione, nessuna polemica.

fally
06-05-2015, 12:31
No. Dall'articolo

"versione "microscopica" di Windows Server pensata per gli allestimenti cloud."

"non includa nulla se non i componenti essenziali per il funzionamento."

Come ho scritto prima, è kernel+libc+altre librerie di sistema+hyperv. Niente più di questo. Ed è per questo che dicevo che non è logico confrontarla con Debian ma con CoreOS.

Rimane il fatto innegabile che Linux ha un footprint che è 1/3, a parità di funzionalità offerte. Semplice constatazione, nessuna polemica.

senza l'elenco dei componenti inclusi è difficile fare una stima. Ricordo che pochi anni fa microsoft ha mostrato all'opera minwin > http://it.wikipedia.org/wiki/MinWin con footprint di soli 40 MB...

Pier2204
06-05-2015, 13:12
In primo luogo perchè debian. E comunque una debian server ottimizzata può arrivare a 85MB.

CoreOS con tutti i frizzi e i lazzi per il cloud sta sui 150MB. Questi parlano di quasi 3 volte tanto e non c'è la gui ovviamente.

In 60 MB c'ho fatto entrare archlinux + xorg + fluxbox.

Scusa Pablosky, non sono informatico e quindi ne so meno di te, ma se è vero che hanno inserito NT in un lumia 520 che è meno del minimo sindacale per un sistema operativo, vuol dire che se vogliono il sistema lo ottimizzano.
Essendo dedicato a microserver non ha bisogno di portarsi dietro driver generici e compatibilità necessari per un desktop.

pabloski
06-05-2015, 14:55
senza l'elenco dei componenti inclusi è difficile fare una stima. Ricordo che pochi anni fa microsoft ha mostrato all'opera minwin > http://it.wikipedia.org/wiki/MinWin con footprint di soli 40 MB...

Lo so e infatti avevo risposto anche a questo. Minwin è l'equivalente di tinycore linux cli. Non c'è praticamente nulla, a parte driver generici per le classi di periferiche fondamentali, il kernel, la libc, un terminale e parte delle utility di sistema. Linux + busybox in pratica.

E la sensazione è sempre la stessa, che cioè ci si attesta su un footprint di circa 3x.

pabloski
06-05-2015, 14:59
Scusa Pablosky, non sono informatico e quindi ne so meno di te, ma se è vero che hanno inserito NT in un lumia 520 che è meno del minimo sindacale per un sistema operativo, vuol dire che se vogliono il sistema lo ottimizzano.


Appunto, c'è il kernel e poi? Di windows phone si sa pochissimo, a parte che condivide il kernel con windows. E considerando la modularità del kernel NT, non è nemmeno chiaro fino a che punto i due contengano gli stessi elementi.


Essendo dedicato a microserver non ha bisogno di portarsi dietro driver generici e compatibilità necessari per un desktop.

Per questo facevo notare che 400MB sono troppi. Soprattutto dato che il kernel può essere ficcato in uno smartphone dalla scarsa potenza hardware, evidentemente il grasso è da un'altra parte.

Che poi 400 mega non siano nulla per un server è evidente. Bisognerà piuttosto vedere le performance che riesce ad offrire rispetto ai concorrenti, piuttosto che quanta memoria occupa.

fally
06-05-2015, 15:43
Lo so e infatti avevo risposto anche a questo. Minwin è l'equivalente di tinycore linux cli. Non c'è praticamente nulla, a parte driver generici per le classi di periferiche fondamentali, il kernel, la libc, un terminale e parte delle utility di sistema. Linux + busybox in pratica.

E la sensazione è sempre la stessa, che cioè ci si attesta su un footprint di circa 3x.


Appunto, c'è il kernel e poi? Di windows phone si sa pochissimo, a parte che condivide il kernel con windows. E considerando la modularità del kernel NT, non è nemmeno chiaro fino a che punto i due contengano gli stessi elementi.

Per questo facevo notare che 400MB sono troppi. Soprattutto dato che il kernel può essere ficcato in uno smartphone dalla scarsa potenza hardware, evidentemente il grasso è da un'altra parte.

Che poi 400 mega non siano nulla per un server è evidente. Bisognerà piuttosto vedere le performance che riesce ad offrire rispetto ai concorrenti, piuttosto che quanta memoria occupa.

stiamo parlando del sesso degli angeli. Winmin puo' arrivare a dimensioni assolutamente minime? si... 400MB sono troppi? no se non si sa cosa offrono...

pabloski
06-05-2015, 17:43
stiamo parlando del sesso degli angeli. Winmin puo' arrivare a dimensioni assolutamente minime? si... 400MB sono troppi? no se non si sa cosa offrono...

Certamente, ma siccome parlano di sistema cloud si suppone che offra più o meno quello che offrono i concorrenti ( MS non ha ancora un'alternativa a Docker ad esempio, sta rincorrendo, per cui allo stato attuale offre pure di meno ).

Ecco, giusto un esempio banale, ma per consumare 3 volte lo spazio del concorrente mi aspetto che faccia pure il caffè.

fally
06-05-2015, 18:10
Certamente, ma siccome parlano di sistema cloud si suppone che offra più o meno quello che offrono i concorrenti ( MS non ha ancora un'alternativa a Docker ad esempio, sta rincorrendo, per cui allo stato attuale offre pure di meno ).

Ecco, giusto un esempio banale, ma per consumare 3 volte lo spazio del concorrente mi aspetto che faccia pure il caffè.

si certo...microsoft è indietro nel cloud > http://www.techweekeurope.it/cloud/cloud-amazon-aws-e-un-solido-leader-azure-lo-sfidante-di-maggior-peso-77117

cdimauro
06-05-2015, 18:38
Una situazione simile si è verificata con la diffusione dei SoC ARM nel mondo mobile. Solo che in quel mercato, il monopolista ( Intel ) sembra aver capito che c'è gente che chiede qualcosa in più di un semplice prodotto finito ed inscatolato.
Ancora con questa storia del monopolio? Bah

A parte questo, la disponibilità dei sorgenti non vuol dire nulla di per sé riguardo alla sicurezza. La famosa "legge di Linus", infatti, non è affatto una legge, ma un assunto indimostrato dell'autore che l'ha formulata.

Non c'è nessuna garanzia che un sistema di cui siano disponibili i sorgenti sia intrinsecamente più sicuro di uno che non li abbia (fermo restando che quelli di Windows sono a disposizione di enti governati e aziende partner di Microsoft).

Inoltre se si sostiene il "principio" che avere a disposizione i sorgenti rende più facile trovare i bug, allora è bene notare che varrebbe anche il contrario: l'assenza di sorgenti rende più difficile trovare i bug e, dunque, poterli sfruttare per malware et similia.

P.S. In futuro ci saranno protezioni hardware che faranno girare il codice in ambienti isolati, e che impediranno di vedere in chiaro i binari eseguiti (soltanto l'autore potrà farlo, nel suo ambiente, e quindi potendo anche debuggare in chiaro il tutto). Quindi sarà di gran lunga più difficile riuscire a scovare falle sfruttabili: si dovrà provare a inviare dati sbagliati alle API, nella speranza di trovare qualcosa di sfruttabile.

pabloski
06-05-2015, 18:54
si certo...microsoft è indietro nel cloud > http://www.techweekeurope.it/cloud/cloud-amazon-aws-e-un-solido-leader-azure-lo-sfidante-di-maggior-peso-77117

Confondi il market share e/o il guadagno con la quantità e varietà delle tecnologie offerte.

Ancora con questa storia del monopolio? Bah

Parlavo del monopolista x86 Intel. Non puoi negare che ancora oggi è di fatto Intel l'unico rappresentante del mondo x86 ( AMD c'arriva al 5%? ). In passato lo era in tutto il settore consumer.


A parte questo, la disponibilità dei sorgenti non vuol dire nulla di per sé riguardo alla sicurezza. La famosa "legge di Linus", infatti, non è affatto una legge, ma un assunto indimostrato dell'autore che l'ha formulata.

Bisognerebbe prima chiarire cosa intendi per "di per sè". Non puoi certo negare che cavare un bug dai sorgenti è molto molto molto meno enoroso che farlo dai binari. Nel primo caso bastano due occhi, nel secondo vai di fuzzing e speri d'incappare in qualcosa d'interessante.


Non c'è nessuna garanzia che un sistema di cui siano disponibili i sorgenti sia intrinsecamente più sicuro


Infatti ho parlato di sicurezza come processo, non ho isolato i singoli elementi. Bisogna però ( e credo che nemmeno tu abbia i dati per farlo ) capire quanto peso si può attribuire ad ognuno di tali elementi. Il polinomio della sicurezza ha tante variabili, il problema è che non si sa quale valore dare ai singoli pesi/coefficienti.


di uno che non li abbia (fermo restando che quelli di Windows sono a disposizione di enti governati e aziende partner di Microsoft).


E mi sa che non hai letto l'affermazione iniziale, ovvero che dobbiamo proteggerci proprio dagli enti governativi. Lo so che loro i sorgenti li hanno, ma di certo non li usano per scovare le backdoor che loro stessi impongono a MS.


Inoltre se si sostiene il "principio" che avere a disposizione i sorgenti rende più facile trovare i bug, allora è bene notare che varrebbe anche il contrario: l'assenza di sorgenti rende più difficile trovare i bug e, dunque, poterli sfruttare per malware et similia.


Mai detto il contrario. Solo che, come giustamente hai fatto notare anche tu, la NSA i sorgenti ce li ha. Come vedi per loro è facile, per noi è difficile. Almeno con l'opensource la staccionata ha la medesima altezza per tutti.


P.S. In futuro ci saranno protezioni hardware che faranno girare il codice in ambienti isolati,


Peggio. Il Datagate dovrebbe farci capire che bisogna fuggire da simili soluzioni. Se poi decideranno di mostrare i sorgenti dei firmware su cui girano questi ambienti isolati, allora ben vengano.


Quindi sarà di gran lunga più difficile riuscire a scovare falle sfruttabili: si dovrà provare a inviare dati sbagliati alle API, nella speranza di trovare qualcosa di sfruttabile.

In pratica quello che si fa oggi col fuzzing?

cdimauro
06-05-2015, 19:30
Parlavo del monopolista x86 Intel. Non puoi negare che ancora oggi è di fatto Intel l'unico rappresentante del mondo x86 ( AMD c'arriva al 5%? ). In passato lo era in tutto il settore consumer.
E' da quando ha rilasciato le licenze ad altri produttori come second source che Intel non è più monopolista.
Bisognerebbe prima chiarire cosa intendi per "di per sè". Non puoi certo negare che cavare un bug dai sorgenti è molto molto molto meno enoroso che farlo dai binari. Nel primo caso bastano due occhi, nel secondo vai di fuzzing e speri d'incappare in qualcosa d'interessante.
Stai partendo dall'assunto che i due occhi siano in grado di farlo:

http://pocitace.tomasek.cz/debian-randomness/img/pmeo9hcjp7aw9.jpg

http://pocitace.tomasek.cz/debian-randomness/img/tcv80ipepkza7.jpg

:D
Infatti ho parlato di sicurezza come processo, non ho isolato i singoli elementi.
Anche come processo, cosa intendi di preciso?
Bisogna però ( e credo che nemmeno tu abbia i dati per farlo ) capire quanto peso si può attribuire ad ognuno di tali elementi. Il polinomio della sicurezza ha tante variabili, il problema è che non si sa quale valore dare ai singoli pesi/coefficienti.
I dati non li ha nessuno perché non esiste una definizione oggettiva di sicurezza né tanto meno una metrica in grado definire una certa misura della sicurezza di un sistema.
E mi sa che non hai letto l'affermazione iniziale, ovvero che dobbiamo proteggerci proprio dagli enti governativi. Lo so che loro i sorgenti li hanno, ma di certo non li usano per scovare le backdoor che loro stessi impongono a MS.
Ci sono altre aziende non governative che sono partner di Microsoft, come già detto. I sorgenti, insomma, non sono in mano soltanto ai governanti.
Mai detto il contrario. Solo che, come giustamente hai fatto notare anche tu, la NSA i sorgenti ce li ha. Come vedi per loro è facile, per noi è difficile. Almeno con l'opensource la staccionata ha la medesima altezza per tutti.
Con software così complicato dubito che bastino gli occhi dell'NSA per scovare alacremente falle di sicurezza nel codice di Windows o di qualunque altro s.o. con una complessità paragonabile.

A parte questo, il punto focale del Datagate è rappresentato dall'immagazzinamento e setacciamento dei DATI provenienti da tutto il mondo, a prescindere da come siano stati prodotti.
Peggio. Il Datagate dovrebbe farci capire che bisogna fuggire da simili soluzioni.
No, per quanto detto sopra. Sono i dati che in primis devono essere bloccati e non devono arrivare all'NSA. Se mando una mail a uno che sta nella stessa nazione, i pacchetti NON dovrebbero uscire dai suoi confini.
Se poi decideranno di mostrare i sorgenti dei firmware su cui girano questi ambienti isolati, allora ben vengano.
Concordo in parte, perché mostrare i sorgenti non basta. Dev'essere sicuro che i byte del firmware derivino precisamente dalla compilazione di QUEL codice.
In pratica quello che si fa oggi col fuzzing?
No, oggi è più comodo disassemblare i binari e andare a gironzolare all'interno del codice.

Comunque anche il fuzzing viene utilizzato. Ovviamente in sistemi in cui il codice è criptato, rimane l'unica via.

pabloski
07-05-2015, 10:36
E' da quando ha rilasciato le licenze ad altri produttori come second source che Intel non è più monopolista.

Non stavo cercando di mettere Intel in cattiva luce. Semplicemente ho constatato che la posizione di quasi-monopolio ( se non ti piace chiamala forte presenza sul mercato, market share enorme. ecc... ) di Intel ha permesso una fortissima standardizzazione nel mondo x86, standardizzazione che non c'è stato in quello ARM.


Stai partendo dall'assunto che i due occhi siano in grado di farlo:

La legge dei grandi numeri dice che è così. Gli occhi ovviamente non sono 2, ma 2 x 10^n


Anche come processo, cosa intendi di preciso?


Un insieme eterogeneo di attività.


I dati non li ha nessuno perché non esiste una definizione oggettiva di sicurezza né tanto meno una metrica in grado definire una certa misura della sicurezza di un sistema.


Appunto, quindi si misura la sicurezza in maniera empirica, in base all'esperienza di chi ci lavora nel settore.


Ci sono altre aziende non governative che sono partner di Microsoft, come già detto. I sorgenti, insomma, non sono in mano soltanto ai governanti.


Poche persone è facile che si mettano d'accordo, molte lo è molto meno. E' il concetto su cui si fonda la democrazia e si dice che la democrazia sia migliore delle alternative.


Con software così complicato dubito che bastino gli occhi dell'NSA per scovare alacremente falle di sicurezza nel codice di Windows o di qualunque altro s.o. con una complessità paragonabile.

Bisogna anche vedere che tipo di tecnologie usano allo scopo. Se un banca può usare il deep learning per guadagnare miliardi sui mercati azionari, penso che la NSA possa fare anche di meglio. Chiaramente non si sa, ma il sospetto è diventato fortissimo dopo il Datagate. Si ragiona probabilisticamente e si arriva a conclusioni che non piacciono a molti.


A parte questo, il punto focale del Datagate è rappresentato dall'immagazzinamento e setacciamento dei DATI provenienti da tutto il mondo, a prescindere da come siano stati prodotti.

Non solo. Tra i documenti ce n'erano moltissimi riguardanti le indebite interferenze della NSA, a partire dalle pressioni sul NIST per il sabotaggio dei sistemi crittografici. Non è solo setacciamento, ma sovvertimento dei software crittografici, installazione di backdoor alla fonte, ecc...


Concordo in parte, perché mostrare i sorgenti non basta. Dev'essere sicuro che i byte del firmware derivino precisamente dalla compilazione di QUEL codice.


Chiaro che dev'esserci trasparenza lungo tutta la catena. Ed è per questo che credo che Stallman abbia perfettamente ragione, quando chiede uno stack software libero dal firmware all'if che verifica se hai cliccato un pulsante o meno.


No, oggi è più comodo disassemblare i binari e andare a gironzolare all'interno del codice.

Non direi, soprattutto vista la carenza di persone scafate nei vari linguaggi assembly. Poi se parliamo di codice molto complesso, a meno di avere 1000 cinesi nello scantinato, sarebbe un suicidio.

cdimauro
07-05-2015, 22:45
Non stavo cercando di mettere Intel in cattiva luce. Semplicemente ho constatato che la posizione di quasi-monopolio ( se non ti piace chiamala forte presenza sul mercato, market share enorme. ecc... )
Posizione dominante. :)
di Intel ha permesso una fortissima standardizzazione nel mondo x86, standardizzazione che non c'è stato in quello ARM.
Sostanzialmente sì. Su x86 non c'è l'enorme frammentazione che è presente nel mondo ARM.
La legge dei grandi numeri dice che è così. Gli occhi ovviamente non sono 2, ma 2 x 10^n
Premesso che non mi pare che esistano tanti occhi, ci sono un paio di altri punti da sottolineare: le skill che appartengono al proprietario degli occhi e... la fortuna di accorgerti che un determinato pezzo di codice nasconda un problema.

L'esempio di Debian mi sembra sia eloquente: quel bug è stato causato da un'enorme disattenzione, ed è perdurato per tantissimo tempo, nonostante i diversi occhi skillati che scrutavano i sorgenti.
Un insieme eterogeneo di attività.
Del tipo? Vorrei capire in che modo un processo sia sicuro o possa portare maggior sicurezza. Su cosa si basa, insomma.
Appunto, quindi si misura la sicurezza in maniera empirica, in base all'esperienza di chi ci lavora nel settore.
Ma anche l'esperienza non è certo quantificabile né usabile come metrica. In che modo potrebbe essere utile per dare una (grossolana, ovviamente) "impressione" di sicurezza o meno di un sistema? Hai qualche esempio?
Poche persone è facile che si mettano d'accordo, molte lo è molto meno. E' il concetto su cui si fonda la democrazia e si dice che la democrazia sia migliore delle alternative.
La democrazia non c'entra qui, e mi sembra che abbia prodotto ugualmente tanti danni nonostante milioni di persone siano andate alle urne.

Chi ti assicura che si possano, o meglio debbano mettere d'accordo? Penso sia evidente che non sono un amante delle cospirazioni e dei complottismi. Il fatto che ce ne siano stati e ce ne siano ancora, non implica che ci saranno sempre e in qualunque settore. Si tratta della famigerata generalizzazione.
Bisogna anche vedere che tipo di tecnologie usano allo scopo. Se un banca può usare il deep learning per guadagnare miliardi sui mercati azionari, penso che la NSA possa fare anche di meglio. Chiaramente non si sa, ma il sospetto è diventato fortissimo dopo il Datagate. Si ragiona probabilisticamente e si arriva a conclusioni che non piacciono a molti.
Permettimi un'osservazione: nessuno ha trovato il modo di esaminare automaticamente i sorgenti di un'applicazione, specialmente se complessa, e che sia in grado di scovarne tutti i bug. Non c'è "deep learning" che tenga.

Anche perché si tratta del ben noto "problema dello stop", che la teoria della computabilità ha dimostrato essere non computabile, quali che siano le risorse in gioco.
Non solo. Tra i documenti ce n'erano moltissimi riguardanti le indebite interferenze della NSA, a partire dalle pressioni sul NIST per il sabotaggio dei sistemi crittografici. Non è solo setacciamento, ma sovvertimento dei software crittografici, installazione di backdoor alla fonte, ecc...
L'accanimento contro la crittografia è ben nota e comprensibile, poiché l'obiettivo è quello di rendere molto più semplice la decodifica dei dati. Sappiamo benissimo che un sistema crittografico robusto è un problema praticamente insormontabile anche per il gigante NSA.

Ma il punto focale di tutto è sempre e soltanto uno: i dati. NSA ha, deve, vuole mettere le mani sui dati, e per questo ha avviato il programma di immagazzinamento che è venuto fuori con le dichiarazioni di Snowden.

Riguardo all'installazione di backdoor, è una cosa che i servizi segreti di tutto il mondo fanno da tempo. Ovviamente non concordo assolutamente.
Chiaro che dev'esserci trasparenza lungo tutta la catena. Ed è per questo che credo che Stallman abbia perfettamente ragione, quando chiede uno stack software libero dal firmware all'if che verifica se hai cliccato un pulsante o meno.
Non mi è chiaro cosa vorrebbe.
Non direi, soprattutto vista la carenza di persone scafate nei vari linguaggi assembly. Poi se parliamo di codice molto complesso, a meno di avere 1000 cinesi nello scantinato, sarebbe un suicidio.
E questo si verifica col tradizionale reverse engineering. Puoi immaginarti lo sforzo che c'è dietro se non fosse possibile disassemblare i binari, e dovendo andare alla cieca sparando dati malformati alle API.

bobafetthotmail
08-05-2015, 13:46
Lo chiamano data deduplication. Cioè rimappi agli stessi settori del disco i dati uguali.

Cioè se ho 1 o 450 milioni di immagini disco di Nano server mi occupano sempre 400 Mb.

Lo spazio su disco aumenta solo in base a quanto sono diversi questi 450 milioni di immagini disco. Se sono 3 file di configurazione l'impatto è minore.

Questi sono i file system da server. ZFS e l'altro di MS, credo un NTFS con driver modificato (e btrfs che non è completo). https://technet.microsoft.com/en-us/library/hh831602.aspx

Lo stesso si fa con la ram, e si chiama Page Sharing o altro (il vostro Hypervisor di fiducia lo fa di sicuro). Di nuovo, 450 milioni di Nano Server che occupano la stessa ram. Letteralmente.
Solo i processi diversi occupano più spazio.


Quindi boh. Tutta la corsa al "basso consumo di risorse" secondo me non ha tutto sto gran senso per il cloud. Cioè certamente è bello e simpatico, ma boh.

Inoltre se si sostiene il "principio" che avere a disposizione i sorgenti rende più facile trovare i bug, allora è bene notare che varrebbe anche il contrario: l'assenza di sorgenti rende più difficile trovare i bug e, dunque, poterli sfruttare per malware et similia.Essere open rende più facile sistemare i bug, perchè sposta il carico da chi produce a chi usa il codice.
Cioè chiunque abbia voglia e denaro può partire e risolverli. Vale generalmente per le aziende ma anche i privati qualcosa possono farlo (collette su kickstarter ne ho già viste che hanno sortito il giusto effetto)
Mentre invece conosco una valanga di ditte che ti "garantiscono solennemente" che stanno facendo tutto il possibile, ma non sistemano una cazzata intergalattica che tu "sistemi" a calci a colpi di script o installando una fottutissima crack per un fottutissimo programma che la ditta paga uno strafottio.

O che lasciano le chiavi primarie di crittazione nella RAM e non patchano il problema... da 4 anni oramai.

Questo è la ragione per cui in genere un sistema open è più sicuro. Perchè se c'è un bug, tutti possono sparagli a vista.
Su un sistema closed... solo il produttore e pochi eletti (forse).

In futuro ci saranno protezioni hardware che faranno girare il codice in ambienti isolati, e che impediranno di vedere in chiaro i binari eseguiti (soltanto l'autore potrà farlo, nel suo ambiente, e quindi potendo anche debuggare in chiaro il tutto). Quindi sarà di gran lunga più difficile riuscire a scovare falle sfruttabili: si dovrà provare a inviare dati sbagliati alle API, nella speranza di trovare qualcosa di sfruttabile.Assumendo che l'implementazione della protezione hardware non sia "infallibile" come quella roba dell'HDMI sicuro antipirateria.
E soprattutto assumendo che non sia possibile virtualizzare l'hardware e far girare il software dentro una VM gestita da un programma che ti fa vedere cosa succede.

Non credo che mettere i DRM hardware sia una scelta particolarmente utile.
Inoltre, in che modo questo isolamento hardware è meglio di un Hypervisor? Se un hypervisor è buggato si aggiorna, se il sistema hardware è buggato che si fa? si butta?
Buttare un server ogni 3x2 fa girare le balle eh?
Mi tieni tutto in un firmware che te lo stuprano in 50 secondi e 2 decimi e trovano tutte le implementazioni merdacchiose con porte spalancate ovunque tipiche dei firmware?
Mi fai dei TPM con sta roba dentro?

E' da quando ha rilasciato le licenze ad altri produttori come second source che Intel non è più monopolista.Sì vabbè, non è monopolista come Windows non è monopolista del mercato PC.
Se vogliamo raccontarci palle facciamolo, ma sappiamo bene che è falso.

cdimauro
08-05-2015, 18:14
Essere open rende più facile sistemare i bug, perchè sposta il carico da chi produce a chi usa il codice.
Cioè chiunque abbia voglia e denaro può partire e risolverli. Vale generalmente per le aziende ma anche i privati qualcosa possono farlo (collette su kickstarter ne ho già viste che hanno sortito il giusto effetto)
Mentre invece conosco una valanga di ditte che ti "garantiscono solennemente" che stanno facendo tutto il possibile, ma non sistemano una cazzata intergalattica che tu "sistemi" a calci a colpi di script o installando una fottutissima crack per un fottutissimo programma che la ditta paga uno strafottio.

O che lasciano le chiavi primarie di crittazione nella RAM e non patchano il problema... da 4 anni oramai.

Questo è la ragione per cui in genere un sistema open è più sicuro. Perchè se c'è un bug, tutti possono sparagli a vista.
Su un sistema closed... solo il produttore e pochi eletti (forse).
Se il sistema è open non c'è alcuna garanzia che i bug vengano sistemati, e l'hai detto tu stesso il motivo: solo se c'è qualcuno che ha voglia e soldi (risorse, in generale). Difatti ci sono ancora bug di Linux (il kernel; onde evitare equivoci) che vegetano da ANNI.

Lo stesso motivo che vale per i bug di prodotti closed, se sono fuori da eventuali accordi commerciali: chi ha voglia e soldi li può fixare.
Assumendo che l'implementazione della protezione hardware non sia "infallibile" come quella roba dell'HDMI sicuro antipirateria.
E soprattutto assumendo che non sia possibile virtualizzare l'hardware e far girare il software dentro una VM gestita da un programma che ti fa vedere cosa succede.

Non credo che mettere i DRM hardware sia una scelta particolarmente utile.
Inoltre, in che modo questo isolamento hardware è meglio di un Hypervisor? Se un hypervisor è buggato si aggiorna, se il sistema hardware è buggato che si fa? si butta?
Buttare un server ogni 3x2 fa girare le balle eh?
L'hardware non è esente da bug, esattamente come il software, ma può essere aggiornato con nuovo microcodice o caricando un nuovo firmare. Quando non è possibile, si passa a una revisione del chip, e si cambia quello.
Mi tieni tutto in un firmware che te lo stuprano in 50 secondi e 2 decimi e trovano tutte le implementazioni merdacchiose con porte spalancate ovunque tipiche dei firmware?
Mi fai dei TPM con sta roba dentro?
Se fin dal boot l'esecuzione è protetta e criptata, dubito che servano 50 secondi per crackare il firmware.

Hai idea di quanto c'abbiano impiegato per il famigerato Capcom System 3 (http://www.exophase.com/1195/cps-3-encryption-scheme-broken/)?

L'hardware attuale è di gran lunga più complesso.
Sì vabbè, non è monopolista come Windows non è monopolista del mercato PC.
Se vogliamo raccontarci palle facciamolo, ma sappiamo bene che è falso.
Non è col "sappiamo bene", dunque soltanto a parole, che puoi ribattere che sia falso. L'argomento è già stato ampiamente trattato qualche mese fa in un altro thread di questa sezione. Qui (http://www.hwupgrade.it/forum/showpost.php?p=42309110&postcount=73) trovi l'ultimo commento sull'argomento.

bobafetthotmail
11-05-2015, 14:02
Se il sistema è open non c'è alcuna garanzia che i bug vengano sistemati, e l'hai detto tu stesso il motivo: solo se c'è qualcuno che ha voglia e soldi (risorse, in generale).Tipo le aziende interessate. Dagli ultimi articoli salta fuori come l'85% della gente che lavora al kernel sia pagata da qualcuno.
Che fanno secondo te?

Difatti ci sono ancora bug di Linux (il kernel; onde evitare equivoci) che vegetano da ANNI.Tipo che continua a ritenere che le mie chiavette USB siano dischi meccanici e scazzi anche a capire che un SSD è un SSD e non un disco meccanico? (attributo "rotational" = 1)
Non mi sembra una falla critica, appena mi va butto un'occhio al bugtracker e vedo se ne sono a conoscenza o no.
Sai di falle critiche rimaste lì così per anni?

Lo stesso motivo che vale per i bug di prodotti closed, se sono fuori da eventuali accordi commerciali: chi ha voglia e soldi li può fixare.Se il sorgente è closed come può avvenire ciò? Dove lo trovo il sorgente dei prodotti Adobe che conosco vari pronti a dargli la paga?

Se fin dal boot l'esecuzione è protetta e criptata, dubito che servano 50 secondi per crackare il firmware.Non è il primo e non sarà l'ultimo. La questione è molto semplice, con un sistema del genere stai coalizzando tutte le risorse del mondo (in ambito hacking) contro di te visto che spionaggio e malware ci devono mangiare craccando le macchine.

Quindi o è veramente INECCEPIBILE e a tenuta stagna o fa la stessa fine di tutti gli altri sistemi prima di esso.

E a me personalmente... hanno un pò rotto i cosiddetti i ciappini di sicurezza hardware.
Finisce sempre che si rivela una cavolata che bisogna aggirare o fregare seguendo dei tutorial che si trovano da Googol o ti costringono a buttare hardware.

No per dire, ma un bell'Hypervisor montato su una mobo che ha il chip eeprom con lo swirch hardware che non permette di essere flashato/modificato senza che qualcuno fisicamente prema il tastino non è uguale?

Hai idea di quanto c'abbiano impiegato per il famigerato Capcom System 3 (http://www.exophase.com/1195/cps-3-encryption-scheme-broken/)?Immagino quante risorse a livello mondiale siano state dedicate per craccare le ROM dei giochini arcade.

Devi confrontare con la roba antipirateria per PC o per i film. Se dura anni è tanto.

Non è col "sappiamo bene", dunque soltanto a parole, che puoi ribattere che sia falso. Se vuoi una macchina con memoria ECC decente cosa fai (da vari anni oramai)? Intel.
Certo posso prendere delle vecchie mobo Tyan e montarci 4 Opteron dimmerda, non ha alcun senso ma posso farlo. :mbe:

Se vai al MediaTroEuroComet il grosso dei prodotti che ha dentro? Intel.
Quelli AMD sono sempre ineluttabilmente fascia bassa o fascia bastachefunzioni (acer/packardbell).

Visto che lo chiedi, vediamo dei numeri (e una dissertazione sulla storia su come Intel abbia tenuto su AMD per giocare a "noi non siamo un monopolio", che è certamente opinabile ma comunque non è il punto qui).
http://www.forbes.com/sites/rogerkay/2014/11/25/intel-and-amd-the-juggernaut-vs-the-squid/

Which brings us to today. The gloves are definitely off now. Intel no longer seems to care about maintaining AMD’s market share and has pounded it into the ground in most markets, notably server, where Intel’s unit share hit 98.3% in 3Q14, according to Mercury Research’s PC Processor Report, and 98.5%, according to IDC. In notebooks, Mercury’s 3Q14 figure is 92.9%, while IDC pegs it at 90.3%. Mercury says Intel’s desktop share was 82.7%, while IDC puts it at 81.8%, but those desktop figures are small comfort to AMD, since desktop is the least profitable of the three segments. At this point, Intel’s revenue is an order of magnitude larger than AMD’s, and its market cap is nearly two orders of magnitude greater.

Cioè seriamente, stiamo sopra all'80% del settore desktop, sul 90% nei portatili e sopra al 98% del settore server.

Cioè AMD si trova ampiamente peggio della situazione in cui si trova Intel Vs ARM nel mercato mobile.

Ora, va bene che legalmente in teoria si può dire che AMD esiste ancora e che ha ancora le licenze e che in teoria con un colpo di culo pauroso con l'assistenza dei Grigi potrebbe forse magari non schiantarsi brutalmente quando fa gli Zen tra un anno (senza ritardare), ma adesso dire "Intel non è un monopolio" con la fermezza che usi tu ti fa sembrare un pochino di parte, ammettilo.
Non è che perchè lavori per X o per Y allora vanno difesi a spada tratta, la realtà è questa oh.

Io la faccenda del monopolio la metterei almeno almeno come "discutibile in sede legale".:read:

cdimauro
11-05-2015, 20:23
Tipo le aziende interessate. Dagli ultimi articoli salta fuori come l'85% della gente che lavora al kernel sia pagata da qualcuno.
Che fanno secondo te?
I loro interessi. E se nei loro interessi non c'è quello di patchare i sorgenti per eliminare un certo bug, l'utenza si attacca al puffo (come ami ripetere).
Tipo che continua a ritenere che le mie chiavette USB siano dischi meccanici e scazzi anche a capire che un SSD è un SSD e non un disco meccanico? (attributo "rotational" = 1)
Non mi sembra una falla critica, appena mi va butto un'occhio al bugtracker e vedo se ne sono a conoscenza o no.
Non capisco di che parli.
Sai di falle critiche rimaste lì così per anni?
Certamente. Se mi espongo non è per parlare a sproposito.

Ecco qui (https://bugzilla.kernel.org/show_bug.cgi?id=5994). Come puoi vedere:
- sono passati più di 9 (NOVE!) anni da quando è stata creata la segnalazione;
- per la prima risposta c'è voluto più di un anno e mezzo;
- la prima patch è arrivata dopo più di 5 (CINQUE) anni;
- la segnalazione rimane ancora aperta (forse aspettano il prossimo anno per festeggiare i 10 anni :asd: ) perché la patch non è stata integrata nel kernel.

Che sia una falla critica lo si può capire anche da uno dei diversi siti che parlano e segnalano questo difetto (http://docs.basho.com/riak/1.3.0/tutorials/choosing-a-backend/Bitcask/#Configuring-Bitcask), di cui riporto la parte in questione:

Bitcask doesn’t actually set O_SYNC on Linux

At the time of this writing, due to an unresolved Linux kernel issue related to the implementation of fcntl it turns out that Bitcask will not set the O_SYNC flag on the file opened for writing, the call to fcntl doesn’t fail, it is silently ignored by the Linux kernel. You will notice a warning message in the log files of the format:
{sync_strategy,o_sync} not implemented on Linux
indicating that this issue exists on your system. Without the O_SYNC setting enabled there is potential for data loss if the OS or system dies (power outtage, kernel panic, reboot without a sync) with dirty buffers not yet written to stable storage.

Da notare le parti che ho evidenziato. Puoi immaginare da solo in che modo siano arrivati a scovare questo difetto...
Se il sorgente è closed come può avvenire ciò? Dove lo trovo il sorgente dei prodotti Adobe che conosco vari pronti a dargli la paga?
Non serve il sorgente, ma gente esperta che sa come si esegue il reverse engineering, e come creare una patch del binario.

Come pensi che vengano crackati i giochi? E a giudicare dalla velocità con cui ciò avviene, non mi pare che sia particolarmente difficile, pur in assenza di sorgenti. ;)
Non è il primo e non sarà l'ultimo. La questione è molto semplice, con un sistema del genere stai coalizzando tutte le risorse del mondo (in ambito hacking) contro di te visto che spionaggio e malware ci devono mangiare craccando le macchine.

Quindi o è veramente INECCEPIBILE e a tenuta stagna o fa la stessa fine di tutti gli altri sistemi prima di esso.
Il sistema sicuro per eccellenza è troppo complicato da realizzare. Roba più potabile, che è quella che arriva sia nel mercato consumer sia in quello militare, è decisamente più semplice ed economica, pur mantenendo un'elevata probabilità di non essere crackata.
E a me personalmente... hanno un pò rotto i cosiddetti i ciappini di sicurezza hardware.
Finisce sempre che si rivela una cavolata che bisogna aggirare o fregare seguendo dei tutorial che si trovano da Googol
Nessun sistema viene rilasciato come sicuro al 100%, come detto sopra. L'importante è che la protezione offerta sia adeguata a garantire un buon ritorno economico dagli investimenti.
o ti costringono a buttare hardware.
Non ho capito. Quale sarebbe il problema qui?
No per dire, ma un bell'Hypervisor montato su una mobo che ha il chip eeprom con lo swirch hardware che non permette di essere flashato/modificato senza che qualcuno fisicamente prema il tastino non è uguale?
Meglio un chippino con le chiavi di de/codificata infilate da qualche parte al suo interno e che non siano mai direttamente accessibili. ;)
Immagino quante risorse a livello mondiale siano state dedicate per craccare le ROM dei giochini arcade.
Direi abbastanza, proprio perché una sfida del genere è molto interessante e attira gli smanettoni che vogliono provare a realizzare l'impresa.
Devi confrontare con la roba antipirateria per PC o per i film. Se dura anni è tanto.
Se dura anni va benissimo, visto che nel frattempo si fanno i soldi.
Se vuoi una macchina con memoria ECC decente cosa fai (da vari anni oramai)? Intel.
Certo posso prendere delle vecchie mobo Tyan e montarci 4 Opteron dimmerda, non ha alcun senso ma posso farlo. :mbe:

Se vai al MediaTroEuroComet il grosso dei prodotti che ha dentro? Intel.
Quelli AMD sono sempre ineluttabilmente fascia bassa o fascia bastachefunzioni (acer/packardbell).

Visto che lo chiedi, vediamo dei numeri (e una dissertazione sulla storia su come Intel abbia tenuto su AMD per giocare a "noi non siamo un monopolio", che è certamente opinabile ma comunque non è il punto qui).
http://www.forbes.com/sites/rogerkay/2014/11/25/intel-and-amd-the-juggernaut-vs-the-squid/

Which brings us to today. The gloves are definitely off now. Intel no longer seems to care about maintaining AMD’s market share and has pounded it into the ground in most markets, notably server, where Intel’s unit share hit 98.3% in 3Q14, according to Mercury Research’s PC Processor Report, and 98.5%, according to IDC. In notebooks, Mercury’s 3Q14 figure is 92.9%, while IDC pegs it at 90.3%. Mercury says Intel’s desktop share was 82.7%, while IDC puts it at 81.8%, but those desktop figures are small comfort to AMD, since desktop is the least profitable of the three segments. At this point, Intel’s revenue is an order of magnitude larger than AMD’s, and its market cap is nearly two orders of magnitude greater.

Cioè seriamente, stiamo sopra all'80% del settore desktop, sul 90% nei portatili e sopra al 98% del settore server.
Interessante. :cool:
Cioè AMD si trova ampiamente peggio della situazione in cui si trova Intel Vs ARM nel mercato mobile.
Senz'altro, ma che può farci Intel se AMD non sa fruttare la preziosa licenza IA-32 che ha fra le mani?
Ora, va bene che legalmente in teoria si può dire che AMD esiste ancora e che ha ancora le licenze e che in teoria con un colpo di culo pauroso con l'assistenza dei Grigi potrebbe forse magari non schiantarsi brutalmente quando fa gli Zen tra un anno (senza ritardare), ma adesso dire "Intel non è un monopolio" con la fermezza che usi tu ti fa sembrare un pochino di parte, ammettilo.
Ma io SONO di parte. :D

Ciò non toglie che, definizione alla mano, non possiamo parlare di monopolio, ma di posizione dominante, come ampiamente sviscerato nel thread che ho linkato prima.

D'altra parte essere partigiano non implica che una persona non possa disquisire correttamente di un determinato argomento in cui ha un conflitto d'interessi.
Non è che perchè lavori per X o per Y allora vanno difesi a spada tratta,
Perché no, se ciò venisse fatto in maniera corretta?
la realtà è questa oh.
La realtà è quella che viene fuori dalla letteratura in materia (vedi, ancora una volta, il thread che ho linkato), e non dal tentativo di eliminare le argomentazioni e i fatti di una delle parti in gioco, con la scusa che "è partigiana". Cosa che è nota come "attacco ad hominem" (http://www.linux.it/~della/fallacies/ad-hominem.html), e trattasi di una ben nota fallacia logica.

Detto in altri termini, non puoi usare come "argomentazione" per contestare le mie affermazioni il fatto che io sia parte in causa della questione. Devi, invece, contestare le mie affermazioni in base al loro contenuto, e nient'altro.
Io la faccenda del monopolio la metterei almeno almeno come "discutibile in sede legale".:read:
Io, invece, andrei a controllare la terminologia utilizzata in letteratura (economica) che, come già detto, è stata riportata nel thread che ho linkato. ;)

bobafetthotmail
12-05-2015, 02:42
I loro interessi. E se nei loro interessi non c'è quello di patchare i sorgenti per eliminare un certo bug, l'utenza si attacca al puffo (come ami ripetere).Che l'utenza (non pagante perlatro) si attaccasse al puffo non è mai stato in dubbio, qui la differenza è che le aziende interessate possono fare i loro interessi, che non si può dire di molti software proprietari.
Questa è l'unica ragione per cui esiste linux peraltro. Perchè le aziende che lo usano possono fare i loro interessi meglio.

Non capisco di che parli.Un bug di mia conoscenza, lascia stare.

Che sia una falla critica lo si può capire anche da uno dei diversi siti che parlano e segnalano questo difetto (http://docs.basho.com/riak/1.3.0/tutorials/choosing-a-backend/Bitcask/#Configuring-Bitcask), di cui riporto la parte in questione:Critica significa che è un remote code execution, magari anche un privilege escalation. Questo è solo un bug di una cosa semi-oscura e aggirabile.
Non serve il sorgente, ma gente esperta che sa come si esegue il reverse engineering, e come creare una patch del binario.Mi chiedo perchè questo modo di agire non sia prevalente. Hmmm... Sarà che è inutilmente faticoso e palesemente illegale? (non mi risulta che nella licenza di utilizzo ti lascino modificare i loro binari, in nessun programma closed che conosco)

Come pensi che vengano crackati i giochi? E a giudicare dalla velocità con cui ciò avviene, non mi pare che sia particolarmente difficile, pur in assenza di sorgenti. ;)Probabilmente perchè il DRM è un modulo aggiunto dopo quindi basta trovarlo e cavarlo e va tutto lo stesso?

Nessun sistema viene rilasciato come sicuro al 100%, come detto sopra. L'importante è che la protezione offerta sia adeguata a garantire un buon ritorno economico dagli investimenti.Appunto, quindi a livello consumer fa moderatamente schifo e serve più a causare problemi e incompatibilità che altro.
Guarda, no grazie. l'HDCP lo ha fatto Intel eh.

Non ho capito. Quale sarebbe il problema qui?Mai sentito parlare di planned obsolescence? è molto di moda dagli ultimi 10 anni in tutti i settori.

Stranamente oggigiorno lo sviluppo dei processori è rallentato parecchio e quindi come fare? Planned obsolescence anche nell'IT!

Meglio un chippino con le chiavi di de/codificata infilate da qualche parte al suo interno e che non siano mai direttamente accessibili. Come se le eeprom criptate non venissero craccate da anni.
è una guerra persa, Intel Vs Mondo.

Direi abbastanza, proprio perché una sfida del genere è molto interessante e attira gli smanettoni che vogliono provare a realizzare l'impresa.Non hai capito. Lo spionaggio ha dietro milioni se non miliardi di fondi statali, chi fa malware è gente che fa botnet che gli fruttano svariati milioni al mese.

Questi sono il nemico, non gli smanettoni. Il livello di risorse impiegate è vari ordini di grandezza maggiori perchè lo fanno per lavoro (o per vivere)

Ma io SONO di parte. :DQuesto è un tuo problema.

D'altra parte essere partigiano non implica che una persona non possa disquisire correttamente di un determinato argomento in cui ha un conflitto d'interessi.Per definizione se sei partigiano vedi le cose in modo distorto o hai interesse a farle vedere come tali, quindi in genere non è visto di buon occhio.

La realtà è quella che viene fuori dalla letteratura in materia (vedi, ancora una volta, il thread che ho linkato),No, quella è la teoria, sono definizioni.
Nella pratica, nella realtà, la differenza tra una posizione dominantissima e un monopolio sta solo nel nome.
Monopolio rende di più l'idea di "posizione dominante", quindi per licenza poetica vince.

Detto in altri termini, non puoi usare come "argomentazione" per contestare le mie affermazioni il fatto che io sia parte in causa della questione. Devi, invece, contestare le mie affermazioni in base al loro contenuto, e nient'altro.Conosco le regole di ingaggio, grazie. Non mi pare che valgano anche qui, o sbaglio?
Mi sembrava un forum più informale.

cdimauro
12-05-2015, 19:19
Che l'utenza (non pagante perlatro) si attaccasse al puffo non è mai stato in dubbio, qui la differenza è che le aziende interessate possono fare i loro interessi, che non si può dire di molti software proprietari.
Questa è l'unica ragione per cui esiste linux peraltro. Perchè le aziende che lo usano possono fare i loro interessi meglio.
Non vedo alcuna differenza, perché le stesse aziende decidono, sempre in base ai propri interessi, se abbracciare o meno l'open source, e quindi rilasciare i propri sorgenti o tenerli chiusi. Indifferentemente che il prodotto venga fatto pagare all'utente oppure no.
Critica significa che è un remote code execution, magari anche un privilege escalation.
Quindi per te non è abbastanza grave che un s.o. bacato possa portare alla corruzione dei dati? Un s.o. che tra l'altro, è molto usato in ambito server...
Questo è solo un bug di una cosa semi-oscura e aggirabile.
No, la cosa non è affatto semi-oscura: è evidente che Linux non abbia implementato correttamente lo standard Posix, come fanno tutti gli altri s.o. Unix-like. Ancor più evidente è che nemmeno fallisca quando l'operazione in questione non è in grado di portarla a termine, ingannando le applicazioni che ne fanno uso.

La segnalazione in questione è arrivata da gente che lavora su database e che non s'era riuscita a spiegare il perché della corruzione dei dati in alcuni casi, peraltro difficilmente rilevabili (date le circostanze).

E nonostante ciò, da più di 9 anni il bug in questione non è stato nemmeno corretto. Questo sempre perché "ma i bug nei progetti open source vengono scoperti e fixati a velocità smodata"...
Mi chiedo perchè questo modo di agire non sia prevalente. Hmmm... Sarà che è inutilmente faticoso e palesemente illegale? (non mi risulta che nella licenza di utilizzo ti lascino modificare i loro binari, in nessun programma closed che conosco)
Reverse engineering e patching non sono illegali in tutti i paesi, oppure sono leciti se non servono a rimuovere eventuali protezioni ma ad apportare miglioramenti al software.
Probabilmente perchè il DRM è un modulo aggiunto dopo quindi basta trovarlo e cavarlo e va tutto lo stesso?
Non è affatto così semplice. Ci sono protezioni particolarmente astute che ti fanno credere di averle rimosse, salvo poi cambiare appositamente il comportamento del gioco o far spuntare qualche messaggio di avvertimento.

Per fare un altro esempio e spostandoci sulle console, nonostante sia in giro da parecchio tempo, non è ancora possibile far girare codice homebrew nel Nintendo 3DS.

Per farne un altro ancora diverso, da un po' di tempo nei lettori Blu-Ray è anche attivo un nuovo sistema di watermarking che impedisce la visione di contenuti che rileva essere stati copiati. Chissà quanto tempo resisterà.
Appunto, quindi a livello consumer fa moderatamente schifo e serve più a causare problemi e incompatibilità che altro.
Guarda, no grazie. l'HDCP lo ha fatto Intel eh.
Dipende. Alcune protezioni sono decisamente fastidiose e invasive, ma non sono tutte così: vedi sopra. Se la protezione non crea problemi al consumatore, perché non dovrebbe essere lasciata?
Mai sentito parlare di planned obsolescence? è molto di moda dagli ultimi 10 anni in tutti i settori.
Sì, fa parte delle teorie complottiste che girano da tempo, purtroppo.
Stranamente oggigiorno lo sviluppo dei processori è rallentato parecchio e quindi come fare? Planned obsolescence anche nell'IT!
Non mi pare proprio. In cosa sarebbe rallentato lo sviluppo? Di quali "freni" parli?
Come se le eeprom criptate non venissero craccate da anni.
Vedremo se continuerà ancora così. Ma poi, quale sarebbe il problema? Ti frega qualcosa se le eprom sono protette?
è una guerra persa, Intel Vs Mondo.
Intel non è affatto la sola: TCG Members (http://www.trustedcomputinggroup.org/about_tcg/tcg_members) ;)
Non hai capito. Lo spionaggio ha dietro milioni se non miliardi di fondi statali, chi fa malware è gente che fa botnet che gli fruttano svariati milioni al mese.

Questi sono il nemico, non gli smanettoni. Il livello di risorse impiegate è vari ordini di grandezza maggiori perchè lo fanno per lavoro (o per vivere)
OK
Questo è un tuo problema.
Ma non è affatto un problema. Tutt'altro. :cool:
Per definizione se sei partigiano vedi le cose in modo distorto o hai interesse a farle vedere come tali, quindi in genere non è visto di buon occhio.
Per definizione sono di parte, ma ciò, logica alla mano, non implica necessariamente che debba alterare la realtà. Ma puoi sempre dimostrarmi il contrario.
No, quella è la teoria, sono definizioni.
Nella pratica, nella realtà, la differenza tra una posizione dominantissima e un monopolio sta solo nel nome.
Monopolio rende di più l'idea di "posizione dominante", quindi per licenza poetica vince.
Parliamo di questioni tecniche, e dunque usiamo l'apposito linguaggio tecnico che è stato sviluppato dalla letteratura in materia.

La licenza poetica lasciamola ai poeti.
Conosco le regole di ingaggio, grazie. Non mi pare che valgano anche qui, o sbaglio?
Mi sembrava un forum più informale.
Scusami, ma se mi dici che l'essere di parte porta necessariamente ad alterare la realtà, non mi rimane che farti notare che si tratti di una fallacia logica.

Se le regole dell'ingaggio dici di conoscerle, mi aspetto che le rispetti: contestami pure tutto quello che vuoi, ma sui miei fatti ed argomentazioni e non perché sono dipendente dell'azienda di cui abbiamo parlato finora. Sic et simpliciter. :)

bobafetthotmail
13-05-2015, 11:57
Non vedo alcuna differenza, perché le stesse aziende decidono, sempre in base ai propri interessi, se abbracciare o meno l'open source, e quindi rilasciare i propri sorgenti o tenerli chiusi.Non stai capendo.
"abbracciare" l'open source non è "rilasciare i sorgenti" e chi si è visto si è visto, è lasciare che terzi apportino modifiche al tuo sorgente quando gli fa comodo, e se le modifiche non sono porcate le accetti e vanno a beneficio di tutti.

Col sistema closed anche assumendo una azienda guidata da fermi principi morali (fantascienza) non hai fisicamente le risorse per ottenere un risultato simile.

Questo è oggettivamente meglio, ma la perfezione non esiste.

Quindi per te non è abbastanza grave che un s.o. bacato possa portare alla corruzione dei dati? Un s.o. che tra l'altro, è molto usato in ambito server...Il bug dice solo che fnctl non può fare quello che chiedono. Ma è nella documentazione. http://linux.die.net/man/2/fcntl
"On Linux this command can change only the O_APPEND, O_ASYNC, O_DIRECT, O_NOATIME, and O_NONBLOCK flags. "

Se vogliono O_SYNC lo devono sempre mettere come opzione quando chiamano open() per aprire il file prima di alterarlo, e questo è per motivi di performance e di sicurezza.

Sennò poi c'è gente che fa applicazioni dimmerda che ti mettono mezza partizione con O_SYNC e allora la macchina si inchioda.
Oppure qualche furbo scrive codice errato che va a levare l'O_SYNC o dio solo sa cosa dalle opzioni di lettura/scrittura dei file aperti da altre applicazioni (perchè con fnctl si può fare) che è una bestemmia senza se e senza ma.

Ancor più evidente è che nemmeno fallisca quando l'operazione in questione non è in grado di portarla a termine, ingannando le applicazioni che ne fanno uso.è nella documentazione, le applicazioni di basso livello non sono tenute ad avere tutte le sicurezze che hanno le applicazioni fatte per essere usate da un utonto.
Perchè devono essere piccole e veloci, ogni check di conformità dei dati in entrata le rallenta.
Chi le usa dovrebbe RTFM prima di usarle e non andare a culo, stiamo parlando di gente che scrive dei programmi che dovrebbero essere sicuri, non è una App android che tanto sta dentro ad una VM java.

La segnalazione in questione è arrivata da gente che lavora su database e che non s'era riuscita a spiegare il perché della corruzione dei dati in alcuni casi, peraltro difficilmente rilevabili (date le circostanze).Database scritti dalla loro applicazione merdacchiosa.

E nonostante ciò, da più di 9 anni il bug in questione non è stato nemmeno corretto. Questo sempre perché "ma i bug nei progetti open source vengono scoperti e fixati a velocità smodata"...Io ho solo detto che una volta scoperto chiunque abbia le risorse per farlo può farlo.
In questo caso, visto che sembra solo un caso di RTFM, non c'è nessuno che lo sistema o che approva le patch.

Reverse engineering e patching non sono illegali in tutti i paesi, oppure sono leciti se non servono a rimuovere eventuali protezioni ma ad apportare miglioramenti al software.Il grosso delle licenze non lo permettono. Oracle lo lascia fare e ti dà ance un tool, ma mica tutti lo lasciano fare.

Non è affatto così semplice. Ci sono protezioni particolarmente astute che ti fanno credere di averle rimosse, salvo poi cambiare appositamente il comportamento del gioco o far spuntare qualche messaggio di avvertimento.Che vengono rimosse comunque in tempo record.
Sai perchè? Perchè basta fottere il componente che fa il controllo in modo che riporti sempre "va tutto bene".
Per fare un altro esempio e spostandoci sulle console, nonostante sia in giro da parecchio tempo, non è ancora possibile far girare codice homebrew nel Nintendo 3DS.Neanche sulle PSVita se è per questo. Ma considerando che sono dispositivi attraverso i quali non passano informazioni sensibili, quindi nessuno ci ha mai investito soldi seri.

Qui una spiegazione data da un hacker della PSVita http://yifan.lu/2013/09/10/why-hacking-the-vita-is-hard-or-a-history-of-first-hacks/

Riassunto: Android ha reso le console portatili obsolete e molto meno interessanti anche per gli smanettoni.

Per farne un altro ancora diverso, da un po' di tempo nei lettori Blu-Ray è anche attivo un nuovo sistema di watermarking che impedisce la visione di contenuti che rileva essere stati copiati. Chissà quanto tempo resisterà.craccata dopo 2 anni http://www.techspot.com/news/56872-clever-anti-piracy-tech-cinavia-finally-gets-beaten.html

Comunque era irrilevante anche prima, non era attiva su tutti i lettori, e comunque esistono gli HTPC e i mediacenter embedded o Android.
Essi non hanno queste chiavate a leggere i contenuti (e tutti i vari formati merdacchiosi di dischi che esistono, altra questione aperta che mi fa girare le scatole)
I DRM che vengono craccati al day1 sono quelli per accedere ai contenuti su disco o in streaming, una volta che i dati sono stati estratti (e caricati su torrent così li scarichi o li guardi in streaming con PopcornTime) cosa importa che un lettore bluray embedded non li possa leggere?

Dipende. Alcune protezioni sono decisamente fastidiose e invasive, ma non sono tutte così: vedi sopra. Se la protezione non crea problemi al consumatore, perché non dovrebbe essere lasciata?Perchè generalmente crea problemi, semplicemente perchè neanche a chi la fa importa fare un lavoro fatto bene.
Ogni protezione implementata con un'occhio più al fare una cosa che costa poco che al fare una cosa fatta bene ha dei falsi positivi, e i flasi positivi impattano l'utente.
Oppure semplicemente è una falla di sicurezza in più o un problema di compatibilità o di stabilità. Vedi sotto sul TPM.

Se è una protezione semi-seria non permette di interfacciarsi con dispositivi che hanno una versione vecchia (e quindi si suppone buggata), quindi rende i dispositivi incompatibili.

l'HDCP fa questo. Che poi resta comunque una pagliacciata aggirabile con uno scatolotto da 30 euro (per un tecnico che sa dove comprarlo) ok, ma per un utente normale sono dolori.

Sì, fa parte delle teorie complottiste che girano da tempo, purtroppo.
la planned obsolescence è l'unica cosa che permette ad una azienda di non farsi concorrenza da sola quando ciò che produce non diventa obsoleto da solo.

è un concetto nato tanto tempo fa https://upload.wikimedia.org/wikipedia/commons/2/27/London_%281932%29_Ending_the_depression_through_planned_obsolescence.pdf

E qui varie tecniche usate nella realtà http://www.perc.org/blog/planned-obsolescence-good-and-bad
E qui i soliti apple hater che contestano queste ragionevolissime pratiche applicate sui loro dispositivi http://www.theguardian.com/technology/2012/jul/04/apple-ipad-software-update
(su Android è peggio, supporto di 1 anno dal produttore quando va bene, ma almeno Google fa quello che può per supportare anche i dispositivi più vecchi)

è un tentativo disperato di mantenere un businness model basato sui device in un mercato fondamentalmente saturo.
Microsoft si trova in una situazione simile, con gente che resta su XP anche oggi.
O che quando è uscito Win8 è rimasta su win7.

La soluzione è quella di passare ad un businness model basato sui servizi, o fare questi giochini idioti.

Non mi pare proprio. In cosa sarebbe rallentato lo sviluppo? Di quali "freni" parli?Che cosa fai quando sei al lavoro, stai su Facebook? :mbe:
Sono almeno 5 anni che l'incremento di performance dei processori non supera il 10% a generazione (si arriva anche al 5%).
Anche i muri lo sanno.

Questo è completamente assurdo rispetto al passato, macchine di 5+ anni sono ancora in grado di funzionare normalmente con gli ultimi OS e tutto.

Vedremo se continuerà ancora così.Lo hai detto tu stesso, questi ciappini vengono fatti non per essere 100% sicuri, ma per essere "abbastanza" sicuri con nun occhio ai costi.

Perchè se non venissero craccati non ci sarebbe bisogno di cambiarli e prendere il "nuovo e milgiore" modello che verrà craccato di nuovo in un tempo ridicolo.

Ma poi, quale sarebbe il problema? Ti frega qualcosa se le eprom sono protette?Mi importa il contrario. Mi interessa che siano e restino craccabili, perchè al 99% servono ad implementare l'ennesima minchiata da aggirare per far andare qualcosa che è stato regolarmente pagato ed è perfettamente funzionante.
Se danno il senso di sicurezza e di profitto assicurato a chi di dovere a me va bene.

Intel non è affatto la sola: TCG Members (http://www.trustedcomputinggroup.org/about_tcg/tcg_members) ;)Con risultati divertenti peraltro. Non solo glie lo craccano regolarmente, ma permette anche al malware di usarlo come scudo per pararsi il didetro dagli analisti di sicurezza.
https://www.cs.utexas.edu/~adunn/pubs/malware-tpm.pdf

Ma non è affatto un problema. Tutt'altro. :cool:
Per definizione sono di parte, ma ciò, logica alla mano, non implica necessariamente che debba alterare la realtà. Ma puoi sempre dimostrarmi il contrario.Sei un essere umano, valgono le regole standard sulla scarsa affidabilità del giudizio umano in condizioni di conflitto di interessi.
Lo chiamano cognitive bias, leggi qui https://en.wikipedia.org/wiki/List_of_cognitive_biases

Per dire, ci sono studi che dimostrano come una donna bionda e relativamente bella ha probabilità maggiori di essere giudicata "non colpevole" di una mora, quindi vai tranquillo che è diffusa.

Parliamo di questioni tecniche, e dunque usiamo l'apposito linguaggio tecnico che è stato sviluppato dalla letteratura in materia.Il linguaggio serve a far passare concetti, vincere nelle tomelle è bello ma in ultima analisi è più importante che passi il senso del discorso.

"posizione dominante" fa pensare che ci sia un pò di concorrenza, e francamente non mi sembra proprio il caso dai numeri di cui sopra.

Il linguaggio tecnico è stato fortemente influenzato da chi ha interesse a fare questi giochini, come per un pò tutti i settori del resto.

Quindi mi spiace, ma devo avvalermi della licenza poetica nel nome di spiegare con semplicità il concetto.

Se le regole dell'ingaggio dici di conoscerle, mi aspetto che le rispetti:Le regole non valgono senza qualcuno che le fa rispettare, purtroppo. :(
Quindi questo è un favore che mi chiedi, e io che sono buono te lo accordo, spiegando il perchè di quello che sembrerebbe un ad-hominem. Vedi sotto.

contestami pure tutto quello che vuoi, ma sui miei fatti ed argomentazioni e non perché sono dipendente dell'azienda di cui abbiamo parlato finora.Io ti contesto perchè ti comporti da fanboy. Essere dipendente non ti trasforma automaticamente in un fanboy, come spiegato sopra.
Se vuoi prove di questo chiedi che ti faccio una lista.

damxxx
13-05-2015, 18:32
Certamente, ma siccome parlano di sistema cloud si suppone che offra più o meno quello che offrono i concorrenti ( MS non ha ancora un'alternativa a Docker ad esempio, sta rincorrendo, per cui allo stato attuale offre pure di meno ).

Ecco, giusto un esempio banale, ma per consumare 3 volte lo spazio del concorrente mi aspetto che faccia pure il caffè.

Non ha un'alternativa a Docker perché Windows Server utilizza Docker (http://azure.microsoft.com/blog/2014/10/15/new-windows-server-containers-and-azure-support-for-docker/)...

cdimauro
13-05-2015, 23:36
Non stai capendo.
"abbracciare" l'open source non è "rilasciare i sorgenti" e chi si è visto si è visto, è lasciare che terzi apportino modifiche al tuo sorgente quando gli fa comodo, e se le modifiche non sono porcate le accetti e vanno a beneficio di tutti.
Non vedo per quale motivo dovrebbe essere così. Rilasciare i sorgenti è già di per sé un costo enorme per la società, che mette a disposizione di tutti, quindi anche della concorrenza, le sue proprietà.

D'altra parte mi pare che qualcuno abbia scritto qualcosina sull'intrinseca proprietà che pare possedere l'essere open source:

"Essere open rende più facile sistemare i bug, perchè sposta il carico da chi produce a chi usa il codice."

che mi sembra piuttosto eloquente. Dunque un'azienda che si limiti a rilasciare i sorgenti consentirebbe di far partire quello che, sulla carta, sarebbe un'operazione virtuosa.
Col sistema closed anche assumendo una azienda guidata da fermi principi morali (fantascienza) non hai fisicamente le risorse per ottenere un risultato simile.
Non vedo perché no.
Il bug dice solo che fnctl non può fare quello che chiedono. Ma è nella documentazione. http://linux.die.net/man/2/fcntl
"On Linux this command can change only the O_APPEND, O_ASYNC, O_DIRECT, O_NOATIME, and O_NONBLOCK flags. "

Se vogliono O_SYNC lo devono sempre mettere come opzione quando chiamano open() per aprire il file prima di alterarlo, e questo è per motivi di performance e di sicurezza.

Sennò poi c'è gente che fa applicazioni dimmerda che ti mettono mezza partizione con O_SYNC e allora la macchina si inchioda.
Oppure qualche furbo scrive codice errato che va a levare l'O_SYNC o dio solo sa cosa dalle opzioni di lettura/scrittura dei file aperti da altre applicazioni (perchè con fnctl si può fare) che è una bestemmia senza se e senza ma.

è nella documentazione, le applicazioni di basso livello non sono tenute ad avere tutte le sicurezze che hanno le applicazioni fatte per essere usate da un utonto.
Perchè devono essere piccole e veloci, ogni check di conformità dei dati in entrata le rallenta.
Chi le usa dovrebbe RTFM prima di usarle e non andare a culo, stiamo parlando di gente che scrive dei programmi che dovrebbero essere sicuri, non è una App android che tanto sta dentro ad una VM java.
Chi le usa sviluppa codice usando delle API POSIX, il cui funzionamento è ben documentato. Magari sono gli sviluppatori di Linux che dovrebbero leggerne le specifiche prima di rilasciare un'implementazione fallata (perché se non funziona come prevede lo standard, è e rimane bacata). Ma ne parlo meglio dopo.
Database scritti dalla loro applicazione merdacchiosa.
Un link te l'ho fornito prima. Anche Firebird è un'applicazione "merdacchiosa"? http://tracker.firebirdsql.org/browse/CORE-1476
Io ho solo detto che una volta scoperto chiunque abbia le risorse per farlo può farlo.
In questo caso, visto che sembra solo un caso di RTFM, non c'è nessuno che lo sistema o che approva le patch.
Delle due l'una: o non è un bug (visto che il comportamento è documentato nel "FM") e allora non serve una patch (ma "stranamente" è stata fornita), oppure è un bug (com'è stato classificato nel bug tracker; non è una feature request) e non c'è RTFM che tenga (dev'essere fixato).

Ciò precisato, se sviluppo un'applicazione che fa uso di API POSIX non mi posso posso mettere a controllare TUTTE le API che uso PER OGNI s.o. supportato perché ci potrebbe essere un s.o. merdacchioso che non sa cosa siano gli standard e il loro rispetto (il che mi ricorda una nota multinazionale che da anni è messa in croce proprio per questo motivo :rolleyes: ).
Il grosso delle licenze non lo permettono. Oracle lo lascia fare e ti dà ance un tool, ma mica tutti lo lasciano fare.
Non è solo una questione aziendale, ma dalle leggi del paese in cui si trova.
Che vengono rimosse comunque in tempo record.
Non sempre: http://www.gamemag.it/news/denuvo-crackato-il-sistema-anti-pirateria-di-dragon-age-inquisition-e-fifa-15_55174.html
Sai perchè? Perchè basta fottere il componente che fa il controllo in modo che riporti sempre "va tutto bene".[/QUOTE]
La fai troppo facile. Il controllo non viene soltanto in un punto del codice, ma è sparso al suo interno. Se trovi un controllo e lo rimuovi non sei sicuro di aver eliminato del tutto la protezione. Se lo ricordano bene anche gli amighisti che non si capacitavano perché ci si bloccasse a un certo livello con Leander. http://www.amiga.org/forums/showpost.php?p=547071&postcount=8 E 20 anni fa i giochi erano di gran lunga più semplici; anche da crackare.
Neanche sulle PSVita se è per questo. Ma considerando che sono dispositivi attraverso i quali non passano informazioni sensibili, quindi nessuno ci ha mai investito soldi seri.
Altre console sono state crackate, pur essendo nelle stesse condizioni.
Qui una spiegazione data da un hacker della PSVita http://yifan.lu/2013/09/10/why-hacking-the-vita-is-hard-or-a-history-of-first-hacks/

Riassunto: Android ha reso le console portatili obsolete e molto meno interessanti anche per gli smanettoni.
Non è solo questo. Basti leggere le conclusioni:

"Lots of people make fun of Sony for not handing security well, but after spending countless hours on the Vita, I could honestly say that the Vita is one of the most secure devices I’ve ever seen. So far, they seem to have done everything well; using all the security features in modern computers and not trusting any code."

Molto interessante, specialmente proprio per il discorso che stavamo facendo.
craccata dopo 2 anni http://www.techspot.com/news/56872-clever-anti-piracy-tech-cinavia-finally-gets-beaten.html
Non so se sia questa. Comunque 2 anni per una protezione, specialmente per il mercato in cui è stata usata, è un periodo abbastanza lungo.
Comunque era irrilevante anche prima, non era attiva su tutti i lettori, e comunque esistono gli HTPC e i mediacenter embedded o Android.
Essi non hanno queste chiavate a leggere i contenuti
Infatti il difetto principale di questa protezione è che non è stata adottata da tutti i lettori.
(e tutti i vari formati merdacchiosi di dischi che esistono, altra questione aperta che mi fa girare le scatole)
Non capisco di cosa parli.
I DRM che vengono craccati al day1 sono quelli per accedere ai contenuti su disco o in streaming, una volta che i dati sono stati estratti (e caricati su torrent così li scarichi o li guardi in streaming con PopcornTime) cosa importa che un lettore bluray embedded non li possa leggere?
Infatti. Vedi sopra: dovevano adottare tutti quel sistema, altrimenti non ha senso perché si lasciano comunque tante porte spalancate.
Perchè generalmente crea problemi, semplicemente perchè neanche a chi la fa importa fare un lavoro fatto bene.
Ogni protezione implementata con un'occhio più al fare una cosa che costa poco che al fare una cosa fatta bene ha dei falsi positivi, e i flasi positivi impattano l'utente.
Oppure semplicemente è una falla di sicurezza in più o un problema di compatibilità o di stabilità. Vedi sotto sul TPM.
A me non piace che il consumatore debba essere infastidito dalle protezioni, ma questo l'avevo già esposto prima.

Tolto questo caso, e dunque se la protezione non è fastidiosa, rimane quanto detto prima: perché non dovrebbe essere lasciata? Soltanto per rendere la vita più facile a chi copia?
[QUOTE]Se è una protezione semi-seria non permette di interfacciarsi con dispositivi che hanno una versione vecchia (e quindi si suppone buggata), quindi rende i dispositivi incompatibili.
I dispositivi devono rispettare gli standard: è questo che deve contare.
l'HDCP fa questo.
Ma non mi pare che crei problemi al normale consumatore che vuole vedersi un film.
Che poi resta comunque una pagliacciata aggirabile con uno scatolotto da 30 euro (per un tecnico che sa dove comprarlo)
E' durata un po' di anni.
ok, ma per un utente normale sono dolori.
Non vedo perché. Se hai più schermi può crearti qualche problema di sincronizzazione, ma non è uno scenario comune.
la planned obsolescence è l'unica cosa che permette ad una azienda di non farsi concorrenza da sola quando ciò che produce non diventa obsoleto da solo.

è un concetto nato tanto tempo fa https://upload.wikimedia.org/wikipedia/commons/2/27/London_%281932%29_Ending_the_depression_through_planned_obsolescence.pdf
1932. E non è un articolo peer-reviewed.

Comunque m'interessa sapere in che modo verrebbe applicata in ambito tecnologico. Ovvero, fisicamente cosa viene fatto ai dispositivi per portare alla loro rottuna o malfunzionamento.
E qui varie tecniche usate nella realtà http://www.perc.org/blog/planned-obsolescence-good-and-bad
Niente che risponda alla mia richiesta di cui sopra. Non so, c'è scritto da qualche parte in che modo un processore commetta Seppuku dopo un paio d'anni, per esempio?
E qui i soliti apple hater che contestano queste ragionevolissime pratiche applicate sui loro dispositivi http://www.theguardian.com/technology/2012/jul/04/apple-ipad-software-update
Apple è un'azienda che supporta per diversi anni i propri prodotti. Per un consumatore sono sempre troppo pochi. Infatti ho un MacBook Air del 2008 (il primo) che non è più supportato da tempo, e che sto pensando di riciclare installandogli Windows 10 (da vedere se e come sarà supportato l'hardware). L'hard disk è andato e l'ho sostituito con un SSD USB esterno, ma è una cosa prevedibile (gli hard disk hanno parti meccaniche, e capita). Per il resto, funziona ancora benissimo.
(su Android è peggio, supporto di 1 anno dal produttore quando va bene, ma almeno Google fa quello che può per supportare anche i dispositivi più vecchi)
Non mi pare faccia abbastanza. Basti vedere le politiche di Apple, appunto, e Microsoft.
è un tentativo disperato di mantenere un businness model basato sui device in un mercato fondamentalmente saturo.
Microsoft si trova in una situazione simile, con gente che resta su XP anche oggi.
O che quando è uscito Win8 è rimasta su win7.

La soluzione è quella di passare ad un businness model basato sui servizi, o fare questi giochini idioti.
E dunque non ci sarebbe più quest'obsolescenza programmata, contrariamente alle tesi che hai riportato.
Che cosa fai quando sei al lavoro, stai su Facebook? :mbe:
Cosa dovrei fare secondo te? Rispondere agli utenti che scrivono nei forum? Ho cose ben più importanti a cui pensare.
Sono almeno 5 anni che l'incremento di performance dei processori non supera il 10% a generazione (si arriva anche al 5%).
Anche i muri lo sanno.
I muri non hanno idea di come funzionino i processori né tanto meno la fisica. Perché non dici in che modo è possibile aumentare notevolmente le prestazioni a livello di IPC? Perché non dici che modo sarebbe possibile salire in frequenza? Su, fammi vedere come fare, o devo pensare di star parlando con un altro PaulGuru.
Questo è completamente assurdo rispetto al passato, macchine di 5+ anni sono ancora in grado di funzionare normalmente con gli ultimi OS e tutto.
Quindi non c'è l'obsolescenza programmata di cui hai parlato sopra.

Finora abbiamo scoperto che l'hardware non si suicida dopo un certo tempo, e che anche roba vecchia di parecchi anni è sufficiente per far girare software attuale, in barba ai complottismi sbandierati prima.
Lo hai detto tu stesso, questi ciappini vengono fatti non per essere 100% sicuri, ma per essere "abbastanza" sicuri con nun occhio ai costi.
Non hai capito: non vengono fatti apposta insicuri, ma sono frutto di compromessi fra costi e risultati.
Perchè se non venissero craccati non ci sarebbe bisogno di cambiarli e prendere il "nuovo e milgiore" modello che verrà craccato di nuovo in un tempo ridicolo.
Ma se l'hardware, per tua stessa bocca, dura parecchi anni...
Mi importa il contrario. Mi interessa che siano e restino craccabili, perchè al 99% servono ad implementare l'ennesima minchiata da aggirare per far andare qualcosa che è stato regolarmente pagato ed è perfettamente funzionante.
Se danno il senso di sicurezza e di profitto assicurato a chi di dovere a me va bene.
Il fatto che paghi qualcosa non ti dà il diritto di poterci fare quello che vuoi. Per cui ben vengano le protezioni se servono per tutelare il produttore.
Con risultati divertenti peraltro. Non solo glie lo craccano regolarmente,
Dove l'hai letto? Non mi pare proprio.
ma permette anche al malware di usarlo come scudo per pararsi il didetro dagli analisti di sicurezza.
https://www.cs.utexas.edu/~adunn/pubs/malware-tpm.pdf
TPM, come altre protezioni, non può discriminare su cosa faccia un software. Se sai come fare, non hai che da spiegarlo.
Sei un essere umano, valgono le regole standard sulla scarsa affidabilità del giudizio umano in condizioni di conflitto di interessi.
Lo chiamano cognitive bias, leggi qui https://en.wikipedia.org/wiki/List_of_cognitive_biases
Non mi pare che affermino che il giudizio sia scarsamente affidabile in questi casi. Tra l'altrao si parla di tendenze.
Per dire, ci sono studi che dimostrano come una donna bionda e relativamente bella ha probabilità maggiori di essere giudicata "non colpevole" di una mora, quindi vai tranquillo che è diffusa.
Il che non significa che accada sempre.
Il linguaggio serve a far passare concetti, vincere nelle tomelle è bello ma in ultima analisi è più importante che passi il senso del discorso.

"posizione dominante" fa pensare che ci sia un pò di concorrenza, e francamente non mi sembra proprio il caso dai numeri di cui sopra.
I numeri che hai esposto sono abbastanza diversi fra di loro.
Il linguaggio tecnico è stato fortemente influenzato da chi ha interesse a fare questi giochini, come per un pò tutti i settori del resto.
Non è influenzato da null'altro che dalla volontà di fornire un linguaggio comune quando si parla di certe questioni tecniche.
Quindi mi spiace, ma devo avvalermi della licenza poetica nel nome di spiegare con semplicità il concetto.
Io continuerò ad avvalermi dei termini tecnici, visti che sono stati creati apposta allo scopo. I concetti di monopolio, oligopolio, posizione dominante, ecc., non esistono soltanto per riempire vocabolario o enciclopedie.
Le regole non valgono senza qualcuno che le fa rispettare, purtroppo. :(
Quindi questo è un favore che mi chiedi, e io che sono buono te lo accordo, spiegando il perchè di quello che sembrerebbe un ad-hominem. Vedi sotto.

Io ti contesto perchè ti comporti da fanboy. Essere dipendente non ti trasforma automaticamente in un fanboy, come spiegato sopra.
Se vuoi prove di questo chiedi che ti faccio una lista.
Non ti limitare alla lista, ma riporta anche perché sarei un fanboy.

Poi mi dici cosa ne pensi di uno che scrive

"implementazioni merdacchiose", "c'è gente che fa applicazioni dimmerda", "Database scritti dalla loro applicazione merdacchiosa.", "tutti i vari formati merdacchiosi di dischi che esistono", ecc. (mi fermo soltanto a questa pagina).

A me sembra il comportamento di un fanboy del software libero. Dici che anche per uno così il giudizio è scarsamente affidabile quando si parla di cose per cui ha un chiaro conflitto d'interessi?

P.S. Non ho tempo né voglia di rileggere per correggere eventuali errori. E' già tanto il tempo che ho impiegato per scrivere.

GTKM
14-05-2015, 06:39
Ciò precisato, se sviluppo un'applicazione che fa uso di API POSIX non
mi posso posso mettere a controllare TUTTE le API che uso PER OGNI s.o.
supportato perché ci potrebbe essere un s.o. merdacchioso che non sa
cosa siano gli standard e il loro rispetto (il che mi ricorda una nota
multinazionale che da anni è messa in croce proprio per questo motivo
:rolleyes: ).


Perché il Linux kernel non ha un "capo" che faccia rispettare delle linee guida. Torvalds pensa quasi solo a fare il gradasso ed insultare, di tanto in tanto, i CEO di qualche multinazionale.

Cosa vuoi che sia lo standard POSIX, per certa gente? :sofico:

cdimauro
14-05-2015, 07:03
I risultati si vedono, infatti. E non mi riferisco al solo kernel, ma anche ai fanatici che lo hanno preso a modello e si comportano con la stessa spocchia e irriverenza nei confronti di chi non la pensi come loro (il pensiero unico continua a far danni).

GTKM
14-05-2015, 07:09
I
risultati si vedono, infatti. E non mi riferisco al solo kernel, ma
anche ai fanatici che lo hanno preso a modello e si comportano con la
stessa spocchia e irriverenza nei confronti di chi non la pensi come
loro (il pensiero unico continua a far danni).

Il bello è che fu proprio Stallman a coniare il termine POSIX, quindi non è che il mondo del Free Software sia contrario agli standard.

Torvalds, però, è di un mondo a parte.

E magari, poi, si prendono in giro i vari *BSD, che, almeno, mantengono una certa coerenza nei loro progetti, oltre ad una stabilità strutturale degli stessi.

cdimauro
14-05-2015, 07:21
ROFL. Ed è pure il soggetto che lancia strali contro chi rispetta gli standard. Ecco perché non va molto d'accordo con Torvalds. :asd:

I BSD vengono presi in giro per una questione puramente ideologica:

GPL = software (diversamente) libero = cosa buona e giusta

BSD = software con licenza non virale = servo delle multinazionali che possono sfruttarlo senza rilasciarne i sorgenti

D'altra parte gli scontri fra Stallman e gli sviluppatori di OpenBSD hanno fatto storia. E grasse risate per chi li ha letti. :asd:

GTKM
14-05-2015, 07:27
ROFL.
Ed è pure il soggetto che lancia strali contro chi rispetta gli
standard. Ecco perché non va molto d'accordo con Torvalds. :asd:

Torvalds non va d'accordo nemmeno con sua madre. Ha avuto pure il "coraggio" di attaccare gli sviluppatori ARM, dopo che il successo di Linux in ambito mobile dipende proprio da loro.

I BSD vengono presi in giro per una questione puramente ideologica:

GPL = software (diversamente) libero = cosa buona e giusta

BSD = software con licenza non virale = servo delle multinazionali che
possono sfruttarlo senza rilasciarne i sorgenti

Sì, lo so. Al netto delle questioni idelogiche, ritengo i BSD (soprattutto lato kernel) "un pelo" superiori, dal punto di vista tecnico. Ma stiamo andando OT.

D'altra parte gli scontri fra Stallman e gli sviluppatori di OpenBSD
hanno fatto storia. E grasse risate per chi li ha letti. :asd:
Beh, Theo de Raadt non è un agnellino, quindi lo scontro epico era il minimo che potesse accadere.

cdimauro
14-05-2015, 07:31
Torvalds non va d'accordo nemmeno con sua madre. Ha avuto pure il "coraggio" di attaccare gli sviluppatori ARM, dopo che il successo di Linux in ambito mobile dipende proprio da loro.
Vengono infangati un giorno sì e l'altro pure con le classiche accuse: blob proprietari (l'unica cosa giusta è rilasciare il codice! E con la GPL, ovviamente) e violazioni della GPL (eresia!). Multinazionali "merdacchiose" tranne quando c'è da ricordare il successo di Linux, per l'appunto...
Beh, Theo de Raadt non è un agnellino, quindi lo scontro epico era il minimo che potesse accadere.
Fosse solo Theo. Anche gli altri non è che siano stati più teneri. :p

bobafetthotmail
15-05-2015, 16:28
Non vedo per quale motivo dovrebbe essere così. Rilasciare i sorgenti è già di per sé un costo enorme per la società, che mette a disposizione di tutti, quindi anche della concorrenza, le sue proprietà.Ti ho già detto nell'altro thread che NON è AFFATTO COSì.
Tutto il codice open è fatto senza IP, solo tu continui a credere che una azienda come Intel rilasci gli IP di tutte le sue GPU, ethernet, controller vari dal 2006 completamente inpunemente.
D'altra parte mi pare che qualcuno abbia scritto qualcosina sull'intrinseca proprietà che pare possedere l'essere open source:Guarda che non lo dico solo io. Ci sono anche studi attendibili http://www.zdnet.com/article/coverity-finds-open-source-software-quality-better-than-proprietary-code/

"Essere open rende più facile sistemare i bug, perchè sposta il carico da chi produce a chi usa il codice."

che mi sembra piuttosto eloquente. Dunque un'azienda che si limiti a rilasciare i sorgenti consentirebbe di far partire quello che, sulla carta, sarebbe un'operazione virtuosa.Sì ma è anche una cosa senza senso, perchè rilasci delle IP (visto che tu dici che rilasciano per forza delle IP) così ad minchiam e poi le lasci lì perchè te le fottano e basta?

Oh, linux è uno strumento per fare soldi, non una fondazione benfica. Le IP non sono nel sorgente (o quello che c'è non vale la pena essere rubato), il guadagno non viene dalle licenze di utilizzo del software.

Chi le usa sviluppa codice usando delle API POSIX, il cui funzionamento è ben documentato.Se sapessi un minimo di cosa parli, sapresti che gli OS POSIX-compliant sono un paio di vecchi Unix e della roba semsisconosciuta.
OSX e Solaris sono quelli più conosciuti.
Manco i vari free/openBSD sono fully compliant.

Magari sono gli sviluppatori di Linux che dovrebbero leggerne le specifiche prima di rilasciare un'implementazione fallata (perché se non funziona come prevede lo standard, è e rimane bacata). Se sviluppi per un OS che dichiara che NON è fully compliant con gli standard POSIX (o che non dice di essere fully compliant), sei tu che devi leggere la documentazione per lo sviluppo su quell'OS. Punto. In generale, devi leggere la documentazione per quell'OS e basta.

Un link te l'ho fornito prima. Anche Firebird è un'applicazione "merdacchiosa"? http://tracker.firebirdsql.org/browse/CORE-1476evidentemente sì.

Delle due l'una: o non è un bug (visto che il comportamento è documentato nel "FM") e allora non serve una patch (ma "stranamente" è stata fornita)Non è "stata fornita", qualcuno l'ha scritta ma chi doveva approvare non l'ha approvata. Sai quante cazzate non vengono approvate? Non fanno passare tutto. C'è un controllo in entrata eh.

, oppure è un bug (com'è stato classificato nel bug tracker; non è una feature request)Guarda, posso andare nel bug tracker, scrivere quello che mi pare e metterlo come bug. Non significa che sia un bug.

Ciò precisato, se sviluppo un'applicazione che fa uso di API POSIX non mi posso posso mettere a controllare TUTTE le API che uso PER OGNI s.o. supportato perché ci potrebbe essere un s.o. merdacchioso che non sa cosa siano gli standard e il loro rispetto.Quindi stai sviluppando solo per Mac e altri 3 OS che non usa nessuno. Bravo, complimenti. Hai appena dimostrato che non sai di cosa parli.
Cristo santo, neanche usare la wikipedia...
https://en.wikipedia.org/wiki/POSIX#Fully_POSIX-compliant

Non è solo una questione aziendale, ma dalle leggi del paese in cui si trova.
No. Le leggi del paese non proteggono in alcun modo i binari.
Quello che fanno SEMPRE le leggi di un paese è proteggere i contratti di utilizzo di un certo prodotto.

La fai troppo facile. Il controllo non viene soltanto in un punto del codice, ma è sparso al suo interno. Se trovi un controllo e lo rimuovi non sei sicuro di aver eliminato del tutto la protezione.Si chiama beta testing. Dopo che sviluppi qualcosa lo provi e vedi se va tutto bene, se fallisce, torni e ci rimetti le mani.

Se lo ricordano bene anche gli amighisti che non si capacitavano perché ci si bloccasse a un certo livello con Leander. Il team di hacker era composto da niubbi che non ci hanno nemmeno giocato.

E 20 anni fa i giochi erano di gran lunga più semplici; anche da crackare.Sì come no, e Starcraft 2 che è stato craccato neanche al day 1, ma durante l'open beta. :rolleyes:

Altre console sono state crackate, pur essendo nelle stesse condizioni.
Quali? Non mi risulta.

Molto interessante, specialmente proprio per il discorso che stavamo facendo.Tipo che se fai una roba troppo chiusa e non craccabile le prende di brutto da Android che è facilmente modificabile?

Non so se sia questa. Comunque 2 anni per una protezione, specialmente per il mercato in cui è stata usata, è un periodo abbastanza lungo.Solo perchè chi scarica non usa un lettore bluray.

Infatti il difetto principale di questa protezione è che non è stata adottata da tutti i lettori.E il piccolo insignificante dettaglio che non funziona MINIMAMENTE su PC, quindi se lo torrenti lo puoi anche vedere.

Non capisco di cosa parli.Quindi non hai mai usato un lettore DVD per vedere dischi masterizzati da un altro lettore DVD.

Tolto questo caso, e dunque se la protezione non è fastidiosa, rimane quanto detto prima: perché non dovrebbe essere lasciata?Perchè non esistono DRM che non infastidiscono l'utente.

Soltanto per rendere la vita più facile a chi copia?Se facessi prezzi concorrenziali te ne fotteresti di chi copia. Vedi iTunes e Google.
I dispositivi devono rispettare gli standard: è questo che deve contare.

Ma non mi pare che crei problemi al normale consumatore che vuole vedersi un film.Ma allora non hai capito.
Se un tizio ha un lettore bluray che ha l'HDCP versione 2.2 e un TV versione 2.1 e un disco regolarmente acquistati l'HDCP non funge e il povero cristo deve cambiare TV o andare da un tecnico che gli dà lo scatolotto che aggira l'HDCP.

E' durata un po' di anni.meno di un anno ogni versione, c'è ancora nonostante tutte le fottute volte gli peschino delle chiavi mandate in giro in chiaro. è ovvio che non serviva a fermare la pirateria.

Comunque m'interessa sapere in che modo verrebbe applicata in ambito tecnologico. Ovvero, fisicamente cosa viene fatto ai dispositivi per portare alla loro rottuna o malfunzionamento.Lo hai letto l'articolo? Standard non retrocompatibili. Come l'HDCP di cui sopra.
Come la cosa che Apple non supporta più gli iPad con 2 anni senza ragione apparente.

Niente che risponda alla mia richiesta di cui sopra. Non so, c'è scritto da qualche parte in che modo un processore commetta Seppuku dopo un paio d'anni, per esempio?Se il processore si trova in una macchina con un DRM di sicurezza non aggiornabile (HDCP) che quando esce la nuova versione non gli permette di connettersi ai dispositivi nuovi, la macchina in cui si trova diventa obsoleta.

Apple è un'azienda che supporta per diversi anni i propri prodotti. LEGGI L'ARTICOLO. sono 2 anni. Dopo 2 anni finisce per l'iPad.

Non mi pare faccia abbastanza. Basti vedere le politiche di Apple, appunto, e Microsoft.Cioè che dopo tot il supporto finisce? Oh, Microsoft lo mette anche nero su bianco. Per quanto 10 anni siano tanti, quello è obsolescenza programmata (tecnicamente, ma non è particolarmente efficace a quanto pare).

E dunque non ci sarebbe più quest'obsolescenza programmata, contrariamente alle tesi che hai riportato.Sì, visto che non sarebbe più necessaria per vendere.

I muri non hanno idea di come funzionino i processori né tanto meno la fisica. Perché non dici in che modo è possibile aumentare notevolmente le prestazioni a livello di IPC? Perché non dici che modo sarebbe possibile salire in frequenza? Su, fammi vedere come fare, o devo pensare di star parlando con un altro PaulGuru.Diminuisci l'IPC e aumenta i core a dismisura. Quelli che scrivono software merdacchiosi che non sfruttano i core correttamente si arrangiano. Non è pensabile che dopo 8 anni ci sono valanghe di programmi che non sono in grado di usare più di 3-4 thread.
Se proprio devi avere IPC alto almeno fai tipo i processori ARM Big-Little con dei core grossi e dei core piccoli e smisti il carico.

Inventa un qualche tipo di sistema di caching che fa in modo che i software anche se sono merdacchiosi e non progettati per farlo sfruttino al massimo la ram, mettiti d'accordo con MS per fare un OS che gira da un ramdisk e synca solo cose minori su disco (come il 99% dei dispositivi embedded).
Posso montare 32GB di ram anche nelle schede madre dimmerda, ma l'OS e moltissimi programmi continuano a laggare perchè usano troppo il disco fisso, e devo comprare degli SSD per renderlo più veloce. Dai su.
Diamo alla gente una buona ragione per comprare le mobo enthusiast e comprare le ram Registered così hanno 256GB di ram e li sfruttano.
Vuoi vedere come dai la paga agli SSD?

Stanno già lavorando con le fpga e questa è un'ottima cosa. un acceleratore hardware riprogrammabile è un sogno per le prestazioni. Se la CPU diventa un FPGA ancora meglio.

Cribbio se produci hardware è questo quello su cui ti devi concentrare, non sulle minchiate come i DRM hardware, i backdoor hardware e compagnia. Non avete le risorse per fare un lavoro fatto bene e rompete solo le scatole.

Quindi non c'è l'obsolescenza programmata di cui hai parlato sopra.
Nei PC non c'è ancora, perche come ho detto prima l'obsolescenza era data dall'aumento di prestazioni. Ora che non c'è l'aumento di prestazioni...


Non hai capito: non vengono fatti apposta insicuri, ma sono frutto di compromessi fra costi e risultati.è un giro di parole per dire che non sono sicuri come potrebbero essere per ragioni di costi di sviluppo.
Ti butto lì un'idea, ma non svilupparli proprio e concentrarsi sulle performance?

Ma se l'hardware, per tua stessa bocca, dura parecchi anni...Appunto, l'hardware dura decine di anni. Dopo che tutti hanno un TPM che fai? non li vendi più.
Quindi che li hai fatti a fare? Non era fare cash l'obiettivo?

Il fatto che paghi qualcosa non ti dà il diritto di poterci fare quello che vuoi. Per cui ben vengano le protezioni se servono per tutelare il produttore.??? Ma la macchina l'ho comprata dal produttore no? Non li hanno ricevuti i miei soldi? Che importa di che fine fa la macchina dopo che l'hanno venduta?
Devo anche buttarla quando me lo dicono loro? Ma non ci si può mettere d'accordo come brave persone e farmi pagare chessò un affitto onesto e non rompermi le scatole con la planned obsolescence?

Dove l'hai letto? Non mi pare proprio.http://www.bit-tech.net/news/bits/2010/02/10/tpm-security-cracked-wide-open/1
TPM, come altre protezioni, non può discriminare su cosa faccia un software. Se sai come fare, non hai che da spiegarlo.L'ho già detto, hypervisor software e memorie per programmi e cose read-only con tastino hardware.
è proprio l'idea del TPM che è sbagliata, dai controllo sul software nella MIA macchina ad un ciappino hardware che è craccabile e non discrimina tra il bene e il male? Oh ma scherziamo? Ma ci credo che non vende.

Non ti limitare alla lista, ma riporta anche perché sarei un fanboy.Perchè parli di cose che NON comprendi MINIMAMENTE, con il solo scopo di incensare qualcosa.

Vedi sopra, ma anche l'altro thread su linux.

E inoltre, non hai notato nessun "errore" che ho disseminato nei miei post per ovvie ragioni di controllo.
Se sapessi di cosa stai parlando, mi avresti fatto notare i miei "errori".
Non lo hai fatto.

Poi mi dici cosa ne pensi di uno che scrive
"implementazioni merdacchiose", "c'è gente che fa applicazioni dimmerda", "Database scritti dalla loro applicazione merdacchiosa.", "tutti i vari formati merdacchiosi di dischi che esistono", ecc. (mi fermo soltanto a questa pagina).è che per lavoro devo sistemare le cazzate che fanno terzi o aiutare la gente a far andare dispositivi che non dovrebbero richiedere assistenza per funzionare.
è normale che abbia reazioni emotive.

bobafetthotmail
15-05-2015, 21:32
Perché il Linux kernel non ha un "capo" che faccia rispettare delle linee guida. Torvalds pensa quasi solo a fare il gradasso ed insultare, di tanto in tanto, i CEO di qualche multinazionale.

Cosa vuoi che sia lo standard POSIX, per certa gente? :sofico:Sarà che magari e dico magari quelli che hanno messo giù gli standard POSIX non sono gente che sviluppa il sistema operativo quindi non conosce le problematiche? No eh.
Torvalds è solo uno sbruffone che non sa nulla di programmazione. Non è uno dei pochi supervisori del progetto del kernel linux, non ha sospeso lo sviluppatore principale di systemd (pagato da Red Hat) perchè con delle sue scelte andava a rompere le scatole al kernel...

http://www.wired.com/2015/01/torvalds_leapsecond/
https://lwn.net/Articles/457089/
http://yarchive.net/comp/linux/everything_is_file.html (cercare posix nel testo)
https://lkml.org/lkml/2014/12/1/685

Poi certo, è colorito, più pagliaccio di Gates, e non ha neanche la metà del carisma di Jobbs.

Torvalds non va d'accordo nemmeno con sua madre. Ha avuto pure il "coraggio" di attaccare gli sviluppatori ARM, dopo che il successo di Linux in ambito mobile dipende proprio da loro.Il successo di Linux in ambito mobile non arricchisce Torvalds come l'insuccesso di Linux in ambito mobile non lo impoverisce. La linux foundation non vende nulla.

I produttori di SoC ARM non rispettano le regole del gioco, riempiono il kernel di porcate http://www.linuxuser.co.uk/news/linus-torvalds-threatens-to-cut-off-arm
e fanno di tutto per prendere senza dare nulla in cambio (disattivano sistemi di rilevamento hardware dei loro SoC, così il kernel non sa che cavolo succede).

Torvalds gli augura di morire in modo orribile e li fanculizza da dieci anni ma più di questo non può fare.
https://lkml.org/lkml/2011/3/17/492
http://www.theregister.co.uk/2013/09/11/torvalds_suggests_poison_and_sabotage_for_arm_soc_designers/

GTKM
15-05-2015, 21:50
Sarà che magari e dico magari quelli che hanno messo giù gli standard POSIX non sono gente che sviluppa il sistema operativo quindi non conosce le problematiche? No eh.

Hai ragione, all'IEEE c'è gente che non capisce niente. Nulla, in confronto a quello che era Torvalds quando ha iniziato a scrivere Linux (uno studente che smanettava con l'assembly).

Torvalds è solo uno sbruffone che non sa nulla di programmazione. Non è uno dei pochi supervisori del progetto del kernel linux, non ha sospeso lo sviluppatore principale di systemd (pagato da Red Hat) perchè con delle sue scelte andava a rompere le scatole al kernel...

http://www.wired.com/2015/01/torvalds_leapsecond/
https://lwn.net/Articles/457089/
http://yarchive.net/comp/linux/everything_is_file.html (cercare posix nel testo)
https://lkml.org/lkml/2014/12/1/685

E' il supervisore di un progetto avviato da lui? Incredibile, chissà come avrà fatto a diventarlo. E' un bravo programmatore, che ha anche avuto la fortuna di iniziare scrivere un kernel che andava a completare GNU.

I produttori di SoC ARM non rispettano le regole del gioco, riempiono il kernel di porcate http://www.linuxuser.co.uk/news/linus-torvalds-threatens-to-cut-off-arm
e fanno di tutto per prendere senza dare nulla in cambio (disattivano sistemi di rilevamento hardware dei loro SoC, così il kernel non sa che cavolo succede).

Le licenze hanno valore legale. I produttori di SoC ARM rispettano la GPL? Se sì, c'è poco da aggiungere, se no, che la Linux Foundation gli faccia causa.

Torvalds gli augura di morire in modo orribile e li fanculizza da dieci anni ma più di questo non può fare.
https://lkml.org/lkml/2011/3/17/492
http://www.theregister.co.uk/2013/09/11/torvalds_suggests_poison_and_sabotage_for_arm_soc_designers/
A me sembra che già questo sia parecchio grave, data la sua posizione, e dato che ci sono tanti "fanatici" che lo considerano una specie di semi-dio.
Posso solo immaginare cosa sarebbe successo se qualche grosso CEO avesse detto una cosa simile.

bobafetthotmail
15-05-2015, 22:29
Hai ragione, all'IEEE c'è gente che non capisce niente. Nulla, in confronto a quello che era Torvalds quando ha iniziato a scrivere Linux (uno studente che smanettava con l'assembly).Oh, tutti gli OS moderni a parte OSX e Solaris non implementano il POSIX al 100% nè sono certificati POSIX.

Quindi per par condicio diamo un pò addosso anche a MS, a freeBSD e a openBSD e chiediamoci magari se forse il problema sta nell'IEEE.

Nei link di cui sopra Torvalds in persona spiega perchè vari standard POSIX sono sbagliati o senza senso, non è che li odia così a caso.

E' il supervisore di un progetto avviato da lui? Incredibile, chissà come avrà fatto a diventarlo. Il kernel linux si può forkare senza problemi perchè è opensource e con GPL. Se qualcuno ha voglia di farlo è libero di farlo. l'85% degli sviluppatori del kernel sono impiegati di aziende varie che ci mangiano con linux, quindi se faceva cazzate inpopolari stai tranquillo che glie lo forkavano e lo mandavano a quel paese.

Le licenze hanno valore legale. I produttori di SoC ARM rispettano la GPL? Se sì, c'è poco da aggiungere, se no, che la Linux Foundation gli faccia causa.Una causa intercontinentale vs produttori cinesi per fargli rispettare leggi che manco la Cina riconosce (violano la GPL a tutto spiano anche loro con il loro linux dei sistemi governativi)?

Lo sai vero che la legge non è e non è MAI stata uguale per tutti, e che il diritto internazionale è ed è sempre stato una burla?

A me sembra che già questo sia parecchio grave, data la sua posizione, e dato che ci sono tanti "fanatici" che lo considerano una specie di semi-dio.è sempre stato un pagliaccio iracondo e nessuno si è mai fatto male.

Posso solo immaginare cosa sarebbe successo se qualche grosso CEO avesse detto una cosa simile.Già. Chiediti perchè nessuno ha reagito, ci sta tutta una causa per diffamazione o per calunnia. :rolleyes:
Sarà forse che ha compagnie di grosso calibro che sono pronte a coprirgli il didietro quando fa queste sparate, perchè fa comodo a molti? O che quelli a cui urla dietro comunque preferiscono lasciar stare e continuare ad usare linux?

L'intero progetto Linux continua ad esistere nonostante MS non lo gradisca particolarmente (server e mobile recentemente, non mi dire che non amerebbero strozzare Torvalds), e nessuno ha mai fatto le tipiche battaglie legali idiote (vedi Apple Vs Samsung per uno smartphone/tablet dagli spigoli arrotondati) tra compagnie di grosso calibro.
Eppure la linux foundation è solo una fondazione no profit, come può difendersi da dei colossi come MS...

Aspetta, qualcosa c'è, una compagnia chiamata SCO (ex Caldera International) ha avuto da ridire su questioni varie sul suo sorgente e licenze di Unix e roba che è finita dentro Linux, e si è trovata contro IBM, Red Hat, Novell (SUSE).
Nel 2010 ha perso brutalmente e definitvamente, il marchio UNIX e UnixWare è ora di Novell, e ha pagato cifre ingenti di danni per mancato profitto.

Di nuovo, chiediti perchè.

Se fossero solo un branco di hippie in rosso da dieci anni come Canonical (Ubuntu), MS li avrebbe già distrutti a colpi di battaglie legali o convincendo gli OEM a calci come ha fatto con la concorrenza nei bei vecchi tempi.

GTKM
15-05-2015, 22:46
Oh, tutti gli OS moderni a parte OSX e Solaris non implementano il POSIX al 100% nè sono certificati POSIX.

Quindi per par condicio diamo un pò addosso anche a MS, a freeBSD e a openBSD e chiediamoci magari se forse il problema sta nell'IEEE.

Che c'entra MS? :D
Comunque, va bene, diamo addosso anche a *BSD, quando il non rispettare in toto quello standard crea problemi. :D

Il kernel linux si può forkare senza problemi. Se qualcuno ha voglia di farlo è libero di farlo. l'85% degli sviluppatori del kernel sono impiegati di aziende varie che ci mangiano con linux, quindi se faceva cazzate inpopolari stai tranquillo che glie lo forkavano e lo mandavano a quel paese.

Ovviamente. Ma per farsi prendere a calci dovrebbe fare comunque qualcosa di davvero sconveniente per le azienda. Torvalds ha il suo codazzo di fan, e nemmeno questo si deve sottovalutare.

Una causa intercontinentale vs produttori cinesi per fargli rispettare leggi che manco la Cina riconosce (violano la GPL a tutto spiano anche loro con il loro linux dei sistemi governativi)?

Lo sai vero che la legge non è e non è MAI stata uguale per tutti, e che il diritto internazionale è ed è sempre stato una burla?

E allora è inutile anche fare certe sfuriate, tanto il Governo Cinese continuerà a sbattersene.

è sempre stato un pagliaccio iracondo e nessuno si è mai fatto male.

Già. Chiediti perchè nessuno ha reagito, ci sta tutta una causa per diffamazione o per calunnia. :rolleyes:
Sarà forse che ha compagnie di grosso calibro che sono pronte a coprirgli il didietro quando fa queste sparate, perchè fa comodo a molti? O che quelli a cui urla dietro comunque preferiscono lasciar stare e continuare ad usare linux?

Sì, ma non mi sembra una motivazione per giustificarlo. Comunque questa parte del discorso possiamo anche chiuderla, è un dettaglio irrilevante :D

L'intero progetto Linux continua ad esistere nonostante MS non lo gradisca particolarmente (server e mobile recentemente, non mi dire che non amerebbero strozzare Torvalds), e nessuno ha mai fatto le tipiche battaglie legali idiote (vedi Apple Vs Samsung per uno smartphone/tablet dagli spigoli arrotondati) tra compagnie di grosso calibro.
Eppure la linux foundation è solo una fondazione no profit, come può difendersi da dei colossi come MS...

Oddio, il problema di MS si chiama Google nel mobile, mica Linux Foundation. Android senza Google non sarebbe dov'è ora.

Aspetta, qualcosa c'è, una compagnia chiamata SCO (ex Caldera International) ha avuto da ridire su questioni varie sul suo sorgente e licenze di Unix e roba che è finita dentro Linux, e si è trovata contro IBM, Red Hat, Novell (SUSE).
Nel 2010 ha perso brutalmente e definitvamente, il marchio UNIX e UnixWare è ora di Novell, e ha pagato cifre ingenti di danni per mancato profitto.

Di nuovo, chiediti perchè.

Se fossero solo un branco di hippie tipo Ubuntu, MS li avrebbe già distrutti a colpi di battaglie legali o convincendo gli OEM a calci come ha fatto con la concorrenza nei bei vecchi tempi.
Non ho mai detto il contrario. Anzi, questo dovresti dirlo a tutti quelli che credono che Linux vada avanti grazie alla "comunità" (che comunque fa un gran lavoro, soprattutto in altri progetti).

bobafetthotmail
21-05-2015, 12:09
Che c'entra MS? :D
Comunque, va bene, diamo addosso anche a *BSD, quando il non rispettare in toto quello standard crea problemi. :DUno "standard" che nessuno rispetta completamente è "standard" solo in teoria.
Nella partica devi vedere ogni OS come gestisce i comandi.

Cioè puoi anche assumere che sia rispettato da tutti anche quando non è vero e c'è anche scritto nella documentazione e poi lamentarti, ma non puoi dare colpe a terzi.

Ovviamente. Ma per farsi prendere a calci dovrebbe fare comunque qualcosa di davvero sconveniente per le azienda. Torvalds ha il suo codazzo di fan, e nemmeno questo si deve sottovalutare.Il codazzo di fan è irrilevante quando il grosso dello sviluppo è fatto da programmatori pagati.

Vedi quello che succede ai vari progetti di gente che cerca di fare kernel e distro senza systemd.

E allora è inutile anche fare certe sfuriate, tanto il Governo Cinese continuerà a sbattersene.Beh, fa sentire il suo disappunto.

Oddio, il problema di MS si chiama Google nel mobile, mica Linux Foundation. Android senza Google non sarebbe dov'è ora.Android usa un kernel linux eh.
Google non ha le risorse per mantenere e sviluppare il kernel alla velocità attuale.

GTKM
21-05-2015, 13:22
Uno "standard" che nessuno rispetta completamente è "standard" solo in teoria.
Nella partica devi vedere ogni OS come gestisce i comandi.

Cioè puoi anche assumere che sia rispettato da tutti anche quando non è vero e c'è anche scritto nella documentazione e poi lamentarti, ma non puoi dare colpe a terzi.

Se ci fosse uno standard rispettato sarebbe anche più facile lo sviluppo di applicazioni da parte di terzi.
Soprattutto per questi sistemi in cui non c'è il market share a stimolare i programmatori esterni.

Il codazzo di fan è irrilevante quando il grosso dello sviluppo è fatto da programmatori pagati.

Vedi quello che succede ai vari progetti di gente che cerca di fare kernel e distro senza systemd.


Se fosse irrilevante a livello d'immagine, Torvalds non sarebbe ancora supervisore del progetto, stai sicuro. E' un buon programmatore, ma non eccelle per qualità manageriali.


Beh, fa sentire il suo disappunto.

C'è modo e modo. Soprattutto quando occupi una determinata posizione.

Android usa un kernel linux eh.
Google non ha le risorse per mantenere e sviluppare il kernel alla velocità attuale.
Un kernel deve fare poche cose, e farle bene. Non capisco dove ci sia scritto che debba essere continuamente modificato, esteso, e così via.
Chiaramente a Google conviene utilizzare Linux per Android, visto che è disponibile gratis, e mantenuto da altri.

bobafetthotmail
22-05-2015, 11:52
Se ci fosse uno standard rispettato sarebbe anche più facile lo sviluppo di applicazioni da parte di terzi.
Soprattutto per questi sistemi in cui non c'è il market share a stimolare i programmatori esterni.Ti ho già postato le ragioni per cui in vari casi preferiscono non seguire lo standard.

Tanto comunque tutti i backend di controllo dei sottosistemi audio/video/rete/eccetera sono diversi, quindi la portabilità seguendo gli standard POSIX l'avresti solo per dei programmini semplici con interfaccia testuale da riga di comando.

Se fosse irrilevante a livello d'immagine, Torvalds non sarebbe ancora supervisore del progetto, stai sicuro.E questo lo basi su cosa?

C'è modo e modo. Soprattutto quando occupi una determinata posizione.Boh, preferisco qualcuno che ha il coraggio di dirmi quello che pensa di me in faccia, senza sotterfugi.

Un kernel deve fare poche cose, e farle bene. Non capisco dove ci sia scritto che debba essere continuamente modificato, esteso, e così via.Perchè il kernel per definizione (visto che è il componente che parla con l'hardware, il nome è letteralmente "nucleo, nocciolo") gira a priorità superiore all'utente root, e può annullare o ignorare le richieste degli utenti come e quando gli pare.
il kernel ha "priorità 0", l'utente (root o no) ha "priorità 3". (con numerazione che parte da 0, e dove 0 è il max)
http://duartes.org/gustavo/blog/post/cpu-rings-privilege-and-protection/

Tutto il codice che gira con il kernel è più sicuro di quello che gira nella cosiddetta "userland" per questa ragione.
Perchè un utente, root o non root non può toccarlo.
E questo è a livello hardware. il kernel è di fatto un hypervisor della roba che fanno gli utenti.

Poi c'è tutta la questione delle performance, i driver in userland devono ricevere dati dal kernel per poi reagire e controllare l'hardware, passando di nuovo per il kernel.
Se il driver fa parte del kernel (come in linux/unix/OSX), si saltano questi passaggi.

Questo vale per tutti i kernel, non solo per linux/unix.

Certo per un desktop o un portatile non frega un cazzo a nessuno, ma per progetti dove le performance contano (embedded o mobile, dove l'ottimizzazione è una necessità imprescindibile perchè la macchina è debole, o HPC/server di calcolo dove per dio devono andare al max con quel che costano).

Questo tipo di filosofia del lavorare molto sul kernel comunque è lo standard nei sistemi Unix e Linux.
E stiamo parlando di sistemi che tengono su il 70+% dei server, la maggioranza dei supercomputer, quasi tutti i sistemi mobili (iOS è un sistema Unix) e la quasi totalità dei sistemi embedded, merdacchiosi o no.

Chiaramente a Google conviene utilizzare Linux per Android, visto che è disponibile gratis, e mantenuto da altri.Più che altro non ha altra scelta. Non c'è niente di paragonabile al momento. Essendo opensource Google se lo può modificare come gli piace di più.