Microsoft inizia lo sviluppo di Windows Redstone

Microsoft inizia lo sviluppo di Windows Redstone

La compagnia di Redmond sembra aver iniziato i lavori su Windows Redstone, con ingegneri e tecnici che hanno iniziato a stilare le prime righe di codice

di pubblicata il , alle 14:01 nel canale Sistemi Operativi
MicrosoftWindows
 

Microsoft Redstone è attualmente nelle fasi embrionali dello sviluppo, a dirlo è WinBeta che cita alcune voci affidabili volutamente rimaste anonime. La nuova release di Windows 10 è in pianificazione dallo scorso mese di aprile, ma solo negli scorsi giorni gli ingegneri e i tecnici di Microsoft hanno iniziato ad imbastirne le basi, dando il via ai processi di base per lo sviluppo e iniziando il lavoro di programmazione vero e proprio.

Redstone è il nome in codice della prima major release dopo Windows 10, che seguirà il rilascio di Threshold 2 previsto per il mese di novembre. Quest'ultimo integrerà alcune novità ampiamente attese, come ad esempio il supporto per le estensioni su Microsoft Edge, tuttavia Redstone sarà decisamente più corposo e più o meno della stessa entità di quello che è stato Windows 8.1 per Windows 8. Il rilascio è previsto per il 2016.

Stando a quanto scrive Winbeta, Redstone al momento non è troppo diverso dalle attuali build disponibili sui canali pubblici. Manca ancora parecchio per il rilascio delle prime versioni di prova, con la RTM che dovrebbe essere prevista nella prima metà dell'anno prossimo. Microsoft ha pianificato il suo debutto a circa un anno dal lancio commerciale di Windows 10, quindi è ipotizzabile che raggiungerà i PC compatibili durante la prossima estate.

Al momento siamo ancora in attesa di Threshold 2, che dovrebbe essere finalizzato nelle prossime settimane. A seguire verranno rilasciate probabilmente sul canale Insider le prime build di Redstone, che verranno identificate con le iniziali RS1_, così come quelle di Threshold 2 sono contrassegnate dalle iniziali TH2_.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

34 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Riccardo8213 Ottobre 2015, 14:17 #1
domanda stupida?

sono a pagamento questi upgrade ??
adaant13 Ottobre 2015, 14:19 #2
Quante ere dobbiamo aspettare per avere un degno successore del ntfs?
inkpapercafe13 Ottobre 2015, 14:55 #3
Quanti trolls arriveranno adesso? Quanta gente ancora ripeterà sempre la stessa domanda a cui è stata data sempre la stessa risposta migliaia di volte?

SI. sono gratuiti.

Ma non c'era il tasto cerca un volta nel forum? Non esisteva Google? Misterio muy misterioso...
DanieleG13 Ottobre 2015, 15:01 #4
Originariamente inviato da: adaant
Quante ere dobbiamo aspettare per avere un degno successore del ntfs?


Cosa manca a ntfs? Perchè sto discorso si ripropone continuamente ma senza mai un fondamento solido...
FirePrince13 Ottobre 2015, 15:13 #5
NTFS fu pensato per hard disk meccanici quando gli SSD neanche esistevano; sicuramente manca molto per poterlo definire ideale in un'epoca in cui si assiste al progressivo rimpiazzo dei primi con i secondi.
Riccardo8213 Ottobre 2015, 16:33 #6
uè inkpapercafe non sono mica come te che sto qua tutto il giorno a leggere notizie di windows

ho fatto una domanda cortese e mi rispondi cortese.
Mi frega un cazzo dei troll di google e di tutte le cazzate che scrivi.

¿Entiende amigo?

SoulKeeper13 Ottobre 2015, 16:35 #7
Originariamente inviato da: FirePrince
NTFS fu pensato per hard disk meccanici quando gli SSD neanche esistevano; sicuramente manca molto per poterlo definire ideale in un'epoca in cui si assiste al progressivo rimpiazzo dei primi con i secondi.


partendo dal presupposto che sto chiedo informazioni:

cosa centra ssd o meccanici?
puoi aumentare il numero di caratteri, la dimensione massima file, la gestione dei metadati, journaling, o l'allocazione file e deframmentazione che a questo punto non è più un problema visto parliamo di ssd (quindi un vantaggio)

https://en.wikipedia.org/wiki/Compa...of_file_systems

se arriverà una risposta che mi faccia capire ringrazio in anticipo.
!fazz13 Ottobre 2015, 17:28 #8
Originariamente inviato da: Riccardo82
uè inkpapercafe non sono mica come te che sto qua tutto il giorno a leggere notizie di windows

ho fatto una domanda cortese e mi rispondi cortese.
Mi frega un cazzo dei troll di google e di tutte le cazzate che scrivi.

¿Entiende amigo?


Entendí muy bien, dos semanas de vacaciones
bobafetthotmail13 Ottobre 2015, 18:46 #9
cosa centra ssd o meccanici?
Che un SSD ha già implementato il grosso della roba che avrebbe dovuto implementare il file system (NTFS o altro) utilizzando un controller relativamente potente e un firmware più o meno merdacchioso (ricordo i casini di certi SSD Samsung).

Gli SSD gestiscono autonomamente wear leveling, garbage collection, compressione dei dati per occupare meno spazio fisico, algoritmi di predizione varia per il caching nella loro cache interna, integrità dei dati scritti, eccetera.

L'OS vede una astrazione, quello che il firmware gli fa vedere.

Anche per i dischi meccanici vale la stessa cosa (per quanto facciano molto meno comunque, tipo tutto il wear leveling/garbage collection serve a nulla), ma avendo limitazioni grosse per altri versi, anche ottimizzando meglio questa roba non cambia un granchè.

Per gli SSD invece potrebbe valere la pena avere degli SSD con un controller minimo dove tutte quelle funzioni di cui sopra sono gestite direttamente da un driver e quindi dalla CPU/OS del PC/Server.
http://www.linuxplumbersconf.org/2014/ocw/sessions/2079
Qui delle slides. http://events.linuxfoundation.org/s...M-Vault2015.pdf

Ma si parla di server. Mercato consumer già andare oltre gli SSD sata3 non ha senso, quindi è bello parlarne ma nulla più.


Uno si chiede, ma che c'entra un driver per usare un SSD con un filesystem? Beh, il grosso delle features nuove di NTFS sono aggiunte dal driver, non dal filesystem in sè. Quindi sempre di driver si parla.
Ad esempio il data deduplication (vedi sotto) è implementato nel driver NTFS di Windows server e basta.

Cosa manca a ntfs? Perchè sto discorso si ripropone continuamente ma senza mai un fondamento solido...

-Atomic COW snapshots (capacità di fare uno snapshot del disco nello stesso identico stato in cui si trova anche se sta scrivendo, questo snapshot occupa lo stesso spazio che occupano i dati cambiati. Cioè se dopo lo snapshot aggiungo 50 MB di files, su disco ho una immagine disco completa + i miei dati e quei 50 MB in più. Questo è a mezza via tra una immagine disco e un System Restore di Windows, solo che se ripristino uno snapshot io sto facendo un restore di una immagine disco che quindi va sempre se il disco non è danneggiato, mentre un punto di ripristino di Win magari fallisce e poi bestemmio)
-Per-block checksumming (capacità di controllare l'integrità dei dati, per beccare e correggere file corrotti da bit-rot ed errori hardware. Considerando che sempre più roba è stoccata a livello digitale, questo inizia ad essere un problema. Il livello del controllo è fatto più basso possibile, non per ogni file ma per ogni blocco del file-system, quindi correggere eventuali errori è veloce e viene fatto mentre legge i file)
-Self-healing redundant arrays (capacità di gestire raid software in modo molto più flessibile e sicuro di una scheda raid convenzionale)
-Volume management (tipo gestione delle partizioni di un disco, ma senza perdere tempo a cambiare dimensioni di una partizione e puoi farlo anche live, senza dover riavviare.
-Asynchronous incremental replication (quando mandi un backup dell'immagine disco creata precedentemente e la mandi al tuo NAS o server, il sistema gestisce automaticamente quali parti mandare e quali no.
Se sul sistema bersaglio mancano chessò 200 MB ma il resto dei dati li ha già, ad esempio se è un backup incrementale quindi sul sistema bersaglio ho già varie altre immagini disco, con la AIR solo quei 200 MB di dati nuovi viaggiano, non X TB di backup completo del disco.
-Data Deduplication (rimappare copie dello stesso file/blocco su un file/blocco per risparmiare spazio. Se copiate 50 volte lo stesso file e poi lanciate un data deduplication, lo spazio occupato da quei 50 file diventa lo stesso spazio occupato da uno solo. Molto utile se avete una valanga di macchine virtuali dello stesso OS con poche differenze tra loro, o molti file con parti in comune)
-Compressione decente dei dati (comprime i dati su disco con un rapporto di compressione che rende la compressione interessante da usare, e lo fa senza incastrare altra roba)


MS ha un suo pretendente come Next Generation File System, ma è tuttora in sviluppo.

Gli altri file system che offrono questa roba sono ZFS, e btrfs (che per ora non gestisce RAID5 e 6 ma è in sviluppo al soldo di Facebook)

Fonte:
http://arstechnica.com/information-...-filesystems/2/

Ah, se a leggere questa roba pensate "e chissenefrega", avete la risposta al perchè MS ha lasciato il NTFS.

Sistemisti e admin ci sbavano su sta roba, l'utente consumer.... no.
Marco7113 Ottobre 2015, 20:56 #10

Mitico cacciatore di taglie...

...ci "sbavano" anche i power user a metà strada tra il cosiddetto "consumer" ed i sistem administrators.
NTFS è ormai con molti anni alle spalle...

Marco71.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^