View Full Version : Hard disk da 100TB saranno la normalità nel 2025
Redazione di Hardware Upg
26-11-2014, 10:47
Link alla notizia: http://www.hwupgrade.it/news/storage/hard-disk-da-100tb-saranno-la-normalita-nel-2025_55059.html
Nel corso di una recente conferenza si è fatto il punto sulle tecnologie di registrazione magnetica, con interessanti considerazioni sul futuro degli hard disk
Click sul link per visualizzare la notizia.
E allora avevate ragione voi qui www.hwupgrade.it/forum/showthread.php?t=2682653 quando prospettavate ancora una vita ed un aumento di capacità importanti per i dischi meccanici. :mano:
Hermes
mercato solo per aziende e server visto che agli utenti domestici bastano e avanzano 500Gb/1Tb. Non credo usciranno mai pc o tablet con dischi da 100Tb :D
mercato solo per aziende e server visto che agli utenti domestici bastano e avanzano 500Gb/1Tb. Non credo usciranno mai pc o tablet con dischi da 100Tb :D
Anche perché un tablet con un HD da 3.5" sarei curioso di provarlo:sofico:
Intanto stiamo ancora aspettando HAMR, che avrebbe dovuto portare a dischi da 60TB nel 2016 (Click (http://www.hwupgrade.it/news/storage/seagate-infranta-la-barriera-di-1tb-per-pollice-quadro-negli-hard-disk_41301.html) e Click (http://www.hwupgrade.it/news/storage/hard-disk-un-percorso-inarrestabile-verso-capienze-record_42253.html), giusto per citare questo sito).
Se rispettano questa roadmap come la precedente, questi dischi li vedremo il secolo prossimo, altro che...
100TB... bellissimo sulla carta, meno bello se ci pensi in altro senso:
1) A che livello di affidabilità? Perché già oggi concentrare così tanti dati (2/3TB) è un bel rischio salvo sia solo roba di cui ti interessa relativamente... arrivare a 100 mi sembra che per l'utenza home o anche se inizialmente il prodotto fosse rivolto solo ai server e server farm sia comunque piuttosto rischioso. Raid? Mah... Raid con dischi così capienti mi sembra comunque una prospettiva che comporta perdite di prestazioni poi nell'accesso ai dati bisognerebbe vedere se sarà così semplice mantenere la capacità di accesso (lettura e scrittura) agli stessi livelli di dischi più piccoli.
2) Di qua al 2025 penso che anche gli SDD se non si potranno avere di dimensioni simili saranno comunque molto, molto grandi. Ormai molti investono forte su queste tecnologie che specie sui server con una capacità di accesso estremamente rapida posso fare una grossa differenza prestazionale. Secondo me non è detto che non arrivi prima un SDD pari o più grande ma ovviamente qua è pura speculazione e speranza.
3) Ok non c'entra niente... però mi auguro che dischi più grandi non equivalga a minor ottimizzazione. Ormai anche perfino il più stupido dei giochi raggiunge dimensioni micidiali. Dragon age inquisition se non erro sta sui 25GB o giù di lì. Mi auguro che maggior spazio di archiviazione non sia la scusa da prendere al balzo per ottimizzare ancor meno di oggi visto l'andazzo degli ultimi anni.
Per il resto a queste stime ci ho sempre creduto poco. Se pensiamo quanto è cambiata la tecnologia da 10 anni a questa parte pensare che si possano fare ipotesi al 2025 mi sembra una barzelletta. 100TB potrebbero essere la minima parte di quanto sarà realmente disponibile a quella data o essere un'esagerazione. IMHO sono annunci più per attirare gente che vere e proprie previsioni attendibili.
gd350turbo
26-11-2014, 11:15
Bhè...
A me un hard disk anche da un 20/30 tera, farebbe comodo
agli utenti domestici bastano e avanzano 500Gb/1Tb
"640 kB ought to be enough for anybody" (cit.)
E' una previsione su 10 anni, vi ricordo che i generatori a fusione sono almeno 50..60 anni che sono previsti "tra 10 anni ...". :sofico:
Tra 10 anni potremmo essere già passati a memorie di massa a memristori o a roba più esotica.
Spider-Mans
26-11-2014, 12:09
spero nel 2025 gli hd meccanici siano nei musei :fagiano:
a fine anno mi faccio pc nuovo full ssd
compreso i giochi che ne beneficiano in tanti aspetti..che ne dicano alcuni ..: per i videogiochi non servono..si come no :oink:
Ale55andr0
26-11-2014, 12:37
mercato solo per aziende e server visto che agli utenti domestici bastano e avanzano 500Gb/1Tb. Non credo usciranno mai pc o tablet con dischi da 100Tb :D
io sono utente domestico e sto annaspando con 2tb...
Rubberick
26-11-2014, 13:02
beh chi dice che serviranno in ambito datacenter solo probabilmente non ha tutti i torti.. gli ssd consumer saranno sempre + economici e capienti... pertanto..
Alodesign
26-11-2014, 13:20
Da iNiorante dal punto di vista di sviluppo di nuove tecnologie, perché si spinge tanto verso i "box" contenitivi dei dati e non sui dati stessi?
Qual'è la difficoltà di progettare software con compressione di file maggiore?
roccia1234
26-11-2014, 13:21
mercato solo per aziende e server visto che agli utenti domestici bastano e avanzano 500Gb/1Tb. Non credo usciranno mai pc o tablet con dischi da 100Tb :D
Guarda... ma nemmeno per idea.
Posso confutare la tua teoria semplicemente digitando "df" sul client ssh del mio mediaserver/nas casalingo.
Intanto stiamo ancora aspettando HAMR, che avrebbe dovuto portare a dischi da 60TB nel 2016 (Click (http://www.hwupgrade.it/news/storage/seagate-infranta-la-barriera-di-1tb-per-pollice-quadro-negli-hard-disk_41301.html) e Click (http://www.hwupgrade.it/news/storage/hard-disk-un-percorso-inarrestabile-verso-capienze-record_42253.html), giusto per citare questo sito).
Se rispettano questa roadmap come la precedente, questi dischi li vedremo il secolo prossimo, altro che...
This. Intanto i prezzi (€/tb) sono ancora superiori ai prezzi pre-alluvione... e parliamo oramai di 4 anni fa. 2tb wd green a 67€ spedito, ce l'ho stampato nella memoria.
Inoltre, nello stesso lasso di tempo, la capacità è aumentata a ritmi ridicoli, o meglio, facciamo prima a dire che NON è aumentata. Il primo disco da 4tb risale al 2011... abbiamo dovuto aspettare ben 2 anni (fine 2013) solo per vedere un disco da 5 tb.
100TB... bellissimo sulla carta, meno bello se ci pensi in altro senso:
1) A che livello di affidabilità? Perché già oggi concentrare così tanti dati (2/3TB) è un bel rischio salvo sia solo roba di cui ti interessa relativamente... arrivare a 100 mi sembra che per l'utenza home o anche se inizialmente il prodotto fosse rivolto solo ai server e server farm sia comunque piuttosto rischioso. Raid? Mah... Raid con dischi così capienti mi sembra comunque una prospettiva che comporta perdite di prestazioni poi nell'accesso ai dati bisognerebbe vedere se sarà così semplice mantenere la capacità di accesso (lettura e scrittura) agli stessi livelli di dischi più piccoli.
Non vedo il problema nel fare raid, anzi, con capienze di questo genere imho è d'obbligo... e non vedo perchè si avrebbero perdite di prestazioni nell'accesso ai dati, con il raid, nell'utilizzo normale.
Piuttosto, a proposito di prestazioni, bisogna vedere a quanto arriveranno questi dischi in termini di velocità di lettura/scrittura.
Oggi in sequenziale e nelle parti più veloci del disco a quanto arriviamo con i meccanici? 200-250MB/s? Ecco, già per fare un backup (semplice copia-incolla, o vedila come la ricostruzione di un raid 1) di un 4Tb ti ci vogliono 5 ore ad andare bene, più realisticamente arrivi tranquillamente, ad occhio, a 7-8 ore.
Ecco, e con un bestione da 100TB? O anche solo da 20-30TB? Ok, aumenterà la valocità, ma di quanto?
2) Di qua al 2025 penso che anche gli SDD se non si potranno avere di dimensioni simili saranno comunque molto, molto grandi. Ormai molti investono forte su queste tecnologie che specie sui server con una capacità di accesso estremamente rapida posso fare una grossa differenza prestazionale. Secondo me non è detto che non arrivi prima un SDD pari o più grande ma ovviamente qua è pura speculazione e speranza.
Ecco, volevo scrivere le stesse cose. Imho hanno fatto i conti senza l'oste (SSD).
A differenza del settore hdd meccanici dove le novità arrivano lente come la morte e col contagocce, il campo SSD è vivacissimo: la capacità e la velocità aumentano a ritmi straordinari (è da tempo che sono limitati dal sata 3, i meccanici non saturano nemmeno il sata2) e il prezzo/gb continua a diminuire.
Inoltre ci sono parecchie tecnologie alternative alle nand che promettono miracoli, e che molto probabilmente da qui a 10 anni saranno sul mercato.
Tutto per dire che, ammesso che tra 10 anni avremo il nostro meccanico da 100TB... chi mi dice che, invece, allo stesso prezzo, non potremo avere un SSD di pari capacità? E a quel punto, addio meccanico.
3) Ok non c'entra niente... però mi auguro che dischi più grandi non equivalga a minor ottimizzazione. Ormai anche perfino il più stupido dei giochi raggiunge dimensioni micidiali. Dragon age inquisition se non erro sta sui 25GB o giù di lì. Mi auguro che maggior spazio di archiviazione non sia la scusa da prendere al balzo per ottimizzare ancor meno di oggi visto l'andazzo degli ultimi anni.
Mah, guarda, lo spazio su disco dipende da una marea di cose... non è tanto questione di ottimizzazione, quanto il fatto che le texute e i modelli poligonali devono essere sempre più dettagliati e di qualità... e occupano spazio.
Il mondo di gioco deve sempre essere più vasto e variegato... e occupa spazio.
I suoni devono essere sempre migliori, variegati, multicanale... e occupano spazio. Il doppiaggio, oramai imprescindibile, può occupare molto spazio ad esempio in un rpg/open world con decine, centinaia di personaggi e svariate migliaia di righe di parlato, e via altro spazio.
Le animazioni di personaggi, animali, ecc ecc se ci fai caso sono sempre più complesse, e anche queste richiedono la loro fetta di spazio.
Devi poi avere un motore di gioco che metta insieme e gestisca tutto quanto, trama, quest varie, eventi, combattimenti, che piazzi la texture numero 3298432 sulla parete 59854732, ecc ecc ecc.
Insomma, magari possono fare di meglio, però conta anche che le cose da memorizzare sono taaaante (parlo di spazio su disco eh, non di ram/vram occupata, che è un'altro discorso).
Per il resto a queste stime ci ho sempre creduto poco. Se pensiamo quanto è cambiata la tecnologia da 10 anni a questa parte pensare che si possano fare ipotesi al 2025 mi sembra una barzelletta. 100TB potrebbero essere la minima parte di quanto sarà realmente disponibile a quella data o essere un'esagerazione. IMHO sono annunci più per attirare gente che vere e proprie previsioni attendibili.
Concordo.
10 anni fa giravamo con i pentium 4 prescott/athlon 64, ovviamente tutti single core. Oggi pure i cellulari sono quad core, e anche nelle configurazioni pc ultraeconomiche difficilmente si va sotto il dual... diamine pure il mio BananaPi è dual core (45$ di aggeggio).
Non esistevano dischi 3,5'' da 500gb (leggendo wiki sono stati introdotti nel 2005), oggi un meccanico da meno di 500gb lo devi proprio cercare di proposito e solitamente non conviene nemmeno economicamente.
Cambiando ambito, Android, iOS e windows phone... non si sapeva nemmeno cosa fossero, e c'era symbian. Oggi questi fanno a memoria il 95% del mercato e symbian è sparito da tempo.
Bhè...
A me un hard disk anche da un 20/30 tera, farebbe comodo
Anche a me, e molto. 3*20TB, raid 5 e potrei essere aposto per mooolto tempo. E passerei da 10 a 4 dischi :stordita:.
Certo, non a 3000€ :eek: .
spero nel 2025 gli hd meccanici siano nei musei :fagiano:
a fine anno mi faccio pc nuovo full ssd
compreso i giochi che ne beneficiano in tanti aspetti..che ne dicano alcuni ..: per i videogiochi non servono..si come no :oink:
L'unica possiblità che hanno di sopravvivere (i meccanici) è puntare al rapporto €/tb più basso possibile, o comunque notevolmente inferiore agli ssd, che è anche l'unica ragione per la quale non si sono ancora estinti.
Tira fuori, oggi, un SSD da 3TB a 150/200€ (e relative taglie inferiori e superiori prezzate di conseguenza), e domani tutte le fabbriche di hdd meccanici chiuderanno bottega.
Un po' come è successo al passaggio floppy -> cd -> dvd -> bd.
-Falcon-
26-11-2014, 13:24
.
-Falcon-
26-11-2014, 13:28
Idem.
Ho un Nas con 2 HD da tre tera (il secondo è solo un backup del primo).
Chi dice che gli bastano 500GB/1TB probabilmente non ha video ad alta risoluzione.
Io, quel tipo di contenuti li ho e intendo mantenerli a quel livello di qualità, non mi abbasso di certo a convertirli a 720p per risparmiare spazio su HD.
Idem con le foto, il mio archivio fotografico in famiglia supera ormai i 200GB...Facile capire che un disco da 3TB sarà sufficiente per qualche anno poi mi starà stretto.
Tornando in topic, l'affidabilità non è un problema se sei a conoscenza del fatto che qualunque HD, di qualunque capacità può morire da un giorno all'altro.....Se tieni tutti i dati importanti solo su uno senza alcun backup mirror, è ovvio che l'affidabilità è pari allo zero.
Piuttosto, a proposito di prestazioni, bisogna vedere a quanto arriveranno questi dischi in termini di velocità di lettura/scrittura.
Oggi in sequenziale e nelle parti più veloci del disco a quanto arriviamo con i meccanici? 200-250MB/s? Ecco, già per fare un backup (semplice copia-incolla, o vedila come la ricostruzione di un raid 1) di un 4Tb ti ci vogliono 5 ore ad andare bene, più realisticamente arrivi tranquillamente, ad occhio, a 7-8 ore.
Ecco, e con un bestione da 100TB? O anche solo da 20-30TB? Ok, aumenterà la valocità, ma di quanto?
Ok ma sono dischi destinati principalmente al Backup di dati, te ne freghi di quanto tempo impiega il PC a spostare 100GB di foto oppure 1TB di video.
Lo fai quando dormi, la mattina quanto ti sveglia hai il tuo bel backup pronto per essere archiviato.
mercato solo per aziende e server visto che agli utenti domestici bastano e avanzano 500Gb/1Tb. Non credo usciranno mai pc o tablet con dischi da 100Tb :D
Mi stupisco sempre davanti a queste sparate che denotano grandissima chiusura mentale, eppure vedo che è endemicamente diffusa.
roccia1234
26-11-2014, 13:37
Da iNiorante dal punto di vista di sviluppo di nuove tecnologie, perché si spinge tanto verso i "box" contenitivi dei dati e non sui dati stessi?
Qual'è la difficoltà di progettare software con compressione di file maggiore?
La comprimibilità dei file stessi (senza perdita di dati) e la potenza necessaria alla compressione e decompressione.
Ad esempio, prendi una qualunque immagine e/o video, comprimili con winrar/zip/zip o quello che preferisci. Cosa è cambiato? Poco o nulla, dato che i dati sono talmente casuali da essere poco o per nulla comprimibili.
Puoi ridurre le dimensioni, certo, MA al contempo perdi dei dati. Prova a scaricare un jpeg qualunque di buona qualità. Ora salvalo a qualità minima. La diensione si è ridotta, ma anche la quantità di dati che contiene (e la sua qualità, che ora probabilmente sarà un ammasso di quadrettoni).
Altro esempio, relativo alla potenza computazionale necessaria.
Il recentissimo h.265 promette (e mantiene la promessa) di dimezzare, o anche oltre, la dimensione dei video rispetto ad h.264, mantenendo la stessa qualità (almeno, all'occhio umano).
Tutto molto bello? Si, però io ho fatto una prova: blu ray 1080p encodato con h.264: in media mi fa 30-35 fps, e l'encoding finisce in 1 ora-1 ora e mezza (1090t @ 3,9ghz, non la cpu più potente in circolazione, ma nemmeno una schifezza).
Stesso video, stesse impostazioni, ma h.265... risultato 3-4 fps di media e qualcosa come 8-9-10 ore di encoding.
Provandolo su un pezzettino di un minuto, effettivamente mantiene le promesse... ma richiede davvero troppe risorse.
Prova a leggere qua:
http://web.tiscali.it/raff/compressione.htm
Potrebbe essere interessante ed illuminante.
io sono utente domestico e sto annaspando con 2tb...
Beato te...
Io tra poco dovrò comprare il sesto disco da 3TB da aggiungere al raid5 :stordita: .
roccia1234
26-11-2014, 13:51
Idem.
Ho un Nas con 2 HD da tre tera (il secondo è solo un backup del primo).
Chi dice che gli bastano 500GB/1TB probabilmente non ha video ad alta risoluzione.
Io, quel tipo di contenuti li ho e intendo mantenerli a quel livello di qualità, non mi abbasso di certo a convertirli a 720p per risparmiare spazio su HD.
Idem con le foto, il mio archivio fotografico in famiglia supera ormai i 200GB...Facile capire che un disco da 3TB sarà sufficiente per qualche anno poi mi starà stretto.
Tornando in topic, l'affidabilità non è un problema se sei a conoscenza del fatto che qualunque HD, di qualunque capacità può morire da un giorno all'altro.....Se tieni tutti i dati importanti solo su uno senza alcun backup mirror, è ovvio che l'affidabilità è pari allo zero.
Concordo
http://i.imgur.com/87kqrnj.png
:stordita:
Ok ma sono dischi destinati principalmente al Backup di dati, te ne freghi di quanto tempo impiega il PC a spostare 100GB di foto oppure 1TB di video.
Lo fai quando dormi, la mattina quanto ti sveglia hai il tuo bel backup pronto per essere archiviato.
Anche questo è vero :)
sempre se ci arriviamo al 2025 :asd:
gd350turbo
26-11-2014, 13:53
Io il terzo 4 tb !
benderchetioffender
26-11-2014, 14:06
@ tutti quelli che "mi bastano 2 Tb"
se se :asd: voglio vedervi a gestire tra qualche anno una libreria di film 4k
morirò dalle risate
C'è anche chi vede un futuro tutto on-demand in cloud.
Film e telefilm non dovrebbero più rimanere in locale.
Ho colleghi schiavi di Apple TV che non conoscono nemmeno il significato della parola "Torrent".
Micene.1
26-11-2014, 14:15
"640 kB ought to be enough for anybody" (cit.)
mi stava venendo in mente proprio questa (a parte che l'affermazione "500/1tb: nn serve altro" è al limite del provocatorio :D)
fraussantin
26-11-2014, 14:35
Se i videogiochi continuano ad richiedere piu spazio in maniera esponenziale come in questi ultimi anni ( 25 giga è lo standard)credo che sia vero.
Mi spiace che gli ssd non reggano ancora le richieste di mercati.
spero nel 2025 gli hd meccanici siano nei musei :fagiano:
a fine anno mi faccio pc nuovo full ssd
compreso i giochi che ne beneficiano in tanti aspetti..che ne dicano alcuni ..: per i videogiochi non servono..si come no :oink:
Già fatto:
1 x Samsung SSD 840 EVO 500 GB (restored) per S.O. e programmi
1 x Samsung SSD 840 EVO 500 GB (restored) per i dati
Ormai uso i dischi meccanici solo come archivio esterno USB, per film e backup. Oppure, li monto a chi ha limiti precisi budget: cmq, solo da 2.5", 7200 rpm ed in RAID 0.
-Falcon-
26-11-2014, 15:24
sempre se ci arriviamo al 2025 :asd:
E la m.....Quanti anni hai?
80? :stordita:
Io ho un mutuo fino al 2030, quindi conto di arrivarci, superarli e godermi anche la pensione visto che ho iniziato a versare contributi da quando avevo 15 anni....;)
C'è anche chi vede un futuro tutto on-demand in cloud.
Film e telefilm non dovrebbero più rimanere in locale.
Ho colleghi schiavi di Apple TV che non conoscono nemmeno il significato della parola "Torrent".
Sicuro?
Io ho una Apple TV e i miei DVD rippati li ho tutti nell'HD del PC e mi li guardo tutti comodamente con la Apple TV.
Non credere che siccome è una Apple TV non puoi vedere film in MKV, perché bastano 20 secondi di orologio per convertire un MKV nel formato m4v che è quello digerito da Apple....:asd:
Riguardo il futuro on-demand, ne riparleremo quando mi daranno al possibilità di archiviare in maniera veloce diciamo...50tera di materiale per la cifra di 50 euro/anno e con la garanzia SCRITTA nero su bianco che i miei dati sono al sicuro per i prossimi 30 anni.
Per ora, l'unica sicurezza che ho, è un HD supplementare con i dati importanti contenuto nella cassetta di sicurezza della mia banca...;)
ultras77
26-11-2014, 15:51
qualcuno vuole i miei 2 hd da 4 tera?
ne devo prendere 2 da 6....
chi dice cosa ci faccio con tutti sti dati evidentemenet o non ci lavora o non ha idea che esista anche un altra parte del mondo a cui piace tenere dati disponibili subito e non sui vari cloud per la rete...
Sicuro?
Che i miei colleghi, quando gli parli di "torrent", pensano a un corso d'acqua? Sicurissimo. :)
Io ho una Apple TV e i miei DVD rippati li ho tutti nell'HD del PC e mi li guardo tutti comodamente con la Apple TV.
Non lo metto in dubbio, ma avendo i contenuti fruibili direttamente in rete potresti anche fare a meno di rippare i DVD.
Qualcuno potrebbe rifare il discorso che si sente a proposito di iTunes, ossia che sta sulle scatole solo a quelli che piratano la musica. Che t'importa di archiviare 100 tera di film in alta definizione, quando puoi vederli comodamente dalla tua AppleTV (o quel che è) in ogni momento? Qualcuno potrebbe insinuare che non sono film acquistati regolarmente. (oh, sto facendo l'avvocato del diavolo; vivo in un Paese dove lo scaricamento non è illegale, ancora ;)).
I dati importanti sono un'altra cosa. Nemmeno io mi fiderei molto a metterli in cloud, ma non si parla di film e certamente non occupano centinaia di terabyte.
roccia1234
26-11-2014, 17:45
qualcuno vuole i miei 2 hd da 4 tera?
ne devo prendere 2 da 6....
chi dice cosa ci faccio con tutti sti dati evidentemenet o non ci lavora o non ha idea che esista anche un altra parte del mondo a cui piace tenere dati disponibili subito e non sui vari cloud per la rete...
Ma non ti conviene prenderne un'altro da 4 e metterli in raid5? :mbe:
non da noi dove uno di quei cosi costerebbe 2000€ di tasse da devolvere alla siae
TheUnforgivin'WithinTemptation
26-11-2014, 19:10
un annetto fa mi ero cimentata nel cloud, spinta dalla illusione che le pubblicità mi sbattevano in faccia...
mi ero armata di pazienza e avevo iniziato a uploadare in cloud i miei 15 TB sparsi fra cd, dvd, e hd e pendrive ...(si, stai leggendo bene ...TB, alla faccia di chi provocatoriamente afferma che )...: volevo avere tutto alla portata di clic senza dover portarmi con me questo o quel cd,dvd,pendrive,o hd..
risultato? dopo 50 giga mi sono fermata
motivo? principalmente la lentezza dell'upload ( seguita da una certa paranoia in termini di sicurezza)...
ALLA luce di ciò, ben vengano hd meccanici sempre più capienti....ma vorrei che incrementassero anche la durabilità degli hd...
Venturer
26-11-2014, 19:19
Il problema dell'aumento della capacità dei dischi magnetici è che l'affidabilità della componente meccanica diventa sempre più cruciale!!!
Non so se lo sapete ma anche in caso di guasto del motore o dell'elettronica del disco i dati memorizzati sulla superficie magnetica sono quasi sempre al 99,999% recuperabili da un centro specializzato. E questo è il più grosso vantaggio rispetto a un SSD o unità flash dove se si brucia la cella di memoria il dato è perso.
Però volevo portarvi a riflettere su un incidente che non è così raro: immaginate se, a seguito di un forte urto mentre il disco è in funzione la testina di lettura/scrittura impatta sulla superficie del disco (il danneggiamento più grave). Il 90% delle volte quando si verifica questa eventualità la superficie del disco si danneggia e lo strato magnetico perde irrimediabilmente le informazioni.
Ora, nel caso di questa eventualità se con la densità di un disco di un terabyte quella piccola porzione di disco danneggiato contiene (numero a caso) 100MegaByte pensate a cosa può succedere se la testina impatta sulla superficie magnetica con una densità di 100Terabyte. Stesso spazio fisico ma una quantità di dati perduti enormemente superiore....
Personaggio
26-11-2014, 19:24
mercato solo per aziende e server visto che agli utenti domestici bastano e avanzano 500Gb/1Tb. Non credo usciranno mai pc o tablet con dischi da 100Tb :D
Il mio NAS ha una capacità di 20TB ed è pieno per 14. Se la mia filmopedia, di circa 1100 Film per un totale di 1960 ore, fosse interamente a 4K, in H265 senza perdita di qualità (40GB/h) significa che occuperebbe 78.40TB. Cavolo è quasi pieno... mi serve già il secondo...
Figuriamoci fra 10 anni...
100TB... bellissimo sulla carta, meno bello se ci pensi in altro senso:
1) A che livello di affidabilità? Perché già oggi concentrare così tanti dati (2/3TB) è un bel rischio salvo sia solo roba di cui ti interessa relativamente... arrivare a 100 mi sembra che per l'utenza home o anche se inizialmente il prodotto fosse rivolto solo ai server e server farm sia comunque piuttosto rischioso. Raid? Mah... Raid con dischi così capienti mi sembra comunque una prospettiva che comporta perdite di prestazioni poi nell'accesso ai dati bisognerebbe vedere se sarà così semplice mantenere la capacità di accesso (lettura e scrittura) agli stessi livelli di dischi più piccoli.
Il problema è che l'affidabilità è in % e misurato con un 10^-n dove n generalmente è 4. Significa che che un HD da 1GB è garantito affinche si rompa massimo 10KB. Con 1TB sono 10MB con 100TB sono ben 1GB.
3) Ok non c'entra niente... però mi auguro che dischi più grandi non equivalga a minor ottimizzazione. Ormai anche perfino il più stupido dei giochi raggiunge dimensioni micidiali. Dragon age inquisition se non erro sta sui 25GB o giù di lì. Mi auguro che maggior spazio di archiviazione non sia la scusa da prendere al balzo per ottimizzare ancor meno di oggi visto l'andazzo degli ultimi anni.
Il balzo è dovuto all'uso di texture 2K, Se la VRAM lo permetterà presto avremmo texture 4, 8 o 16K (anche se poi giochi a 4k hai cmq un enorme miglioramento della qualità delle texture) e allora vedrai giochi che occuperanno centinaia di GB
Piuttosto, a proposito di prestazioni, bisogna vedere a quanto arriveranno questi dischi in termini di velocità di lettura/scrittura.
Oggi in sequenziale e nelle parti più veloci del disco a quanto arriviamo con i meccanici? 200-250MB/s? Ecco, già per fare un backup (semplice copia-incolla, o vedila come la ricostruzione di un raid 1) di un 4Tb ti ci vogliono 5 ore ad andare bene, più realisticamente arrivi tranquillamente, ad occhio, a 7-8 ore.
Ecco, e con un bestione da 100TB? O anche solo da 20-30TB? Ok, aumenterà la valocità, ma di quanto?
Il calcolo è presto fatto: oggi con 0,86Tbpsi hai circa 180Mbps. A parità di velocità di rotazione, la velocità media è direttamente proporzionale alla concentrazione dei dati, quindi se arriveremo a 10Tbpsi singifica che aumenteremo la velocità di 11.6 volte e quindi a circa 1Gbps.
Io vado avanti con il mio 512mb :cool:
e non ci entra più un cazzz infatti :muro: :muro:
bobafetthotmail
26-11-2014, 20:47
Bellini, ma francamente mi fido veramente poco quando dicono che aggiungeranno un sistema laser che scalda un disco che gira a 7200 RPM con una testina che lo sfiora sia una buona idea.
Non so se lo sapete ma anche in caso di guasto del motore o dell'elettronica del disco i dati memorizzati sulla superficie magnetica sono quasi sempre al 99,999% recuperabili da un centro specializzato. E questo è il più grosso vantaggio rispetto a un SSD o unità flash dove se si brucia la cella di memoria il dato è perso.Se si brucia una cella in un SSD non puoi più cancellarla e il dato diventa read-only, non si perde, il controller ne prende atto e rimappa la cella coi dati da un'altra parte.
Una chiavetta usb ha un controller ultrascrauso e quando una cella muore può succedere di tutto.
Comunque, BACKUP! BACKUP! BACKUP! BACKUP!
E puoi dormire sonni tranquilli.
Anche perchè se perdi 100 tera di dati aziendali ti crocifiggono in sala mensa, altro che licenziamento.
non da noi dove uno di quei cosi costerebbe 2000€ di tasse da devolvere alla siaeGià vedo contrabbandieri di HDD... lololololol.
Non lo metto in dubbio, ma avendo i contenuti fruibili direttamente in rete potresti anche fare a meno di rippare i DVD.La rete internet non reggerebbe lo streaming massiccio in HD (figurati il 4k) neanche in paesi avanzati come gli USA, figurati qui da noi.
Io oramai avrò 15tb di storage in totale, e sono di nuovo a tappo... :stordita:
Già i film in FHD (e i giochi odierni) sono enormi, figurialoci con il 4k è ormai alle porte.
Attendo ancora una drastica diminuzione del costo per GB, che dalla famosa alluvione (http://www.tomshw.it/cont/news/prezzi-degli-hard-disk-in-impennata-speculatori-all-opera/34371/1.html) che risale oramai a 3 anni fa sono saliti alle stelle e non sonno più tornati alla normalità. :muro: :cry:
rockroll
27-11-2014, 04:17
spero nel 2025 gli hd meccanici siano nei musei :fagiano:
a fine anno mi faccio pc nuovo full ssd
compreso i giochi che ne beneficiano in tanti aspetti..che ne dicano alcuni ..: per i videogiochi non servono..si come no :oink:
Se credi sia meglio dolo SSD fai pure, poi ricorrerai per forza di cose ad HD esterni...
Mi auguro che il PC che ti farai sia desktop, così potrai rimediare al tuo errore aggiungendo il/gli HD interni di cui avrai hai bisogno
rockroll
27-11-2014, 04:26
io sono utente domestico e sto annaspando con 2tb...
Io invece sono un utente selvatico visto che 12 TB non mi bastano. Però non ne vorrei mai uno da 100TB, troppo rischioso, preferisco 25 da 4!
rockroll
27-11-2014, 04:36
Da iNiorante dal punto di vista di sviluppo di nuove tecnologie, perché si spinge tanto verso i "box" contenitivi dei dati e non sui dati stessi?
Qual'è la difficoltà di progettare software con compressione di file maggiore?
A livello di algoritmi matematici tutto il comprimibile è gia stato praticamente compresso al meglio, con efficienza che dipende unicamente dalla natura dei dati e non certo dalla bontà dei sistemi di compressione, che ormai rasentano la perfezione, e nei casi in cui non vengono spinti al massimo è unicamente per motivi prestazionali ove questi siano un must.
rockroll
27-11-2014, 04:51
Mi stupisco sempre davanti a queste sparate che denotano grandissima chiusura mentale, eppure vedo che è endemicamente diffusa.
Hai torto a stupirti; la "sparata" è fatta da una persona normale, che non devi permetterti di apostrofare come persona di grandissima chiusura mentale unicamente perchè ha esigenze normali e magari è più in gamba di te ad ottimizzare gli spazi disco...
Del resto basta vedere la "sparata" delle tue dotazioni HW per capire che l'anormale sei tu e non lui.
rockroll
27-11-2014, 05:19
@ tutti quelli che "mi bastano 2 Tb"
se se :asd: voglio vedervi a gestire tra qualche anno una libreria di film 4k
morirò dalle risate
Morirò io dalle risate pensando a quanto sciupio di spazio assurdo andrai ad impegnare per cose futili di cui ne avevi d'avanzo 7 volte se con un po' di buon senso ti accontentavi della pur ottima definizione full HD occupando un quarto dello spazio e rinunciando praticamente a nulla!
A già, per i nativi digitali parlare di definizione 1080p è preistoria... figurarsi il 720p, che ai comuni occhi mortali basta ed avanza nella massima parte delle condizioni pratiche di visione, vero?
rockroll
27-11-2014, 05:45
Già fatto:
1 x Samsung SSD 840 EVO 500 GB (restored) per S.O. e programmi
1 x Samsung SSD 840 EVO 500 GB (restored) per i dati
Ormai uso i dischi meccanici solo come archivio esterno USB, per film e backup. Oppure, li monto a chi ha limiti precisi budget: cmq, solo da 2.5", 7200 rpm ed in RAID 0.
Ah beh, se hai la lira (l'€) per 500+500GB SSD cade ogni discussione; ho speso certo meno per i miei 12 TB USB 3.0 ed i miei onestissimi 500+500+1000 GB interni 3.5" (sys pgm data). Prestazioni notevolmente migliorate le ottengo suddividendo nei limiti del possibile le operazionbi I/O su HDD diversi. Ciò non toglie che un SSD da non più di 128GB mi farebbe comodo eccome e l'ho preventivato.
rockroll
27-11-2014, 06:00
E la m.....Quanti anni hai?
80? :stordita:
Io ho un mutuo fino al 2030, quindi conto di arrivarci, superarli e godermi anche la pensione visto che ho iniziato a versare contributi da quando avevo 15 anni....;)
Sicuro?
Io ho una Apple TV e i miei DVD rippati li ho tutti nell'HD del PC e mi li guardo tutti comodamente con la Apple TV.
Non credere che siccome è una Apple TV non puoi vedere film in MKV, perché bastano 20 secondi di orologio per convertire un MKV nel formato m4v che è quello digerito da Apple....:asd:
Riguardo il futuro on-demand, ne riparleremo quando mi daranno al possibilità di archiviare in maniera veloce diciamo...50tera di materiale per la cifra di 50 euro/anno e con la garanzia SCRITTA nero su bianco che i miei dati sono al sicuro per i prossimi 30 anni.
Per ora, l'unica sicurezza che ho, è un HD supplementare con i dati importanti contenuto nella cassetta di sicurezza della mia banca...;)
Non capisco la necessità di un marchingegno Apple sovraprezzato quando qualunque lettore multimediale (per non dire qualunque dispositivo Android a minimo costo con tanto di WiFi) connesso via HDMI se non DLNA ad una a TV FullHD da 200 euro (ora te le tirano dietro, magari con USB multimediale) ti fa tutto. Ultimamente ho sistemato allo scopo il mio laptop con out HDMI 1080p.
A parte ciò, lunica sicurezza che hai è una ... insicurezza: un HD lasciato per anni in casseta di sicurezza senza essere ogni tanto "svegliato" anche con un breve utilizzo, rischia di perdere TUTTI i dati...
rockroll
27-11-2014, 06:09
Se i videogiochi continuano ad richiedere piu spazio in maniera esponenziale come in questi ultimi anni ( 25 giga è lo standard)credo che sia vero.
Mi spiace che gli ssd non reggano ancora le richieste di mercati.
Pensavi di mettere fottii di giga di videgiochi su memoria di massa (anzi di elite) "nobile" come gli SSD? Aihh aihh aihhhh aihhhhhh...
rockroll
27-11-2014, 06:23
qualcuno vuole i miei 2 hd da 4 tera?
ne devo prendere 2 da 6....
chi dice cosa ci faccio con tutti sti dati evidentemenet o non ci lavora o non ha idea che esista anche un altra parte del mondo a cui piace tenere dati disponibili subito e non sui vari cloud per la rete...
Non fai prima e con meno spesa a prenderne un'altro da 4 TB? sempre 12 fa in totale. Li vuoi tutti accessibili in contemporanea? dipende da quante porte USB o Slot interni hai disponibii, ma esistono anche gli HUB se qualche limitazione di prestazioni non è un problema.
Non ti chiedo cosa ci fai con 8 o 12 tera, li ho anch'io, e poi sono fatti tuoi. Ma pensare che chi ci lavora abbia per forza bisogno di 12 e più TB è errato come è errato pensare che tutti abbiano 12 è più TB di roba da conservare o meglio da avere disponibile montata in locale piuttosto che in Cloud.
rockroll
27-11-2014, 06:44
Il problema dell'aumento della capacità dei dischi magnetici è che l'affidabilità della componente meccanica diventa sempre più cruciale!!!
Non so se lo sapete ma anche in caso di guasto del motore o dell'elettronica del disco i dati memorizzati sulla superficie magnetica sono quasi sempre al 99,999% recuperabili da un centro specializzato. E questo è il più grosso vantaggio rispetto a un SSD o unità flash dove se si brucia la cella di memoria il dato è perso.
Però volevo portarvi a riflettere su un incidente che non è così raro: immaginate se, a seguito di un forte urto mentre il disco è in funzione la testina di lettura/scrittura impatta sulla superficie del disco (il danneggiamento più grave). Il 90% delle volte quando si verifica questa eventualità la superficie del disco si danneggia e lo strato magnetico perde irrimediabilmente le informazioni.
Ora, nel caso di questa eventualità se con la densità di un disco di un terabyte quella piccola porzione di disco danneggiato contiene (numero a caso) 100MegaByte pensate a cosa può succedere se la testina impatta sulla superficie magnetica con una densità di 100Terabyte. Stesso spazio fisico ma una quantità di dati perduti enormemente superiore....
I guasti all'elettronica sono un'eventualità trascurabile, ma anche i guasti al motore e sopratutto alla meccanica di posizionamento sono molto rari. Invece è il grado di probabilità di shock meccanico dovuto ad urti che è elevato, ovviamente per HD esterni: il danneggiamento può avvenire anche a disco fermo, ma le conseguenze, in particolare quelle che hai descritto, possono essere ben più drammatiche con disco in movimento. Il momento d'inerzia (effetto giroscopico) con rotazioni dell'ordine di 7200 rpm è molto elvato, più di quanto si possa immaginare. Se la testina "ara" un tratto circolare di spessore ristretto qualcosa si può recuperare, sperando che non sia intaccata una directory, ma se la solcatura è a spirale, come è facile che avvenga se il braccio si sposta, addio dati...
Ed in ogni caso il costo dell'operazione, da effettuarsi in laboratori appositamente attrezzati, è tale da sconsigliare il recupero se proprio non si tratta di dati di vitale importanza.
-Falcon-
27-11-2014, 07:19
Non capisco la necessità di un marchingegno Apple sovraprezzato quando qualunque lettore multimediale (per non dire qualunque dispositivo Android a minimo costo con tanto di WiFi) connesso via HDMI se non DLNA ad una a TV FullHD da 200 euro (ora te le tirano dietro, magari con USB multimediale) ti fa tutto. Ultimamente ho sistemato allo scopo il mio laptop con out HDMI 1080p.
Hai idea di quanto costa una Apple TV?
Io l'ho pagata 80€, il lettore western digital che avevo prima mi era costato molto di più.
Detto ciò, con una Apple TV posso mandare in AirPlay quello che ho sul'iphone, sul MacBookAir e anche sul Imac che ho in casa oltre a condividere con un Clik tutta la Libreria fotografica delle foto fatte negli ultimi tre mesi, che ho su qualunque PC, con un semplice click senza andarmi a smazzare e selezionare cartelle.
Il tutto, comodamente seduto sul divano con tanto di telecomando (il tuo laptop è senza ombra di dubbio più comodo in tal senso vero? :asd:)
La Apple TV non è solo fatta per vedere i Film, con gli altri Acrocchi che proponi...Auguri...
A parte ciò, lunica sicurezza che hai è una ... insicurezza: un HD lasciato per anni in casseta di sicurezza senza essere ogni tanto "svegliato" anche con un breve utilizzo, rischia di perdere TUTTI i dati...
Mi sembra ovvio che quello è un Backup supplementare di sicurezza per prevenire eventuali disastri in casa o peggio...Un incendio.
Pensavo ci arrivassi da solo a capire che ogni tot, lo prendo e ci salvo i nuovi dati....:doh:
roccia1234
27-11-2014, 09:10
Il problema dell'aumento della capacità dei dischi magnetici è che l'affidabilità della componente meccanica diventa sempre più cruciale!!!
Non so se lo sapete ma anche in caso di guasto del motore o dell'elettronica del disco i dati memorizzati sulla superficie magnetica sono quasi sempre al 99,999% recuperabili da un centro specializzato. E questo è il più grosso vantaggio rispetto a un SSD o unità flash dove se si brucia la cella di memoria il dato è perso.
Però volevo portarvi a riflettere su un incidente che non è così raro: immaginate se, a seguito di un forte urto mentre il disco è in funzione la testina di lettura/scrittura impatta sulla superficie del disco (il danneggiamento più grave). Il 90% delle volte quando si verifica questa eventualità la superficie del disco si danneggia e lo strato magnetico perde irrimediabilmente le informazioni.
Ora, nel caso di questa eventualità se con la densità di un disco di un terabyte quella piccola porzione di disco danneggiato contiene (numero a caso) 100MegaByte pensate a cosa può succedere se la testina impatta sulla superficie magnetica con una densità di 100Terabyte. Stesso spazio fisico ma una quantità di dati perduti enormemente superiore....
La parolina magica è... backup!
amd-novello
27-11-2014, 13:13
Sono molto contento che si spinga la densità dei dati con tecnologie avveniristiche, un hdd da 100 tera lo accoglierei volentieri.
Certo che mi cadono le braccia quando vedo che chi ne fa uso lo fa per 1100 film piratati a 4k :(
Vorrei fossero usati per motivi migliori
roccia1234
27-11-2014, 14:09
un annetto fa mi ero cimentata nel cloud, spinta dalla illusione che le pubblicità mi sbattevano in faccia...
mi ero armata di pazienza e avevo iniziato a uploadare in cloud i miei 15 TB sparsi fra cd, dvd, e hd e pendrive ...(si, stai leggendo bene ...TB, alla faccia di chi provocatoriamente afferma che )...: volevo avere tutto alla portata di clic senza dover portarmi con me questo o quel cd,dvd,pendrive,o hd..
risultato? dopo 50 giga mi sono fermata
motivo? principalmente la lentezza dell'upload ( seguita da una certa paranoia in termini di sicurezza)...
ALLA luce di ciò, ben vengano hd meccanici sempre più capienti....ma vorrei che incrementassero anche la durabilità degli hd...
La velocità di upload è il principale blocco per l'uso massiccio dello storage in cloud.
Ho una adsl 20/1 a banda quasi piena (mi mancano 1-1,5 mbit in down), quindi mi posso ritenere ben sopra la media italiana, ma ho rinunciato all'upload (per backup) dei miei 200Gb e passa di fotografie a causa dei tempi. Facendo un rapido calcolo, avrei impiegato ben UN MESE di upload 24/7 a 70 kb/s (la massima velocità di up che mi consente di avere una connessione utilizzabile), ammesso che tutto vada come deve andare.
Decisamente troppo.
@ tutti quelli che "mi bastano 2 Tb"
se se :asd: voglio vedervi a gestire tra qualche anno una libreria di film 4k
morirò dalle risate
Per il 4k c'è tempo, almeno per quanto riguarda i film. Oggi come oggi non ci sono ancora nemmeno i contenuti, anzi, pure il codec non è in una versione definitiva.
Non ci sono riproduttori adatti al 4k/265, o comunque sono pochissimi.
Senza il codec 265, un film 4k, su un BD, NON ci sta, a meno di comprimerlo tantissimo, ma a quel punto tanto vale il fullhd.
Tv e schermi 4k hanno ancora un costo molto elevato rispetto alle controparti fullhd.
Per la stragrande maggioranza degli utenti e degli usi, il fullhd è già più che sufficiente/esagerato, quindi il passaggio al 4k non porterebbe alcun beneficio tangibile.
Finchè non diventerà lo standard (leggi, non venderanno più schermi e tv fullhd), rimarrà una nicchia per pochi appassionati/inscimmiati.
Il calcolo è presto fatto: oggi con 0,86Tbpsi hai circa 180Mbps. A parità di velocità di rotazione, la velocità media è direttamente proporzionale alla concentrazione dei dati, quindi se arriveremo a 10Tbpsi singifica che aumenteremo la velocità di 11.6 volte e quindi a circa 1Gbps.
Sicuro che sia così "lineare" la cosa?
Nel caso, sarebbe un'ottima notizia, anche se si parla solo di sequenziale, mettiamo nella più pessimista delle ipotesi che ci si fermi alla metà, sarebbero comunque 500MB/s.
Morirò io dalle risate pensando a quanto sciupio di spazio assurdo andrai ad impegnare per cose futili di cui ne avevi d'avanzo 7 volte se con un po' di buon senso ti accontentavi della pur ottima definizione full HD occupando un quarto dello spazio e rinunciando praticamente a nulla!
A già, per i nativi digitali parlare di definizione 1080p è preistoria... figurarsi il 720p, che ai comuni occhi mortali basta ed avanza nella massima parte delle condizioni pratiche di visione, vero?
Quoto.
Ma i produttori DEVONO pur trovare il mdo per vendere nuovi schermi e nuove tv... Ecco a voi il 4k!
Sono molto contento che si spinga la densità dei dati con tecnologie avveniristiche, un hdd da 100 tera lo accoglierei volentieri.
Certo che mi cadono le braccia quando vedo che chi ne fa uso lo fa per 1100 film piratati a 4k :(
Vorrei fossero usati per motivi migliori
Senza pirateria, probabilmente la quantità di hdd/cd/dvd/bd venduti sarebbe una frazione dell'attuale ;) .
Io oramai avrò 15tb di storage in totale, e sono di nuovo a tappo... :stordita:
Già i film in FHD (e i giochi odierni) sono enormi, figurialoci con il 4k è ormai alle porte.
Attendo ancora una drastica diminuzione del costo per GB, che dalla famosa alluvione (http://www.tomshw.it/cont/news/prezzi-degli-hard-disk-in-impennata-speculatori-all-opera/34371/1.html) che risale oramai a 3 anni fa sono saliti alle stelle e non sonno più tornati alla normalità. :muro: :cry:
Io il 4k lo lascio ad altri, almeno per qualche anno.
Potrei fare un'eccezione con il monitor del pc, ma per quanto riguarda le tv, il fullhd mi basta ed avanza.
Io invece sono un utente selvatico visto che 12 TB non mi bastano. Però non ne vorrei mai uno da 100TB, troppo rischioso, preferisco 25 da 4!
Insomma... ok che è un'iperbole, ma più dischi implicano maggiori problemi nella gestione (dove cavolo li ficchi?? Ti serve un NAS da rack, che costa, o una soluzione autocostruita. E poi la mobo a cui attaccarli? E l'alimentatore?) e maggiore probabilità matematica che se ne rompa uno.
Minimo devi metterli in raid 6, possibilmente in almeno due volumi per suddividere il rischio di rottura contemporanea di tre dischi. Insomma, è un casino.
Io, sinceramente (volendo sempre un volume da 100TB), andrei di 5 dischi da 25TB in raid 5 o tre dischi da 50TB, sempre in raid 5, così da poter aumentare la capacità semplicemente aggiungendo un disco ma al contempo rimanendo su una quantità bassa di hdd totali.
amd-novello
27-11-2014, 14:13
Ah allora meglio ringraziarli :stordita:
roccia1234
27-11-2014, 14:20
Ah allora meglio ringraziarli :stordita:
Non ho detto questo.
IronDany87
01-12-2014, 11:29
già immagino che ci vorranno tanti altri hd da 100TB per fare il backup del backup del backup :D
già immagino che ci vorranno tanti altri hd da 100TB per fare il backup del backup del backup :D
guarda se non fosse per il costo a casa avrei montato un drive lto-6 per i backup :D
Alodesign
01-12-2014, 13:47
A livello di algoritmi matematici tutto il comprimibile è gia stato praticamente compresso al meglio, con efficienza che dipende unicamente dalla natura dei dati e non certo dalla bontà dei sistemi di compressione, che ormai rasentano la perfezione, e nei casi in cui non vengono spinti al massimo è unicamente per motivi prestazionali ove questi siano un must.
Quindi come immaginavo, siamo arrivati al punto in cui i progettisti software non sanno più andare oltre. Bisognerebbe riscrivere tutto da zero.
Insomma, il mondo dell'informatica non è una cosa naturale, per cui un atomo è un atomo e più di così non lo si può ridurre, senza scindere la sua naturale composizione.
Quindi per gli sviluppatori software/hardware è meglio spingere in grande il resto. Storage più capienti, sistemi di trasmissioni dati più veloci etc etc.
Micene.1
01-12-2014, 13:52
A livello di algoritmi matematici tutto il comprimibile è gia stato praticamente compresso al meglio, con efficienza che dipende unicamente dalla natura dei dati e non certo dalla bontà dei sistemi di compressione, che ormai rasentano la perfezione, e nei casi in cui non vengono spinti al massimo è unicamente per motivi prestazionali ove questi siano un must.
ma quando mai ...per esempio la compressione dei flussi video ha ancora tanto da migliorare e un esempio sono in nuovi codec di recente introduzione
bobafetthotmail
01-12-2014, 22:20
Insomma, il mondo dell'informatica non è una cosa naturale, per cui un atomo è un atomo e più di così non lo si può ridurre, senza scindere la sua naturale composizione.Le leggi della fisica e della matematica sono universali eh?
L'informatica è naturale quanto la matematica che la governa.
I dati in un sistema informatico sono codificati come sequenza di 0 e di 1, quindi se un file è per esempio "1001111010" potrà essere compresso un pochino, ma se lo vuoi leggere deve tornare come era prima, non è umanamente possibile comprimerlo facendolo diventare una roba tipo "101" perchè poi non c'è modo di tornare al file originario quando lo vuoi leggere.
Nella maggioranza dei casi la "compressione" toglie qualità al file compresso, che viene compensata da una intensa attività di elaborazione che ricrea sul momento ciò che è stato tolto durante la compressione, oppure semplicemente viene scartata e amen.
Salvo casi particolari, l'unica roba che necessita veramente di compressione decente è il comparto media, e non stanno certo polleggiando. mi pare che la codifica h.265 stia arrivando.
Alodesign
02-12-2014, 10:46
Le leggi della fisica e matematica, geometria e quant'altro è naturale.
Lo "1001010..." non lo è.
Micene.1
02-12-2014, 10:56
Le leggi della fisica e della matematica sono universali eh?
L'informatica è naturale quanto la matematica che la governa.
I dati in un sistema informatico sono codificati come sequenza di 0 e di 1, quindi se un file è per esempio "1001111010" potrà essere compresso un pochino, ma se lo vuoi leggere deve tornare come era prima, non è umanamente possibile comprimerlo facendolo diventare una roba tipo "101" perchè poi non c'è modo di tornare al file originario quando lo vuoi leggere.
Nella maggioranza dei casi la "compressione" toglie qualità al file compresso, che viene compensata da una intensa attività di elaborazione che ricrea sul momento ciò che è stato tolto durante la compressione, oppure semplicemente viene scartata e amen.
Salvo casi particolari, l'unica roba che necessita veramente di compressione decente è il comparto media, e non stanno certo polleggiando. mi pare che la codifica h.265 stia arrivando.
beh se 100=a 111=b 101=c
quello che hai scritto è compresso in
abc
e decomprimerlo all'indietro
Le leggi della fisica e della matematica sono universali eh?
L'informatica è naturale quanto la matematica che la governa.
I dati in un sistema informatico sono codificati come sequenza di 0 e di 1, quindi se un file è per esempio "1001111010" potrà essere compresso un pochino, ma se lo vuoi leggere deve tornare come era prima, non è umanamente possibile comprimerlo facendolo diventare una roba tipo "101" perchè poi non c'è modo di tornare al file originario quando lo vuoi leggere.
Nella maggioranza dei casi la "compressione" toglie qualità al file compresso, che viene compensata da una intensa attività di elaborazione che ricrea sul momento ciò che è stato tolto durante la compressione, oppure semplicemente viene scartata e amen.
Salvo casi particolari, l'unica roba che necessita veramente di compressione decente è il comparto media, e non stanno certo polleggiando. mi pare che la codifica h.265 stia arrivando.
non è propriamente così o meglio
nella maggioranza dei casi la compressione non toglie contenuto informativo i vari algoritmi di compressione generici (quelli utilizzati dai software di compressione) sono completammente lossless in quanto un file alterato sarebbe inutile,
gli unici casi dove gli algoritmi sono lossy è proprio il multimediale dove vengono eliminati i contenuti informativi irrilevanti (colori similari, frequenze audio non udibili, transizioni veloci (abbassamento del bitrate) ecc ecc ma il file risultante è completamente diverso e più povero contenutisticamente parlando rispetto al file originario )
h265 e gli altri algoritmi di compressione multimediale sono così gravosi non perchè comprimono di più ma perchè tagliano di più e in modo più furbo ovvero fanno molteplici passate sul file per decidere cosa e dove tagliare
Hard disk da 100 TB nel 2025?
Per SanDisk avremo SSD da 8TB l'anno prossimo, da 16TB nel 2016:
http://www.theregister.co.uk/2014/11/25/sandisk_intel_stalls_and_well_have_16tb_ssd_by_2016/
Se proviamo ad estrapolare le possibili capienze per il 2025 per questi dispositivi...
roccia1234
02-12-2014, 11:09
Le leggi della fisica e della matematica sono universali eh?
L'informatica è naturale quanto la matematica che la governa.
I dati in un sistema informatico sono codificati come sequenza di 0 e di 1, quindi se un file è per esempio "1001111010" potrà essere compresso un pochino, ma se lo vuoi leggere deve tornare come era prima, non è umanamente possibile comprimerlo facendolo diventare una roba tipo "101" perchè poi non c'è modo di tornare al file originario quando lo vuoi leggere.
Nella maggioranza dei casi la "compressione" toglie qualità al file compresso, che viene compensata da una intensa attività di elaborazione che ricrea sul momento ciò che è stato tolto durante la compressione, oppure semplicemente viene scartata e amen.
Salvo casi particolari, l'unica roba che necessita veramente di compressione decente è il comparto media, e non stanno certo polleggiando. mi pare che la codifica h.265 stia arrivando.
Dipende dalla compressione.
I compressori di file non eliminano alcuna informazione... ma comunque riducono le dimensioni del file individiando quelle sequenze che si ripetono e "sintetizzandole":
101010101010101010101010 può essere sintetizzato/compresso con:
12a, a=10 e hai una compressione (notevole, nel caso la sequenza sia particolarmente lunga) senza perdita di neanche di un bit di dati.
bobafetthotmail
02-12-2014, 22:52
Le leggi della fisica e matematica, geometria e quant'altro è naturale.
Lo "1001010..." non lo è.Ci sono dei limiti fisici e matematici oltre i quali non è possibile comprimere qualcosa senza perdere dati. Le leggi naturali si applicano anche a sistemi artificiali.
Perchè per quanto artificiali sono sistemi reali, fisici, non si scappa.
L'unico posto dove le leggi di natura non valgono è la fantasia, e l'informatica non è fantasia. :D
beh se 100=a 111=b 101=c
quello che hai scritto è compresso in
abc
e decomprimerlo all'indietroPer un computer una lettera è codificata con 8 bit quindi con 8 numeri, quindi occupa più spazio della sequenza che vuoi accorciare.
Ma concettualmente, se ci fosse un disco fisso che ha le celle che invece di essere solo o 0 o 1 possono avere chessò, 30 stati differenti (0, 1, 2, 3, ... 29), quello che dici tu si potrebbe fare e permetterebbe livelli di compressione molto maggiori di quanto è possibile se si lavora solo coi numeri binari.
Sembra che sia più facile fare dischi più capienti.
nella maggioranza dei casi la compressione non toglie contenuto informativo i vari algoritmi di compressione generici (quelli utilizzati dai software di compressione) sono completammente lossless in quanto un file alterato sarebbe inutile, Eh, intendevo dire compressione che vale la fatica. Con sistemi di compressione normali non si supera il 50% salvo casi particolari (compressione di testi, che non occupano tutto sto gran spazio neanche in partenza), non è paragonabile al livello di compressione che si ottiene coi media.
h265 e gli altri algoritmi di compressione multimediale sono così gravosi non perchè comprimono di più ma perchè tagliano di più e in modo più furbo ovvero fanno molteplici passate sul file per decidere cosa e dove tagliareNon esattamente. Gli algoritmi di compressione multimediale come l'h264 e l'h265 fanno dei giochini sfruttando il fatto che un filmato è una sequenza di immagini con soggetto relativamente simile, quindi si segnano solo i pixel che cambiano e di cosa cambiano (algoritmi più o meno efficienti).
Sono gravosi perchè il file in sè non contiene affatto una gran parte dei dati che poi vedi sullo schermo, solo le istruzioni per ricreare il filmato sul momento. Come un qualsiasi file compresso del resto, solo che un filmato viene sempre e solo decodificato sul momento, mentre un file compresso lo puoi anche estrarre e lavorarci su con calma.
Parlando di file a parita di risoluzione e profondità colori eccetera eccetera.
Quindi riescono ad essere lossy senza darlo a vedere più di tanto, ed è così che se la cavano con livelli di compressione pazzeschi (rispetto ad un file di acquisizione non compresso che occupa un botto di spazio).
Personaggio
03-12-2014, 10:54
Sono molto contento che si spinga la densità dei dati con tecnologie avveniristiche, un hdd da 100 tera lo accoglierei volentieri.
Certo che mi cadono le braccia quando vedo che chi ne fa uso lo fa per 1100 film piratati a 4k :(
Vorrei fossero usati per motivi migliori
Dove vivo, in Spagna. Scaricare e/o condividere materiale protetto d'autore per scopi diversi dal lucro è perfettamente legale. Anche mostrare o vedere per esempio eventi in diretta in streaming come le partite di calcio è perfettamente legale.
Alodesign
03-12-2014, 11:26
Ci sono dei limiti fisici e matematici oltre i quali non è possibile comprimere qualcosa senza perdere dati. Le leggi naturali si applicano anche a sistemi artificiali.
Perchè per quanto artificiali sono sistemi reali, fisici, non si scappa.
L'unico posto dove le leggi di natura non valgono è la fantasia, e l'informatica non è fantasia. :D
Per un computer una lettera è codificata con 8 bit quindi con 8 numeri, quindi occupa più spazio della sequenza che vuoi accorciare.
Ma concettualmente, se ci fosse un disco fisso che ha le celle che invece di essere solo o 0 o 1 possono avere chessò, 30 stati differenti (0, 1, 2, 3, ... 29), quello che dici tu si potrebbe fare e permetterebbe livelli di compressione molto maggiori di quanto è possibile se si lavora solo coi numeri binari.
Ma è quello che si cerca di spiegare. I limiti ci sono, se voglio mettere un cubo di cemento su cui ci sono scritte informazioni, all'interno di un cubo di vetro vuoto, posso farlo finchè quel cubo di cemento ha dimensioni tali da entrarci.
Ma se io le informazioni al posto di scriverle su un cubo di cemento le scrivo su un cubo pieno di piume, potrò comprimerlo di più e farci stare più informazioni.
Se quelle informazioni le scrivo sugli atomi dell'elio, potrò avere ancora più informazioni contenute nel cubo di vetro.
Se la mia informazione che è solo una "a" ed è composta di otto 1 e O, potrò scriverla meno volte rispetto a una "a" scritta con tre 1 e 0.
Mi sa che non si capisce un cavolo. Quello che voglio dire è che il metodo di partenza dell'informatica, per la codifica di "tutto", limita le compressioni di file.
bobafetthotmail
03-12-2014, 12:36
Se la mia informazione che è solo una "a" ed è composta di otto 1 e O, potrò scriverla meno volte rispetto a una "a" scritta con tre 1 e 0.Eh, ma così limiti il numero di lettere alle possibili combinazioni di tre cifre di 1 e 0, che sono 8. Non va bene.
Le lettere sono a 8 bit per questioni di possibili combinazioni di numeri (cioè quantità di lettere/simboli codificabili dal sistema), non è stato deciso arbitrariamente così perchè 8 bit era più bello che 3 bit. 8 bit = 256 combinazioni possibili = 256 simboli/lettere codificabili dal sistema.
Per una immagine si scappa ancora meno. Ogni pixel deve avere un colore, e più è lungo il numero che indica il colore/luminosità/chessò più possibili combinazioni puoi avere, cioè più colori/luminosità/chessò puoi avere nel tuo file.
Mi sa che non si capisce un cavolo. Quello che voglio dire è che il metodo di partenza dell'informatica, per la codifica di "tutto", limita le compressioni di file.Intendi dire le dimensioni iniziali del file forse. Comprimere un file dipende da quante sequenze di numeri ripetute ci sono (poi varia in base a quanto è buono l'algoritmo che le trova).
Se i file sono codificati da una sequenza di due cifre come 0 e 1 è molto meglio per un algoritmo di compressione, perchè è più probabile che ci siano sequenze ripetute, rispetto che un file codificato con numeri da 0 a 9, che occupa meno spazio (meno celle su disco) ma è più difficile da comprimere causa minor probabilità di sequenze ripetute.
Come ho detto io nel post sopra, se fai dei dischi che hanno celle che possono avere 10 stati invece che solo 2 (quindi tengono tutti i numeri da 0 a 9), hai un sistema di memoria molto più efficiente, in teoria.
Per dire, 9 scritto in binario è "1001" quindi se un disco usa una sola cella per tenere un bel "9" (scritto come stato singolo) invece che 4 celle per tenere il numero in binario, hai appena moltiplicato per 4 la capacità del singolo disco.
Se non lo hanno fatto è perchè fare una roba del genere significherebbe usare un sistema di memoria con celle singole molto più complesse, dato che devono poter avere 10 stati differenti invece che semplicemente "acceso" o "spento".
Il messaggio che sto cercando di far passare è che non è che gli tira il :ciapet: fare sistemi migliori come a certi produttori di giochi per pc/console che non ottimizzano neanche a piangere.
Ci sono limitazioni, e grosse, imposte dalla realtà, che non riesci ad aggirare neanche se cambi il sistema.
La compressione fa quello che può ma è una strada in salita di complessità e potenza di calcolo richieste.
Aumentare le dimensioni dei sistemi di memorizzazione attuali è il sistema di gran lunga più semplice e comodo, eventualmente passando a sistemi di memorizzazione 3D che sfruttano tutto il volume del qualcosa su cui scrivono, e non solo la superficie come per i dischi convenzionali.
Personaggio
03-12-2014, 15:42
Sul mio PC creare un H265 (potete vedere in copia il PC) senza perdita rispetto al BR e alla massima qualità possibile va alla velocità di 0.14FPS (caso che usi quando converti dal 3D del BR al 3D SBS e non puoi fare il remux), un film di 2 ore ha circa 180'000 Frame, fate voi i conti. Per fare un H264 mi bastano 3 ore (16FPS). Praticamente per guadagnare il 50% dello spazio devo aspettare un tempo 115 volte superiore. H265 esiste da più di un anno ed è ancora raro proprio per la sua richiesta esosa di risorse. Sui media potremmo migliorare ancora, usciranno un H266, H267 ecc e ogni volta si dimezzerà la dimensione a parità di qualità, il problema sta tutto nella capacità di elaborazione. L'H265 non lo usano neanche le Major perché é troppo costoso e oggi su un BR-50 entrano tranquillamente 2 ore di film HD piú 1 ora di speciali in SD. Per far entrare un 4k in un BR devi usare un BR-50 a doppia faccia (50GB per lato) con H265, sarà l'unica maniera per sfruttare gli stessi supporti con l'UHD, quindi saranno obbligati, anche se te lo faranno pagare 50€ probabilmente.
Sui media potremmo migliorare ancora, usciranno un H266, H267 ecc e ogni volta si dimezzerà la dimensione a parità di qualità, il problema sta tutto nella capacità di elaborazione.
No, anche usando algoritmi derivati dalla teoria del compressed sensing, esiste comunque un limite qualitativo asintotico insuperabile (la quantità d'informazione minima per "recuperare" il contenuto noto l'algoritmo di compressione) a prescindere dalla capacità di elaborazione disponibile.
Per dirla in un altro modo: se hai N bit poi rappresentare 2^N valori diversi quindi un algoritmo di decompressione AL MASSIMO può "espandere" quegli N bit in 2^N contenuti decompressi diversi, magari ogni "contenuto decompresso" occupa 1Gbyte , ma sono comunque "solo" 2^N le differenti imamgini, film, file audio ecc. che puoi ricavare dagli N bit.
Personaggio
03-12-2014, 19:32
No, anche usando algoritmi derivati dalla teoria del compressed sensing, esiste comunque un limite qualitativo asintotico insuperabile (la quantità d'informazione minima per "recuperare" il contenuto noto l'algoritmo di compressione) a prescindere dalla capacità di elaborazione disponibile.
Per dirla in un altro modo: se hai N bit poi rappresentare 2^N valori diversi quindi un algoritmo di decompressione AL MASSIMO può "espandere" quegli N bit in 2^N contenuti decompressi diversi, magari ogni "contenuto decompresso" occupa 1Gbyte , ma sono comunque "solo" 2^N le differenti imamgini, film, file audio ecc. che puoi ricavare dagli N bit.
Certo ma se parliamo della stessa cosa. Ma se l'origine aumenta di risoluzione hai più margine. L'h265 se lo usi per convertire un SD guadagni molto poco rispetto ad un H264, il guadagno massimo lo hai con il 4k. poi magari l'h266 sarà efficiente per l'8k.
mercato solo per aziende e server visto che agli utenti domestici bastano e avanzano 500Gb/1Tb. Non credo usciranno mai pc o tablet con dischi da 100Tb :D
Questa mia affermazione tanto criticata da per scontato che nel 2025 nessuno più avrà un archivio film a casa se non per sfizio, come tanti oggi hanno un archivio di videocassette. Inutili ormai!
Nel 2025 l'unico archivio sarà quello delle fotografie digitali che non penso raggiungeranno cifre dei tera e tera, i film saranno tutti in streaming on demand ad elevata qualità.
Anche l'archivio musicale andrà sparendo, con tutte le possibilità di ascoltare la musica in streaming che senso avrebbe?
Tutti i giorni maneggio pc di persone che mediamente hanno dai 50 ai 100Gb di dati e la maggior parte sono foto, per il resto documenti e qualche altra cagatina
bobafetthotmail
07-12-2014, 17:20
Nel 2025 l'unico archivio sarà quello delle fotografie digitali che non penso raggiungeranno cifre dei tera e tera, i film saranno tutti in streaming on demand ad elevata qualità.Improbabile. Almeno per l'italia.
Alodesign
08-12-2014, 20:12
guarda che gli algoritmi di compressione sono "matematica", non pezzi di hardware/software.
Non hai capito cosa voglio dire io. Non è la "compressione" il problema, è il file che tenti di comprimere che genera il problema.
Streaming? Perché i dati in streaming dove risiedono? Nell'aria?
roccia1234
09-12-2014, 07:13
Questa mia affermazione tanto criticata da per scontato che nel 2025 nessuno più avrà un archivio film a casa se non per sfizio, come tanti oggi hanno un archivio di videocassette. Inutili ormai!
Nel 2025 l'unico archivio sarà quello delle fotografie digitali che non penso raggiungeranno cifre dei tera e tera, i film saranno tutti in streaming on demand ad elevata qualità.
Anche l'archivio musicale andrà sparendo, con tutte le possibilità di ascoltare la musica in streaming che senso avrebbe?
Tutti i giorni maneggio pc di persone che mediamente hanno dai 50 ai 100Gb di dati e la maggior parte sono foto, per il resto documenti e qualche altra cagatina
Streaming? In italia???
Abbiamo a malapena servizi di streaming musicale.
Per lo steaming video a prezzi interessanti (netflix) chissà quanto dovremo aspettare. Per ora dobbiamo accontentarci di servizi on-demand di qualità discutibile (ad essere buoni).
Inoltre, per lo streaming in alta definizione serve banda. Tanta banda. Per un contenuto fullHD con audio 5.1 ed una compressione decente (leggi: un buon compromesso tra qualità e dimensione, senza che squadretti) servono tra i 15 e i 20 mbit. SOLO per UN video.
La stragrande maggioranza di italiani è inchiodata a 7 mbit. Chi arriva a 20 mbit può ritenersi fortunato. I pochi coperti da fibra ancora di più.
Poi tra 10 anni molto probabilmente il 4k/265 sarà uno standard, con video ancora più grossi e richieste di banda ancora maggiori.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.