Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
Pensato per il professionista sempre in movimento, HP Elitebook Ultra G1i 14 abbina una piattaforma Intel Core Ultra 7 ad una costruzione robusta, riuscendo a mantenere un peso contenuto e una facile trasportabilità. Ottime prestazioni per gli ambiti di produttività personale con un'autonomia lontano dalla presa di corrente che permette di lavorare per tutta la giornata
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Il REDMAGIC Astra Gaming Tablet rappresenta una rivoluzione nel gaming portatile, combinando un display OLED da 9,06 pollici a 165Hz con il potente Snapdragon 8 Elite e un innovativo sistema di raffreddamento Liquid Metal 2.0 in un form factor compatto da 370 grammi. Si posiziona come il tablet gaming più completo della categoria, offrendo un'esperienza di gioco senza compromessi in mobilità.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 03-11-2012, 08:01   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: http://www.businessmagazine.it/news/...lta_44478.html

L'istituto di ricerca A*STAR di Singapore dimostra la possibilità di realizzare hard disk con densità di informazione dieci volte superiore a quanto possibile con le tecnologie attuali

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 03-11-2012, 09:00   #2
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14734
50TB, che è più o meno quanto si prevedeva con tecnologie HAMR per il 2016.

Strano dato comunque, dato che la densità per quest'ultima tecnologia si sarebbe dovuta attestare a circa 1/5, ossia 2000Gb/inch^2, almeno stando a quanto riportato in questa news.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 03-11-2012, 14:49   #3
Perseverance
Senior Member
 
L'Avatar di Perseverance
 
Iscritto dal: Jul 2008
Messaggi: 8155
Però la velocità di lettura\scrittura in rapporto alla dimensione sarà sempre la stessa, immagino percio tempi biblici (sulle 12 ore) per duplicare un hardisk con questa tecnologia.
__________________
System Failure
Perseverance è offline   Rispondi citando il messaggio o parte di esso
Old 03-11-2012, 15:44   #4
sbudellaman
Senior Member
 
Iscritto dal: Mar 2009
Messaggi: 6735
Tutto sto spazio non mi serve... chissà che non arrivi il giorno in cui mi farò bastare l'ssd, considerando quanto in fretta cala di prezzo non è così impossibile nel giro di qualche anno...
__________________
Trattato positivamente con: jhon16, orso232, JacopoSr, cirano76, enrikinter, firestorm90, giulio81
sbudellaman è offline   Rispondi citando il messaggio o parte di esso
Old 03-11-2012, 16:52   #5
andbad
Senior Member
 
L'Avatar di andbad
 
Iscritto dal: Dec 1999
Messaggi: 5318
Quote:
Originariamente inviato da Perseverance Guarda i messaggi
Però la velocità di lettura\scrittura in rapporto alla dimensione sarà sempre la stessa, immagino percio tempi biblici (sulle 12 ore) per duplicare un hardisk con questa tecnologia.
Errato. La velocità di trasferimento aumenterà in proporzione, visto che per unità di tempo potranno essere letti più dati. Purtroppo aumenterà anche il tempo di accesso.
In ogni caso, i dischi meccanici stanno andando verso l'archiviazione pura, soppiantati dagli SSD. Tra 2 o 3 anni, nei PC avremo solo SSD ed gli HD serviranno solo come archiviazione. Presumo che i NAS casalinghi avranno un'ampia espansione.

By(t)e
__________________
Vicking73: "Arecibo è un radiotelescopio che stà in Brasile"
marzionieddu: "...stiamo cercando qualcosa nel totale silenzio cosmico..."
andbad è offline   Rispondi citando il messaggio o parte di esso
Old 03-11-2012, 18:30   #6
avvelenato
Senior Member
 
L'Avatar di avvelenato
 
Iscritto dal: Aug 2003
Città: Legnano (MI)
Messaggi: 4901
Quote:
Originariamente inviato da andbad Guarda i messaggi
Errato. La velocità di trasferimento aumenterà in proporzione, visto che per unità di tempo potranno essere letti più dati. Purtroppo aumenterà anche il tempo di accesso.
In ogni caso, i dischi meccanici stanno andando verso l'archiviazione pura, soppiantati dagli SSD. Tra 2 o 3 anni, nei PC avremo solo SSD ed gli HD serviranno solo come archiviazione. Presumo che i NAS casalinghi avranno un'ampia espansione.
By(t)e
oppure il cloud storage diventerá una commodity di massa e gli hard disk tradizionali verranno usati solo nelle server farm.
avvelenato è offline   Rispondi citando il messaggio o parte di esso
Old 03-11-2012, 18:42   #7
roccia1234
Senior Member
 
Iscritto dal: Jun 2006
Messaggi: 15524
Quote:
Originariamente inviato da avvelenato Guarda i messaggi
oppure il cloud storage diventerá una commodity di massa e gli hard disk tradizionali verranno usati solo nelle server farm.
Per sostituire il nas/hdd esterno con un servizio cloud (è questo quello di cui parli, vero?) serve una connessione con un'elevatissima velocità in up e in down: una 100 megabit simmetrica sarebbe il minimo sindacale per poter leggere e scrivere senza diventare vecchi.
roccia1234 è offline   Rispondi citando il messaggio o parte di esso
Old 03-11-2012, 19:41   #8
andbad
Senior Member
 
L'Avatar di andbad
 
Iscritto dal: Dec 1999
Messaggi: 5318
Quote:
Originariamente inviato da roccia1234 Guarda i messaggi
Per sostituire il nas/hdd esterno con un servizio cloud (è questo quello di cui parli, vero?) serve una connessione con un'elevatissima velocità in up e in down: una 100 megabit simmetrica sarebbe il minimo sindacale per poter leggere e scrivere senza diventare vecchi.
Ecco appunto...se poi il cloud è come Megavideo, preferisco un bel nas in casa ridondato. Per uppare tutte le mie foto in cloud (circa 500gb) ci sono dietro da un anno ormai...

By(t)e
__________________
Vicking73: "Arecibo è un radiotelescopio che stà in Brasile"
marzionieddu: "...stiamo cercando qualcosa nel totale silenzio cosmico..."
andbad è offline   Rispondi citando il messaggio o parte di esso
Old 03-11-2012, 21:07   #9
moddingpark
Senior Member
 
L'Avatar di moddingpark
 
Iscritto dal: Oct 2006
Città: Ovunque, da nessuna parte, nel mio case.
Messaggi: 514
Quote:
Originariamente inviato da avvelenato Guarda i messaggi
oppure il cloud storage diventerá una commodity di massa e gli hard disk tradizionali verranno usati solo nelle server farm.
Per quanto mi riguarda non sarà così, non dopo aver sentito dei grossi disservizi che si sono avuti la settimana scorsa solo per colpa dell'uragano Sandy.
__________________
Cooler Master Wave Master | Corsair HX750i | Gigabyte Z97X-UD3H | Intel i5-4690K @ 4.4GHz + Noctua NH-D15S | G.Skill 16 GB DDR3-1866 @ 2400 MHz | Zotac nVidia GTX1080 Mini | Samsung SSD 840 Pro 256 GB + Seagate Ironwolf 2TB | BluRay HD-DVD Combo LG GGW-H20L | Acer H257HU 25" IPS | AIWA NSX-V25 45W x 2 RMS + Headset 5.1 Sharkoon X-Tatic Pro || Logitech G15 | Logitech G500 + Razer eXactMat
moddingpark è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2012, 09:54   #10
SuperMater
Senior Member
 
L'Avatar di SuperMater
 
Iscritto dal: Jun 2006
Città: Salerno
Messaggi: 669
Quote:
Originariamente inviato da andbad Guarda i messaggi
Errato. La velocità di trasferimento aumenterà in proporzione, visto che per unità di tempo potranno essere letti più dati. Purtroppo aumenterà anche il tempo di accesso.
By(t)e
No, che siano riusciti ad aumentare la densità non vuol dire che ci sia il dispositivo bello è pronto a leggere con lo stesso regime, non è assolutamente scontato, anzi...
__________________
CPU: Pentium E6600, MB: Asus P5KC, GPU: Ati Radeon HD5670, Monitor: Samsung SyncMaster 19'' 957p, Router: 3Com OfficeConnect - 3CRWDR100A-72. Ho trattato con: socialscalator, BigPincer, m4nu, DJnat, Gekker, galaverna
SuperMater è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2012, 12:00   #11
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14734
Quote:
Originariamente inviato da SuperMater Guarda i messaggi
No, che siano riusciti ad aumentare la densità non vuol dire che ci sia il dispositivo bello è pronto a leggere con lo stesso regime, non è assolutamente scontato, anzi...
Guardando a quanto sempre avvenuto in passato, ha ragione.
L'aumento di densità, a parità di regime di rotazione, ha sempre portato ad un aumento della velocità di lettura/scrittura, e talvolta ad un aumento delle latenze (di solito mascherato con i miglioramenti tecnologici tra una generazione e l'altra).
Questo perchè il problema non è mai stato far scrivere le testine più velocemente, ma semplicemente raggiungere i dati più velocemente.
All'aumentare della densità sei in grado di raggiungere più dati nella stessa unità di tempo, quindi la velocità aumenta.
Per quanto riguarda la velocità (ma non la latenza) si ottengono cioè gli stessi risultati di un aumento del numero di giri.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2012, 12:33   #12
flapane
Senior Member
 
L'Avatar di flapane
 
Iscritto dal: Dec 2003
Città: D-NRW, I-CAM
Messaggi: 8019
Quote:
Originariamente inviato da avvelenato Guarda i messaggi
oppure il cloud storage diventerá una commodity di massa e gli hard disk tradizionali verranno usati solo nelle server farm.
I miei dati preferisco tenerli in supporti che posso vedere con i miei occhi per 101 motivi diversi, grazie.
A ciò, aggiungici la situazione delle reti italiane.
__________________
Visit my site www.flapane.com - MY BLOG - MY GALLERY - MY Linux/OSX Repository
MBP Retina 13'' i7 2.5ghz (2017) - One Plus 7+ - Sony a6000/16-50 - VDSL 100/40Mbps
flapane è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2012, 14:16   #13
SuperMater
Senior Member
 
L'Avatar di SuperMater
 
Iscritto dal: Jun 2006
Città: Salerno
Messaggi: 669
Quote:
Originariamente inviato da Perseverance Guarda i messaggi
Però la velocità di lettura\scrittura in rapporto alla dimensione sarà sempre la stessa, immagino percio tempi biblici (sulle 12 ore) per duplicare un hardisk con questa tecnologia.
Quote:
Originariamente inviato da andbad Guarda i messaggi
Errato. La velocità di trasferimento aumenterà in proporzione, visto che per unità di tempo potranno essere letti più dati. Purtroppo aumenterà anche il tempo di accesso.
In ogni caso, i dischi meccanici stanno andando verso l'archiviazione pura, soppiantati dagli SSD. Tra 2 o 3 anni, nei PC avremo solo SSD ed gli HD serviranno solo come archiviazione. Presumo che i NAS casalinghi avranno un'ampia espansione.

By(t)e
Quote:
Originariamente inviato da SuperMater Guarda i messaggi
No, che siano riusciti ad aumentare la densità non vuol dire che ci sia il dispositivo bello è pronto a leggere con lo stesso regime, non è assolutamente scontato, anzi...
Quote:
Originariamente inviato da calabar Guarda i messaggi
Guardando a quanto sempre avvenuto in passato, ha ragione.
L'aumento di densità, a parità di regime di rotazione, ha sempre portato ad un aumento della velocità di lettura/scrittura, e talvolta ad un aumento delle latenze (di solito mascherato con i miglioramenti tecnologici tra una generazione e l'altra).
Questo perchè il problema non è mai stato far scrivere le testine più velocemente, ma semplicemente raggiungere i dati più velocemente.
All'aumentare della densità sei in grado di raggiungere più dati nella stessa unità di tempo, quindi la velocità aumenta.
Per quanto riguarda la velocità (ma non la latenza) si ottengono cioè gli stessi risultati di un aumento del numero di giri.
Ho letto un post dove veniva dato come sbagliato che ci vorranno ore per leggere un disco con questa tecnologia, io ho risposto che NON SI SA se verranno raggiunte queste prestazioni, non ho detto che è giusto o sbagliato, o adesso si può dare ragione basandosi su una previsione?

Se postate una fonte attendibile dove si rivendica questa caratteristica prestazionale, io serenamente di darò ragione, altrimenti parliamo di aria fritta.

Finisco dicendo che se avete questa convinzione, vi ricordo (visto che il calcolo l'avete già fatto) che per leggere un disco da 50TB in meno di 12 ore (tralasciando interfacce) è necessaria una velocità di circa 1 GB al secondo.
__________________
CPU: Pentium E6600, MB: Asus P5KC, GPU: Ati Radeon HD5670, Monitor: Samsung SyncMaster 19'' 957p, Router: 3Com OfficeConnect - 3CRWDR100A-72. Ho trattato con: socialscalator, BigPincer, m4nu, DJnat, Gekker, galaverna
SuperMater è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2012, 15:35   #14
andbad
Senior Member
 
L'Avatar di andbad
 
Iscritto dal: Dec 1999
Messaggi: 5318
Quote:
Originariamente inviato da SuperMater Guarda i messaggi
Ho letto un post dove veniva dato come sbagliato che ci vorranno ore per leggere un disco con questa tecnologia, io ho risposto che NON SI SA se verranno raggiunte queste prestazioni, non ho detto che è giusto o sbagliato, o adesso si può dare ragione basandosi su una previsione?

Se postate una fonte attendibile dove si rivendica questa caratteristica prestazionale, io serenamente di darò ragione, altrimenti parliamo di aria fritta.

Finisco dicendo che se avete questa convinzione, vi ricordo (visto che il calcolo l'avete già fatto) che per leggere un disco da 50TB in meno di 12 ore (tralasciando interfacce) è necessaria una velocità di circa 1 GB al secondo.
Allora, è vero che non possiamo averne la certezza, ma è una previsione del tutto plausibile. A parità di velocità di rotazione, la testina può leggere un numero maggiore di dati (proprio per via della densità maggiore). L'interfaccia non è certo un collo di bottiglia (SATA 3 arriva a 600MB/s).
Con un calcolo spannometrico, considerata la densità 10 volte maggiore, non è implausibile un aumento della velocità di 6-8 volte. Dunque dagli attuali 100MB al secondo dovremmo raggiungere i 600-800MB. A conti fatti, per trasferire 50TB dovrebbero volerci circa 24 ore, nell'ipotesi meno ottimistica e senza evoluzioni nella velocità delle interfacce.
La domanda, in ogni caso, è: quante volte capiterà di trasferire 50TB in una botta sola?

By(t)e
__________________
Vicking73: "Arecibo è un radiotelescopio che stà in Brasile"
marzionieddu: "...stiamo cercando qualcosa nel totale silenzio cosmico..."
andbad è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2012, 15:36   #15
andbad
Senior Member
 
L'Avatar di andbad
 
Iscritto dal: Dec 1999
Messaggi: 5318
Comunque un buon link è questo:
http://www.tomshw.it/cont/articolo/h...i/25703/1.html

By(t)e
__________________
Vicking73: "Arecibo è un radiotelescopio che stà in Brasile"
marzionieddu: "...stiamo cercando qualcosa nel totale silenzio cosmico..."
andbad è offline   Rispondi citando il messaggio o parte di esso
Old 05-11-2012, 09:27   #16
RAEL70
Senior Member
 
L'Avatar di RAEL70
 
Iscritto dal: Aug 2010
Messaggi: 2777
Hard disk da 50 Tb, magari un giorno arriveranno quelli da 500 e/o da 1000...

Va tutto bene però mi domando se all'aumentare della capacità non cresca, in maniera esponenziale, il rischio della perdita dei dati e se il gioco valga la candela.

Ai posteri la risposta...
RAEL70 è offline   Rispondi citando il messaggio o parte di esso
Old 05-11-2012, 22:49   #17
Tennic
Senior Member
 
Iscritto dal: May 2010
Messaggi: 5347
Quote:
Originariamente inviato da RAEL70 Guarda i messaggi
Hard disk da 50 Tb, magari un giorno arriveranno quelli da 500 e/o da 1000...

Va tutto bene però mi domando se all'aumentare della capacità non cresca, in maniera esponenziale, il rischio della perdita dei dati e se il gioco valga la candela.

Ai posteri la risposta...
La risposta non è ai posteri, ma possiamo anche darcela da ora
Possiedo computer dai vecchi 286, e ricordo i giganteschi HD da 270MB che pochi eletti avevano la fortuna di possedere nei primi anni 90... Ecco, la rottura di uno di questi significava perdere moltissimi documenti, programmini vari (magari creati dall'utente) ed altro... Ora, dopo 20 anni e più, abbiamo dischi con dimensioni di 10000 volte superiori (diciamo 3TB contro 300 MB)...Ed infatti, la mole di dati che potenzialmente si perdono con la rottura del disco è ben 10000 volte superiore... Va bene che i dati di ora sono molto più grandi che in passato (in soldoni, la dimensione media dei file è cresciuta di conseguenza), ma comunque si perdono GB e TB di dati in un colpo solo
Ergo, se la capacità di memorizzazione crescerà di pari passo nei prossimi 20 anni, avremo unità da 30000 TB, e pensate un po cosa vuol dire perdere una quantità simile di dati
A parte le disquisizioni matematiche, lavorando nell'IT da anni ho riscontrato che se non si ha un idoneo sistema di backup o ridondanza dati (raid), conviene suddividere i dati in piccole unità per ridurre i dati persi, piuttosto che mettere tutto dentro una unica gigantesca unità
Ad esempio, le pendrive... Lasciando perdere che su quelle più capienti posso mettere file più grandi, sinora è comprovato che la rottura di una pendrive da es 32 GB mi fa perdere 32GB di dati, esempio foto... Se le stesse fossero state ripartite in pendrive più piccole, ne avrei perse molte meno, a meno che non si rompono tutte le pendrive contemporaneamente

Penso di aver risposto con fatti ed esperienze (che abbiamo tutti avuto) riguardo il rischio di perdere più dati con unità più capienti

A meno che il futuro non ci riservi unità dischi estremamente capienti ma con RAID1 integrato, ossia piatti separati ed unità di controllo separate, in modo che alla rottura di un semi-disco il sistema avverta della necessità impellente di fare un backup di tutto, e consenta di farlo
Ma anche in questo caso non saremmo al sicuro da es. guasti elettrici che mettono fuori uso il disco nella sua interezza, bruciando l'intero array La soluzione rimane sempre il caro e vecchio backup
Tennic è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2012, 09:17   #18
andbad
Senior Member
 
L'Avatar di andbad
 
Iscritto dal: Dec 1999
Messaggi: 5318
Quote:
Originariamente inviato da Tennic Guarda i messaggi
La risposta non è ai posteri, ma possiamo anche darcela da ora
Possiedo computer dai vecchi 286, e ricordo i giganteschi HD da 270MB che pochi eletti avevano la fortuna di possedere nei primi anni 90... Ecco, la rottura di uno di questi significava perdere moltissimi documenti, programmini vari (magari creati dall'utente) ed altro... Ora, dopo 20 anni e più, abbiamo dischi con dimensioni di 10000 volte superiori (diciamo 3TB contro 300 MB)...Ed infatti, la mole di dati che potenzialmente si perdono con la rottura del disco è ben 10000 volte superiore... Va bene che i dati di ora sono molto più grandi che in passato (in soldoni, la dimensione media dei file è cresciuta di conseguenza), ma comunque si perdono GB e TB di dati in un colpo solo
Ergo, se la capacità di memorizzazione crescerà di pari passo nei prossimi 20 anni, avremo unità da 30000 TB, e pensate un po cosa vuol dire perdere una quantità simile di dati
A parte le disquisizioni matematiche, lavorando nell'IT da anni ho riscontrato che se non si ha un idoneo sistema di backup o ridondanza dati (raid), conviene suddividere i dati in piccole unità per ridurre i dati persi, piuttosto che mettere tutto dentro una unica gigantesca unità
Ad esempio, le pendrive... Lasciando perdere che su quelle più capienti posso mettere file più grandi, sinora è comprovato che la rottura di una pendrive da es 32 GB mi fa perdere 32GB di dati, esempio foto... Se le stesse fossero state ripartite in pendrive più piccole, ne avrei perse molte meno, a meno che non si rompono tutte le pendrive contemporaneamente

Penso di aver risposto con fatti ed esperienze (che abbiamo tutti avuto) riguardo il rischio di perdere più dati con unità più capienti

A meno che il futuro non ci riservi unità dischi estremamente capienti ma con RAID1 integrato, ossia piatti separati ed unità di controllo separate, in modo che alla rottura di un semi-disco il sistema avverta della necessità impellente di fare un backup di tutto, e consenta di farlo
Ma anche in questo caso non saremmo al sicuro da es. guasti elettrici che mettono fuori uso il disco nella sua interezza, bruciando l'intero array La soluzione rimane sempre il caro e vecchio backup
L'hai detto tu: un disco da 270MB una volta costava una follia. Un disco da 2TB, oggi (nonostante i guai metereologici) costa un'inezia. Il problema è che ancora il backup non è considerato importante.
Un NAS con due dischi in RAID 1 costa meno della metà di uno smartphone...ma quanti ne hanno uno dove salvare le migliaia di foto di famiglia?

By(t)e
__________________
Vicking73: "Arecibo è un radiotelescopio che stà in Brasile"
marzionieddu: "...stiamo cercando qualcosa nel totale silenzio cosmico..."
andbad è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2012, 09:25   #19
Tennic
Senior Member
 
Iscritto dal: May 2010
Messaggi: 5347
Quote:
Originariamente inviato da andbad Guarda i messaggi
L'hai detto tu: un disco da 270MB una volta costava una follia. Un disco da 2TB, oggi (nonostante i guai metereologici) costa un'inezia. Il problema è che ancora il backup non è considerato importante.
Un NAS con due dischi in RAID 1 costa meno della metà di uno smartphone...ma quanti ne hanno uno dove salvare le migliaia di foto di famiglia?

By(t)e
Purtroppo il backup è una di quelle cose che troppo tardi si rimpiange di non aver fatto
Del resto, i mezzi ci sono, i prezzi sono accessibili, pertanto non giustifico in alcun modo chi per sua scelta non lo fa... Poi, quando qualcuno piange "ho perso 500 GB di foto e video dei miei ultimi 20 anni", viene spontaneo dire "se erano così importanti perchè non li tenevi anche altrove?"
Del resto, come appunto dicevo, dischi più grandi contengono più dati, e quindi potenzialmente si bestemmia molto di più in caso di rottura
Ma ben vengano, considerando che comunque ci fanno comodo
Tennic è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2012, 09:47   #20
Baboo85
Senior Member
 
L'Avatar di Baboo85
 
Iscritto dal: Aug 2007
Città: Milano
Messaggi: 11981
Quote:
Originariamente inviato da avvelenato Guarda i messaggi
oppure il cloud storage diventerá una commodity di massa e gli hard disk tradizionali verranno usati solo nelle server farm.
Il cloud e' uno schifo allucinante, sotto tutti i punti di vista. Non e' sicuro, hai bisogno di una connessione molto veloce, bisogna pagare fior di soldi per avere lo stesso spazio che potresti avere in casa con pochi euro, non sai mai che fine fanno i tuoi dati (prendo l'esempio di megaupload, tanto per dire: servizio di file hosting, hanno chiuso e cancellato tutto senza pensare ai clienti che avevano i propri dati personali sopra, ne' pensando a chi aveva pagato per utilizzarlo legalmente)...

L'unica utilita' che ha e' solo per avere sempre a dietro quei 3-4 dati che ti servono, ovviamente avendo anche una copia sempre sul pc di casa. Vedi Dropbox che ha app sia su pc che su android e ios.


Concordo invece sul fatto che gli hard disk ormai sono solo per archiviazione dati e basta. Ma finche' costeranno meno degli SSD e finche' saranno piu' affidabili di questi, direi che la scelta per un hard disk tradizionale come secondario sara' ancora valida per un bel po'.
__________________
CLOUD STORAGE FREE | Asus G51JX (Thread Ufficiale) | Quale notebook per giocare? | PC (in corso): 2x Intel Xeon E5-2670 v1 2,6GHz - 96GB RAM - SAS 10-15k rpm - GPU TBD|
Baboo85 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto HP Elitebook Ultra G1i 14 è il notebook c...
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Gigabyte Aero X16 Copilot+ PC: tanta potenza non solo per l'IA Gigabyte Aero X16 Copilot+ PC: tanta potenza non...
BYD a caccia anche del settore del lusso...
I 5 sconti migliori su Amazon oggi: DJI,...
Questo SSD può contenere 12.500 f...
Stargate: il progetto AI da 500 miliardi...
L'Italia sfida i giganti tech sui dati: ...
Ora è possibile generare immagini...
Carplay permetterà di visualizzar...
C'è il primo caso mondiale di pat...
TIM offre gratis l'IA di Perplexity Pro ...
Roblox è una miniera d'oro: sedic...
Windows 11, addio difficili backup manua...
Il Regno Unito esclude la auto cinesi da...
PS5 Digital Edition con Fortnite e 1 TB ...
Microsoft Francia ammette di non poter p...
Apple Watch SE arriva al minimo storico ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 14:05.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1