View Full Version : Google analizza i dischi rigidi dei propri server
Redazione di Hardware Upg
20-02-2007, 12:15
Link alla notizia: http://www.hwupgrade.it/news/storage/20207.html
Molto interessanti i dati raccolti da Google nel corso di uno studio condotto sui dischi rigidi utilizzati sui propri server, che hanno riservato non poche sorprese
Click sul link per visualizzare la notizia.
Se però avessero reso disponibili anche i dati su i vari brand anche solo mascherandoli in brand1 brand2 ecc... sarebbe stato un pochettino più utile... cmq non c'è che dire,molto molto interessante, grazie Google
beh allora il miop disco fisso non si romperà mai... è sempre acceso^^
Zannawhite
20-02-2007, 12:29
Non posso dire altro che :sbavvv:
Alla faccia di tutte le fisime che ci stanno rincorrendo su ventole sempre più mastodontiche davanti ai nostri HDD, che se superano i 40°C il commento generale è :eekk:
http://forum.tgmonline.it/forum/images/smiley_icons/64.gif
Interessantissima questa analisi :D
Un test su un campione di 100 mila unita' e' davvero un caso unico! :eek:
Chissa' che i risultati possano essere d'aiuto alle case produttrici di dischi (in primis) e possano anche costituire una base per rivedere i parametri della tecnlogia SMART per avere questa volta un valore MTTF (stima del tempo al prossimo guasto) che abbia un senso.
sarebbe interessante capire se la questione della temperatura sia legata ai buchi presenti sull'hd...
se non altro hanno confermato quello che già si sapeva almeno come voce popolare... se un disco si rompe in un settore... è meglio cambiarlo subito...
ps.. sono contento di aver pagato la tecnologia smart...
avevo soldi che mi impicciavano in tasca..
azz, questa si che è una news interessantissima :)
certo che se pubblicassero i loro dati relativi alle marche...................:fiufiu:
MenageZero
20-02-2007, 12:43
veramente sorprendente ....
oltre ai dati + clamorosi emersi, sorprendente anche che google non usi scsi/sas... avevo sempre pensato che, oltre a maggiori prestazioni per la maggiore vel. di rotazione, vista la fascia di mercato pro a cui le unità con tali interfacce sono rivolte, ed i prezzi, i dischi scsi/sas fossero costruti in modo da fronire anche affidabilità sensibilmente maggiore... se ad un colosso dell'it come google,il quale ha un core-business in cui proprio gli hdd sono cosa fondamentale, scsi/sas proprio non interessa, forse ci sono d afare serie rivalutazioni anche su questo tipo di prodotti ...
poi, con "scandisk" (fa molto win 9x :D), si intende il controllo del disco di win ?
c'è anche un modo win-indipendente, significativo, ma semplice e rapido, per verificare l'insorgere dei problemi ? inoltre, ci sono altri test affidabili e magari ancor più dcisivi alla portata di tutti ?
(so che eventualmente anche altri os hanno tools analoghi, ma intendevo senza stare a installare un os solo per testare un disco...)
per esempio, le utilities di diagnostica e test, di cui non si parla, che tutti i produttori di hdd forniscono, sono vagamente affidabili o si basano sui dati SMART per la loro diagnosi dopo che hanno "testato" il disco ?
:wtf:
alexsky8
20-02-2007, 12:47
è ora di passare ai dischi solidi , forza Google almeno i prezzi possono scendere:D
molto interessante come news...altrettanto sarebbe conoscere almeno indicativamente i brand utilizzati ;)
Sig. Stroboscopico
20-02-2007, 12:55
L'ho sempre pensato... i progettisti degli HD devono aver tenuto conto delle temperature di esercizio medio.
Sarebbe folle non farlo.
Quindi raffreddare troppo può essere dannoso... raffreddare troppo poco lo stesso.
Sarebbe il caso di pensare a case con termostati che fanno partire le ventole solo per necessità effettiva.
Col costo dei case di fascia media, coi produttori che ne sfornano a decine di migliaia nei pre-assemblati, sarebbe il caso di cominciare a valutare soluzioni del genere.
Ciao!
veramente sorprendente ....
oltre ai dati + clamorosi emersi, sorprendente anche che google non usi scsi/sas... avevo sempre pensato che, oltre a maggiori prestazioni per la maggiore vel. di rotazione, vista la fascia di mercato pro a cui le unità con tali interfacce sono rivolte, ed i prezzi, i dischi scsi/sas fossero costruti in modo da fronire anche affidabilità sensibilmente maggiore... se ad un colosso dell'it come google,il quale ha un core-business in cui proprio gli hdd sono cosa fondamentale, scsi/sas proprio non interessa, forse ci sono d afare serie rivalutazioni anche su questo tipo di prodotti ...
poi, con "scandisk" (fa molto win 9x :D), si intende il controllo del disco di win ?
c'è anche un modo win-indipendente, significativo, ma semplice e rapido, per verificare l'insorgere dei problemi ? inoltre, ci sono altri test affidabili e magari ancor più dcisivi alla portata di tutti ?
(so che eventualmente anche altri os hanno tools analoghi, ma intendevo senza stare a installare un os solo per testare un disco...)
per esempio, le utilities di diagnostica e test, di cui non si parla, che tutti i produttori di hdd forniscono, sono vagamente affidabili o si basano sui dati SMART per la loro diagnosi dopo che hanno "testato" il disco ?
:wtf:
devo ancora leggere tutto il documento, ma mi pare di capire che abbiano incluso nel campione solo dischi p-ATA e s-ATA a 7200 e 5400 giri. Sebbene siano veramente tanti non si puo' escludere che ce ne siano altri, magari appunto SCSI o SAS.
Penso inoltre che abbiano utilizzato un tool come "scandisk" (non penso proprio sia quello di win9x o dos :D ) per poter analizzare a rotazione tutti i dischi senza dover fare l'unmount del volume..
Il documento resta comunque una delle analisi statistiche piu' interessanti per il mercato dell'informatica da un po' di tempo a questa parte! ;)
...il documento non dice assolutamente che il modello per la predizione di guasti basato sulle specifiche S.M.A.R.T è inutile, dice che (a pagina 12) la predizione basata solo sui dati provenienti dai parametri S.M.A.R.T non è sufficiente ad assicurare una "elevata" accuratezza.
La scansione a cui ci riferisce in questa frase "We find, for example, that after their first scan
error, drives are 39 times more likely to fail within 60
days than drives with no such errors." non è quella che si ha impartendo il comando scandisk ma è la analisi in background condotta internamente dalle varie unità hard disk (con modalità molto variabili a seconda del particolare tipo di firmware e del modello di hard disk).
S.M.A.R.T non è come inutile, semplicemente vanno interpretati con cognizione di causa i dati che esso produce.
La maggior parte degli utenti utilizza programmi di restituzione a schermo del valore dei parametri S.M.A.R.T che non mantengono internamente (ad una struttura dati da essi creata) una storia statistica della evoluzione dei vari parametri (l'unico programma che propone una analisi storico-statistica di questo tipo è DriveSitter).
Ciò è molto importante nelle unità A.T.A (parallele e non) che non hanno algoritmi di P.F.A (analisi predittiva dei guasti) come quelli definiti ed utilizzati nelle unità S.C.S.I/S.A.S.
S.M.A.R.T è derivato infatti dal sistema P.F.A ideato da I.B.M e che poi condusse ad opera del T13.org alla ratifica del suddetto S.M.A.R.T.
Altra cosa che spesso quando si parla di S.M.A.R.T non viene tenuta in considerazione o totalmente ignorata è che esso definisce due tipi di scansioni offline una a durata limitata e con spanning pseudo casuale della verifica di lettura dei settori, la seconda a "lunga durata" e che copre tutti gli L.B.A (ed i settori).
Altra cosa da dire è che S.M.A.R.T è basato su moltissimi studi teorici (e non) che sono reperibili in rete Internet; il problema della sua mancanza di accuratezza può sicuramente essere anche da imputare a come ed in che modo esso viene implementato nelle varie unità dai vari costruttori.
Seagate ad esempio oltre ai parametri definiti dallo standard mantiene il controllo e la analisi di altri parametri il cui significato è purtroppo di tipo "proprietario" e che quindi sfugge alla interpretazione da parte dei normali programmi di reporting dei dati S.M.A.R.T.
La suite smartmontools disponibile su sourceforge, permette ad esempio tramite un demone di effettuare la scansione di tipo long della intera superficie alla scadenza di un prefissato numero di ore.
Una sorta di subset dei background scan messi in opera alla ricerca di repairable errors da parte ad esempio dei pregiati Cheetah di Seagate.
Grazie.
Marco71.
Tant'è che il mio Hitachi secondo lo SMART stava benissimo :| Poi lanciando il tool di diagnostica suo in realtà era tutt'altro che così...
Vi dico solo che l'hd era per l'appunto raffreddato...
Ad ogni modo nn so voi ma io da consumatore VOGLIO sapere quale marca è più affidabile rispetto ad un'altra, in modo tale da costringere anche gli altri produttori a tenere in considerazione questo dato, purtroppo ultimamente sottovalutato.
Cmq presumo che tra queste ci siano Seagate e Western Digital...
oltre ai dati + clamorosi emersi, sorprendente anche che google non usi scsi/sas... avevo sempre pensato che, oltre a maggiori prestazioni per la maggiore vel. di rotazione, vista la fascia di mercato pro a cui le unità con tali interfacce sono rivolte, ed i prezzi, i dischi scsi/sas fossero costruti in modo da fronire anche affidabilità sensibilmente maggiore... se ad un colosso dell'it come google,il quale ha un core-business in cui proprio gli hdd sono cosa fondamentale, scsi/sas proprio non interessa, forse ci sono d afare serie rivalutazioni anche su questo tipo di prodotti ...
L'approccio di Google ai server è famoso: infatti da sempre ha prediletto estesi cluster di computer economici a costosi server di fascia alta. Dal punto di vista di costo/prestazioni la convenienza è palese. Per contro avere tanti computer, invece di pochi, li espone ad un maggiore tasso di rotture a parità di prestazioni, anche (evidentemente) per l'utilizzo di hardware meno sofisticato.
Ma è noto che Google abbia algoritmi proprietari molto sofisticati per la gestione degli errori (la perdita di un HD, infatti, non è un evenienza accidentale per loro, ma un fatto statistico) e quindi riescono ad ovviare al problema, inoltre con i loro algoritmi di clustering allo stato dell'arte riescono comuque ad ottenere le prestazioni necessarie (pazzesche!!) anche con hardware non al top.
Insomma alla fine quello che è importante è il software. Con le prestazioni di un processore che oggi possiamo avere in un cellulare la NASA ha portato l'uomo sulla Luna. Le prestazioni che abbiamo oggi sul desktop, superiori a quelle di un Cray degli anni '80 da 10 miloni di $$, spesso non sono sufficienti a far girare in modo decente un word processor o un OS come Vista...
cacchione
20-02-2007, 13:04
quindi dal momento che compaiono dei settori danneggiati (bad cluster) il rischio si fa altissimo (39 volte superiore), no? strano perchè ce n'è di gente con bad cluster che si tiene l' hard disk così com'è. il toshiba del mio portatile ne aveva un bel pò (in effetti dopo un pò è collassato :) )
sinceramente non mi sarei mai aspettato che sia una temperatura più alta che un utilizzo più frequente sia fattori che influenzino positivamente.
Zannawhite
20-02-2007, 13:10
...sinceramente non mi sarei mai aspettato che sia una temperatura più alta che un utilizzo più frequente sia fattori che influenzino positivamente.Quindi a questo punto, parlando da ignorante in materia specifica di HDD, posso pensare che il raffreddare un HDD comporta uno stress termico che a lungo andare viene a sfavore delle testine e del loro ciclo vita.
MiKeLezZ
20-02-2007, 13:12
I risultati non sono in controtendenza con ciò che la fisica ci suggerisce, evidentemente essendo gli HD in ultima analisi delle periferiche metalliche ad alta precisione, risentono maggiormente non tanto delle condizioni ambientali statiche quanto delle variazioni delle stesse, che a lungo andare creano nano-fratture sulla superficie o micro-spostamenti delle meccaniche che portano poi a vari errori.
Per questo sono stati premiati anche gli HD usati in modo continuativo, in realtà viene premiato il fatto che lavorino in una situazione quanto più stabile possibile.
C'è da fare attenzione però, perchè emerge un quadro simile a uno che si può trovare in natura, in pratica quelli più usati e che durano di più, lo sono perchè i modelli "meno forti" sono comunque deceduti nel breve periodo.
Inoltre potrebbe esserci anche una certa "carburazione", dove un eccessivo utilizzo nei primi mesi di vita possa danneggiarli.
Un qualcosa di simile lo ritroviamo anche nel caso della temperatura, troppo bassa sembra quindi deleteria, sopratutto nel breve periodo, suggerendoci che l'HD necessiti di un tempo di assestamento (allo stesso modo delle lampade a risparmio energetico che necessitano di alcuni minuti per scaldarsi e illuminarsi a pieno).
Alte temperature sono più deleterie con HD di vecchia data, il che è in linea con l'ipotesi del deterioramento dei materiali stessi di cui l'HD è fatto.
Certamente il discorso temperatura non può concludersi con un "la ventolina quindi è inutile", evidentemente la ventolina è ancora più utile se vista in questa prospettiva, sopratutto lato desktop, in quanto, essendo l'uso di questi PC molto discontinuativo (accendi/spegni) l'uso della ventolina riduce le escursioni di temperatura.
Purtroppo i parametri Smart sono molto meno utili per fare conclusioni. Le uniche sono che gli stessi parametri sono strumento predittivo inefficace (il che è alla base del PDF) e che, evidentemente, HD che mostrano già all'inizio problemi, solo peggioreranno la loro situazione.
Il quadro purtroppo è incompleto dato che mancano le statistiche per modello e per fabbricante, statistiche che come è scritto nel testo, sono particolarmente rappresentative (e di cui Google probabilmente terrà conto nella scelta dei loro prossimi HD e che non vuole divulgare non tanto per correttezza, quanto per dare egoisticamente utilità pratica a questo studio).
Hiei3600
20-02-2007, 13:26
Quindi a questo punto, parlando da ignorante in materia specifica di HDD, posso pensare che il raffreddare un HDD comporta uno stress termico che a lungo andare viene a sfavore delle testine e del loro ciclo vita.
E' quello che ho sempre pensato anch'io:Una temperatura stabile è meglio di una forzata(Che tende non sempre ad essere stabile,specialmente nel caso della ventola).Inoltre,spegnere/accendere spesso l'HD comporta un cambio frequente di temperature e quindi di stress meccanici.
P.S.
Qualcuno mi da un mano in questo post:
http://www.hwupgrade.it/forum/showthread.php?t=1411417
Molto interessante ... sicuramente è un Test che nessun altro puo riproporre a quei livelli di componenti confrontate ... ;)
E' molto interessante ... la teoria che ne risulta è opposta a quello che pensavo io sull'usura e sulle cause di rottura degli hd ..
proprio ciò che mi serviva, interessante...
ehm...visto che siamo in tema, se qualcuno ha qualche suggerimento....:stordita:
http://www.hwupgrade.it/forum/showthread.php?t=1409370&goto=newpost
PrezerDj
20-02-2007, 13:53
tutto è possibile, però mi sembra strano che un disco raffreddato con una ventolina sia + a rischio di uno non raffreddato...
se l'hd lavora a 10° può essere, però mi sembra strano che il mio hd che lavora a 23° in inverno si danneggi... bisognerebbe capire qual'è il range di temperature di lavoro e quali temperature invece sono fuori norma...
si può trovare da qualche parte un informazione simile?
PrezerDj
20-02-2007, 14:06
ho trovato questo articolo che aldilà di quello che dice sul programma parla di 10°C
"I computer attuali usano dispositivi per dissipare il calore: infatti, quando la temperatura di un hard disk supera i 10°C, la percentuale delle sue prestazioni diminuisce rapidamente"
http://www.programmazione.it/index.php?entity=eitem&idItem=35290
mi sembra un po' strano sarebbe bello sapere qualcosa da qualcuno che se ne intende davvero
...il documento non dice assolutamente che il modello per la predizione di guasti basato sulle specifiche S.M.A.R.T è inutile, dice che (a pagina 12) la predizione basata solo sui dati provenienti dai parametri S.M.A.R.T non è sufficiente ad assicurare una "elevata" accuratezza.
La scansione a cui ci riferisce in questa frase "We find, for example, that after their first scan
error, drives are 39 times more likely to fail within 60
days than drives with no such errors." non è quella che si ha impartendo il comando scandisk ma è la analisi in background condotta internamente dalle varie unità hard disk (con modalità molto variabili a seconda del particolare tipo di firmware e del modello di hard disk).
S.M.A.R.T non è come inutile, semplicemente vanno interpretati con cognizione di causa i dati che esso produce.
La maggior parte degli utenti utilizza programmi di restituzione a schermo del valore dei parametri S.M.A.R.T che non mantengono internamente (ad una struttura dati da essi creata) una storia statistica della evoluzione dei vari parametri (l'unico programma che propone una analisi storico-statistica di questo tipo è DriveSitter).
Ciò è molto importante nelle unità A.T.A (parallele e non) che non hanno algoritmi di P.F.A (analisi predittiva dei guasti) come quelli definiti ed utilizzati nelle unità S.C.S.I/S.A.S.
S.M.A.R.T è derivato infatti dal sistema P.F.A ideato da I.B.M e che poi condusse ad opera del T13.org alla ratifica del suddetto S.M.A.R.T.
Altra cosa che spesso quando si parla di S.M.A.R.T non viene tenuta in considerazione o totalmente ignorata è che esso definisce due tipi di scansioni offline una a durata limitata e con spanning pseudo casuale della verifica di lettura dei settori, la seconda a "lunga durata" e che copre tutti gli L.B.A (ed i settori).
Altra cosa da dire è che S.M.A.R.T è basato su moltissimi studi teorici (e non) che sono reperibili in rete Internet; il problema della sua mancanza di accuratezza può sicuramente essere anche da imputare a come ed in che modo esso viene implementato nelle varie unità dai vari costruttori.
Seagate ad esempio oltre ai parametri definiti dallo standard mantiene il controllo e la analisi di altri parametri il cui significato è purtroppo di tipo "proprietario" e che quindi sfugge alla interpretazione da parte dei normali programmi di reporting dei dati S.M.A.R.T.
La suite smartmontools disponibile su sourceforge, permette ad esempio tramite un demone di effettuare la scansione di tipo long della intera superficie alla scadenza di un prefissato numero di ore.
Una sorta di subset dei background scan messi in opera alla ricerca di repairable errors da parte ad esempio dei pregiati Cheetah di Seagate.
Grazie.
Marco71.
Ottime precisazioni ;)
technoboy2084
20-02-2007, 14:12
ho trovato questo articolo che aldilà di quello che dice sul programma parla di 10°C
"I computer attuali usano dispositivi per dissipare il calore: infatti, quando la temperatura di un hard disk supera i 10°C, la percentuale delle sue prestazioni diminuisce rapidamente"
http://www.programmazione.it/index.php?entity=eitem&idItem=35290
mi sembra un po' strano sarebbe bello sapere qualcosa da qualcuno che se ne intende davvero
secondo me intende non 10° celsius, ma 10° sopra la temperatura dell'HD a riposo.
alexsky8
20-02-2007, 14:30
un HD a 10°C ?
ma neppure appena acceso in inverno si trova sotto tale livello , io ho sentito dire che la temperatura dovrebbe essere compresa fra i 30 e i 35°C
PrezerDj
20-02-2007, 14:41
un HD a 10°C ?
ma neppure appena acceso in inverno si trova sotto tale livello , io ho sentito dire che la temperatura dovrebbe essere compresa fra i 30 e i 35°C
si, xò mi sembra strano che se il mio hd lavora a 23° rischia di rovinarsi di + di uno che lavora a 30, cosa che invece sembra dall'articolo e dai post precedenti... io non me ne intendo, però mi pare troppo strano
spero solo che passino alle varie case produttrici tutti questi dati, credo che un campione di 100k unità sia molto probante, imho altro fatto a parte che lo stress incide molto e quini il mio pc non avrà mai problemi di hd credo che anche i dischi s-ata siano affidabili per l'utente medio però resta il fatto che dove c'è qualche cosa che si muove è sempre più facile che ci sai un danno...è inevitabile...se si usassero dischi solidi i danni magari sarebbero solo dovuti a sbalzi di tensione e mai alla dinamica di funzionamento della periferica...però gran bello studio...
Fra_cool
20-02-2007, 14:53
Al contrario di molti, credo che ll scelta di non rivelare il failure rate in base alle marche ripari Google dall'accusa di essere pilotata da questo o quel produttore.
Però loro la ricerca in base a marca/modello l'hanno fatta, percui basterebbe sbirciare gli ordini futuri di hd per capire quali marche sono risultate migliori... ;)
Riguardo alla temperatura, dai grafici si nota anche che dopo la fase di mortalità infantile, i dischi raffreddati meglio (ma non troppo, cmq oltre i 30°C) tendono a guastarsi di meno rispetto a quelli più caldi, che dopo 2/3 anni rappresentano la maggior parte dei dischi rotti.
Ciò è anche indice che cmq la temperatura influenza l'invecchiamento dell'hd.
RIcordiamoci cmq che i dischi usati in server farm sono di solito sempre "a regime", quindi non subiscono le escursioni termiche tipiche di un pc desktop, che possono danneggiare un hd (e che possono essere evitate da una sufficiente ventilazione).
Ciao, Frà!
Da nessuna parte nel pdf c'è scritto che viene usato "scandisk", ed è naturale visto che quel programma esiste solo per Windows.
beh loro nn raffreddano direttamente l'hd ma l'intero locale dove si trovano i loro apparati sono a temperatura controllata e constante
nn credo ke nessuno in casa propria possa fare la stessa cosa
Io qui al lavoro ho il PC acceso (quasi) ininterrottamente da 4 anni. Poichè c'è l'aria condizionata, la lascio accesa anche di notte e nei fine settimana per far stare bene il PC, l'HD è un IBM da 120 giga. A parte i clac da ricalibrazione, una o due volte al giorno, il PC e il disco va bene. Ricordo che disabilitai lo spindown che per un periodo avevo messo. Abbiamo perso ultimamente un HD Lacie da 1T per colpa del risparmio energetico 8e visto che sono un RAID di due dischi da 500Gb ce la siamo cercata), che su MAC è problematico settare (si può solo abilitare o meno e non settare un timeout, almeno da GUI)... Ora è disabilitato...
Tutto il documento merita di essere letto ma volendo riassumere:
- le temperature tra 35° e 45° sembrano essere le migliori, quantomeno per come /dove vengono usati gli HDD nei server Google
- solo 4 parametri SMART sembrano in grado di predire guasti nei giorni/mesi a seguire (quando diversi da 0), ma...
- solo il 56% degli HDD danneggiati hanno uno di questi valori SMART superiori a 0
Questi 4 parametri SMART sono Scan Errors, Reallocation Counts, Offline Reallocation e Probational Counts.
Comunque complimenti a Google per l'ottimo lavoro di analisi.
PrezerDj
20-02-2007, 15:57
Tutto il documento merita di essere letto ma volendo riassumere:
- le temperature tra 35° e 45° sembrano essere le migliori, quantomeno per come /dove vengono usati gli HDD nei server Google
- solo 4 parametri SMART sembrano in grado di predire guasti nei giorni/mesi a seguire (quando diversi da 0), ma...
- solo il 56% degli HDD danneggiati hanno uno di questi valori SMART superiori a 0
Questi 4 parametri SMART sono Scan Errors, Reallocation Counts, Offline Reallocation e Probational Counts.
Comunque complimenti a Google per l'ottimo lavoro di analisi.
intanto grazie x il breve riepilogo, cmq mi sembrano alte come temperature x esser migliori... continua a sembrarmi strano che un hd a 20°C lavori peggio e sia + a rischio di uno a 40°.....
aaciderbolina!
questa è la news del secolo :asd:
ma la cosa secondo me più buona di questa statistica (al di là dei risultati) è che stata condotta su unità disco presenti in qualunque pc di casa (credo che in pochi usino scsi in casa, azzerderei anche nessuno)
alexsky8
20-02-2007, 16:09
intanto grazie x il breve riepilogo, cmq mi sembrano alte come temperature x esser migliori... continua a sembrarmi strano che un hd a 20°C lavori peggio e sia + a rischio di uno a 40°.....
sembrerà paradossale ma è proprio così , questo dipende dai materiali che evidentemente in certe condizioni termiche trovano un loro equilibrio.
;)
Paganetor
20-02-2007, 16:12
in relazione alle temperature degli HD, pensate a una automobile: è vero che se l'acqua va a 100 e passa gradi non va bene, ma è altrettanto vero che quando il motore è freddo non "gira" bene...
insomma, evidentemente ci sono temperature ottimali per i componenti con parti in movimento. Discorso diverso per le CPU, che vengono portate a 200° sotto zero :p
se paradossalmente portassimo a una simile temperatura un HD farebbe CRICK e si aprirebbe come una cozza :D
alexsky8
20-02-2007, 16:15
in relazione alle temperature degli HD, pensate a una automobile: è vero che se l'acqua va a 100 e passa gradi non va bene, ma è altrettanto vero che quando il motore è freddo non "gira" bene...
esempio azzeccato direi ;)
in pratica è molto più importante posizionare gli hd in modo ottimale magari con dissipatori passivi che stabilizzino la temperatura piuttosto che metterci una ventola davanti che di fatto abassa si la temperatura ma la rende più sogetta a variazioni spesso repentine
inoltre se ad esempio il flusso d'aria attraversa non in modo uniforme l'hard disk potrebbero formarsi zone con temperature diverse, cosa probabilmente più dannosa di un temperatura più alta ma uniforme
NoRemorse
20-02-2007, 16:37
ma quando scusa?
La ventola porta l'aria ambientale sul disco che da spento è a temperatura ambientale. ==si spera ==
Quando il disco funziona si scalda, ma il flusso di aria lo mantiene vicino alla temp ambientale. Mica raffredda.....
direi che un moderato flusso d'aria tipo backplane o molti case moderni con aspirazione sui dischi, sia perfetto per mantenere il disco a temp costanti (ambiente), quindi salutari.
ma quando scusa?
La ventola porta l'aria ambientale sul disco che da spento è a temperatura ambientale. ==si spera ==
Quando il disco funziona si scalda, ma il flusso di aria lo mantiene vicino alla temp ambientale. Mica raffredda.....
direi che un moderato flusso d'aria tipo backplane o molti case moderni con aspirazione sui dischi, sia perfetto per mantenere il disco a temp costanti (ambiente), quindi salutari.
Eppure:
http://img69.imageshack.us/img69/2912/gtempzp1.gif
Le temperature ottimali qui sembrano essere lontane dalla temperatura ambiente (tra l'altro ci sarà sicuramente aria condizionata nelle farm di Google).
Firedraw
20-02-2007, 17:03
beh....mai tenuto in frigo l'hd, il mio lavora fra i 30 invernali e i 38 esitvi.
I carissimi maxtor invece oltrepassano generosamente la soglia dei 45° oltre la quele le rotture sembrano aumentare nei test di google. Ho visto modelli mastor arrivare tranquillamente a 54°. Figuratevi poi messi in box esterni... ecco perché si distruggono sempre.
sicuramente la cosa più importante e non tenere le unita affiancate senza dissipazione e/o ricircolo d'aria (come faccio che stanno a 50° :P)
quello che però è un dato di fatto è che un flusso d'aria non avra mai una distribuzione costante e uniforme essendo di fatto un elemento dinamico
quindi (rigorosamente IMHO) puntare un flusso d'aria su un hard disk può causare dei problemi visto che le condizioni non sono più statiche (e da quel che si capisce meno variazioni ci sono meglio è)
poi se la ventola è piazzata sotto l'hd o sopra e quindi permette un ricircolo dell'aria, quello sicuramente fa molto bene!!!!
davidTrt83
20-02-2007, 18:07
quello che però è un dato di fatto è che un flusso d'aria non avra mai una distribuzione costante e uniforme essendo di fatto un elemento dinamico
quindi (rigorosamente IMHO) puntare un flusso d'aria su un hard disk può causare dei problemi visto che le condizioni non sono più statiche (e da quel che si capisce meno variazioni ci sono meglio è)
Ma stai scherzando???
Ti pare che le variazioni di flusso dell'ordine di una piccola turbolenza, tra l'altro a frequenze relativamente elevate, generino variazioni di temperatura su un blocco di metallo di mezzo kilo??!!
ma per favore...:rolleyes:
Nexon2004
20-02-2007, 19:12
Intanto vorrei sapere x quelli dei 20°......ma dove state in Alaska???
Se la temperatura interna ottimale di solito è di 20° +/- come fà un HD ACCESO ad avere la stessa temperatura....non saprei?! Probabilmente neanche in standby.
Poi nel mio piccolo.....potrei stilare anche io una statistica....e proprio l'altro giorno per esempio, ho constato la rottura di 1 hd (di una serie di 3) messo in spare ed utilizzato una decina di mesi, mentre gli altri 2 girano di continuo da quasi 3 anni!!!
Risultati positivi anche da unita scsi, ho ancora funzionanti un 9,18,36 tutti operativi per anni (qualcuno oramai quasi 10) a 7/24!!!!
Infine anche io come Google prediligo la capacità alla velocità, tranne che per il S.O.
PrezerDj
20-02-2007, 19:41
Intanto vorrei sapere x quelli dei 20°......ma dove state in Alaska???
Se la temperatura interna ottimale di solito è di 20° +/- come fà un HD ACCESO ad avere la stessa temperatura....non saprei?! Probabilmente neanche in standby.
Poi nel mio piccolo.....potrei stilare anche io una statistica....e proprio l'altro giorno per esempio, ho constato la rottura di 1 hd (di una serie di 3) messo in spare ed utilizzato una decina di mesi, mentre gli altri 2 girano di continuo da quasi 3 anni!!!
Risultati positivi anche da unita scsi, ho ancora funzionanti un 9,18,36 tutti operativi per anni (qualcuno oramai quasi 10) a 7/24!!!!
Infine anche io come Google prediligo la capacità alla velocità, tranne che per il S.O.
20 no, sta in questo periodo intorno i 22-24 poi dopo un po' di uso va massimo a 26, in estate però vado sui 39-45.... ho una ventolina sull'hd e tengo il case aperto ed ho queste temperature....
riva.dani
20-02-2007, 20:11
Ho agito immediatamente sul rehobus.... :asd:
Firedraw
20-02-2007, 20:55
Io ho agito con il cacciavite direttamente... ho smontato la ventola :D Finalmente un po' di silenzio!! XD
per i miei dischi mi preoccupo solo di poche cose:
- mantenere una temperatura costante tra' 35/45°C: evito continue ricalibrazioni (alto fattore di rischio, soprattutto quando senti "stoccare" le testine sul fondocorsa consumato, da brivido!);
- raffreddare la scheda: la meccanica, volendo non ha problemi a lavorare anche oltre i 60°C, ma l'elettronica (o piu' precisamente resistenze e saldature, che con le variazioni di temperatura hanno stress meccanici), ne soffre parecchio;
- cercare di impostare i dischi a secondo dell'uso che ne faccio: sempre a riposo per i dischi di storage, abilitando il risparmio energetico, sempre attivi i dischi di sistema (esistono programmi che permettono di scrivere sul disco a determinati intervalli di tempo in modo da bypassare la limitazione degli OS nel gestire tutti i dischi allo stesso modo: si abilita il risparmio energetico e si scrive ad intervalli regolari sul disco che si vuole far rimanere sempre attivo); questo per evitare che al riavvio del disco l'elettronica ricalibri la testina.
- usare conettori di buona qualita': il connettore di alimentazione degli SATA e' stata una liberazione, visto che i molex ogni tanto, con le vibrazioni acquistano gioco, sconnettono l'HDD dall'alimentazione ad intermittenza, bruciano le schede, e fanno atterrare le testine sui piatti.
- usare ottimi alimentatori.
per la mia piccola esperienza, posso solo dire che ho buttato 2-3 dischi per deterioramento dei piatti, ma molti di piu' per problemi all'elettronica (salvando i dati scambiando le scedine da un HDD all'altro); e lo SMART ha sempre predetto la rottura per i primo caso (esaurimento della tavola di riallocazione dei cluster danneggiati), e logicamente mai predetto le rotture improvvise.
c'e' da dire che lo studio di google e' molto interessante, ma non applicabile ai dischi nei PC dei normali utenti, sia per via dell'uso (e' diverso l'uso di un disco come storage, database, o disco di sistema), sia come condizione d'uso (non credo che google spenga mai i PC, situazione che a lungo andare compromette l'elettronica, e non credo che c'e' gente che abbia stanze climatizzate o gruppi di continuita', onde evitare le oscillazioni della propria rete elettrica), quindi e' interessante, ma non raffrontabile.
share_it
21-02-2007, 08:09
google non fa gli "scandisk"! Non hanno mica dos sui server, hanno linux.
è ora di passare ai dischi solidi , forza Google almeno i prezzi possono scendere:D
Eh sarebbe un bell'inizio dotare 450.000 server di dischi solidi. :D
alexsky8
21-02-2007, 09:40
Eh sarebbe un bell'inizio dotare 450.000 server di dischi solidi. :D
appunto , almeno i prezzi calano ; auguriamoci un mega upgrade mondiale , non solo per i server Google ma anche per altri server. :sofico:
;)
beh, altrettanto interessante, oltre a quello che avete già detto voi, che google utilizzi (o comunque ha utilizzato fino ad agosto 06) solo dischi pata e sata...
laserstone
21-02-2007, 12:05
lo smart del mio Hd dice che il disco è danneggiato... da cambiare subito... poichè ho dati idioti dentro me ne sono sempre fregato (tanto dentro c'è solo sistema operativo)... beh morale?!? sono due anni che ha settori danneggiati lo scandisk non riesce a risolvere +, lo smart tra un pò aumenta misura caratteri per farmi capire che devo cambiare HD... ma quel fottutissimo non si rompe... allora mi dico ma che cavolo serve proprio sta tecnologia SMART ora voglio vedere quando si romperà... posso però dire che che con maxtor ho avuto problemi almeno su 5 dischi finora tutti serie diamond...non costeranno tanto ma mi sembrano un tantino jellati!!!
samslaves
21-02-2007, 12:26
Ad una temperatura piu' calda corrisponde un danneggiamento dell'HD.
Chiedetelo a miei due maxtor tutti nel bay A di un G5 e tutti e due fritti finche' Apple non ha modificato la velocita' di rotazione della ventola del bay salvando il terzo.
appunto , almeno i prezzi calano ; auguriamoci un mega upgrade mondiale , non solo per i server Google ma anche per altri server. :sofico:
;)
Eheh quelli non prendono dischi SCSI figurati se vanno a spendere cifre folli per memorie a stato solido :D sono bravi a farsi i conti in tasca.
Ah, consiglio a tutti di leggere anche il pdf sul Google FileSystem (distribuito e molto personalizzato per gli usi di Google ovviamente, non è utile per un utente casalingo), se avete trovato quest'articolo interessante, quest'altro vi esalterà: http://labs.google.com/papers/gfs-sosp2003.pdf
Tra l'altro se ricordo bene spiega anche perché usano HDD consumer e non "enterprise".
Ad una temperatura piu' calda corrisponde un danneggiamento dell'HD.
Chiedetelo a miei due maxtor tutti nel bay A di un G5 e tutti e due fritti finche' Apple non ha modificato la velocita' di rotazione della ventola del bay salvando il terzo.
Quello che mi chiedo è come influisce l'umidità, oltre alla temperatura. Qualcuno ne ha un'idea?
edit:
inoltre pensavo se la percentuale altissima di dischi morti alle temperature inferiori ai 20° non fosse più un effetto della rottura, che una causa... mi spiego, magari quei dischi erano danneggiati e incapaci di lavorare, al punto che non scaldavano perché di fatto non venivano usati. Boh, è solo una spiegazione buttata lì.
Sajiuuk Kaar
21-02-2007, 12:45
spero che non mettano mai una mastodontica ventola per ogni hard disk... oppure se aprono le finestre al grattacielo come minimo cambiano tutto il circolo dei venti nel mondo XD
MiKeLezZ
21-02-2007, 12:48
Mentre dormivo ho avuto l'illuminazione, ovvero che nel recente passato è avvenuta la transizione dei dischi desktop da cuscinetti meccanici a cuscinetti di fluido percui alcuni degli scenari evidenziati dall'analisi potrebbero non esser più validi, data la maggior qualità della nuova soluzione
JohnPetrucci
21-02-2007, 14:22
Morale: i dischi si sono rivelati più affidabili se stressati, con una temperatura di esercizio superiore alla media ed il tutto indipendenetemente dall'età dell'unità e dalle informazioni fornite dalla tencologia S.M.A.R.T.
Cioè praticamente si smontano delle tesi che sembravano dati acquisiti e ormai di credenza diffusa, bene, le sorprese non mancano mai.
Certo per quel che concerne la tecnologia S.M.A.R.T. qualche dubbio sulla sua validità l'ho sempre avuto....., ma sul resto ero convinto del contrario.
spero che non mettano mai una mastodontica ventola per ogni hard disk... oppure se aprono le finestre al grattacielo come minimo cambiano tutto il circolo dei venti nel mondo XD
Quando hai server farm conviene raffreddare l'aria, non i singoli componenti.
Per quel che so io, sul discorso temperatura, i danni vengono procovati maggiormenta dagli sbalzi più che dall'elevata temperatura.
PrezerDj
21-02-2007, 15:15
Quando hai server farm conviene raffreddare l'aria, non i singoli componenti.
Per quel che so io, sul discorso temperatura, i danni vengono procovati maggiormenta dagli sbalzi più che dall'elevata temperatura.
e allora si torna al discorso che è meglio ventilarli, perchè per esempio:
temp ambiente 20°
temp hd 35-40
l'escursione termica che ogni volta all'accensione e allo spegnimento devono affrontare è di 15-20°
se invece vengono ben raffreddati gli hd hanno un escursione termica minore e quindi vengono meno danneggiati...
bonzuccio
21-02-2007, 15:36
Quello che emerge è che gli hard disk vanno scaldati!!
[K]iT[o]
21-02-2007, 20:49
Buona l'idea ma sinceramente non credo granchè a questi risultati visto l'uso completamente diverso che se ne fa rispetto all'uso in casa e ufficio. Continuo quindi a basarmi sui risultati che vedo tutti i giorni sui pc che vendo o riparo, e ne ho sempre potuto confermare che i dischi si rompono principalmente per 3 motivi: 1) difetti di fabbrica; 2) temperature elevate; 3) alimentazione non costante.
malatempora
25-02-2007, 13:25
Non sono d'accordo.
In realtà quelli tra noi che lasciano il PC acceso sempre fanno un uso molto simile a quello di un database progressivo come Google.
Gli indici, in google, crescono in modo lineare, spesso privo di buchi tra un cluster logico (di indice, non di spazio disco) e quello successivo.
Un po' come cresce - tendenzialmente - lo spazio disco occupato sui nostro HD casalinghi i quali modificano poco la loro mappa (pochi settori, qualche mail che si cancella o si aggiunge, poca roba).
Invece sono d'accordo con l'amico che parlva dei dischi a stato solido, che sarebbe proprio ora che arrivassero e ci levassero dai piedi queste unità concettualmente obsolete.
Sono convinto che se si spostasse il quantitativo di denaro investito ogni anno per cercare nuove e più alte densità di registrazione - tipo perpendicular recording - sull'ottimizzazione e il cost improvement della produzione di memorie per i dischi a stato solido in breve tempo avremmo il passaggio definitivo e potremmo seppellire il nostro amato-odiato HD.
O forse è un problema di vendite ? in fondo, ogni tanto un HD si rompe e va sostituito tutto...
bah!....
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.