PDA

View Full Version : Overclock di SSD: presto Intel ce lo mostrerà dal vivo


Redazione di Hardware Upg
26-08-2013, 08:31
Link alla notizia: http://www.hwupgrade.it/news/storage/overclock-di-ssd-presto-intel-ce-lo-mostrera-dal-vivo_48351.html

Attesa una sessione dell'IDF in cui Intel metterà in mostra i benefici dell'overclock applicato ai Solid State Drive. Vezzo o reale utilità?

Click sul link per visualizzare la notizia.

ciocia
26-08-2013, 10:10
Overclock su SSD? No grazie. Sui dati preferisco la massima affidabilita' e durata nel tempo.

coschizza
26-08-2013, 10:34
Overclock su SSD? No grazie. Sui dati preferisco la massima affidabilita' e durata nel tempo.

perche se overclocchi la cpu che i dati li elabora e la ram che i dati li contiene cambia qualcosa sull'affidabilitò?
l'overclock è concettualmente inaffidabile a prescindere dal componente che vai a toccare perche i dati passano in tutta quella catene a basta che una singola parte abbia un problema per trasferirlo su quella successiva.

benderchetioffender
26-08-2013, 11:51
perche se overclocchi la cpu che i dati li elabora e la ram che i dati li contiene cambia qualcosa sull'affidabilitò?
l'overclock è concettualmente inaffidabile a prescindere dal componente che vai a toccare perche i dati passano in tutta quella catene a basta che una singola parte abbia un problema per trasferirlo su quella successiva.

insomma.... certo il ragionamento fila, ma se tira la mina la cpu, i dati son salvi nell'hd, forse qualcuno, quello processato in quell'istante, muore, ma il99% è salvo, non credo puoi fare lo stesso ragionamento proprio sul sistema di archiviazione

per cosa poi, son gia velocissimi...mah

roccia1234
26-08-2013, 12:11
perche se overclocchi la cpu che i dati li elabora e la ram che i dati li contiene cambia qualcosa sull'affidabilitò?
l'overclock è concettualmente inaffidabile a prescindere dal componente che vai a toccare perche i dati passano in tutta quella catene a basta che una singola parte abbia un problema per trasferirlo su quella successiva.

Beh ma nel peggior dei casi l'overclock di cpu/gpu e ram hanno influenza sui dati aperti in quell'istante e/o su quella sessione.

Al riavvio hai comunque tutti i tuoi dati, tranne quelli dall'ultimo salvataggio al bsod.

Se un SSD ha problemi, potresti perdere tutto il suo contenuto. La differenza è notevole.

toretto337
26-08-2013, 12:24
vabbè dai ragazzi doveva far vedere che aveva studiato all'università come funziona un pc :cool:
Architettura degli elaboratori I? o quello che sia.

coschizza
26-08-2013, 13:27
Beh ma nel peggior dei casi l'overclock di cpu/gpu e ram hanno influenza sui dati aperti in quell'istante e/o su quella sessione.

Al riavvio hai comunque tutti i tuoi dati, tranne quelli dall'ultimo salvataggio al bsod.

Se un SSD ha problemi, potresti perdere tutto il suo contenuto. La differenza è notevole.

questo nel caso che un errore porti a un blocco del sistema ma se il sistema non si blocca ti troverai dei dati corrotti senza che tu te ne possa accorgere quindi non puoi nemmeno usare un backup visto che non ti rendi conto del problema in corso.
Non sempre un cpu o una gpu (questo è ancora piu difficile) a fronte di un errore di calcolo porta il blocco del sistema e visto che i sistemi desktop non hanno controlli ecc sull'intera catena di elaborazione l'errore te lo porti dietro senza accorgertene.
Io nei test di overclock del mio sietma riuscivo a tenere il sistema in 24/24 anche per una settimanee senza il minimo errore ma a un analisi piu approfondita i dati generati durante il rendering erano sballati ma non visibilmente) quindi generavo errori di calcolo senza che ne SO ne driver ne l'applicativo se ne arano accorti, è bastato un ritocco ai parametri dell' OK e ora è stabile come prima ma i dati non sono piu errati.

Questo per dire che l'overclock è sempre critico

fastleo63
26-08-2013, 14:29
Non è una vera e propria innovazione. E' del 2009 l'introduzione sul mercato della versione Turbo del disco a stato solido Vertex di OCZ:
OCZ VERTEX TURBO SERIES SATA II 2.5" SSD (http://www.ocztechnology.com/ocz-vertex-turbo-series-sata-ii-2-5-ssd.html)
Nello specifico, la frequenza operativa del controller host e della cache DRAM venne portata da 166 a 180 MHz.
Ne posseggo ancora un esemplare, della capacità di 60 GB. Non mi ha mai dato alcun problema, tant'è che lo sto ancora utilizzando in configurazione NAS, collegato via USB al mio modem/router ASUSTeK.

maxmax80
26-08-2013, 15:22
credo che questo overclock sarà un puro esercizio di stile di intel.

però la notizia veramente interessante è il SATA Express nei chipset che manterrà la strada del sata rispetto ai possibili sviluppi di pci express (come unica strada)

Cooperdale
26-08-2013, 15:40
L'overclock è quasi sempre un vezzo, ma piace, piace molto.

Baboo85
27-08-2013, 09:53
L'overclock è quasi sempre un vezzo, ma piace, piace molto.

Piace si' ma in questo caso e' inutile.
E' come se overcloccassi un hdd meccanico, per farlo girare piu' velocemente.
Fare overclock sull'hardware dove ci sono i dati e' inutile e dannoso.

questo nel caso che un errore porti a un blocco del sistema ma se il sistema non si blocca ti troverai dei dati corrotti senza che tu te ne possa accorgere quindi non puoi nemmeno usare un backup visto che non ti rendi conto del problema in corso.
Non sempre un cpu o una gpu (questo è ancora piu difficile) a fronte di un errore di calcolo porta il blocco del sistema e visto che i sistemi desktop non hanno controlli ecc sull'intera catena di elaborazione l'errore te lo porti dietro senza accorgertene.
Io nei test di overclock del mio sietma riuscivo a tenere il sistema in 24/24 anche per una settimanee senza il minimo errore ma a un analisi piu approfondita i dati generati durante il rendering erano sballati ma non visibilmente) quindi generavo errori di calcolo senza che ne SO ne driver ne l'applicativo se ne arano accorti, è bastato un ritocco ai parametri dell' OK e ora è stabile come prima ma i dati non sono piu errati.

Questo per dire che l'overclock è sempre critico

Overcloccare CPU e RAM porta si' alla generazione di errori, ma ti ricordo che ogni componente hardware ha una soglia di tolleranza sugli errore nella generazione e nell'elaborazione dei dati.

Se tu avevi degli errori nel rendering, e' gia' strano che il sistema non si sia bloccato.

Io ho usato per quasi 2 anni un E2140 (1,60GHz) @ 3,20GHz (il doppio della frequenza) con un voltaggio assurdo di 1,40-1,42 (da bios, poi in realta' sara' stato 1,38 circa) e non ho mai avuto problemi.
Anzi forse e' ancora sul pc dei miei, occato a 2GHz.

Per quasi 6 mesi ho usato una Geforce Go 7600m su un vecchio Toshiba, frequenze base Core 450MHz e Vram 350MHz, portate entrambe a 500MHz (con driver modificati, modalita' Test Mode di Windows 7, ecc) per giocare, mai avuto un singolo problema, nemmeno di surriscaldamento. Ora quel portatile ce l'ha mio padre e funziona alla grande.