View Full Version : Core che non contano: Google preoccupata per gli errori 'silenziosi' delle CPU
Redazione di Hardware Upg
10-06-2021, 11:31
Link alla notizia: https://www.hwupgrade.it/news/cpu/core-che-non-contano-google-preoccupata-per-gli-errori-silenziosi-delle-cpu_98401.html
Un team di ricercatori di Google ha pubblicato un documento intitolato "Cores that don't count" che illustra l'esistenza di core "capricciosi" all'interno delle CPU, i quali talvolta fanno errori di calcolo a causa di problemi di produzione non rilevati dai progettisti. Errori che, spesso, si presentano in modo del tutto inaspettato e "silenzioso".
Click sul link per visualizzare la notizia.
dove sono quelli "le macchine non sbagliano mai" o "il problema è fra lo schermo/tastiera e la sedia"? :p
le macchine non sbagliano per definizione. Qui sbagliano perchè sono mal progettate, da uomini :D
Almeno non nel settore datacenter o consumer.
Attualmente è adottata solo nel settore mission-critical o aerospaziale (e nemmeno sempre)... ridondanza e la duplicazione.
In pratica per ogni singolo core ce n'è un secondo che esegue le stesse istruzioni con gli stessi dati.
E solo che i risultati sono coerenti sono ritenuti validi.
Era una tecnologia presente nei primi Pentium ad esempio (dove era abbinabile una seconda cpu con funzione di controllo)... ma poi stata eliminata che io sappia in quanto mai sfruttata.
Almeno non nel settore datacenter o consumer.
Attualmente è adottata solo nel settore mission-critical o aerospaziale (e nemmeno sempre)... ridondanza e la duplicazione.
In pratica per ogni singolo core ce n'è un secondo che esegue le stesse istruzioni con gli stessi dati.
E solo che i risultati sono coerenti sono ritenuti validi.
Era una tecnologia presente nei primi Pentium ad esempio (dove era abbinabile una seconda cpu con funzione di controllo)... ma poi stata eliminata che io sappia in quanto mai sfruttata.
L'utente singolo che dovesse avere una CPU difettosa, magari nemmeno se ne accorge, mentre in situazioni mission-critical essendovi ridondanza il problema viene scoperto o comunque mitigato in tempo reale.
Il problema è proprio nei grandi datacenter, dove una cpu difettosa è difficile da identificare ma statisticamente sai che porterà ad errori che non puoi prevedere e dove, per costi e consumi, non puoi pensare di ricorrere alla ridondanza.
By(t)e
L'utente singolo che dovesse avere una CPU difettosa, magari nemmeno se ne accorge,
ne dubito.
tra file corrotti, errori inspiegabili, blocchi random, accorgersene se ne accorge. piuttosto impazzisce a capire la causa...
tempo fa si parlava del contrario.
Chissenefrega se un operazione è leggermente errata, ma in certi casi la potenza e l'efficienza ne guadagnano molto. Ad esempio un pixel in un video, se è un colore leggermente diverso, ma se il chip va 5 volte più veloce i vantaggi ci sono.
tempo fa si parlava del contrario.
Chissenefrega se un operazione è leggermente errata, ma in certi casi la potenza e l'efficienza ne guadagnano molto. Ad esempio un pixel in un video, se è un colore leggermente diverso, ma se il chip va 5 volte più veloce i vantaggi ci sono.
Se tutto si riduce ad un pixel su un video si.. ma qui si parla anche di errori random all'interno di files che potenzialmente possomo sminchiare l'intero lavoro.
Cioè magari lavori ad un file, salvi e quando lo riapri scopri che è corrotto e hai perso il lavoro.
rockroll
11-06-2021, 01:06
ne dubito.
tra file corrotti, errori inspiegabili, blocchi random, accorgersene se ne accorge. piuttosto impazzisce a capire la causa...
Concordo pienamente.
Dopo 5 lustri che pesto sui PC potrei raccontarvi di parecchie notti insonni di infruttuosa caccia della causa di comportamenti, situazioni, risultati, in definitiva errori macchina, fortuiti, non ripetibili, ed assolutamente inspiegabili.
In verità questi eventi potevano capitare negli anni scorsi su vecchie piattaforme HW economiche, ma riguardo a tempi più recenti non mi posso lamentare; non altrettanto posso dire riguardo a smartphone più o meno economici; ma per questi giocattoloni non ho perso nottate, non lo meritano.
ne dubito.
tra file corrotti, errori inspiegabili, blocchi random, accorgersene se ne accorge. piuttosto impazzisce a capire la causa...
Parlano di errori statisticamente quasi insignificanti, ma che sui grandi numeri di un datacenter diventano visibili.
Probabile quindi che se ti capita una CPU difettosa magari il PC crasha una volta ogni 10 giorni (numero a caso) e se è poco nerd non gli da nemmeno peso, riavvia e finisce lì.
By(t)e
Almeno non nel settore datacenter o consumer.
Attualmente è adottata solo nel settore mission-critical o aerospaziale (e nemmeno sempre)... ridondanza e la duplicazione.
In pratica per ogni singolo core ce n'è un secondo che esegue le stesse istruzioni con gli stessi dati.
E solo che i risultati sono coerenti sono ritenuti validi.
Era una tecnologia presente nei primi Pentium ad esempio (dove era abbinabile una seconda cpu con funzione di controllo)... ma poi stata eliminata che io sappia in quanto mai sfruttata.
Si chiama ridondanza, ed è praticamente obbligatoria in tutti i settori in cui esiste qualche requisito di sicurezza funzionale stringente (sia esso aerospace o una "semplice" automobile). Nelle CPU odierne esistono già circuiti atti alla correzione degli errori, che tuttavia sono molto lenti, complessi e - a quanto pare - fallibili.
tempo fa si parlava del contrario.
Chissenefrega se un operazione è leggermente errata, ma in certi casi la potenza e l'efficienza ne guadagnano molto. Ad esempio un pixel in un video, se è un colore leggermente diverso, ma se il chip va 5 volte più veloce i vantaggi ci sono.
Dipende dalla applicazione: in un render magari di avere qualche pixel leggermente sbagliato non ti importa. In una simulazione o in una applicazione di archiviazione di massa invece potresti volere la massima precisione.
tempo fa si parlava del contrario.
Chissenefrega se un operazione è leggermente errata, ma in certi casi la potenza e l'efficienza ne guadagnano molto. Ad esempio un pixel in un video, se è un colore leggermente diverso, ma se il chip va 5 volte più veloce i vantaggi ci sono.
dubito che il risultato di un errore del genere sia "solo" un pixel che cambia colore.
piuttosto una crittografia che non è più reversibile (=il tuo conto in banca volatilizzato), file definitivamente corrotti (=le foto del tuo matrimonio distrutte per sempre) o il wallet con 100 BTC impossibile da recuperare.
Questo per parlare di scenari "normali".
Se tutto si riduce ad un pixel su un video si.. ma qui si parla anche di errori random all'interno di files che potenzialmente possomo sminchiare l'intero lavoro.
Cioè magari lavori ad un file, salvi e quando lo riapri scopri che è corrotto e hai perso il lavoro.
:mano:
Concordo pienamente.
Dopo 5 lustri che pesto sui PC potrei raccontarvi di parecchie notti insonni di infruttuosa caccia della causa di comportamenti, situazioni, risultati, in definitiva errori macchina, fortuiti, non ripetibili, ed assolutamente inspiegabili.
immagino.
Parlano di errori statisticamente quasi insignificanti, ma che sui grandi numeri di un datacenter diventano visibili.
Probabile quindi che se ti capita una CPU difettosa magari il PC crasha una volta ogni 10 giorni (numero a caso) e se è poco nerd non gli da nemmeno peso, riavvia e finisce lì.
By(t)e
mica tanto. se ogni 10 gg qualche file si sputtana, la cosa è totalmente inammissibile.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.