Quote:
Originariamente inviato da Matrixbob
In teoria dell'infromazione:
"Le dimostrazioni dei teoremi di Shannon si basano sulla misura della quantità d’informazione necessaria a caratterizzare una variabile casuale discreta, questa quantità prende il nome di entropia."
|
In questo caso penso che caratterizzare sia inteso come "distinguere i singoli valori dagli altri".
Esempio terra terra:
se io ho una variabile discreta con quattro possibili valori, la quantita' di informazione necessaria a caratterizzarla sono due bit ( 00 01 10 11 )