makoto44
27-02-2015, 01:24
Sto studiando informatica, pero' ho gia' le prime difficolta', per questo pongo un quesito di chiarimento.
1) Il bit serve a rappresentare due sole informazioni diverse.
2) Con N bit possono essere rappresentate 2^N informazioni diverse.
Ed'e' qui' l'inghippo, prendendo in considerazione la prima definizione ovvero se 1 bit = 2 informazioni diverse, allora 10 bit dovrebbe rappresentare 20 informazioni diverse (10 bit * 2 = 20 informazioni).
Pero', in base alla seconda definizione, con 10 bit possono essere rappresentate 2^10 = 1024 informazioni diverse.
Qualcuno potrebbe spiegarmi in maniera molto chiara, il collegamento tra la prima e la seconda definizione, in maniera da capire meglio il concetto?
E' chiaro che la prima soluzione che ho dato (quella in cui 10 bit rappresentano 20 informazioni diverse) e' errata, pero' vorrei capire meglio il concetto, in maniera logica: in modo da non commettere simili errori.
1) Il bit serve a rappresentare due sole informazioni diverse.
2) Con N bit possono essere rappresentate 2^N informazioni diverse.
Ed'e' qui' l'inghippo, prendendo in considerazione la prima definizione ovvero se 1 bit = 2 informazioni diverse, allora 10 bit dovrebbe rappresentare 20 informazioni diverse (10 bit * 2 = 20 informazioni).
Pero', in base alla seconda definizione, con 10 bit possono essere rappresentate 2^10 = 1024 informazioni diverse.
Qualcuno potrebbe spiegarmi in maniera molto chiara, il collegamento tra la prima e la seconda definizione, in maniera da capire meglio il concetto?
E' chiaro che la prima soluzione che ho dato (quella in cui 10 bit rappresentano 20 informazioni diverse) e' errata, pero' vorrei capire meglio il concetto, in maniera logica: in modo da non commettere simili errori.