posto che un dato occupi, per esempio, 32 bit, verrà codificato in zeri ed uni in modo leggermente diverso a seconda che sia, per esempio, un intero o un reale.
ci sono delle convenzioni implicite e note a priori.

inoltre, soprattutto, data un certa sequenza di zeri ed uni, questa può essere interpretata in diverse maniere...

la sequenza 0100001010101 può voler dire 6 se la si interpreta come un intero, 12.34 se la si interpreta come un reale, "a" se la si interpreta come un carattere...