Salve,
con il seguente programmino visualizzo il numero di bit per rappresentare i vari tipi di dati.
Mi risulta come è giusto che un intero è rappresentabile con 32 bit, cioè può assumere i seguenti valori: -32768 ÷ 32.767. Tuttavia se provo a definire e visualizzare una varibile int a=33000, non segna nessun errore ... ma 33000 è superiore al valore massimo che dovrebbe essere possibile definire ... lo stesso succede con a=-33000.
Qualcuno mi sa spiegare il perchè?
Grazie mille
#include <stdio.h>
main()
{
int num_bit;
num_bit = sizeof ( char ) * 8;
printf ("\n Su questa macchina un char e' su %d bit", num_bit);
printf ("\n un intero su %d bit", (sizeof (int) * 8));
printf ("\n un float su %d bit", (sizeof (float) * 8));
printf ("\n un double su %d bit\n", (sizeof (double) * 8));
system("PAUSE");
}