il valore FLT_MIN che vale come dici tu 1.17549e-038 viene mostrato sia su 32 bit ke su 64 bit ma se un float è una variabile a singola precisione perchè viene riportato il corrispondente valore min anche in doppia precisione?
il valore FLT_MIN che vale come dici tu 1.17549e-038 viene mostrato sia su 32 bit ke su 64 bit ma se un float è una variabile a singola precisione perchè viene riportato il corrispondente valore min anche in doppia precisione?