Beh, questo è un comportamento ben conosciuto e dovuto al fatto che non si possono rappresentare infiniti numeri con un numero limitato di bit, quindi ad un certo punto bisogna approssimare.
Direi che meno dello 0.1% degli utenti abbia bisogno di numeri precisi fino alla 17° cifra decimale e chi ne ha bisogno sa che deve usare altri strumenti per avere la precisione di cui necessita, qui si sta parlando di comportamento di una programma (si scrivono istruzioni per fare una cosa, invece il PC ne fa un'altra, in quel caso lì lo sbaglio è sicuramente del programmatore che ha scritto istruzioni sbagliate), non si discute di precisione sui calcoli.