Раз уж зашла речь о математике... В моей практике довольно часто возникает такая прикладная задача - вычислить разность двух близких величин; допустим, один прибор показывает что-то около 100, а другой - около 99; у каждого есть погрешность измерения (ну, скажем, +/- 0,5%). Так вот, даже многие образованные инженеры не могут взять в толк, почему этого делать нельзя, откуда "возникает" совершенно недопустимая погрешность в результатах, доводящая до абсурда...