О точности в вычислениях

О точности в вычислениях

При проведении различного рода вычислений, когда количество повторений заранее не определено, возникает необходимость прекращения этих повторений в зависимости от значений каких-то вычисляемых в этом процессе переменных. Это можно делать как
по самим значениям этих переменных (абсолютная точность), так и по отношению самих значений к каким-то иным переменным (относительная точность).
Использование какой точности выбрать?
Тут можно дать следующий совет. Если из каких-либо соображений заранее известен диапазон значений возможного результата и этот диапазон не очень широк, то вполне допустимо использование АБСОЛЮТНОЙ ТОЧНОСТИ.
Т.е. выход из цикла вычислений после того, как вычисляемое значение или добавка к нему станет меньше, чем выбранная АБСОЛЮТНАЯ ТОЧНОСТЬ.
Например, если нам известно, вычисляемое значение лежит в диапазоне 2-10, из цикла вычислений можно выходить, когда добавка к уже накопленному значения стала меньше 0.001.
Если же заранее не известен диапазон возможных значений вычисляемой величины или этот диапазон слишком широкий, то целесообразным представляется использование понятия ОТНОСИТЕЛЬНОЙ ТОЧНОСТИ. В этом случае счет прекращается тогда, когда модуль отношения добавляемой величины к уже накопленной становится меньше некоторого заранее заданного значения.
При вычислении сумм рядов и определенных интегралов более универсальным будет использование ОТНОСИТЕЛЬНОЙ ТОЧНОСТИ.
При вычислении корней уравнений вполне допустимо использование АБСОЛЮТНОЙ ТОЧНОСТИ.