Я нашел правило, которое гласит: «При умножении двух величин погрешность результата равна сумме относительных погрешностей множителей».
Здесь, почему мы не можем использовать абсолютную ошибку? И зачем нам добавлять относительные ошибки? Почему бы не умножить их?
Пожалуйста, дайте мне интуицию, чтобы понять умножение двух неопределенных величин .
В основном это происходит из исчисления (или, в более общем смысле, просто из математики изменений).
Если у вас есть количество, которое является продуктом , то изменение этого значения в зависимости от изменения и является . Тогда понятно, что
Причина, по которой вы не используете абсолютную неопределенность или не умножаете относительную неопределенность, та же самая, по которой . Это просто не тот результат, который вы получаете, когда занимаетесь математикой.
Мы пренебрегаем термином в , так как в идеале и до такой степени, что такой, что намного меньше, чем оба и .
Вы получите лучшую интуицию, если просто возьмете два простых числа с возможной ошибкой и перемножите их. Выберите 100±1 и 200±4 относительные ошибки 1/100 или 1% и 4/200=2%.
Теперь умножьте, и вы получите для положительной ошибки 101 * 204 = 20604 = 20000 + 604 или ошибку около 3%. Умножение абсолютной ошибки даст вам 1*4 вместо 604, умножение относительных ошибок даст вам 2/10000 или 0,02%.
Попробуйте это с любыми двумя другими числами.
любопытный разум
Qмеханик