У меня есть ряд измерений одной и той же величины (в данном случае скорости звука в материале). Каждое из этих измерений имеет свою собственную неопределенность.
Поскольку это измерения одной и той же величины, все значения примерно равны. Я могу, конечно, вычислить среднее значение:
К чему привела бы неопределенность быть? В пределе, когда все малы, то должно быть стандартным отклонением . Если большие, то должно быть что-то вроде , Правильно?
Итак, какова формула объединения этих неопределенностей? Я не думаю, что это тот, который дан в этом ответе (хотя я могу ошибаться), потому что он не выглядит так, как я ожидаю в вышеуказанных пределах (в частности, если равны нулю, то эта формула дает , а не стандартное отклонение ).
Когда вы комбинируете измерения с разными неопределенностями, брать среднее значение неправильно. (Хорошо, если неопределенности почти одинаковы.)
Правильным решением будет анализ хи-квадрат, который придает больший вес более точным измерениям. Вот как это сделать:
Вы численно выбираете «истинное значение», которое минимизирует . Это твоя лучшая догадка.
Затем используйте распределение хи-квадрат для расчета p-значения (при условии, что наилучшее предположение верно). (Степени свободы на единицу меньше числа наблюдений.) Это покажет вам, были ли ваши неопределенности разумными или вы их недооценили. Например, если одно измерение , а другое измерение , то вы, вероятно, недооценили свою неуверенность.
ЕСЛИ вы недооценили свои неопределенности, что на практике не является необычным, тогда правильно будет выяснить, где вы ошиблись в оценке неопределенности, и исправить ошибку. Но есть и более ленивая альтернатива, которая часто бывает достаточно хороша, если ставки невелики: вы можете масштабировать все неопределенности на один и тот же коэффициент, пока не получите разумное значение. p-значение, скажем, 0,5.
Хорошо, теперь у вас есть правдоподобные погрешности измерения, либо потому, что вы делали это с самого начала, либо потому, что вы увеличили их. Затем вы пытаетесь варьировать «истинное значение» до тех пор, пока p-значение не упадет ниже, скажем, 5%. Эта процедура дает вам нижнюю границу и верхнюю границу погрешности вашего окончательного измерения наилучшего предположения.
Я не делал этого много лет, извините за неправильное воспоминание. Я думаю, это обсуждалось в Bevington&Robinson.
Вы, кажется, смешиваете здесь несколько понятий.
В частности, вас интересует ошибка в среднем, обратитесь к ошибке в сумме (которая вам нужна на пути к ошибке в среднем) и расскажите о стандартном отклонении.
(здесь все работает в наивной версии, предполагающей нулевую корреляцию.)
Ошибка суммы неопределенных величин: а также
Ошибка среднего значения неопределенных величин: разделить сумму на количество измерений. Количество измерений определено , вы совсем не уверены, сколько цифр вы обработали, так что это просто деление.
Если вы индивидуальный s значительно различаются, лучше использовать взвешенное среднее значение ошибки .
Стандартное отклонение : это цифра, отражающая вашу дисперсию. с, и рассчитывается без привязки к вашему с. Обычно представлен с и мы звоним «дисперсия».
Если вы оценили свой правильно, тогда должна быть связь между стандартным отклонением и ошибкой среднего, но это для другого дня.
Вы жалуетесь в своем вопросе, что ошибка среднего не достигает стандартного отклонения в пределе, который , но это потому, что они представляют разные концепции. Можно провести эксперимент, в котором отдельные измерения берутся из широкого распределения, но хорошо известны (высокое стандартное отклонение, но низкие индивидуальные неопределенности) или когда вы повторно измеряете ту же второстепенную величину с помощью плохих инструментов (нулевое стандартное отклонение, но большой с). Во многих случаях случаи можно рассматривать с помощью одной и той же математики, но они разные.
dmckee --- котенок экс-модератор
пользователь40838