Вопрос по анализу ошибок, помогите пожалуйста?

Итак, в классе мы проводим эксперимент с периодом маятника, в котором вы измеряете период колебаний с помощью секундомера.

В лабораторном руководстве показано, как проводить анализ ошибок, вычисляя среднее значение и получая стандартное отклонение. Я получаю это много. Однако в другом месте я читал, что погрешность измерений — это наименьшая возможная единица измерения на измерительном приборе, поэтому, например, на измерительной линейке, наименьшая единица измерения которой составляет 1 мм, ошибка/неопределенность любого измерения будет равна 1 мм (или 0,5 мм, как сказано в другом месте, Я полагаю, это наименьшая единица, которую вы можете уверенно оценить).

Итак, если бы я сделал 10 измерений куска веревки, каждое измерение имело бы погрешность 1 мм. Теперь, когда я вычислил их среднее значение, будет ли неопределенность равна 1 мм или мне придется использовать формулы распространения ошибок для вычисления неопределенности среднего значения. Или мы игнорируем этот 1 мм и просто вычисляем среднее значение и стандартное отклонение?

Действительно ли стандартное отклонение будет включать все источники неопределенности, т. е. погрешность измерения 1 мм, а также другие? Если да, то какой смысл записывать ошибку измерения в первую очередь, когда она включается в статистический анализ?

Может кто-нибудь мне помочь? Я знаю, что делаю какое-то фундаментальное заблуждение, но я изо всех сил пытаюсь это выяснить.

«Теперь в лабораторном руководстве показано, как выполнять анализ ошибок, путем вычисления среднего значения и получения стандартного отклонения. Я понимаю вот что.»: Это, вероятно, самый простой пример статистической оценки, но не воспринимайте его как универсальный закон: не для каждого повторного измерения нужно брать среднее значение, и не для каждого повторного измерения неопределенность может быть оценена стандартным отклонением.
«Однако в другом месте я читал, что погрешность в измерениях составляет наименьшую возможную единицу на измерительном приборе»: Это, напротив, совершенно неправильно: где бы вы это ни прочитали, забудьте об этом и бросьте источник в камин.
www2.fiu.edu/~dbrookes/ExperimentalUncertaintiesCalculus.pdf В разделе 1.1 объясняется, что я имею в виду, если я не объяснил это ясно.
Обратите внимание, что ваш связанный документ, хотя и неверен по многим пунктам, не говорит о том, что вы сообщили в вопросе.
«Каждому измерительному прибору присуща погрешность, которая определяется точностью прибора. Эта величина принимается за половину наименьшего шага шкалы прибора». И мой: «Однако в другом месте я читал, что погрешность измерений наименьшая возможная единица измерения на измерительном приборе, так, например, на измерительной линейке, наименьшая единица измерения которой составляет 1 мм, ошибка / погрешность любого измерения будет равна 1 мм (или 0,5 мм, как говорится в другом месте, я полагаю, что это наименьшая единица измерения, которую вы уверенно оцениваете) ."

Ответы (1)

Есть разница между неопределенностью и ошибкой. Неопределенность – это максимально возможная или максимально вероятная ошибка. Ошибка, является фактической ошибкой в ​​измерении.

В примере с вашим измерительным стержнем неопределенность является вопросом уверенности в ваших измерениях. Некоторые утверждают, что вы можете измерять только до 1 мм, потому что это наименьший шаг на устройстве. На самом деле обычная практика заключается в том, чтобы опуститься на один уровень ниже, то есть обычно считается, что вы можете точно оценить на один уровень больше, чем показывает измерительная линейка, поэтому вы можете измерять с точностью до ближайшей десятой доли миллиметра. Часто, чтобы признать, что эта последняя цифра была оценочной, вы бы сказали, что погрешность составляет +/- 0,3 мм, а не +/- 0,1 мм. С любым цифровым устройством у вас нет этой возможности экстраполировать еще один уровень, поэтому вы должны снимать показания непосредственно с устройства, а затем знать присущую устройству неопределенность. Просто потому, что, например, цифровой секундомер показывает 0,001 секунды, устройство может на самом деле считать 0. 003 в то время, когда неопределенность показаний превышает младшую значащую цифру. Эти цифры, однако, являются погрешностью прибора, фактической ошибкой показаний.

Чтобы на самом деле вычислить ошибку, вы переходите к статистическому анализу данных, таких как среднее значение и стандартное отклонение. В качестве примера предположим, что у вас есть 100 человек, измеряющих один и тот же объект одной и той же измерительной линейкой. Неопределенность измерительной линейки одинакова для всех, скажем, вы принимаете +/- 0,3 мм, которые я предложил. Но не все они получат одинаковое измерение. Некоторые измерят неправильно. Некоторые по-разному оценивают последнюю цифру и т. д. Однако большинство должно быть в пределах +/- 0,3 мм. Затем вы получите свое среднее значение и стандартное отклонение, чтобы получить то, что вы считаете реальным измерением, и расчетную ошибку в этом измерении. Много раз вы также уточняли бы это, отбрасывая любые измерения, отличающиеся более чем на 0,3 мм от других, как ошибки измерения или, возможно, те, которые превышают 2 стандартных отклонения и т. д.