Итак, в классе мы проводим эксперимент с периодом маятника, в котором вы измеряете период колебаний с помощью секундомера.
В лабораторном руководстве показано, как проводить анализ ошибок, вычисляя среднее значение и получая стандартное отклонение. Я получаю это много. Однако в другом месте я читал, что погрешность измерений — это наименьшая возможная единица измерения на измерительном приборе, поэтому, например, на измерительной линейке, наименьшая единица измерения которой составляет 1 мм, ошибка/неопределенность любого измерения будет равна 1 мм (или 0,5 мм, как сказано в другом месте, Я полагаю, это наименьшая единица, которую вы можете уверенно оценить).
Итак, если бы я сделал 10 измерений куска веревки, каждое измерение имело бы погрешность 1 мм. Теперь, когда я вычислил их среднее значение, будет ли неопределенность равна 1 мм или мне придется использовать формулы распространения ошибок для вычисления неопределенности среднего значения. Или мы игнорируем этот 1 мм и просто вычисляем среднее значение и стандартное отклонение?
Действительно ли стандартное отклонение будет включать все источники неопределенности, т. е. погрешность измерения 1 мм, а также другие? Если да, то какой смысл записывать ошибку измерения в первую очередь, когда она включается в статистический анализ?
Может кто-нибудь мне помочь? Я знаю, что делаю какое-то фундаментальное заблуждение, но я изо всех сил пытаюсь это выяснить.
Есть разница между неопределенностью и ошибкой. Неопределенность – это максимально возможная или максимально вероятная ошибка. Ошибка, является фактической ошибкой в измерении.
В примере с вашим измерительным стержнем неопределенность является вопросом уверенности в ваших измерениях. Некоторые утверждают, что вы можете измерять только до 1 мм, потому что это наименьший шаг на устройстве. На самом деле обычная практика заключается в том, чтобы опуститься на один уровень ниже, то есть обычно считается, что вы можете точно оценить на один уровень больше, чем показывает измерительная линейка, поэтому вы можете измерять с точностью до ближайшей десятой доли миллиметра. Часто, чтобы признать, что эта последняя цифра была оценочной, вы бы сказали, что погрешность составляет +/- 0,3 мм, а не +/- 0,1 мм. С любым цифровым устройством у вас нет этой возможности экстраполировать еще один уровень, поэтому вы должны снимать показания непосредственно с устройства, а затем знать присущую устройству неопределенность. Просто потому, что, например, цифровой секундомер показывает 0,001 секунды, устройство может на самом деле считать 0. 003 в то время, когда неопределенность показаний превышает младшую значащую цифру. Эти цифры, однако, являются погрешностью прибора, фактической ошибкой показаний.
Чтобы на самом деле вычислить ошибку, вы переходите к статистическому анализу данных, таких как среднее значение и стандартное отклонение. В качестве примера предположим, что у вас есть 100 человек, измеряющих один и тот же объект одной и той же измерительной линейкой. Неопределенность измерительной линейки одинакова для всех, скажем, вы принимаете +/- 0,3 мм, которые я предложил. Но не все они получат одинаковое измерение. Некоторые измерят неправильно. Некоторые по-разному оценивают последнюю цифру и т. д. Однако большинство должно быть в пределах +/- 0,3 мм. Затем вы получите свое среднее значение и стандартное отклонение, чтобы получить то, что вы считаете реальным измерением, и расчетную ошибку в этом измерении. Много раз вы также уточняли бы это, отбрасывая любые измерения, отличающиеся более чем на 0,3 мм от других, как ошибки измерения или, возможно, те, которые превышают 2 стандартных отклонения и т. д.
Массимо Ортолано
Массимо Ортолано
РонГигант
Массимо Ортолано
РонГигант