Недавно изучил некоторые философские взгляды на вероятность и столкнулся с интересной проблемой, выдвинутой Поппером:
Согласно Попперу, вероятностные утверждения нельзя строго опровергнуть. [Например, утверждение «вероятность того, что завтра будет дождь, равна 0,85» не будет фальсифицированным, даже если завтра не будет дождя, поскольку в этом утверждении также косвенно говорится, что вероятность того, что завтра не будет дождя, равна 0,15. ; поэтому вероятностные утверждения на самом деле напоминают утверждения, охватывающие все случаи, а именно утверждения вида «А или не А»].
Тем не менее, Поппер добавляет, что вероятностные утверждения, тем не менее, рассматриваются учеными как опровержимые. В свою очередь, он предлагает рассматривать их как таковые, но, похоже, предоставляет статистикам детализировать детали того, как фальсифицировать вероятностные утверждения.
Мой вопрос состоит из двух частей:
Поппер выражает свою позицию относительно проверяемости утверждений о вероятности наиболее четко в конце раздела 68 LScD, см. также раздел 66. Его позиция состоит в том, что мы должны установить методологическое правило о том, какие относительные частоты следует считать согласующимися с оценкой вероятности. . Это правило, утверждает он, не должно быть произвольным, а должно быть результатом точности, с которой правило может быть проверено с помощью доступных технологий. В LScD Поппер отстаивал частотную теорию вероятностей. Позже он изменил свое мнение и принял интерпретацию вероятности, основанную на склонности, но это не изменило существа его позиции в отношении проверяемости вероятностных утверждений. Интерпретация склонности постулирует своего рода меру множества возможных состояний, но Поппер этого не сделал.
Более удовлетворительное объяснение проверяемости вероятностных утверждений дал Дэвид Дойч. Утверждения того типа, которые обычно называют вероятностными, могут быть проверены , когда законы физики обеспечивают меру множества возможностей, учитывающую исчисление вероятностей. Такая мера была получена в контексте квантовой теории. См. также его лекцию по этому вопросу.
Этот ответ следует читать как своего рода расширенный комментарий к ответу Алана, с которым я в целом согласен, но хотел бы уточнить. Дойч утверждает, что вероятности можно исключить из физических теорий, другими словами, что нам не нужны случайные процессы в физической теории. В частности, он заинтересован в том, чтобы утверждать, что квантовая теория, которую часто интерпретировали как включающую фундаментальные неопределенности, может быть понята вместо этого как детерминистское объяснение того, как частицы и поля ведут себя во множестве миров, в соответствии с многомировой интерпретацией.
Затем Дойч продолжает отвергать эпистемическое понятие достоверности, но это не обязательно следует из отказа от физических вероятностей. Мы, как когнитивные агенты с ограниченными и несовершенными возможностями, никогда не обладаем полной информацией ни о чем. Всякий раз, когда мы принимаем решения, а это происходит постоянно, мы вынуждены принимать эти решения в условиях неопределенности, и если у нас нет какого-либо способа количественной оценки этой неопределенности, мы будем склонны принимать неверные решения. Вот почему вероятности появляются в теории принятия решений: это не означает, что мы принимаем решения о случайных событиях, просто мы принимаем решения с неполной или несовершенной информацией. Вероятности нужны просто для количественной оценки неопределенности. Бруно де Финетти показал, как, используя аргументы голландских книг, мы можем начать с очень безобидного и правдоподобного представления о том, что представляет собой плохое или иррациональное решение, и перейти к выведению из него теории вероятностей. Другие, включая Ричарда Кокса и Эдвина Джейнса, показали, как можно использовать примитивное понятие логического вывода для получения вероятности.
Результатом этого является то, что индуктивное рассуждение с использованием эпистемических вероятностей очень живо и процветает в статистической практике, и в частности в областях машинного обучения/искусственного интеллекта. Что касается вашего конкретного вопроса о том, какие тесты проводят статистики, то общего согласия в отношении методологии нет. Три основных лагеря: классический (частотный), байесовский и вероятностный. Классический подход в целом включает формирование нулевых гипотез, разработку экспериментов для их проверки и отклонение гипотезы, если результаты значимы (Фишер), или проверку гипотез в соответствии с их коэффициентами ложноположительных и ложноотрицательных ошибок (Нейман и Пирсон). Байесовцы определяют априорные распределения вероятностей и используют данные для обновления этих распределений.
Никакая эмпирическая фальсификация не имеет решающего значения, является ли теория вероятностной или нет. Поппер обсуждал это, например, в разделе 29 LScD «ОТНОСИТЕЛЬНОСТЬ ОСНОВНЫХ УТВЕРЖДЕНИЙ». основная проблема, также известная как проблема Дюгема-Квайна, заключается в том, что всякий раз, когда у вас есть опровержение, либо опровергнутая теория неверна, ЛИБО само опровержение может быть неверным, поэтому оно никогда не бывает полностью ясным, решительным и решенным.
Так что же вы делаете вместо этого? Вы критикуете и перестаете искать уверенности. Вы пытаетесь найти плохие идеи и отвергнуть их. Имеет ли это смысл? Какие-то логические проблемы? Решает ли он проблему, которую должен решить? Вызывает ли это какие-либо проблемы? Вы ищете хорошие качества для идей и что-то не так с ними. Делайте все возможное, чтобы думать и улучшать свои идеи. Расширяйте свои знания вместо того, чтобы стремиться к окончательным неоспоримым ответам. Это работает одинаково с вероятностными и невероятностными теориями.
Я не думаю, что это сложно.
Если мы утверждаем, что вероятность какого-то события очень-очень мала, а затем оно происходит, то это утверждение о вероятности фальсифицируется (с очень-очень малой вероятностью ошибки). Это дает подмножество вероятностных утверждений, которые можно сфальсифицировать. Это был бы классический статистический подход, использованный Фишером, Нейманом и Пирсоном.
Обратите внимание, что если событие уже произошло, оно имеет вероятность 1, и бессмысленно приписывать ему какую-либо другую вероятность. Порядок важен. Например, мы не стали бы бросать кости 10 раз, получая 4 5 2 4 5 4 2 3 1 4, а затем продолжать говорить, что шанс получить эту последовательность с правильными костями равен 1,6e-08, и, таким образом, отвергать это это честная игра в кости.
Относительно вашего «примера вероятности дождя»: указанная вероятность велика, поэтому ее нельзя опровергнуть. Однако из теории, которую можно использовать для расчета таких вероятностей, вы можете прийти к вероятностному утверждению с малой вероятностью, например, «вероятность того, что дождь будет идти каждый день в течение 100 дней, равна 1e-6». Если бы дождь шел каждый день в течение 100 дней, теория была бы фальсифицирована.
Я не уверен, как Поппер решил эту проблему, но в целом мы рассматриваем статистические отчеты как относящиеся к набору событий, а не к одному событию. Утверждение «Атом урана имеет X/Y-вероятность распада за время T» означает, что мы ожидаем, что наблюдаемое отношение будет приближаться к X/Y по мере того, как мы будем наблюдать все больше и больше атомов.
В некотором смысле, это все еще не является строго фальсифицируемым, потому что ничто не предотвращает статистические аномалии. Тем не менее, стандарты могут быть установлены для допустимых ожидаемых отклонений.
М. ле Фу
Эра
Корт Аммон
Гуилл
Конифолд
ЛМ Студент