Является ли вероятность Гиббса/Больцмана «истинной» вероятностью того, что частица находится в определенном состоянии в каноническом ансамбле?

Основываясь на классической интерпретации вероятности, вероятность того, что одна частица окажется в я энергетическое состояние, в Н системы частиц, должно быть дано числом частиц в этом состоянии, деленным на общее число частиц:

п ( я ) "=" н я Н

Здесь н я представляет фактическое количество частиц в системе. Однако из-за случайных флуктуаций и столкновений фактическое число частиц на определенном энергетическом уровне никогда не бывает постоянным и продолжает меняться, если общее число частиц конечно. Следуя этой логике, «истинную» вероятность обнаружения частицы на определенном энергетическом уровне невозможно определить, поскольку мы не можем разумно говорить о количестве частиц в состоянии, во всяком случае, для конечного случая.

Следовательно, мы используем распределение Гиббса/Больцмана и утверждаем, что вероятность того, что частица будет находиться в определенном состоянии, определяется следующим образом:

п ( я ) "=" е β Е я Z

Однако это не точная истинная вероятность, не так ли? Разве технически это не больше похоже на наше лучшее предположение о том, какова истинная вероятность того, что частица находится в состоянии Е я должно быть ? Поскольку число частиц в каждом состоянии постоянно меняется, становится бессмысленным говорить об этой «истинной» вероятности нахождения частицы в определенном энергетическом состоянии в определенный момент времени.

Итак, было бы правильно предположить, что вероятность Гиббса — это средняя вероятность или «ожидаемая» вероятность нахождения частицы в определенном состоянии. Поскольку это средняя вероятность, а не истинная, становится невозможным узнать количество частиц в этом состоянии. Из-за этого количество частиц в состоянии становится случайной величиной с распределением, среднее значение которого определяется выражением Н п ( я ) .

Итак, можем ли мы сказать, что в прямом смысле классической вероятности больцмановская вероятность является средней вероятностью найти частицу в определенном состоянии в системе только потому, что истинная вероятность продолжает меняться по мере того, как система подвергается столкновениям, а что нет, и занятость состояния никогда не бывает постоянной?

В пределе бесконечных частиц флуктуации затухают, и фактическое число частиц становится близким к ожидаемому числу частиц, поэтому можно утверждать, что вероятность Гиббса примерно равна классической вероятности.

Если бы мы могли теоретически знать «истинную» вероятность найти частицу в определенном состоянии, что, конечно же, невозможно, мы могли бы найти точное число частиц в этом состоянии. В этом случае количество частиц в состоянии не было бы распределением, а скорее было бы похоже на вопрос «да» или «нет», точно так же, как взятие цветных шариков из мешка — если вы знаете вероятность того, что выберете синий шарик из мешка с 100 шаров, вы можете легко найти количество синих шаров. Это будет именно вероятность, умноженная на общее количество шаров, а не какое-то распределение различных возможностей.

Но в этом случае, поскольку вы не знаете точную вероятность, а количество частиц в состоянии продолжает меняться, вы можете говорить только об ожидаемом количестве частиц в состоянии, т.е. вы получаете распределение общего числа частиц в состоянии.

Извините, если я трачу слишком много времени на интерпретацию довольно простой проблемы, но может ли кто-нибудь сказать мне, верна ли моя интерпретация ситуации или нет?

Классическая интерпретация п ( я ) это количество раз, когда ваша случайно выбранная частица оказывалась в состоянии я разделить на общее количество испытаний. Это отличается от того, что вы описали. Хотя в невзаимодействующих системах п ( я ) также может быть вычислено как ожидание н я над Н . См . физику.stackexchange.com/questions /678299/…

Ответы (2)

Ваша идея имеет смысл, но я считаю, что было бы лучше, если бы мы обсуждали ее с точки зрения байесовского понятия вероятности, а не с точки зрения частотности.

Представленное вами определение вероятности является «частотным» в том смысле, что вы понимаете вероятности с точки зрения частоты, с которой произойдет определенный результат. Другая возможная точка зрения состоит в том, чтобы думать о вероятности с точки зрения «ставки»: если я скажу вам, что у меня есть коробка со 120 шарами, из которых 80 синих, сколько вы готовы поставить на то, что я вытащу синий шар? Если он синий, я выиграл, иначе вы выиграли. Вы не захотите ставить больше, чем 1:2 (т. е. если вы выиграете, я заплачу вам 2 доллара, если я выиграю, вы заплатите мне 1 доллар), потому что, если я беру с вас больше, вы, вероятно, потеряете деньги. Заметьте, однако, что если вы знаете, что я обычно лгу о количестве шаров в коробке, ваша готовность ставить 1:2 изменится. Вместо этого вы захотите поставить немного меньше, потому что вы также принимаете во внимание некоторую дополнительную информацию, которую вы имели заранее. Это показывает, что вероятность не является абсолютной концепцией, а зависит от имеющейся у вас информации.

Возьмем в качестве примера газ. Вы хотите приписать вероятности тому микросостоянию, в котором сейчас находится газ. Как вы можете это сделать? Итак, вы используете Фундаментальный постулат статистической механики и утверждаете, что все доступные микросостояния равновероятны.

Но предположим, что теперь вы знаете, что ваш газ находится в тепловом равновесии с резервуаром при некоторой температуре. Т . Температура — это просто мера средней энергии частиц в вашем газе, так что это эквивалентно утверждению, что у вас есть четко определенное среднее значение вашей энергии. На этот раз у вас больше информации, чем раньше, и вы хотели бы использовать ее для определения своих вероятностей точно так же, как вы использовали ее, делая ставку против меня. В прошлый раз вы использовали равномерную вероятность, которую мы можем оправдать, сказав, что у нас нет информации о том, почему какое-либо состояние следует предпочесть другому. На этот раз мы также хотим выбрать распределение, которое предполагает отсутствие дополнительной информации, кроме имеющейся у нас, и поэтому мы выберем вероятность, которая максимизирует «дезинформацию» (энтропию, также известную как энтропия) нашей системы с учетом ограничений, предоставляемых информацией, которую мы делаем. имеют (среднее значение энергии фиксировано).

Даст ли этот процесс правильную вероятность? Я цитирую DOI: 10.3390/e18070247 адаптацию цитаты Джейнса, чтобы ответить на вопрос:

Если в заданном контексте вам нужно сформулировать распределение вероятностей, на котором основываются ваши ставки, выберите из всех возможных распределений, которые согласуются с тем, что вы знаете о задаче, то, которое имеет максимальную энтропию . Почему? Гарантировано ли это «настоящее» (что бы это ни значило) распределение вероятностей? Конечно, нет! На самом деле вы, скорее всего, замените его новым, как только увидите результат следующего испытания, потому что к тому времени у вас будет еще одна информация. Почему тогда? Потому что любой другой выбор — равносильный отказу от части имеющейся у вас информации или допущению информации, которой у вас нет , — был бы неоправданным.

Следовательно, вы правы в идее, что вероятность Больцмана является «наилучшей догадкой» о том, сколько частиц занимает каждое состояние с учетом доступной информации . Если вы получите больше информации, вы, скорее всего, откажетесь от распределения Больцмана, как только это произойдет, и соответствующим образом обновите свои вероятности, точно так же, как кто-то, кто считает карты в блэкджеке, обновляет вероятность получения денег с каждой новой картой, которую он видит. Обратите внимание, что знание «истинной вероятности» означает наличие полной информации о системе, и, как вы упомянули, это приводит к единственной возможности, в которой вы точно знаете, сколько частиц находится в каждом состоянии.

Если вас интересуют эти идеи, вы можете взглянуть на этот пост: Справочник по статистической механике с точки зрения теории информации .

Спасибо вам большое за это. Тем не менее, я задал дополнительный вопрос по этому поводу здесь , относительно того, какое распределение я должен использовать для количества частиц на энергетическом уровне.
Моя первая интуиция подсказывает мне, что биномиальное распределение достаточно хорошо, но как только я копну немного глубже, мне кажется, что есть другое возможное распределение, которое лучше моделирует систему.

Байесовская статистика, как объяснил в ответе @NíckolasAlves, является принципиальным способом решения философской проблемы, заключающейся в том, что измерение вероятностей с помощью бесконечного числа измерений невозможно. Обратите внимание, однако, что байесовскую статистику можно также критиковать за то, что она основана на убеждении, закодированном в априорном, как на нашем разумном предположении о том, каким может быть распределение вероятностей. В конце концов, обе платформы дают одинаковые результаты, если их применять последовательно.

Статистическая физика в рамках частотности
Однако даже в рамках частотности вещи несколько отличаются от того, как они представлены в ОП. В частности, вероятность не определяется как отношение н я / Н , а скорее как предел

п я "=" лим Н + н я Н .
Нам не нужно знать значение этого предела — достаточно верить, что такой предел существует (и удовлетворяет основным ограничениям на вероятность, таким как положительность и сумма к единице). Затем для любой выборки конечного размера у нас есть оценка того, какой может быть вероятность:
п ^ я "=" н я Н .
Обратите внимание, что оценщик сам по себе является случайной величиной , среднее значение, стандартное отклонение и другие свойства которой (например, ее непротиворечивость, смещение и т. д.) можно изучить путем выборки. Н частиц из теоретической бесконечно большой системы с последующим усреднением по образцам ( усреднение по ансамблю ).

Статистическая механика дает нам средние значения таких оценок, рассчитанных для упрощенных систем, где вероятности могут быть явно вычислены в термодинамическом пределе , Н + . Таким образом, фактические приближения в статистической механике связаны не с предположениями о размерах системы, а с выполнением приближений, позволяющих оценить точные пределы.

Например, хорошо изученный пример идеального газа не учитывает столкновения между атомами/молекулами, что позволяет точно оценить его свойства. Однако эти столкновения необходимы для установления термодинамического равновесия. Другим примером является предположение об эргодичности, которое предполагает, что через длительное время система исследует все возможные конфигурации, и поэтому ее состояние может быть описано средними по ансамблю (а не средними по времени) - это предположение нарушается в критических явлениях.

Рекомендуемая литература: глава о статистике из Review of Particle Physics.

Я добавил дополнительный вопрос по этому поводу. Вы прокомментировали какой-то другой пост, что количество частиц в состоянии является случайной величиной и может быть смоделировано с использованием биномиального распределения, где п я - вероятность того, что одна частица находится в этом состоянии
Однако вы не думаете, что может быть лучшее распределение, которое мы можем использовать по сравнению с биномиальным. Например, можем ли мы не рассматривать Н + 1 разные системы с разными значениями н я и, следовательно, разные «оценщики», и проверить вероятность того, что эти оценщики дадут тот же результат, что и вероятность Больцмана?
На основе распределения Больцмана оценочное количество частиц в состоянии равно мю "=" п я Н . Так из системы Н частицы, мы можем ожидать увидеть мю частицы в определенном состоянии. Так что теперь вместо проверки вероятности попадания именно н я частиц, используя простое биномиальное распределение, как насчет того, чтобы проверить вероятность получения мю частицы в состоянии вне Н , для каждой из этих систем с разными значениями н я и впредь разные оценщики?
В обоих случаях я бы получил то же самое м е а н , так что, в конце концов, я думаю, это не имеет значения. Однако мне кажется, что это новое распределение более точное, чем простое биномиальное распределение. Если бы вы были любезны взглянуть на этот последующий вопрос