Как полностью понять определение энтропии?

В контексте термодинамики и статистической механики мы сталкиваемся, в основном, с тремя различными определениями энтропии:
Первое определение:
рассмотрим изолированную макроскопическую систему, у нее есть макросостояние и микросостояние; макросостояние — это совокупность его макроскопических свойств, а микросостояние — это точное состояние, в котором находятся составные части системы. Тогда энтропия С определяется как следующая величина:

(1) С "=" к Б п Г
где к Б это просто постоянная Больцмана и Г число возможных микросостояний , совместимых с макросостоянием, в котором находится система .
Второе определение:
та же установка, что и раньше, но теперь энтропия определяется как:
(2) С "=" к Б я п я п п я
где п я есть вероятность того, что система находится в я -е микросостояние (опять же, взятое из пула совместимых микросостояний).
Третье определение:
мы полностью меняем установку: рассмотрим обратимый циклический термодинамический процесс; тогда мы просто определяем энтропию как общую функцию переменных состояния ( то есть как функцию состояния ), которая имеет следующее свойство:
(3) д С "=" д Вопрос Т
где Т – температура системы, в которой протекает термодинамический процесс, и д Вопрос бесконечно малое количество теплоты, переданное в систему обратимым образом .

Итак, вы сами видите, что, по крайней мере, на первый взгляд, определение энтропии весьма фрагментарно и запутанно.
К счастью, мы можем легко объединить первое и второе определение, обратившись ко второму фундаментальному постулату статистической механики: принципу безразличия , который говорит нам, что:

п я "=" 1 Г
а затем, немного поработав, мы можем легко показать, что эти два определения эквивалентны.

Но даже с этим улучшением картина остается фрагментарной, в основном по двум различным проблемам:

  1. Фрагментация между классической и квантовой механикой: как подсчитать количество возможных микросостояний Г в неквантовой, классической перспективе? Я имею в виду следующее: в первых двух определениях мы как бы приняли как должное тот факт, что число возможных совместимых микросостояний конечно , но, конечно, это может быть правдой только в квантовом сценарии, надеясь, что квантовое фазовое пространство положения и импульса квантуется. Что, если это не так? Что, если мы хотим статистически определить энтропию в классическом, не квантовом сценарии? Как мы определяем Г в классическом фазовом пространстве положения и импульса? Статистическая энтропия может быть определена только квантово-механически?

  2. Фрагментация между классической термодинамикой и статистической механикой: как показать, что первые два определения совместимы с третьим? Это кажется сложным, особенно потому, что третье определение кажется очень расплывчатым. Это своего рода бонусный вопрос, потому что я основал этот предыдущий вопрос, решая ту же проблему; но я думаю, что приведенный там ответ довольно плохо сделан и чрезмерно лаконичен, а также думаю, что было бы неплохо завершить эту картину всю в одном вопросе. Но не стесняйтесь игнорировать это, если вы думаете, что это будет бесполезное повторение ответа, который я связал.

Мой упрощенный взгляд на энтропию: все концентрированные источники энергии со временем становятся более разбавленными.
@DavidWhite Я тоже хотел бы принять упрощенную точку зрения. Но, к сожалению, если вы это сделаете, математика выследит вас.
@Noumeno, так ты действительно хочешь понять конкретное МАТЕМАТИЧЕСКОЕ определение энтропии?

Ответы (2)

Не уверен, что это то, что вы ищете, но я попробую.

В классической системе вы работаете в фазовом пространстве. Вы должны разделить это пространство на элементы объема, чтобы выполнить любой тип подсчета. Предположим, что рассматриваемая система зависит от некоторого ф обобщенные координаты и импульсы:

Е ( д 1 . . . д ф , п 1 . . . п ф )
и, таким образом, фазовое пространство разбивается на объемные элементы час 0 ф , где этот «размер» остается неопределенным.

Статистическая сумма теперь рассчитывается как:

Z "=" . . . е β Е ( д 1 . . . п ф ) д д 1 . . . д п ф час 0 ф
Теперь вы можете использовать это для расчета многих термодинамических свойств, включая энтропию. С "=" к ( л н Z + β Е ¯ ) .

Если вы выполните этот расчет для идеального газа (с правильным подсчетом, чтобы избежать парадокса Гиббса), вы получите:

С "=" к Н ( л н В Н + 3 2 л н Т + о 0 )
где
о 0 "=" 3 2 л н 2 π м к час 0 2 + 5 2
Обратите внимание, что наш неопределенный объем в фазовом пространстве находится в о 0 . Если вы проведете точно такой же расчет с помощью квантовой механики, вы получите точно такую ​​же формулу, только теперь час 0 является как и должно быть.

Подводя итог, статистика требует подсчета. При классической работе вы должны разделить фазовое пространство на неопределенный объем, который используется в ваших вычислениях. Этот объем правильно определяется как постоянная Планка при выполнении того же квантово-механического расчета.

По второму вопросу скажу только следующее. В первом случае уравнение определяет энтропию, а во втором — бесконечно малое изменение энтропии. Первый получается путем приведения в контакт двух систем примерно одинакового размера и определения условий равновесия (температура должна быть одинаковой). Один выводит второй, имея меньшую систему, обменивающуюся теплом с гораздо большим резервуаром тепла, а затем вычисляя последующее изменение энтропии резервуара тепла, предполагая, что его температура остается постоянной.

В качестве последнего примечания я просто укажу, если вы не знаете (извините, если знаете), что ваша первая энтропия, определенная выше, является определением Больцмана, а вторая — определением Гибба. Есть разница, которая обсуждается здесь .

В термодинамике энтропия является величиной состояния. Таким образом, он используется для определения конкретного состояния системы в пространстве конфигурации. Первое определение, которое вы дали, - это энтропия Больцмана, и оно применимо только к изолированным системам или микроканоническим ансамблям. В микроканоническом ансамбле фиксированы переменные состояния, такие как энергия, количество частиц и объем. Итак, все микросостояния имеют одинаковую энергию и равновероятны. Таким образом, для всех микросостояний Дж , п Дж "=" 1 Ом ; где Ом число всех возможных микросостояний.

Это понятие энтропии может быть расширено для других ансамблей с помощью соответствующих преобразований Лежандра. Отсюда вы получаете второе определение, которое вы дали, — энтропия Гиббса. Это обобщенная версия энтропии, применимая ко всем ансамблям/системам. Это определение энтропии идентично третьему определению, которое вы дали ( https://doi.org/10.1119/1.1971557 ).

Для полукачественного понимания рассмотрим следующую ситуацию. У вас есть Н коробки, Н 1 Голубые шары, Н 2 красные шары и шары того же цвета неразличимы. Также, Н 1 и Н 2 может колебаться до тех пор, пока Н 1 + Н 2 "=" Н держит. Скажем, вы ищете состояние равновесия этой системы. Используя энтропию Больцмана, вы можете доказать, что состояние равновесия Н 1 "=" Н 2 "=" Н 2 ; поскольку это макросостояние является наиболее вероятным и соответствует максимальной энтропии. Другой способ понять это без каких-либо вычислений — посмотреть на макросостояние, которое имеет наибольшее количество микросостояний или имеет наивысшее вырождение. Если Н 1 "=" Н 2 , то вы сможете составить максимальное количество комбинаций при раздаче их на Н коробки. Таким образом, если эта система эргодична, то большую часть времени она будет проводить, посещая микросостояния упомянутого макросостояния. Кроме того, это макросостояние имеет максимальное количество информации, которое может иметь эта система. Другими словами, информации, необходимой для описания этого состояния, больше, чем информации, необходимой для описания любого другого состояния. Следовательно, энтропия Гиббса является физическим аналогом энтропии Шеннона. Однако тот факт, что вам нужно больше информации, ничего не говорит о беспорядке. Поскольку для этого вам понадобится определение порядка . Наоборот, можно найти число шаров равным вполне правдоподобным и упорядоченным .

Короче говоря, энтропия в основном (если не все) связана с перераспределением доступной энергии до тех пор, пока не будет достигнуто равновесие для всех описываемых систем. Только тогда можно достичь равновесия .

См. https://en.wikipedia.org/wiki/Heat_death_of_the_universe .