Энтропия: субъективное незнание, которое приводит к объективным выводам.

Есть что-то, чего я действительно не понимаю в энтропии.

Давайте рассмотрим классическую систему (не квантовую механику здесь).

Мы можем вычислить энтропию системы по формуле

С "=" л п л л о г ( п л )
где п л – вероятность найти исследования системы в конфигурации л .

Если мы работаем в равновесии с термостатом, мы можем, например,

п л "=" е β Е л / Z .

Но дело в том, что эти вероятности найти систему в заданном состоянии чисто субъективны. Именно потому, что уравнение движения «слишком сложно» решить, мы используем вероятностный подход.

Но с этой субъективной точки зрения мы можем связать с объективными величинами, действительно, если я допускаю обратимое преобразование, я бы получил Вопрос "=" к б Т Δ С : теплота, полученная системой, если он изменит свою энтропию на Δ С .

Итак, в заключение: как возможно, чтобы субъективное понятие, такое как энтропия, приводило к объективному заключению, такому как перенос тепла?

Я задавал аналогичный вопрос здесь .
Можно рассчитать энтропию системы и для компьютерного моделирования, где все известно.
Я не понимаю, как вероятностные действия означают, что они субъективны. Пока вы можете выразить свою систему в виде гамильтониана, вы можете применить теорему Лиувилля, чтобы объективно получить плотность вероятности: physics.stackexchange.com/questions/76028/…
@probably_someone Однако вам все еще нужно сделать выбор для начального распределения вероятностей. Теорема Лиувилля просто позволяет вам эволюционировать во времени.
@DominicElse Это также можно сделать объективно: просто пусть это будет дельта-функция при ваших начальных условиях (или, если ваши начальные условия имеют некоторую неопределенность, затем размажьте соответственно).
@probably_someone Ну, начальные условия всегда имеют неопределенность для макроскопических систем (мы, конечно, не знаем положения и скорости каждой частицы). Но то, как назначить распределение вероятностей для характеристики этой неопределенности, является потенциально субъективной частью.
@DominicElse В таком случае, есть ли какая-то часть физики, которая не является субъективной? Характеристика неопределенности всегда, по вашему определению, субъективна, и каждое производимое нами измерение имеет неопределенность. Теоретическая физика опирается на эти субъективные результаты, поэтому она также не может быть объективной. Итак, каким образом объективное и субъективное является значимым различием в этот момент?
@probably_someone Мой ответ показывает, в каком смысле термодинамическая энтропия (не то же самое, что информационная энтропия) объективна. Именно она дает экспериментальные предсказания, а не информационная энтропия.
Статистическая механика НЕ ​​полагается на нашу собственную субъективность, чтобы обеспечить соответствующее распределение, она полагается на эргодическую гипотезу!
@DominicElse А, так что-то является «объективным», если оно дает экспериментальные прогнозы. Тогда в этом случае объективно правильным начальным распределением будет то, которое лучше всего предсказывает ваши измерения.
@DominicElse Кроме того, информационная энтропия может давать экспериментальные прогнозы. Проверка скорости Найквиста, доказательство которой опирается на информационную энтропию, — это способ, с помощью которого информационная энтропия делает экспериментальные предсказания.
Вас может заинтересовать мой ответ на связанный с этим вопрос: physics.stackexchange.com/questions/145795/…

Ответы (1)

Информационная энтропия субъективна, а термодинамическая энтропия — нет. Это важно подчеркнуть, потому что эти два понятия часто путают (и они действительно тесно связаны, но не одно и то же).

Термодинамическая энтропия определяется как максимально возможная информационная энтропия по всем распределениям вероятностей, которые согласуются с доступной нам информацией (то есть информацией о макроскопических величинах, таких как температура, давление...). Таким образом, это мера «недостающей информации», связанной с недоступными нам степенями свободы.

Вообще говоря, статистические ансамбли, которые мы обычно используем (микроканонические, канонические и т. д.), обладают тем свойством, что они максимизируют информационную энтропию с учетом ограничений доступной нам информации. Так что для тех ансамблей, и только для техансамблей информационная энтропия равна термодинамической энтропии. Однако, если бы мы захотели, мы могли бы попытаться угадать приблизительное положение/скорость всех частиц и, таким образом, назначить гораздо более остроконечное распределение вероятностей, чем обычное. В этом случае информационная энтропия не была бы равна термодинамической энтропии, но последняя была бы неизменной. (Лучшим примером было бы, если бы мы знали что-то об начальном состоянии — например, что все частицы газа в ящике первоначально находились на одной стороне ящика. Тогда, по крайней мере, в принципе, мы могли бы развить распределение вероятностей во времени, чтобы найти окончательное распределение, которое не было бы таким же, как канонический ансамбль. Тем не менее, даже если бы мы могли это сделать (очень сложно), мы, как правило, не используем эту информацию, поэтому для экспериментальных предсказаний мы все равно можем рассматривать ее как «информацию, которая нам недоступна»).

Примечание: в определении термодинамической энтропии все еще существует некоторая свобода, связанная с тем, что мы подразумеваем под «доступной нам информацией». Вероятно, неправильно называть это «субъективностью», но Джейнс [1] провел несколько увлекательных мысленных экспериментов, в которых определение энтропии зависит от того, можем ли мы получить доступ к внутренним степеням свободы некоторого гипотетического вида атома. . Если у нас есть возможность получить доступ к этим внутренним степеням свободы, но мы предпочитаем этого не делать, то нам разрешено использовать несколько определений энтропии. Интересно подумать о том, как это согласуется с такими утверждениями, как

если я предполагаю обратимое преобразование, я бы имел Вопрос "=" к б Т Δ С : теплота, полученная системой, если он изменит свою энтропию на Δ С .

Ответ заключается в том, что «обратимый» определяется как процесс, в котором общая энтропия Вселенной сохраняется, поэтому то, какие процессы мы называем обратимыми, на самом деле зависит от определения энтропии.

[1] http://www.damtp.cam.ac.uk/user/tong/statphys/jaynes.pdf

Для получения дополнительной информации об этой точке зрения на термодинамическую энтропию см. https://aapt.scitation.org/doi/10.1119/1.1971557 («термодинамическая энтропия» упоминается в этой статье как «экспериментальная энтропия»).

Комментарии не для расширенного обсуждения; этот разговор был перемещен в чат .