Есть что-то, чего я действительно не понимаю в энтропии.
Давайте рассмотрим классическую систему (не квантовую механику здесь).
Мы можем вычислить энтропию системы по формуле
Если мы работаем в равновесии с термостатом, мы можем, например,
Но дело в том, что эти вероятности найти систему в заданном состоянии чисто субъективны. Именно потому, что уравнение движения «слишком сложно» решить, мы используем вероятностный подход.
Но с этой субъективной точки зрения мы можем связать с объективными величинами, действительно, если я допускаю обратимое преобразование, я бы получил : теплота, полученная системой, если он изменит свою энтропию на .
Итак, в заключение: как возможно, чтобы субъективное понятие, такое как энтропия, приводило к объективному заключению, такому как перенос тепла?
Информационная энтропия субъективна, а термодинамическая энтропия — нет. Это важно подчеркнуть, потому что эти два понятия часто путают (и они действительно тесно связаны, но не одно и то же).
Термодинамическая энтропия определяется как максимально возможная информационная энтропия по всем распределениям вероятностей, которые согласуются с доступной нам информацией (то есть информацией о макроскопических величинах, таких как температура, давление...). Таким образом, это мера «недостающей информации», связанной с недоступными нам степенями свободы.
Вообще говоря, статистические ансамбли, которые мы обычно используем (микроканонические, канонические и т. д.), обладают тем свойством, что они максимизируют информационную энтропию с учетом ограничений доступной нам информации. Так что для тех ансамблей, и только для техансамблей информационная энтропия равна термодинамической энтропии. Однако, если бы мы захотели, мы могли бы попытаться угадать приблизительное положение/скорость всех частиц и, таким образом, назначить гораздо более остроконечное распределение вероятностей, чем обычное. В этом случае информационная энтропия не была бы равна термодинамической энтропии, но последняя была бы неизменной. (Лучшим примером было бы, если бы мы знали что-то об начальном состоянии — например, что все частицы газа в ящике первоначально находились на одной стороне ящика. Тогда, по крайней мере, в принципе, мы могли бы развить распределение вероятностей во времени, чтобы найти окончательное распределение, которое не было бы таким же, как канонический ансамбль. Тем не менее, даже если бы мы могли это сделать (очень сложно), мы, как правило, не используем эту информацию, поэтому для экспериментальных предсказаний мы все равно можем рассматривать ее как «информацию, которая нам недоступна»).
Примечание: в определении термодинамической энтропии все еще существует некоторая свобода, связанная с тем, что мы подразумеваем под «доступной нам информацией». Вероятно, неправильно называть это «субъективностью», но Джейнс [1] провел несколько увлекательных мысленных экспериментов, в которых определение энтропии зависит от того, можем ли мы получить доступ к внутренним степеням свободы некоторого гипотетического вида атома. . Если у нас есть возможность получить доступ к этим внутренним степеням свободы, но мы предпочитаем этого не делать, то нам разрешено использовать несколько определений энтропии. Интересно подумать о том, как это согласуется с такими утверждениями, как
если я предполагаю обратимое преобразование, я бы имел : теплота, полученная системой, если он изменит свою энтропию на .
Ответ заключается в том, что «обратимый» определяется как процесс, в котором общая энтропия Вселенной сохраняется, поэтому то, какие процессы мы называем обратимыми, на самом деле зависит от определения энтропии.
[1] http://www.damtp.cam.ac.uk/user/tong/statphys/jaynes.pdf
Для получения дополнительной информации об этой точке зрения на термодинамическую энтропию см. https://aapt.scitation.org/doi/10.1119/1.1971557 («термодинамическая энтропия» упоминается в этой статье как «экспериментальная энтропия»).
Кнчжоу
пользователь137289
вероятно_кто-то
Доминик Эльс
вероятно_кто-то
Доминик Эльс
вероятно_кто-то
Доминик Эльс
Г. Бержерон
вероятно_кто-то
вероятно_кто-то
Рококо