У энтропии есть два определения, которые исходят из двух разных областей науки: термодинамики и теории информации. Тем не менее, считается, что они оба согласны. Это правда?
Энтропия, как видно из теории информации, измеряет наше незнание системы. Энтропия, как видно из термодинамики, измеряет количество извлекаемой работы. Один из них эпистемологический, другой онтологический. Тем не менее, они оба могут согласиться, если энтропия действительно измеряет количество извлекаемой работы, учитывая знания о системе.
Но так ли это? Выражает ли энтропия Шеннона, вычисленная на основе распределения вероятностей физической системы, количество работы, которую мы можем получить от нее? Как увеличение наших знаний увеличивает объем извлекаемой работы? Достаточно ли мощен принцип Ландауэра, чтобы установить связь?
ОБНОВЛЕНИЕ: ниже я отвечаю «да» на первый вопрос в посте (одинаковы ли два вида энтропии с точностью до константы). Это привело к некоторой путанице, поскольку и Мэтт, и Джон ответили, что «ответ отрицательный», однако я полагаю, что они имеют в виду заголовок «Измеряет ли энтропия извлекаемую работу?». Хотя автор использует их взаимозаменяемо, сам вопрос содержит ложную предпосылку: а именно, что физическая энтропия является мерой извлекаемой работы («Энтропия, как видно из термодинамики, измеряет количество извлекаемой работы»). Это просто неверно в общем случае, хотя может быть верным для некоторых частных случаев, как показывает контрпример Мэтта. Конкретным случаем этого является мяч, помещенный в любом месте на ровной поверхности. Если мяч будет размещен случайным образом,
Ответ: да, два вида энтропии одинаковы с точностью до постоянного множителя (что также является источником принципа Ландауэра). На пути к этому через демона Максвелла. В частности, с помощью двигателя Сциларда, идеализированного теплового двигателя, использующего газ из одной частицы. Затем вы вводите перегородку, которая эффективно разделяет газ на две области, только одна из которых содержит частицу. Теперь, если бы вы знали, с какой стороны перегородки находится частица, вы могли бы использовать разницу давлений для извлечения работы, а если нет, то и не сможете, поскольку не знаете, в какую сторону она будет толкаться.
Теперь связь с теорией информации возникает, когда мы измеряем, на какой стороне перегородки находится частица. От этого мы получаем определенное количество энтропии (и, следовательно, информации) в регистре, в котором хранится результат нашего измерения. Но обладание этой информацией снижает энтропию газа. И, следовательно, вы можете переключаться между информационной энтропией и физической энтропией.
По этому вопросу имеется довольно обширная литература, поэтому вместо того, чтобы пытаться дать вам список, я укажу вам на обзорную статью о Демоне Максвелла и теории информации, опубликованную несколько лет назад: arXiv:0707.3400 ,
Ответ - нет. Рассмотрим систему с вырожденным основным состоянием, так что матрица плотности представляет собой смесь двух собственных состояний основного состояния. Это имеет ненулевую энтропию Шеннона, но вы не можете извлечь из него никакой работы. В более общем смысле термодинамическая энтропия не совсем точно определена для неравновесных систем, в отличие от энтропии Шеннона.
Я считаю, что термодинамическая энтропия и энтропия Шеннона — две концептуально разные вещи. Они совпадают в самых разных обстоятельствах, но не всегда. Мне даже не ясно, являются ли случаи совпадения в классической и квантовой теории необходимыми совпадениями. Возможно, удастся разработать четко определенную физическую теорию, в которой они никогда не совпадают, например, в знаменитой работе выпуклых множеств для обобщенных вероятностных теорий, изучаемой в сообществе квантовых основ.
Поскольку слово «работа» имеет несколько значений, в целом ответ будет «нет».
Обычно первое значение, которому обучают студентов, — термодинамическое, но (как продемонстрировал Дирак) обобщенное значение (включающее термодинамическую работу как частный случай) сводится к следующему:
Для класса динамических процессов «работа» — это любая потенциальная функция, которая естественным образом описывает то, что выполняет этот класс.
В частности, в контексте разделения изотопов Дирак установил, что рабочий потенциал что естественно связано с концентрацией изотопа дан кем-то
или, что то же самое, для спиновой поляризации функция значения Дирака связанный с сепаративным переносом спиновой поляризации
Ключевым моментом является то, что функция ценности Дирака не пропорциональна разности энтропии (что очевидно, поскольку в то время как энтропия на моль колеблется в конечном диапазоне).
Более того, работа Дирака, связанная с разделением, не может быть обращена в механическую работу, поскольку процесс разделения энтропийно необратим. Тем не менее, работа Дирака имеет значительную экономическую ценность и фактически определяет единицу стоимости глобального рынка в единицах работы разделения (ЕРР, произносится как «свууз»).
Вывод работы выхода Дирака см. в собственной (неопубликованной) технической заметке Дирака «Теория разделения изотопов статистическими методами» ( около 1940 г.), которая появляется в его Собрании сочинений , или, в качестве альтернативы, в обзорной статье Дональда Оландера «Техническая основа Газовая центрифуга» (1972), или вообще любой учебник по разделению изотопов.
Аарон Стерлинг
Джон Сайдлс
граф
Джо Фицсаймонс