Путаница в отношении энтропии, запрос справочных документов

1.a В абзаце Wikipedia/Entropy сказано:

Это связано с тем, что энергия, подаваемая при высокой температуре (т. е. с низкой энтропией), имеет тенденцию быть более полезной, чем такое же количество энергии, доступное при комнатной температуре.

1.b Но что такое энтропия? есть:

Чем выше температура газа, тем быстрее в среднем движутся частицы газа, поэтому тем шире диапазон возможных скоростей для частиц газа и, следовательно, тем больше у нас неопределенности относительно скорости каждой конкретной частицы. Таким образом, более высокая температура , а также больший объем означают более высокую энтропию .

2.a Я пытался получить информацию о связи между энтропией и работой. В принципе, если внешний процесс изменяет систему так, что ее энтропия уменьшается, то я ожидаю, что над системой была проделана работа и ей была передана энергия. Я получил хорошие ответы ( Связь между энтропией и энергией ). Однако я чувствую, что меня неправильно поняли.

2.b В статье 1953 года Л. Бриллюэна («Негэнтропийный принцип информации») было написано то, что я в основном имел в виду, когда задавал вопрос. Я не знаю, является ли подход правильным и принятым.

Изолированная система содержит негэнтропию, если обнаруживает возможность совершения механической или электрической работы. Если система не имеет однородной температуры T, а состоит из разных частей при разных температурах, она содержит определенную долю негэнтропии. Эта негэнтропия может быть использована для получения некоторой механической работы, выполняемой системой, или она может быть просто рассеяна и потеряна за счет теплопроводности. Разница в давлении между разными частями системы — еще один случай негэнтропии. Разность электрических потенциалов представляет другой пример. Резервуар со сжатым газом в помещении при атмосферном давлении, вакуумный резервуар в аналогичном помещении, заряженная батарея, любое устройство, способное производить полноценную энергию (механическая работа) или разрушаться в результате какого-либо необратимого процесса (теплопроводность, электрическое сопротивление, трение,

3.a Интуитивное представление об информационной энтропии часто противоречит интуиции. Подход Шеннона рассматривает максимальную энтропию как максимальную неопределенность/информацию.

3.b Джо Розен в «Принципе симметрии» утверждает, что максимальная энтропия — это максимальная симметрия, что означает максимальную избыточность, а значит, минимальное количество информации.

4. Неравновесная термодинамика - ветвь не созрела и не служит инструментом для решения проблем, как в 2.а, AFAIK.

Я рассматривал «Физику демона Максвелла» и информацию как очень хорошее руководство по равновесной (а неравновесной?) термодинамике, ее связи с работой и информацией. Однако авторы, разрабатывая энтропию системы с точки зрения Бриллюэна, поставили знак равенства между ней и энтропией Шеннона, что, как я думаю, противоречит самому Бриллюэну, который, как я цитировал в 2.b, утверждал, что неравновесием является то, что позволяет системе работать - имея в виду сложную, насыщенную информацией систему (в другом абзаце он также прямо заявляет, что негэнтропия - это информация). Это соответствует Розен 3.б.

Есть ли другие хорошие сборники по энтропии, информации, возможно, науке о сложности? Такие, которые разрешают противоречия, образуют совместимый неравновесный фундамент?

Всего одно замечание. Вы должны иметь в виду, что вы можете смотреть на энтропию так же, как вы смотрите на потенциальную энергию. У вас есть свободный выбор установить, где энтропия равна нулю. Это может привести к различным интерпретациям, таким как минимальная и максимальная энтропия, но на самом деле у вас будут одни и те же рассуждения.
@Pygmalion Только классически. В квантовой механике у вас нет такой свободы, см., например, A Wehrl, General properties of entropy, Reviews of Modern Physics, 1978 .
@PiotrMigdal Спасибо за ваш комментарий. Я запомню этот факт.

Ответы (3)

Для ясного изложения отношений между энтропией и информацией и основ неравновесной теории стоит просмотреть статьи Эдвина Джейнса. Вы можете найти его полную библиографию здесь . Вероятно, лучше всего начать с одной из его более поздних статей, так как они используют более педагогический подход. Я бы рекомендовал « Эволюцию принципа Карно » в качестве отправной точки, а затем, возможно, « Парадокс Гиббса ».

Теперь, чтобы ответить на некоторые из ваших более конкретных моментов.

1. Энтропию можно определить, по крайней мере для начала, сказав, что когда тело при температуре Т получает сумму Вопрос тепла, его энтропия увеличивается на Вопрос / Т . Таким образом, для данного количества тепла более высокая температура означает более низкую энтропию. Однако из этого не обязательно следует, что тела (или газы) с более высокой температурой всегда имеют более низкую энтропию, чем тела с более низкой температурой, потому что более горячие тела также обладают большей энергией. Обе цитаты верны, потому что первая говорит об энтропии на единицу энергии, а вторая говорит об энтропии на единицу объема.

Однако на самом деле важно не то, сколько энтропии имеет тело при данной температуре, а то, насколько изменится его энтропия, если оно получит или потеряет часть энергии. Если у вас есть изолированная система, состоящая из горячего тела (при температуре Т ЧАС ) и холодный (при Т С ), немного тепла Вопрос будет течь от горячего тела к холодному. Энтропия горячего тела изменяется на Вопрос / Т ЧАС (т.е. его энтропия уменьшается ), но энтропия холодного тела увеличивается на Вопрос / Т С , что больше, потому что Т ЧАС > Т С .

Полное изменение энтропии в этой системе равно Вопрос Т С Вопрос Т ЧАС . Если две температуры равны, то энтропия максимальна, и дальнейшая передача тепла невозможна.

2.a Хороший способ думать о работе — думать о ней как об энергии без какой-либо связанной с ней энтропии. Это как тепло с бесконечной температурой, так что Вопрос / Т стремится к 0. Допустим, у нас есть тело при некоторой температуре Т и мы хотим взять из него немного тепла и преобразовать его в некоторую работу Вт . Изменение энтропии этого преобразования равно

энтропия работы энтропия тепла "=" 0 Вт / Т < 0 ,
это означает, что невозможно выполнить это преобразование , если при этом мы не увеличим энтропию какой-либо другой системы на ту же величину ( Вт / Т ) или больше, так что общее изменение энтропии больше нуля.

В частности, если у нас есть два тела с разными температурами, мы можем увеличить энтропию холодного, передав ему часть тепла от горячего. Если положить сумму Вопрос в холодное тело мы должны взять количество Вопрос + Вт из горячего. (Это энергия, которую мы вкладываем в холодное тело, плюс количество, которое мы преобразуем в работу.) Теперь энтропия холодного тела увеличивается на Вопрос / Т С а энтропия горячего тела уменьшается на ( Вопрос + Вт ) / Т ЧАС . Таким образом, полное изменение энтропии равно

Вопрос Т С Вопрос + Вт Т ЧАС ,
что положительно, пока Вт < Вопрос ( 1 Т С Т ЧАС ) , который называется пределом Карно.

Повторим еще раз: дело в том, что работа — это энергия, не связанная с энтропией, и если вы хотите создать ее из тепла, вы должны сделать это, увеличив энтропию какой-либо другой системы, чтобы удовлетворить второму закону.

Но обратите внимание: ваша интуиция о связи между работой и энтропией была не совсем верна. Выполнение работы над системой может уменьшить ее энтропию (хотя оно также может увеличить ее за счет добавления энергии), но выполнение работы над системой — не единственный способ уменьшить ее энтропию . Вы также можете сделать это, сняв тепло, например, как я показал выше.

2.b Эта цитата верна. Если система обладает «негэнтропией» (этот термин используется не очень часто, но вполне разумно), то ее энтропия не максимальна, а это означает, что ее энтропию можно увеличить, чтобы преобразовать некоторое количество тепла в тепло. работа.

3.a Будьте осторожны — кажется, что вы приравниваете неопределенность к информации, но на самом деле это противоположности! Чем меньше у вас информации о чем-то, тем больше вы в этом не уверены. Энтропия — это неопределенность, в частности, это степень неопределенности относительно микроскопического состояния системы, если вы знаете ее макроскопические свойства (температуру, давление, объем и т. д.). Ее можно выразить в тех же единицах, что и информацию (например, в битах), но она имеет противоположный знак, поэтому увеличение энтропии означает потерю информации.

3.b Я не читал этот источник, поэтому не могу прокомментировать его симметричную часть, но идея о том, что максимальная энтропия равна минимуму информации, верна.

4. Неравновесная термодинамика в наши дни достаточно развита. Основная идея заключается в том, что вы берете материал, о котором я говорил выше, и вместо конечного количества тепла Вопрос , вы рассматриваете поток тепла д Вопрос / д т . Это приводит к постоянному изменению энтропии д С / д т , который должен быть положительным для изолированной системы. Математика не сильно отличается от равновесной термодинамики. Если у вас есть какие-то конкретные вопросы по этому поводу, я, вероятно, могу помочь ответить на них.

Вау, это отличный ответ. Я чувствую, что это значительно улучшило мое понимание, и у меня есть степень по физике.

Энтропия — обширная тема, очень важная как для физики, так и для теории информации.

В общем случае энтропия — это мера незнания вещей. Таким образом, состояние высокой энтропии — это когда существует множество возможных последовательностей или множество возможных микросостояний физической системы.

В теории информации это

С ( { п я } я ) "=" я п я бревно ( п я ) .
В частности, когда он высокий, это означает, что измерение точного я дает много информации.

В термодинамике это связано с объемом фазового пространства . Фактически это та же формула, что и в теории информации, но вы измеряете распределение вероятностей для частиц, находящихся в состоянии ( Икс 1 , , Икс н , п 1 , , п н ) , где Икс я позиции и п я - импульсы.

Когда дело доходит до энтропии-энергии, посмотрите на термодинамику. Для открытой системы энтропия может уменьшаться с температурой по мере разлета частиц.

Возможные чтения (поскольку на вопросы, которые вы задали, нельзя ответить в одном посте):

Что касается пункта 1, цитируемое утверждение в пункте 1а в худшем случае неверно, а в лучшем случае неполно (если из термина «высокая температура» сделать вывод, что также присутствует теплоотвод с более низкой температурой). Энергия «высокой температуры» полезна только в том случае, если присутствует такой радиатор с более низкой температурой, а общая энтропия этих двух резервуаров меньше, чем если бы им было позволено уравновеситься при той же температуре. Например, для двух резервуаров с идеальным газом равных объемов В и количество молекул Н , один при температуре Т + Δ Т а другой в Т Δ Т , общая энтропия двух равна (ссылка на лекции Фейнмана, том 1, лекция 44):

С "=" 2 а + Н к [ 2 п ( В ) + 1 γ 1 [ п ( Т + Δ Т ) + п ( Т Δ Т ) ] ] "=" 2 а + Н к [ 2 п ( В ) + 1 γ 1 п ( Т 2 Δ Т 2 ) ]
поэтому энтропия максимальна, когда Δ Т "=" 0 (т.е. когда два резервуара имеют одинаковую температуру).

Утверждение в пункте 1b) верно: можно увеличить температуру предмета, добавив к нему тепла, тем самым увеличив его энтропию.

Что касается пункта 2, в контексте тех же двух резервуаров с идеальным газом, теперь при той же температуре, ваша идея о выполнении работы по уменьшению их энтропии может быть реализована путем подключения обратимой тепловой машины между ними и приведения этой машины в действие с работой для передавать тепло от одного резервуара к другому, охлаждая один и нагревая другой (например, тепловой насос или холодильник). Я не знаком с негэнтропией, но цитата Бриллюэна, кажется, обобщает приведенное выше обсуждение: для извлечения работы необходима разница между двумя частями системы.

Что касается пунктов 3 и 4, уравнение Шеннона для информационной энтропии (см. Ответ Петра Мигдала) использует по существу ту же форму, что и в статистической механике (именно поэтому Шеннон позаимствовал это имя). Мне нравится цитата из «Введения в теорию информации» Пирса: «Как только мы досконально поймем энтропию в том виде, в каком она используется в теории коммуникации, не будет никакого вреда в попытке связать ее с энтропией в физике, но литература указывает, что некоторые исследователи так и не оправились от путаницы, порожденной ранней смесью идей, касающихся энтропии физики и теории коммуникации». Выучите одно, потом другое...

Я бы порекомендовал упомянутую выше лекцию Фейнмана, а также последующие лекции по термодинамике в том же томе.