1.a В абзаце Wikipedia/Entropy сказано:
Это связано с тем, что энергия, подаваемая при высокой температуре (т. е. с низкой энтропией), имеет тенденцию быть более полезной, чем такое же количество энергии, доступное при комнатной температуре.
1.b Но что такое энтропия? есть:
Чем выше температура газа, тем быстрее в среднем движутся частицы газа, поэтому тем шире диапазон возможных скоростей для частиц газа и, следовательно, тем больше у нас неопределенности относительно скорости каждой конкретной частицы. Таким образом, более высокая температура , а также больший объем означают более высокую энтропию .
2.a Я пытался получить информацию о связи между энтропией и работой. В принципе, если внешний процесс изменяет систему так, что ее энтропия уменьшается, то я ожидаю, что над системой была проделана работа и ей была передана энергия. Я получил хорошие ответы ( Связь между энтропией и энергией ). Однако я чувствую, что меня неправильно поняли.
2.b В статье 1953 года Л. Бриллюэна («Негэнтропийный принцип информации») было написано то, что я в основном имел в виду, когда задавал вопрос. Я не знаю, является ли подход правильным и принятым.
Изолированная система содержит негэнтропию, если обнаруживает возможность совершения механической или электрической работы. Если система не имеет однородной температуры T, а состоит из разных частей при разных температурах, она содержит определенную долю негэнтропии. Эта негэнтропия может быть использована для получения некоторой механической работы, выполняемой системой, или она может быть просто рассеяна и потеряна за счет теплопроводности. Разница в давлении между разными частями системы — еще один случай негэнтропии. Разность электрических потенциалов представляет другой пример. Резервуар со сжатым газом в помещении при атмосферном давлении, вакуумный резервуар в аналогичном помещении, заряженная батарея, любое устройство, способное производить полноценную энергию (механическая работа) или разрушаться в результате какого-либо необратимого процесса (теплопроводность, электрическое сопротивление, трение,
3.a Интуитивное представление об информационной энтропии часто противоречит интуиции. Подход Шеннона рассматривает максимальную энтропию как максимальную неопределенность/информацию.
3.b Джо Розен в «Принципе симметрии» утверждает, что максимальная энтропия — это максимальная симметрия, что означает максимальную избыточность, а значит, минимальное количество информации.
4. Неравновесная термодинамика - ветвь не созрела и не служит инструментом для решения проблем, как в 2.а, AFAIK.
Я рассматривал «Физику демона Максвелла» и информацию как очень хорошее руководство по равновесной (а неравновесной?) термодинамике, ее связи с работой и информацией. Однако авторы, разрабатывая энтропию системы с точки зрения Бриллюэна, поставили знак равенства между ней и энтропией Шеннона, что, как я думаю, противоречит самому Бриллюэну, который, как я цитировал в 2.b, утверждал, что неравновесием является то, что позволяет системе работать - имея в виду сложную, насыщенную информацией систему (в другом абзаце он также прямо заявляет, что негэнтропия - это информация). Это соответствует Розен 3.б.
Есть ли другие хорошие сборники по энтропии, информации, возможно, науке о сложности? Такие, которые разрешают противоречия, образуют совместимый неравновесный фундамент?
Для ясного изложения отношений между энтропией и информацией и основ неравновесной теории стоит просмотреть статьи Эдвина Джейнса. Вы можете найти его полную библиографию здесь . Вероятно, лучше всего начать с одной из его более поздних статей, так как они используют более педагогический подход. Я бы рекомендовал « Эволюцию принципа Карно » в качестве отправной точки, а затем, возможно, « Парадокс Гиббса ».
Теперь, чтобы ответить на некоторые из ваших более конкретных моментов.
1. Энтропию можно определить, по крайней мере для начала, сказав, что когда тело при температуре получает сумму тепла, его энтропия увеличивается на . Таким образом, для данного количества тепла более высокая температура означает более низкую энтропию. Однако из этого не обязательно следует, что тела (или газы) с более высокой температурой всегда имеют более низкую энтропию, чем тела с более низкой температурой, потому что более горячие тела также обладают большей энергией. Обе цитаты верны, потому что первая говорит об энтропии на единицу энергии, а вторая говорит об энтропии на единицу объема.
Однако на самом деле важно не то, сколько энтропии имеет тело при данной температуре, а то, насколько изменится его энтропия, если оно получит или потеряет часть энергии. Если у вас есть изолированная система, состоящая из горячего тела (при температуре ) и холодный (при ), немного тепла будет течь от горячего тела к холодному. Энтропия горячего тела изменяется на (т.е. его энтропия уменьшается ), но энтропия холодного тела увеличивается на , что больше, потому что .
Полное изменение энтропии в этой системе равно . Если две температуры равны, то энтропия максимальна, и дальнейшая передача тепла невозможна.
2.a Хороший способ думать о работе — думать о ней как об энергии без какой-либо связанной с ней энтропии. Это как тепло с бесконечной температурой, так что стремится к 0. Допустим, у нас есть тело при некоторой температуре и мы хотим взять из него немного тепла и преобразовать его в некоторую работу . Изменение энтропии этого преобразования равно
В частности, если у нас есть два тела с разными температурами, мы можем увеличить энтропию холодного, передав ему часть тепла от горячего. Если положить сумму в холодное тело мы должны взять количество из горячего. (Это энергия, которую мы вкладываем в холодное тело, плюс количество, которое мы преобразуем в работу.) Теперь энтропия холодного тела увеличивается на а энтропия горячего тела уменьшается на . Таким образом, полное изменение энтропии равно
Повторим еще раз: дело в том, что работа — это энергия, не связанная с энтропией, и если вы хотите создать ее из тепла, вы должны сделать это, увеличив энтропию какой-либо другой системы, чтобы удовлетворить второму закону.
Но обратите внимание: ваша интуиция о связи между работой и энтропией была не совсем верна. Выполнение работы над системой может уменьшить ее энтропию (хотя оно также может увеличить ее за счет добавления энергии), но выполнение работы над системой — не единственный способ уменьшить ее энтропию . Вы также можете сделать это, сняв тепло, например, как я показал выше.
2.b Эта цитата верна. Если система обладает «негэнтропией» (этот термин используется не очень часто, но вполне разумно), то ее энтропия не максимальна, а это означает, что ее энтропию можно увеличить, чтобы преобразовать некоторое количество тепла в тепло. работа.
3.a Будьте осторожны — кажется, что вы приравниваете неопределенность к информации, но на самом деле это противоположности! Чем меньше у вас информации о чем-то, тем больше вы в этом не уверены. Энтропия — это неопределенность, в частности, это степень неопределенности относительно микроскопического состояния системы, если вы знаете ее макроскопические свойства (температуру, давление, объем и т. д.). Ее можно выразить в тех же единицах, что и информацию (например, в битах), но она имеет противоположный знак, поэтому увеличение энтропии означает потерю информации.
3.b Я не читал этот источник, поэтому не могу прокомментировать его симметричную часть, но идея о том, что максимальная энтропия равна минимуму информации, верна.
4. Неравновесная термодинамика в наши дни достаточно развита. Основная идея заключается в том, что вы берете материал, о котором я говорил выше, и вместо конечного количества тепла , вы рассматриваете поток тепла . Это приводит к постоянному изменению энтропии , который должен быть положительным для изолированной системы. Математика не сильно отличается от равновесной термодинамики. Если у вас есть какие-то конкретные вопросы по этому поводу, я, вероятно, могу помочь ответить на них.
Энтропия — обширная тема, очень важная как для физики, так и для теории информации.
В общем случае энтропия — это мера незнания вещей. Таким образом, состояние высокой энтропии — это когда существует множество возможных последовательностей или множество возможных микросостояний физической системы.
В теории информации это
В термодинамике это связано с объемом фазового пространства . Фактически это та же формула, что и в теории информации, но вы измеряете распределение вероятностей для частиц, находящихся в состоянии , где позиции и - импульсы.
Когда дело доходит до энтропии-энергии, посмотрите на термодинамику. Для открытой системы энтропия может уменьшаться с температурой по мере разлета частиц.
Возможные чтения (поскольку на вопросы, которые вы задали, нельзя ответить в одном посте):
Что касается пункта 1, цитируемое утверждение в пункте 1а в худшем случае неверно, а в лучшем случае неполно (если из термина «высокая температура» сделать вывод, что также присутствует теплоотвод с более низкой температурой). Энергия «высокой температуры» полезна только в том случае, если присутствует такой радиатор с более низкой температурой, а общая энтропия этих двух резервуаров меньше, чем если бы им было позволено уравновеситься при той же температуре. Например, для двух резервуаров с идеальным газом равных объемов и количество молекул , один при температуре а другой в , общая энтропия двух равна (ссылка на лекции Фейнмана, том 1, лекция 44):
Утверждение в пункте 1b) верно: можно увеличить температуру предмета, добавив к нему тепла, тем самым увеличив его энтропию.
Что касается пункта 2, в контексте тех же двух резервуаров с идеальным газом, теперь при той же температуре, ваша идея о выполнении работы по уменьшению их энтропии может быть реализована путем подключения обратимой тепловой машины между ними и приведения этой машины в действие с работой для передавать тепло от одного резервуара к другому, охлаждая один и нагревая другой (например, тепловой насос или холодильник). Я не знаком с негэнтропией, но цитата Бриллюэна, кажется, обобщает приведенное выше обсуждение: для извлечения работы необходима разница между двумя частями системы.
Что касается пунктов 3 и 4, уравнение Шеннона для информационной энтропии (см. Ответ Петра Мигдала) использует по существу ту же форму, что и в статистической механике (именно поэтому Шеннон позаимствовал это имя). Мне нравится цитата из «Введения в теорию информации» Пирса: «Как только мы досконально поймем энтропию в том виде, в каком она используется в теории коммуникации, не будет никакого вреда в попытке связать ее с энтропией в физике, но литература указывает, что некоторые исследователи так и не оправились от путаницы, порожденной ранней смесью идей, касающихся энтропии физики и теории коммуникации». Выучите одно, потом другое...
Я бы порекомендовал упомянутую выше лекцию Фейнмана, а также последующие лекции по термодинамике в том же томе.
Пигмалион
Петр Мигдаль
Пигмалион