Как dQTdQT\frac{dQ}{T} является мерой случайности системы?

Я изучаю энтропию, и мне трудно понять, что такое энтропия.

Во многих статьях и книгах пишут, что энтропия есть мера случайности или беспорядка системы. Они говорят, что когда газовая система расширяется, увеличивается случайность и т. д. Но в итоге они говорят г Вопрос Т является мерой увеличения случайности и называется энтропией.

Даже если я считаю, что энтропия является мерой случайности системы, я не понимаю:

  1. Как г Вопрос Т хранить информацию о случайности системы?
  2. Как энтропия является независимым свойством любой системы. Я полагаю, что любые два параметра в уравнении п В знак равно н р Т должен полностью описывать систему. Зачем нам нужна энтропия?

Спасибо.

Ответы (7)

Этот ответ несколько сумбурный, но я считаю, что он должен помочь понять концепции на интуитивном уровне.

Во-первых, энтропия не является мерой случайности. Для изолированной системы, находящейся в равновесии при фундаментальном допущении статистической механики , энтропия равна

С знак равно к п Ом
куда Ом - число микросостояний - микроскопических конфигураций системы - совместимых с данным макросостоянием - макроскопическим состоянием равновесия, характеризуемым термодинамическими переменными.

Из второго закона следует

дельта Вопрос знак равно Т г С знак равно Т г ( к п Ом ) знак равно к Т 1 Ом г Ом
или эквивалентно
г Ом знак равно Ом дельта Вопрос к Т
Энергия к Т связана со средней энергией на одну степень свободы , поэтому эта формула говорит нам, что передача тепла в систему, находящуюся в равновесии, открывает новое количество микросостояний, пропорциональное количеству существующих и количеству степеней свободы переданной энергии. может взволновать.

Этот ответ эффективно дополняет уже сказанное и лаконично показывает связь между добавочным теплом и увеличением числа возможных микросостояний, соответствующих одному и тому же макросостоянию; и делает это, не предполагая ничего, кроме элементарного знания статистической механики. +1

На мой взгляд, не совсем корректно говорить, что энтропия — это «случайность» или «беспорядок». Энтропия определяется в статистической механике как к Б я п я журнал п я , куда к Б - постоянная Больцмана (которая существует только для того, чтобы выразить ее в физически удобных единицах) и п я вероятность того, что система находится в состоянии я . Эти вероятности не означают, что система «случайно» перескакивает из одного состояния в другое (хотя довольно часто так оно и есть), они просто означают, что вы, как экспериментатор, наблюдающий за системой, не знаете точно, в каком состоянии она находится, но вы думаете, что некоторые из них более вероятны, чем другие. С тех пор , как Шеннон (1948) и Джейнс (1957), эта формула для энтропии была интерпретирована в терминах информации, которой обладает экспериментатор о системе: чем меньше информации, тем больше энтропия. (Эти ссылки даны только для полноты картины — я бы не рекомендовал читать их в качестве первого знакомства с предметом.) Количество информации о системе, которой располагает экспериментатор, может уменьшиться по многим причинам, но увеличить ее можно только в том случае, если экспериментатор проводит новое измерение. В этом причина второго начала термодинамики.

Следует отметить, что существует множество различных точек зрения на значение энтропии и второго закона, и не все согласны с той, которую я изложил выше. Тем не менее, я попытаюсь ответить на ваши два вопроса с этой точки зрения.

  1. С современной точки зрения лучше посмотреть г С знак равно г Вопрос Т как определение Вопрос а не из С . После всего, С уже имеет определение в терминах вероятностей. Если мы посмотрим г Вопрос определяется как Т г С мы видим, что он равен г U + п г В я мю я г Н я (путем преобразования основного уравнения термодинамики ), что равно полному изменению энергии за вычетом энергии, переданной в виде работы. (Здесь я определил работу как «механическую работу». п г В плюс "химическая работа" мю я г Н я . Также можно добавить термины по электромонтажным работам и т.д.)

  2. Есть несколько причин, по которым нам необходимо учитывать энтропию идеального газа. Один из них Т , который появляется в законе идеального газа, определяется как Т знак равно U С , Итак С приходит таким образом. Другое дело, что уравнение п В знак равно н р Т не говорит вам, как изменяется температура, когда вы добавляете энергию в систему. Для этого нужно знать теплоемкость, которая тесно связана с энтропией. Наконец, понятие энтропии чрезвычайно полезно для понимания того, почему нельзя построить вечный двигатель.

Если эта точка зрения звучит так, как будто она имеет для вас смысл, возможно, стоит прочитать статью Джейнса, в которой рассматривается историческая перспектива, объясняющая, как энтропия была впервые открыта (и определена в терминах г Вопрос / Т ), и как потом неожиданно оказалось, что все дело в информации.

Мы не можем использовать это уравнение для определения Q, потому что его нельзя распространить на системы, которые не находятся в равновесии. Для таких систем поток тепла и энтропия хорошо определены, но не обязательно T. Температура — это макроскопический параметр, который оказывается равным средней кинетической энергии для систем, находящихся в равновесии. Для неравновесных систем возможно все: от кратной температуры до полного отсутствия температуры. Я не вижу простого объяснения этому вопросу вне статистической физики.
@Shaktyai Я не согласен с тем, что тепловой поток может быть хорошо определен для систем без определяемых Т . Поток энергии всегда определим, но если нет Т тогда нет никакого разумного способа разделить его на работу и тепло. По крайней мере, я не знаю примера, где это можно сделать. Если вы можете показать мне один, я изменю свой ответ.
В неравновесной статистической механике тепловой поток - это просто момент третьего порядка скорости: = int (1/2 * m * (Vv) ^ 2 * v f (r, v, t)) где V - среднее скорость V=int(v f(r,v,t)) Если система не находится в LTE, то f(r,v,t) не является максвелловской и T не определена. В моделях столкновительного излучения (атмосфера звезды или термоядерная плазма) очень часто встречается функция распределения с двумя температурами или без них.

В приведенных выше ответах содержится множество значимой информации. Однако короткой и простой интуитивно понятной картинки по-прежнему не хватает.

Суть в том, что температура измеряет энергию, приходящуюся на одну степень свободы , и, следовательно, г Вопрос Т измеряет не что иное, как число степеней свободы, по которым распространилась энергия. Число степеней свободы описывает микроскопическую сложность (как отмечали другие, термин «случайность» многие считают менее подходящим) системы — количество информации, необходимой для описания системы во всех ее микроскопических деталях. Эта величина известна как (статистическая) энтропия.

Вам может понравиться этот блог , в котором обсуждается эта тема.

Вы должны думать об уравнении

г С знак равно г Вопрос Т

Как определение температуры , а не энтропии. Энтропия более фундаментальна — это размер фазового пространства, логарифм числа возможных состояний. Температура является производной от него по энергии.

Чтобы понять, почему это имеет смысл, поместите две системы рядом. Если энергия течет от горячей к холодной, потеря энтропии в горячей системе более чем компенсируется приростом энтропии в холодной системе. Таким образом, энергия будет течь от горячего к холодному, в среднем статистически.

Не свойства температуры делают г Вопрос Т изменение энтропии, а именно свойства энтропии делают коэффициент г С г Вопрос обратная температура.

Стоит отметить, что ваше определение элементарного изменения энтропии системы, а именно:

г С знак равно дельта Вопрос Т

Это справедливо только для внутренне обратимого изменения . Это не техника, которую можно опустить; Я думаю, что часть вашего вопроса может быть связана с понятием тепла (измеримого количества переданной энергии) и статистической неопределенности (которая, с точностью до альтернативных и эквивалентных интерпретаций, является внутренним значением энтропии).

Во внутренне обратимом процессе, который включает в себя подвод или отвод тепла от системы, эта Т при отводе тепла ( неточная) дифференциал должен быть однородной температурой по всей пространственной протяженности системы до ее границ, так что в каждый момент времени температура границ системы равна ее объемной температуре (и уникальна). Это означает, что внутри интересующей нас системы нет температурных градиентов, а в силу этого и возможных теплообменов внутри границ системы. Это потому, что для того, чтобы система могла обмениваться теплом с чем-то другим, между ними должна быть разница температур, и если разница равна нулю (они равны), то тепло не передается. Если подумать, то это веский аргумент: холодный стакан с водой становится все горячее, когда вы оставляете его в комнате, но когда он достигает той же температуры воздуха вокруг него, тогда

Возвращаясь к исходному уравнению, теперь вы можете интерпретировать RHS как сообщение о том, что в ситуациях, когда температура системы постоянна в каждый момент времени, отношение бесконечно малого количества тепла, добавляемого или отнимаемого системой от окружающей среды, и уникальная температура в каждой точке системы (которая есть не что иное, как мера средней кинетической энергии отдельных молекул, составляющих ее) равна ее изменению энтропии. А что такое энтропия? Ну, макроскопически говоря , можно принять то, что я написал выше, как определениеэнтропии, и вы можете термодинамически сделать вывод, что это действительно функция состояния (она зависит только от точечных свойств системы, таких как ее давление и температура), и она не зависит от цепочки событий, посредством которых это состояние было достигнуто. .

С другой стороны, статистическая механика (которая является более поздним способом рассмотрения того, что мы рассматриваем макроскопически как термодинамические свойства, такие как энтропия, начиная с механического описания на молекулярном уровне) дает нам больше деталей о природе энтропии. Я думаю, что лучше думать об этом не как о мере случайности, а как о (макроскопической) неопределенности (микроскопического) состояния системы.

Я приведу простой пример: представьте, что у вас есть бильярдный стол, верхняя часть которого полностью покрыта непрозрачной тканью, и только один конец открыт для введения кия. Теперь предположим, что вы знаете (каким-то образом), что восемь шаров распределены по столу, образуя прямую линию с равными промежутками между ними, но вы не знаете, где именно находится эта линия в прямоугольной области стола; и что для эксперимента белый находится как раз рядом с дыркой (и вы, конечно, это знаете). Теперь вы берете кий, вставляете его в оставленное открытым отверстие в ткани и ударяете по битку. После нескольких секунд (услышанных) столкновений можно быть уверенным, что движение под тканью прекратилось. Что случилось с вашими знаниями о системе?

Ну, вы не знаете, куда девается каждый шар (конечно, мы запечатали лузы!), но вы не знали этого до удара, не так ли? Но тогда вы, по крайней мере, знали, что они выстраиваются в линию, а теперь этой информации нет. С вашей внешней точки зрения вашей априорной информации о положении шаров, а также энергии и импульса, которые вы привнесли в систему посредством удара, недостаточно, чтобы исключить огромное количество возможных фактических распределений шаров. В начале эксперимента можно было хотя бы записать количество возможных положений ряда шаров (возможно, начертив сетку на площади стола, где длина стороны каждой ячейки равна диаметру шара,. До и после вы имеете лишь частичное знание конфигурации системы (все, что вы можете сделать, это подсчитать возможные, исходя из того, что вы знаете о системе извне, что ограничивает возможности), но после эксперимента эти знания уменьшились . Это не имеет ничего общего с физикой столкновений между шарами: это связано с тем фактом, что вы не можете видеть шары со своей точки зрения, и все, что вы можете сделать, это получить частичную информацию посредством косвенных измерений.

Аналогия с приведенным выше примером в статистической системе заключается в том, что путем измерения макроскопических наблюдаемых величин (таких как температура, давление, плотность и т. д.) мы измеряем только средние микроскопические свойства .. Например, температура является мерой средней молекулярной кинетической энергии, а давление является мерой средней скорости импульса, передаваемого ударяющимися молекулами на единицу площади. Измерение их дает нам частичное представление о его микроскопической конфигурации (например, исходную информацию о положении шаров в бильярде, которую вы имели). И любое изменение макроскопических наблюдаемых коррелирует с изменением возможных (т.е. не исключенных) микроскопических конфигураций, и тогда это вызывает изменение наших знаний о нем. Оказывается, эти изменения можно измерить, и это действительно изменение энтропии, в том смысле, что увеличение энтропии коррелирует с увеличением неопределенности или уменьшением знаний . Показать, что это соотношение имеет место, начиная с механической основы, и состоит весь смыслстатистическая механика .

Наконец, я надеюсь, теперь вы видите, что дельта Вопрос Т является просто аналогом энергии, вносимой ударом в эксперименте по отношению к предшествующему знанию положения шаров (более низкие температуры подразумевают меньше молекулярных поступательных, вращательных и колебательных молекулярных движений, и наоборот, так что это фактически «частичный мера" их позиций). Так:

  1. Он не содержит информации о случайности системы, это просто мера увеличения неопределенности с макроскопической точки зрения, и она справедлива только для обратимых процессов (в общем случае энтропия может увеличиваться без добавления энергии в систему).

  2. Как указывалось в других ответах, энтропия необходима для определения некоторых терминов в любом уравнении состояния (например, закон идеального газа), и, кстати, уравнения состояния - это просто приближения к фактическому поведению реальных веществ (что-то довольно ясное в «идеальная» часть закона, который вы цитируете), поэтому для них естественно основываться на более фундаментальных понятиях (таких как энтропия).

РЕДАКТИРОВАТЬ: Как правильно указал Натаниэль ниже, мое первоначальное утверждение о том, что справедливость макроскопического определения энтропии с точки зрения тепла и температуры зависит от (молчаливой) полной обратимости процесса, было ошибочным. Единственное требование для того, чтобы он был действительным, состоит в том, что процесс теплообмена должен быть внутренне обратимым, потому что таким образом мы измеряем только изменение энтропии внутри системы (поэтому внешние необратимости, связанные с процессом, не имеют значения).

Микроскопический подход к энтропии привел к глубокому пониманию и подробно объясняется в данных ответах.

Чтобы понять концепцию энтропии, существует столь же действенный, но макроскопический подход, который может дополнить данные ответы. Идея была разработана на основе «адиабатической доступности», и авторы Эллиотт Х. Либ и Якоб Ингвасон проделали отличную работу по объяснению этой концепции, хотя и немного тяжелой с математической стороны ( ссылка arxiv ). Их работа была обобщена в книге Андре Тесса «Принцип энтропии ».

Так что всем, кто интересуется другим подходом к строгому определению энтропии, следует поближе познакомиться с этой концепцией.

"Как г Вопрос Т содержат информацию о случайности системы"

Ответ заключается в микроскопическом определении тепла. Скорость любой частицы можно записать: В знак равно В б + в я . В б объемная скорость и в я "случайная" скорость, где в я ¯ знак равно 0 . Кинетическая энергия, связанная с в я это тепло. Так что измерение тепла есть не что иное, как измерение степени хаотичности молекул в системе. Если все молекулы летят в одном направлении, то в я знак равно 0 а также В знак равно В б : кинетическая энергия - это макроскопическая кинетическая энергия Е с знак равно 1 2 м В б 2 , если все направления равновероятны В б знак равно 0 а кинетическая энергия - это чисто тепло.

«Я полагаю, что любые два параметра в уравнении п В знак равно н р Т должен полностью описывать систему. Зачем нам энтропия?» Возьмем два газа ( п 1 , В 1 , Т 1 ) а также ( п 2 , В 2 , Т 2 ) поставить их в контакт. Вы не можете предсказать, как изменится температура без энтропии.