Я изучаю энтропию, и мне трудно понять, что такое энтропия.
Во многих статьях и книгах пишут, что энтропия есть мера случайности или беспорядка системы. Они говорят, что когда газовая система расширяется, увеличивается случайность и т. д. Но в итоге они говорят является мерой увеличения случайности и называется энтропией.
Даже если я считаю, что энтропия является мерой случайности системы, я не понимаю:
Спасибо.
Этот ответ несколько сумбурный, но я считаю, что он должен помочь понять концепции на интуитивном уровне.
Во-первых, энтропия не является мерой случайности. Для изолированной системы, находящейся в равновесии при фундаментальном допущении статистической механики , энтропия равна
Из второго закона следует
На мой взгляд, не совсем корректно говорить, что энтропия — это «случайность» или «беспорядок». Энтропия определяется в статистической механике как , куда - постоянная Больцмана (которая существует только для того, чтобы выразить ее в физически удобных единицах) и вероятность того, что система находится в состоянии . Эти вероятности не означают, что система «случайно» перескакивает из одного состояния в другое (хотя довольно часто так оно и есть), они просто означают, что вы, как экспериментатор, наблюдающий за системой, не знаете точно, в каком состоянии она находится, но вы думаете, что некоторые из них более вероятны, чем другие. С тех пор , как Шеннон (1948) и Джейнс (1957), эта формула для энтропии была интерпретирована в терминах информации, которой обладает экспериментатор о системе: чем меньше информации, тем больше энтропия. (Эти ссылки даны только для полноты картины — я бы не рекомендовал читать их в качестве первого знакомства с предметом.) Количество информации о системе, которой располагает экспериментатор, может уменьшиться по многим причинам, но увеличить ее можно только в том случае, если экспериментатор проводит новое измерение. В этом причина второго начала термодинамики.
Следует отметить, что существует множество различных точек зрения на значение энтропии и второго закона, и не все согласны с той, которую я изложил выше. Тем не менее, я попытаюсь ответить на ваши два вопроса с этой точки зрения.
С современной точки зрения лучше посмотреть как определение а не из . После всего, уже имеет определение в терминах вероятностей. Если мы посмотрим определяется как мы видим, что он равен (путем преобразования основного уравнения термодинамики ), что равно полному изменению энергии за вычетом энергии, переданной в виде работы. (Здесь я определил работу как «механическую работу». плюс "химическая работа" . Также можно добавить термины по электромонтажным работам и т.д.)
Есть несколько причин, по которым нам необходимо учитывать энтропию идеального газа. Один из них , который появляется в законе идеального газа, определяется как , Итак приходит таким образом. Другое дело, что уравнение не говорит вам, как изменяется температура, когда вы добавляете энергию в систему. Для этого нужно знать теплоемкость, которая тесно связана с энтропией. Наконец, понятие энтропии чрезвычайно полезно для понимания того, почему нельзя построить вечный двигатель.
Если эта точка зрения звучит так, как будто она имеет для вас смысл, возможно, стоит прочитать статью Джейнса, в которой рассматривается историческая перспектива, объясняющая, как энтропия была впервые открыта (и определена в терминах ), и как потом неожиданно оказалось, что все дело в информации.
В приведенных выше ответах содержится множество значимой информации. Однако короткой и простой интуитивно понятной картинки по-прежнему не хватает.
Суть в том, что температура измеряет энергию, приходящуюся на одну степень свободы , и, следовательно, измеряет не что иное, как число степеней свободы, по которым распространилась энергия. Число степеней свободы описывает микроскопическую сложность (как отмечали другие, термин «случайность» многие считают менее подходящим) системы — количество информации, необходимой для описания системы во всех ее микроскопических деталях. Эта величина известна как (статистическая) энтропия.
Вам может понравиться этот блог , в котором обсуждается эта тема.
Вы должны думать об уравнении
Как определение температуры , а не энтропии. Энтропия более фундаментальна — это размер фазового пространства, логарифм числа возможных состояний. Температура является производной от него по энергии.
Чтобы понять, почему это имеет смысл, поместите две системы рядом. Если энергия течет от горячей к холодной, потеря энтропии в горячей системе более чем компенсируется приростом энтропии в холодной системе. Таким образом, энергия будет течь от горячего к холодному, в среднем статистически.
Не свойства температуры делают изменение энтропии, а именно свойства энтропии делают коэффициент обратная температура.
Стоит отметить, что ваше определение элементарного изменения энтропии системы, а именно:
Это справедливо только для внутренне обратимого изменения . Это не техника, которую можно опустить; Я думаю, что часть вашего вопроса может быть связана с понятием тепла (измеримого количества переданной энергии) и статистической неопределенности (которая, с точностью до альтернативных и эквивалентных интерпретаций, является внутренним значением энтропии).
Во внутренне обратимом процессе, который включает в себя подвод или отвод тепла от системы, эта Т при отводе тепла ( неточная) дифференциал должен быть однородной температурой по всей пространственной протяженности системы до ее границ, так что в каждый момент времени температура границ системы равна ее объемной температуре (и уникальна). Это означает, что внутри интересующей нас системы нет температурных градиентов, а в силу этого и возможных теплообменов внутри границ системы. Это потому, что для того, чтобы система могла обмениваться теплом с чем-то другим, между ними должна быть разница температур, и если разница равна нулю (они равны), то тепло не передается. Если подумать, то это веский аргумент: холодный стакан с водой становится все горячее, когда вы оставляете его в комнате, но когда он достигает той же температуры воздуха вокруг него, тогда
Возвращаясь к исходному уравнению, теперь вы можете интерпретировать RHS как сообщение о том, что в ситуациях, когда температура системы постоянна в каждый момент времени, отношение бесконечно малого количества тепла, добавляемого или отнимаемого системой от окружающей среды, и уникальная температура в каждой точке системы (которая есть не что иное, как мера средней кинетической энергии отдельных молекул, составляющих ее) равна ее изменению энтропии. А что такое энтропия? Ну, макроскопически говоря , можно принять то, что я написал выше, как определениеэнтропии, и вы можете термодинамически сделать вывод, что это действительно функция состояния (она зависит только от точечных свойств системы, таких как ее давление и температура), и она не зависит от цепочки событий, посредством которых это состояние было достигнуто. .
С другой стороны, статистическая механика (которая является более поздним способом рассмотрения того, что мы рассматриваем макроскопически как термодинамические свойства, такие как энтропия, начиная с механического описания на молекулярном уровне) дает нам больше деталей о природе энтропии. Я думаю, что лучше думать об этом не как о мере случайности, а как о (макроскопической) неопределенности (микроскопического) состояния системы.
Я приведу простой пример: представьте, что у вас есть бильярдный стол, верхняя часть которого полностью покрыта непрозрачной тканью, и только один конец открыт для введения кия. Теперь предположим, что вы знаете (каким-то образом), что восемь шаров распределены по столу, образуя прямую линию с равными промежутками между ними, но вы не знаете, где именно находится эта линия в прямоугольной области стола; и что для эксперимента белый находится как раз рядом с дыркой (и вы, конечно, это знаете). Теперь вы берете кий, вставляете его в оставленное открытым отверстие в ткани и ударяете по битку. После нескольких секунд (услышанных) столкновений можно быть уверенным, что движение под тканью прекратилось. Что случилось с вашими знаниями о системе?
Ну, вы не знаете, куда девается каждый шар (конечно, мы запечатали лузы!), но вы не знали этого до удара, не так ли? Но тогда вы, по крайней мере, знали, что они выстраиваются в линию, а теперь этой информации нет. С вашей внешней точки зрения вашей априорной информации о положении шаров, а также энергии и импульса, которые вы привнесли в систему посредством удара, недостаточно, чтобы исключить огромное количество возможных фактических распределений шаров. В начале эксперимента можно было хотя бы записать количество возможных положений ряда шаров (возможно, начертив сетку на площади стола, где длина стороны каждой ячейки равна диаметру шара,. До и после вы имеете лишь частичное знание конфигурации системы (все, что вы можете сделать, это подсчитать возможные, исходя из того, что вы знаете о системе извне, что ограничивает возможности), но после эксперимента эти знания уменьшились . Это не имеет ничего общего с физикой столкновений между шарами: это связано с тем фактом, что вы не можете видеть шары со своей точки зрения, и все, что вы можете сделать, это получить частичную информацию посредством косвенных измерений.
Аналогия с приведенным выше примером в статистической системе заключается в том, что путем измерения макроскопических наблюдаемых величин (таких как температура, давление, плотность и т. д.) мы измеряем только средние микроскопические свойства .. Например, температура является мерой средней молекулярной кинетической энергии, а давление является мерой средней скорости импульса, передаваемого ударяющимися молекулами на единицу площади. Измерение их дает нам частичное представление о его микроскопической конфигурации (например, исходную информацию о положении шаров в бильярде, которую вы имели). И любое изменение макроскопических наблюдаемых коррелирует с изменением возможных (т.е. не исключенных) микроскопических конфигураций, и тогда это вызывает изменение наших знаний о нем. Оказывается, эти изменения можно измерить, и это действительно изменение энтропии, в том смысле, что увеличение энтропии коррелирует с увеличением неопределенности или уменьшением знаний . Показать, что это соотношение имеет место, начиная с механической основы, и состоит весь смыслстатистическая механика .
Наконец, я надеюсь, теперь вы видите, что является просто аналогом энергии, вносимой ударом в эксперименте по отношению к предшествующему знанию положения шаров (более низкие температуры подразумевают меньше молекулярных поступательных, вращательных и колебательных молекулярных движений, и наоборот, так что это фактически «частичный мера" их позиций). Так:
Он не содержит информации о случайности системы, это просто мера увеличения неопределенности с макроскопической точки зрения, и она справедлива только для обратимых процессов (в общем случае энтропия может увеличиваться без добавления энергии в систему).
Как указывалось в других ответах, энтропия необходима для определения некоторых терминов в любом уравнении состояния (например, закон идеального газа), и, кстати, уравнения состояния - это просто приближения к фактическому поведению реальных веществ (что-то довольно ясное в «идеальная» часть закона, который вы цитируете), поэтому для них естественно основываться на более фундаментальных понятиях (таких как энтропия).
РЕДАКТИРОВАТЬ: Как правильно указал Натаниэль ниже, мое первоначальное утверждение о том, что справедливость макроскопического определения энтропии с точки зрения тепла и температуры зависит от (молчаливой) полной обратимости процесса, было ошибочным. Единственное требование для того, чтобы он был действительным, состоит в том, что процесс теплообмена должен быть внутренне обратимым, потому что таким образом мы измеряем только изменение энтропии внутри системы (поэтому внешние необратимости, связанные с процессом, не имеют значения).
Микроскопический подход к энтропии привел к глубокому пониманию и подробно объясняется в данных ответах.
Чтобы понять концепцию энтропии, существует столь же действенный, но макроскопический подход, который может дополнить данные ответы. Идея была разработана на основе «адиабатической доступности», и авторы Эллиотт Х. Либ и Якоб Ингвасон проделали отличную работу по объяснению этой концепции, хотя и немного тяжелой с математической стороны ( ссылка arxiv ). Их работа была обобщена в книге Андре Тесса «Принцип энтропии ».
Так что всем, кто интересуется другим подходом к строгому определению энтропии, следует поближе познакомиться с этой концепцией.
"Как содержат информацию о случайности системы"
Ответ заключается в микроскопическом определении тепла. Скорость любой частицы можно записать: . объемная скорость и "случайная" скорость, где . Кинетическая энергия, связанная с это тепло. Так что измерение тепла есть не что иное, как измерение степени хаотичности молекул в системе. Если все молекулы летят в одном направлении, то а также : кинетическая энергия - это макроскопическая кинетическая энергия , если все направления равновероятны а кинетическая энергия - это чисто тепло.
«Я полагаю, что любые два параметра в уравнении должен полностью описывать систему. Зачем нам энтропия?» Возьмем два газа а также поставить их в контакт. Вы не можете предсказать, как изменится температура без энтропии.
Мононуклеоз