Как доказать формулу энтропии ? Очевидно, что системы на микроскопическом уровне полностью определяются микроскопическими уравнениями движения. Поэтому, если вы хотите ввести закон сверх этого, вы должны доказать непротиворечивость, т.е. энтропия не может быть постулатом. Я могу представить, что это выведено из теории вероятностей для общей системы. Вы знаете такую линию?
Если у вас есть такое рассуждение, какие предположения к нему? Могут ли эти предположения быть неверными для специальных систем? Разве эти системы не подчинялись бы термодинамике, статистической механике и не имели бы какой-либо температуры, какой бы общей она ни была?
Если термодинамика/стат.мех. являются совершенно общими, как бы вы применили их к системе, в которой одна точечная частица вращается вокруг другой?
Эта теорема называется теоремой бесшумного кодирования, и она часто неуклюже доказывается в книгах по теории информации. Суть теоремы состоит в том, чтобы вычислить минимальное количество битов на переменную, необходимое для кодирования значений N одинаковых случайных величин, выбранных из чья вероятность иметь значение между а также является . Минимальное количество битов, которое вам нужно в среднем на переменную в большом пределе N, определяется как информация в случайной переменной. Это минимальное количество битов информации на переменную, которое вам нужно записать в компьютер, чтобы запомнить значения N копий с идеальной точностью.
Если переменные распределены равномерно, ответ очевиден: возможности для N бросков, и возможности для биты, так что для больших N. Любые биты меньше CN, и вы не сможете закодировать значения случайных величин, потому что все они равновероятны. Более того, у вас будет дополнительная комната. Это информация в однородной случайной величине.
Для общего распределения вы можете получить ответ, применив немного закона больших чисел. Если у вас много копий случайной величины, сумма вероятностей равна 1,
Эту вероятность при больших N преобладают те конфигурации, где число значений типа i равно , так как это среднее число типов i. Таким образом, значение P в любой типичной конфигурации равно:
Так что для тех возможностей, где вероятность не очень мала, вероятность более или менее постоянна и равна указанному выше значению. Общее число M(N) этих не слишком маловероятных возможностей равно тому, что требуется, чтобы сумма вероятностей равнялась 1.
Следовательно, чтобы закодировать, какая из M(N) возможностей реализуется в каждом N выборе, вам потребуется количество битов B(N), которого достаточно для кодирования всех этих возможностей:
что обозначает
И все второстепенные константы размываются из-за большого предела N. Это информация, а приведенное выше асимптотическое равенство есть теорема Шеннона о бесшумном кодировании. Чтобы сделать его строгим, все, что вам нужно, это несколько тщательных оценок оценок больших чисел.
Существует еще одна интересная интерпретация энтропии Шеннона в терминах совпадений. Рассмотрим вероятность того, что вы выберете два значения случайной величины и дважды получите одно и то же значение:
Очевидно, это оценка того, сколько различных значений можно выбрать. Если вы спросите, какова вероятность того, что вы получите одно и то же значение k-раз в k-бросках, это
Если спросить, какова вероятность совпадения после бросает, вы получаете энтропию Шеннона. Это похоже на трюк с репликами, поэтому я думаю, что это хорошо иметь в виду.
Чтобы восстановить статистическую механику из информации Шеннона, вам дается:
Тогда статистическое распределение микроскопической конфигурации является максимальным распределением энтропии (как можно меньше известной вам информации) в фазовом пространстве, удовлетворяющим ограничению соответствия величин макроскопическим величинам.
Лучший (ИМХО) вариант формула из основных постулатов - та, которую первоначально дал Шеннон:
Шеннон (1948) Математическая теория коммуникации. Технический журнал Bell System. http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6773024
Однако Шеннон занимался не физикой, а телеграфией, поэтому его доказательство появляется в контексте передачи информации, а не статистической механики. Чтобы увидеть актуальность работы Шеннона для физики, лучшими ссылками являются статьи Эдвина Джейнса. Он написал десятки статей на эту тему. Мой любимый, по общему признанию, довольно длинный
Jaynes, ET, 1979, «На каком уровне находится максимальная энтропия?» в Формализме максимальной энтропии, Р.Д. Левин и М. Трибус (ред.), MIT Press, Кембридж, Массачусетс, с. 15; http://bayes.wustl.edu/etj/articles/stand.on.entropy.pdf
Функциональная форма энтропии можно понять, если потребовать, чтобы энтропия была экстенсивной и зависела от микроскопических вероятностей состояний .
Рассмотрим систему состоит из двух независимых подсистем A и B. Тогда а также так как А и В не связаны.
Подходя к этому с чисто физической точки зрения, это энтропия Гиббса системы. Во-первых, хотя понятие энтропии можно расширить, мы обычно обсуждаем равновесную термодинамику, и именно здесь впервые вводится энтропия Гиббса.
Вы, конечно, правы в том, что технически динамика может быть полностью описана их уравнениями движения, но тогда не было бы особой необходимости в предмете термодинамики. Я имею в виду, что термодинамика в каком-то смысле не так «фундаментальна», как другие предметы в физике, в том смысле, что она не пытается дать полное описание всего .о системе, которую вы изучаете. Обычно вы обсуждаете большие системы (и поэтому ищете макроскопические свойства) или маленькие системы, взаимодействующие с большой средой. (например, нет большого смысла говорить о температуре электрона) В действительности поиск детерминированного описания таких систем совершенно нецелесообразен (даже без теории Хаоса и квантовой механики количество уравнений было бы слишком огромным), и поэтому вы используете термодинамику.
В равновесной статистической термодинамике (которая ищет обоснование классической термодинамики, основанной на средних значениях микроскопического описания) вы начинаете с принципа равных априорных вероятностей, который говорит для изолированной системы, которая долгое время оставалась одна (расплывчатая, но в основном то, что он находится в равновесии) каждое микросостояние, доступное для системы, с равной вероятностью будет занято. Это большое предположение, и есть много людей, которые хотели бы иметь возможность обосновать его должным образом, но это часто аргументируется симметрией (с имеющейся у вас информацией нет причин предполагать, что одно конкретное микросостояние будет более вероятным, чем любой другой). Более того, это просто работает.
Затем было постулировано, что энтропия изолированной системы равна по Больцману, где - это количество микросостояний, доступных системе (его проще построить, предполагая дискретное количество микросостояний, особенно если вы говорите об энтропии Больцмана/Гиббса). Это постулат, но он должен соответствовать классической термодинамической энтропии. Энтропия Гиббса является естественным расширением этого, когда вы рассматриваете системы, которые находятся в тепловом контакте с окружающей средой, и вероятности микросостояний больше не равны. Вы можете показать, что она согласуется с классической термодинамической энтропией для ряда систем и действительно показывает, как энтропию можно рассматривать как меру неопределенности относительно микроскопических деталей системы.
Каспер
Геренюк
Гербен
Геннет
Геренюк
пользователь5552