Как вы доказываете S=−∑plnpS=−∑pln⁡pS=-\sum p\ln p?

Как доказать формулу энтропии С знак равно п п п ? Очевидно, что системы на микроскопическом уровне полностью определяются микроскопическими уравнениями движения. Поэтому, если вы хотите ввести закон сверх этого, вы должны доказать непротиворечивость, т.е. энтропия не может быть постулатом. Я могу представить, что это выведено из теории вероятностей для общей системы. Вы знаете такую ​​линию?

Если у вас есть такое рассуждение, какие предположения к нему? Могут ли эти предположения быть неверными для специальных систем? Разве эти системы не подчинялись бы термодинамике, статистической механике и не имели бы какой-либо температуры, какой бы общей она ни была?

Если термодинамика/стат.мех. являются совершенно общими, как бы вы применили их к системе, в которой одна точечная частица вращается вокруг другой?

Возможно, вы захотите изучить теорию информации. Это энтропия Шеннона. Интересно, что это постоянная движения для гамильтоновых систем! У вас очень интересный вопрос, но ответ на него может заполнить целую книгу.
Энтропия Шеннона существует, но до сих пор нет ответа, почему она используется в физике. Энтропия Шеннона, вероятно, имеет некоторые предпосылки. Так почему же физика удовлетворяет этим предположениям?
Как вы определяете С ?
Я предполагаю, что правильный план ответа состоял бы в том, чтобы начать с классической термодинамики и перейти к Карно / обратимой тепловой машине, найти энтропию как функцию состояния, прежде чем углубляться в статистический механизм, чтобы дать ему микроскопическую интерпретацию ... Кажется, что это большая работа. ...
Обычный аргумент Карно не поможет. Вопрос о том, как это должно быть связано со всеми микроскопическими процессами вообще, оставался бы по-прежнему открытым. Кто-то, должно быть, пробовал это раньше? Я знаю обычную литературу, но ее там нет :(; S — это то, что люди используют для обозначения необратимости.
статистическая физика частиц, Мехран Кардар, Глава 2, Раздел 7, Страница 50, Информация, энтропия и оценка

Ответы (4)

Эта теорема называется теоремой бесшумного кодирования, и она часто неуклюже доказывается в книгах по теории информации. Суть теоремы состоит в том, чтобы вычислить минимальное количество битов на переменную, необходимое для кодирования значений N одинаковых случайных величин, выбранных из 1... К чья вероятность иметь значение я между 1 а также К является п я . Минимальное количество битов, которое вам нужно в среднем на переменную в большом пределе N, определяется как информация в случайной переменной. Это минимальное количество битов информации на переменную, которое вам нужно записать в компьютер, чтобы запомнить значения N копий с идеальной точностью.

Если переменные распределены равномерно, ответ очевиден: К Н возможности для N бросков, и 2 С Н возможности для С Н биты, так что С знак равно журнал 2 ( к ) для больших N. Любые биты меньше CN, и вы не сможете закодировать значения случайных величин, потому что все они равновероятны. Более того, у вас будет дополнительная комната. Это информация в однородной случайной величине.

Для общего распределения вы можете получить ответ, применив немного закона больших чисел. Если у вас много копий случайной величины, сумма вероятностей равна 1,

п ( н 1 , н 2 , . . . , н к ) знак равно Дж знак равно 1 Н п н Дж

Эту вероятность при больших N преобладают те конфигурации, где число значений типа i равно Н п я , так как это среднее число типов i. Таким образом, значение P в любой типичной конфигурации равно:

п ( н 1 , . . . , н к ) знак равно я знак равно 1 к п я Н п я знак равно е Н п я журнал ( п я )

Так что для тех возможностей, где вероятность не очень мала, вероятность более или менее постоянна и равна указанному выше значению. Общее число M(N) этих не слишком маловероятных возможностей равно тому, что требуется, чтобы сумма вероятностей равнялась 1.

М ( Н ) е Н п я журнал ( п я )

Следовательно, чтобы закодировать, какая из M(N) возможностей реализуется в каждом N выборе, вам потребуется количество битов B(N), которого достаточно для кодирования всех этих возможностей:

2 Б ( Н ) е Н п я журнал ( п я )

что обозначает

Б ( Н ) Н знак равно п я журнал 2 ( п я )

И все второстепенные константы размываются из-за большого предела N. Это информация, а приведенное выше асимптотическое равенство есть теорема Шеннона о бесшумном кодировании. Чтобы сделать его строгим, все, что вам нужно, это несколько тщательных оценок оценок больших чисел.

Реплика совпадений

Существует еще одна интересная интерпретация энтропии Шеннона в терминах совпадений. Рассмотрим вероятность того, что вы выберете два значения случайной величины и дважды получите одно и то же значение:

п 2 знак равно п я 2

Очевидно, это оценка того, сколько различных значений можно выбрать. Если вы спросите, какова вероятность того, что вы получите одно и то же значение k-раз в k-бросках, это

п к знак равно п я п я к 1

Если спросить, какова вероятность совпадения после к знак равно 1 + ϵ бросает, вы получаете энтропию Шеннона. Это похоже на трюк с репликами, поэтому я думаю, что это хорошо иметь в виду.

Энтропия из информации

Чтобы восстановить статистическую механику из информации Шеннона, вам дается:

  • значения макроскопических сохраняющихся величин (или их термодинамических сопряженных величин), энергии, импульса, углового момента, заряда и числа частиц.
  • макроскопические ограничения (или их термодинамические сопряжения) объем, положение макроскопических объектов и т. д.

Тогда статистическое распределение микроскопической конфигурации является максимальным распределением энтропии (как можно меньше известной вам информации) в фазовом пространстве, удовлетворяющим ограничению соответствия величин макроскопическим величинам.

Последний раздел посвящен состоянию равновесия. мех, и было бы неплохо прямо признать это, потому что есть много литературы по использованию теории информации для неравновесных характеристик. мех. Раньше я был очень сбит с толку тем, как работает последний, потому что это казалось попыткой получить что-то даром --- действительно неравновесные состояния могут быть бесконечно сложными. Я, наконец, понял, что (через Джейнса) можно заменить условие равновесия на «воспроизводимое», и на самом деле в любом случае всегда имеется в виду последнее. (продолжение)
(продолжение) Это толкает стат. мех, чтобы иметь более основанный на выводах вкус, который, вероятно, лучше соответствует вопросу ОП. Дело в том, что мы проводим эксперименты и обнаруживаем, что некоторые экспериментальные элементы управления достаточны для некоторых результатов — тогда просто логично, что между ними существует достаточно отношений, чтобы определить макроскопическое поведение. Если мы будем знать микроскопическое поведение, то сможем сыграть в эту игру с максимальной энтропией и вывести статистическую механику эксперимента.
@genneth: я бы сделал это, если бы думал, что есть единственный пример, где это описание работает. Вы знаете какую-нибудь систему? Единственные максимальные распределения энтропии, которые я знаю, находятся в равновесном статистическом механизме. В остальном это просто ужасное нулевое приближение.
bayes.wustl.edu/etj/articles/stand.on.entropy.pdf длинный, но неплохой. В конце есть длинный раздел, в котором транспортные отношения Кубо обобщаются до терминов более высокого порядка, и, вероятно, это самое аккуратное, что я когда-либо видел. Более прозаический игрушечный пример — это прецессирующее вращение — предположим, что вы какое-то время наблюдаете за поперечным вращением, вы можете построить неравновесную матрицу плотности, которая имеет это движение. Например, даже близко к равновесию трудно иначе правильно построить состояние с заданным током.
Это довольно интересно! Тем не менее, он упускает вопрос :( Это не отвечает, почему я должен применять энтропию к системе, которая уже полностью определяется другими законами. Почему я должен предполагать, что система является максимальным распределением энтропии? Это нужно доказать. И это Это тоже не должно быть аргументом, махающим рукой.Кроме того, 2-й и 3-й абзацы моего вопроса опущены.Многие люди утверждают, что просто все следует за энтропией (черные дыры, жизнь, ...).Хорошо, так что у меня есть частица кружить другой.Что такое p_i?Что такое энтропия?
@Gerenuk: Ваша интуиция по этому поводу ошибочна, потому что вы привыкли к ситуации, когда вы можете видеть частицу и, следовательно, всегда знаете, где она находится и как быстро она движется. Если вы не знаете, где находится частица, с частицей связана энтропия, и p_i равно ap(x,v), чтобы найти ее в любом положении и скорости. Законы энтропии черных дыр другие, и жизнь не имеет ничего общего с энтропией (но и не нарушает ее).
@Gerenuk: Кроме того, вам следует прочитать ссылку Джейнса, которую предоставил Геннет, особенно философский ответ на возражение «что-то из ничего» против аргументов максимальной энтропии.
@ Рон: я не говорю, что ты не прав. Я говорю, что вы просто не дали ответа на вопрос. И я убедился, что обычно люди, которые начинают свой ответ со слов «Это очень просто и хорошо известно» или «Я знаю, где вы ошибаетесь», обычно не понимают вопроса. Не стесняйтесь проверять мои посты слово за словом.
@Gerenuk: я знаю, где вы ошибаетесь, и ответ очень прост и хорошо известен. Это полностью рассмотрено в справочнике Джейнса, и мне больше нечего добавить к этому. То, что я привел выше, — это то, что не появляется во многих местах, а именно хорошее простое объяснение бесшумного кодирования, потому что это оправдывает п журнал ( п ) . Все остальное — философия, и Джейнс хорошо это объясняет (по ссылке выше).
Я нахожу это объяснение удивительно ясным. Этот мир неправ, если вы не преподаете в университете.
@Eduardo: В американском капитализме такие люди, как я, не преподают в университетах --- нам повезло, если мы не бездомные. Американский высший класс преподает в университетах, и он состоит из особой категории безмозглых политиков, которых Джефферсон назвал «естественной аристократией». Это богатая часть общества, и я никогда не понимал, для чего они нужны. Вот почему в США в основном нет исконных научных традиций, о которых можно было бы говорить, за исключением подражания Советам, которые требовали, чтобы они временно допустили людей из низшего класса, таких как Фейнман, Гелл-Манн, Засскинд, в элиту на время 50 лет назад.
... Я не буду частью элиты, так как не верю в элиты. Я возьму на себя должность преподавателя в университете, только если они согласятся платить мне <40 тысяч, и не дадут мне никакого статуса или признания. Этого не может быть, так как это ослабление власти университетских профессоров, которые в этом обществе очень стараются попасть в высшие классы. Вот почему они некомпетентны. Нельзя одновременно заниматься наукой и быть в высшем классе. Это несовместимые виды деятельности.

Лучший (ИМХО) вариант п журнал п формула из основных постулатов - та, которую первоначально дал Шеннон:

Шеннон (1948) Математическая теория коммуникации. Технический журнал Bell System. http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6773024

Однако Шеннон занимался не физикой, а телеграфией, поэтому его доказательство появляется в контексте передачи информации, а не статистической механики. Чтобы увидеть актуальность работы Шеннона для физики, лучшими ссылками являются статьи Эдвина Джейнса. Он написал десятки статей на эту тему. Мой любимый, по общему признанию, довольно длинный

Jaynes, ET, 1979, «На каком уровне находится максимальная энтропия?» в Формализме максимальной энтропии, Р.Д. Левин и М. Трибус (ред.), MIT Press, Кембридж, Массачусетс, с. 15; http://bayes.wustl.edu/etj/articles/stand.on.entropy.pdf

Функциональная форма энтропии С знак равно п п п можно понять, если потребовать, чтобы энтропия была экстенсивной и зависела от микроскопических вероятностей состояний п .

Рассмотрим систему С А Б состоит из двух независимых подсистем A и B. Тогда С А Б знак равно С А + С Б а также п А Б знак равно п А п Б так как А и В не связаны.

С А Б знак равно п А Б п п А Б знак равно п А п Б п п А п А п Б п п Б

знак равно п А п п А п Б п п Б знак равно С А + С Б
Этот аргумент верен с точностью до множителя, который оказывается постоянной Больцмана. к Б в статистической механике: С знак равно к Б п п п это связано с Гиббсом, задолго до Шеннона.

Отличный ответ, безусловно, лучший, поскольку он применим ко всему (энтропия фон Неймана, энтропия Шеннона, энтропия Больцмана-Гиббса). Тем не менее, вы забыли важный момент: вам нужно С быть также ограниченным и положительным (по той же причине, по которой объем должен быть ограниченным и положительным в термодинамическом разложении потенциала). В противном случае, определяя С п п уже выполняет работу по экстенсивности, знаку минус и структуре п п п вытекает из требования положительности и ограниченности соответственно.

Подходя к этому с чисто физической точки зрения, это энтропия Гиббса системы. Во-первых, хотя понятие энтропии можно расширить, мы обычно обсуждаем равновесную термодинамику, и именно здесь впервые вводится энтропия Гиббса.

Вы, конечно, правы в том, что технически динамика может быть полностью описана их уравнениями движения, но тогда не было бы особой необходимости в предмете термодинамики. Я имею в виду, что термодинамика в каком-то смысле не так «фундаментальна», как другие предметы в физике, в том смысле, что она не пытается дать полное описание всего .о системе, которую вы изучаете. Обычно вы обсуждаете большие системы (и поэтому ищете макроскопические свойства) или маленькие системы, взаимодействующие с большой средой. (например, нет большого смысла говорить о температуре электрона) В действительности поиск детерминированного описания таких систем совершенно нецелесообразен (даже без теории Хаоса и квантовой механики количество уравнений было бы слишком огромным), и поэтому вы используете термодинамику.

В равновесной статистической термодинамике (которая ищет обоснование классической термодинамики, основанной на средних значениях микроскопического описания) вы начинаете с принципа равных априорных вероятностей, который говорит для изолированной системы, которая долгое время оставалась одна (расплывчатая, но в основном то, что он находится в равновесии) каждое микросостояние, доступное для системы, с равной вероятностью будет занято. Это большое предположение, и есть много людей, которые хотели бы иметь возможность обосновать его должным образом, но это часто аргументируется симметрией (с имеющейся у вас информацией нет причин предполагать, что одно конкретное микросостояние будет более вероятным, чем любой другой). Более того, это просто работает.

Затем было постулировано, что энтропия изолированной системы равна С знак равно к   л н ( Ом ) по Больцману, где Ом - это количество микросостояний, доступных системе (его проще построить, предполагая дискретное количество микросостояний, особенно если вы говорите об энтропии Больцмана/Гиббса). Это постулат, но он должен соответствовать классической термодинамической энтропии. Энтропия Гиббса является естественным расширением этого, когда вы рассматриваете системы, которые находятся в тепловом контакте с окружающей средой, и вероятности микросостояний больше не равны. Вы можете показать, что она согласуется с классической термодинамической энтропией для ряда систем и действительно показывает, как энтропию можно рассматривать как меру неопределенности относительно микроскопических деталей системы.