Является ли информационная энтропия такой же, как термодинамическая энтропия?

Контекст

В одной из самых популярных его книг Guards! Охранники! , Терри Пратчетт шутит об энтропии:

Знание равно Силе, которая равна Энергии, которая равна Массе

Пратчетт — комик-фэнтези, и каждая третья фраза в его книге — шутка, поэтому нет веских оснований в это верить. Пратчетт использует это безумие, чтобы придумать, что огромная библиотека имеет огромный гравитационный толчок.

Вопрос

Я работаю с компьютерами и в основном с шифрованием . Мои коллеги по работе верят утверждению Терри Пратчетта из-за энтропии . С другой стороны, я считаю , что это неверно , поскольку энтропия информации — это иная энтропия , чем та, что используется в термодинамике.

Я прав? И если да, то почему одно и то же имя ( энтропия ) используется для обозначения двух разных вещей?

Кроме того, что было бы хорошим способом объяснить, что эти две «энтропии» — разные вещи для не-ученых (т.е. людей без образования в области химии или физики)?

Мысленный эксперимент Максвелла «Демон» доказывает, что вы ошибаетесь. Как показал Ландауэр, тот факт, что возможны обратимые вычисления и измерения без взаимодействия, означает, что вы можете снизить энтропию термодинамической системы за счет увеличения информационной энтропии памяти компьютера по крайней мере на ту же величину.
Попытка точно определить, каким образом утверждение, которое никогда не должно было быть истинным в научном смысле, терпит неудачу, является бесплодным занятием. Идите и наслаждайтесь замечательными книгами Пратчетта вместо того, чтобы обсуждать научную истинность ненаучных утверждений.
фон Нейман обращался к Шеннону: «Вы должны называть это энтропией по двум причинам. Во-первых, ваша функция неопределенности использовалась в статистической механике под этим именем, так что у нее уже есть имя. Во-вторых, что более важно, никто не знает, что такое энтропия на самом деле, поэтому в споре у вас всегда будет преимущество».
@lemon: у тебя будет преимущество, пока кто-нибудь не скажет д С знак равно д Вопрос р е в / Т и тогда вы либо понимаете термодинамику навсегда, либо у вас нет аргументов.
Разница зависит от того, знаете ли вы подготовленные квантовые состояния системы или нет. Для классической термодинамики у вас нет таких знаний, поэтому энтропия является «тепловой». Если у вас есть знания о микросостояниях или квантовых состояниях, то это информационная энтропия или энтропия запутанности. В конце концов, тепловая энтропия — это информационная энтропия, и все это в конечном счете — энтропия запутанности.
@CountIblis: Однако память в этих системах также является термодинамической системой, поэтому вы действительно просто строите термодинамическую / вычислительную машину Руба-Голдберга.
@CountIblis - Чтение мысленного эксперимента Максвелла «Демон» дало мне новое понимание энтропии, спасибо. Хотя эксперимент — это именно то, что мне было нужно. С другой стороны, у меня такое впечатление, что я открыл ящик Пандоры, задав этот вопрос здесь. Теперь мне очень любопытно, что здесь думают разные физики об информации и тепловой энтропии.
@grochmal Это интересный вопрос, конечно. Можно поставить на первое место термодинамическую энтропию и назвать информационную энтропию подмножеством, поскольку она всегда хранится в положениях атомов. Или можно поставить информационную энтропию на первое место и сказать, что атомные позиции — это просто тип информации. Я нейтрален, но люди с большим опытом работы в физике предпочитают первое, а те, у кого больше опыта в CS, предпочитают второе.
Как вы видели в огромной ветке комментариев, это становится довольно пристрастным, я думаю, потому что в этом есть предмет гордости за всю область - то есть люди используют это, чтобы сказать: «вся CS / физика на самом деле просто физика / CS».
С нейтральной точки зрения, думаю, ничего страшного. Отказ от аналогии в любом случае дает вам больше способов думать о вещах, это беспроигрышный вариант.
«Мои коллеги по работе верят утверждению Терри Пратчетта из-за энтропии». Это озадачивает. Не могли бы вы уточнить, как концепция энтропии (в зависимости от того, какая) намекает на справедливость цитируемого утверждения?
@ Ян: это совсем не озадачивает. Как сказал фон Нейман Шеннону, когда Шеннон спрашивал, как назвать эту величину: «Вы должны называть ее энтропией по двум причинам. Во-первых, функция неопределенности использовалась в статистической механике под этим названием. Во-вторых, что более важно, , никто не знает, что такое энтропия на самом деле, поэтому в споре у вас всегда будет преимущество». Так что с энтропией вы никогда не проиграете спор.
Знание — сила, время — деньги. Сила = Работа/время, следовательно, Знание = Работа/деньги. Чем больше вы работаете и чем меньше вам платят, тем большему вы научитесь!

Ответы (4)

Таким образом, цитата Пратчетта, похоже, касается энергии, а не энтропии. Я полагал, что вы могли бы утверждать обратное, если предположили, что «энтропия — это знание», но я думаю, что это ровно наоборот: я думаю, что знание — это частный случай низкой энтропии. Но ваш вопрос все равно интересен.

Энтропия С в термодинамике связано с количеством неразличимых состояний, которые может занимать система. Если все неразличимые состояния равновероятны, количество «микросостояний», связанных с системой, равно Ом знак равно опыт ( С / к ) , где постоянная к 25 м е В / 300 К связано с количеством энергии, которой обмениваются термодинамические системы при различных температурах.

Канонический пример — банка с монетами. Предположим, я роняю на пол 100 монет. Есть 100 способов, которыми я могу получить один хедз-ап, а остальные — решку; Существуют 100 99 / 2 способы иметь две головы; Существуют 10 99 98 / 6 способы иметь три головы; есть около 10 28 способы иметь сорок голов, и 10 29 способы иметь пятьдесят голов. Если вы бросите банку пенни, вы не найдете их с 3%-ным хедз-ап, так же как вас не ударит молния, когда вы сдаете себе флеш-рояль: слишком много других альтернатив.

Связь с термодинамикой возникает, когда не все мои микросостояния имеют одинаковую энергию, так что моя система может обмениваться энергией с окружающей средой, совершая переходы. Например, предположим, что мои 100 пенни не на полу моей кухни, а на полу моего пикапа с разбалансированной шиной. Вибрация означает, что каждый пенни может перевернуться, что приведет к распределению 50-50. Но если есть какое-то другое взаимодействие, которое делает хедз-ап более вероятным, чем решка, то 50-50 — это не то, на чем я остановлюсь. Может быть, у меня есть навязчивый пассажир, который выбрасывает все гроши решкой вверх. Если встряхивание и случайное переворачивание происходит достаточно медленно, чтобы он мог перевернуть их все, это фактически «нулевая температура»; если тряска и случайное подбрасывание настолько энергичны, что пенни обычно переворачивается прежде, чем он исправит следующую, это «бесконечная температура». (на самом деле это частьопределение температуры ).

Энтропия Больцмана, которую я использовал выше,

С Б знак равно к Б п Ом ,
точно такая же , как энтропия Шеннона,
С С знак равно к С п Ом ,
за исключением того, что постоянная Шеннона к С знак равно 1 п 2 б я т , так что система с десятью битами информационной энтропии может находиться в любом из Ом знак равно 2 10 состояния.

Это заявление с физическими последствиями. Предположим, что я покупаю двухтерабайтную SD-карту ( очевидно, стандарт поддерживает это ) и заполняю ее сорокачасовым видео о том, как мои морские свинки превращают сено в какашки. Уменьшив количество возможных состояний SD-карты с Ом знак равно 2 × 2 40 × 8 до единицы, определение Больцмана говорит мне, что я уменьшил термодинамическую энтропию карты на Δ С знак равно 2,6 м е В / К . Это уменьшение энтропии должно быть уравновешено равным или большим увеличением энтропии в других частях Вселенной, и если я сделаю это при комнатной температуре, то увеличение энтропии должно сопровождаться тепловым потоком Δ Вопрос знак равно Т Δ С знак равно 0,79 е В знак равно 10 19 Дж о ты л е .

И здесь мы наталкиваемся на практические, экспериментальные доказательства одного различия между информацией и термодинамической энтропией. Энергопотребление при записи SD-карты составляет милливатт или ватт, и передача моего сорокачасового фильма о морской свинке не будет кратковременной операцией --- что лишнее 10 19 Дж , достаточно энергии для управления одним инфракрасным атомным переходом, и я должен платить за знание того, что каждый бит на SD-карте ничто по сравнению с другими расходами на эксплуатацию устройства.

Информационная энтропия является частью, но не всей термодинамической энтропии системы. Термодинамическая энтропия включает в себя информацию о состоянии каждого атома каждого транзистора, составляющего каждый бит, и в любой бистабильной системе будет много-много микроскопических конфигураций, соответствующих «включено», и много-много различных микроскопических конфигураций, соответствующих «отключено». ."


Любопытный спрашивает,

Почему энтропия Шеннона текста шекспировского фолианта не меняется при изменении температуры?

Это связано с тем, что любой эффективный носитель информации должен работать при нулевой температуре, иначе биты перевернутся и информация будет уничтожена. Например, у меня есть Полное собрание сочинений Шекспира, которое весит около 1 кг бумаги и имеет информационную энтропию примерно в несколько мегабайт.

Это означает, что при печати книги были минимальные дополнительные затраты энергии 10 25 Дж знак равно 1 мю е В связанные с размещением этих слов на странице именно в таком порядке, а не в каком-либо другом. Знание того, что написано в книге, уменьшаетего энтропия. Знание того, является ли книга сначала сонетом или пьесой, еще больше снижает ее энтропию. Знание того, что «Уезжай/Не оставайся/Встретимся до рассвета» на странице 158, еще больше снижает его энтропию, потому что, если ваш мозг находится в низкоэнтропийном состоянии, когда вы знаете «Сон в летнюю ночь», вы знаете, что он должен начните со страницы 140 или 150 или около того. И то, что я сообщал вам каждый из этих фактов и одновременно уменьшал вашу энтропию, было связано с дополнительной энергией в какую-то долю наноэВ, полностью потерянной в метаболизме моего мозга, механической энергии моих пальцев, рабочей энергии моего компьютера, энергия работы моего интернет-соединения с диском в центре обработки данных StackExchange, где хранится этот ответ, и так далее.

Если я подниму температуру этого Полного собрания сочинений с 300 К до 301 К, я увеличу его энтропию на Δ С знак равно Δ Вопрос / Т знак равно 1 к Дж / К , что соответствует многим йоттабайтам информации; однако книга продуманно устроена так, что неупорядоченная информация не влияет на расположение слов на страницах. Если же я попытаюсь запасти в этой книге лишний мегаджоуль энергии, то где-то на своем пути до температуры 1300 кельвинов она превратится в груду пепла. Прах высокоэнтропийный: прах «Бесплодных трудов любви» невозможно отличить от пепла «Тимона Афинского».

Информационная энтропия --- которая была удалена из системы, в которой хранится информация --- это крошечное подмножество термодинамической энтропии, и вы можете надежно хранить информацию только в тех частях системы, которые фактически находятся при нулевой температуре.


Одноатомный идеальный газ, состоящий, скажем, из атомов аргона, также можно разделить на подсистемы, в которых энтропия зависит или не зависит от температуры. Атомы аргона имеют как минимум три независимых способа хранения энергии: поступательное движение, электронные возбуждения и ядерные возбуждения.

Предположим, у вас есть моль атомов аргона при комнатной температуре. Поступательная энтропия определяется уравнением Сакура-Тетроде и зависит от температуры. Однако фактор Больцмана для первого возбужденного состояния при 11 эВ равен

опыт 11 е В к 300 К знак равно 10 201
и поэтому число атомов аргона в первых (или более высоких) возбужденных состояниях точно равно нулю, и энтропия в секторе электронного возбуждения равна нулю. Энтропия электронного возбуждения остается точно нулевой до тех пор, пока множители Больцмана для всех возбужденных состояний не составят в сумме 10 24 , так что в среднем имеется один возбужденный атом; это происходит где-то около температуры
Т знак равно 11 е В к п 10 24 знак равно 2500 К .
Таким образом, когда вы повышаете температуру вашего моля аргона с 300 К до 500 К, число возбужденных атомов в вашем моле изменяется с нуля до нуля, что является конфигурацией с нулевой энтропией, независимой от температуры, в чисто термодинамическом смысле. процесс.

Точно так же даже при десятках тысяч кельвинов энтропия, хранящаяся в ядерных возбуждениях, равна нулю, потому что вероятность найти ядро ​​в первом возбужденном состоянии около 2 МэВ на много порядков меньше, чем количество атомов в вашем образце.

Точно так же термодинамическая энтропия информации в моем Полном собрании сочинений Шекспира если не равна нулю, то очень низка: есть небольшое количество конфигураций текста, которые соответствуют Полному собранию сочинений Шекспира, а не «Властелину колец» или «Улиссу». или Дон Кихот из того же материала с эквивалентной массой. Информационная энтропия («Полное собрание сочинений Шекспира занимает несколько мегабайт») говорит мне о минимальной термодинамической энтропии, которую нужно было удалить из системы, чтобы организовать ее в Полное собрание сочинений Шекспира, и о связанных с этим затратах энергии на перенос этой энтропии в другое место; эти затраты ничтожны по сравнению с полным обменом энергией и энтропией, связанными с печатью книги.

Пока температура моей книги остается значительно ниже 506 кельвинов , вероятность того, что любая буква в книге спонтанно изменится и станет выглядеть как другая буква или как неразборчивая капля, равна нулю, а изменения температуры обратимы .

Этот аргумент, между прочим, предполагает, что если вы хотите хранить информацию в квантово-механической системе, вам нужно хранить ее в основном состоянии, которое система будет занимать при нулевой температуре; поэтому вам нужно найти систему, которая имеет несколько вырожденных основных состояний. Ферромагнетик имеет вырожденное основное состояние: атомы в магните хотят выровняться со своими соседями, но направление, которое они выбирают, не ограничено. Как только ферромагнетик «выбрал» ориентацию, возможно, с помощью внешнего выравнивающего поля, это направление остается стабильным до тех пор, пока температура существенно ниже температуры Кюри , то есть небольшие изменения температуры не вызывают энтропию. увеличение колебаний в ориентации магнита.Возможно, вы знакомы с механизмами хранения информации, работающими по этому принципу.

Почему энтропия Шеннона текста шекспировского фолианта не меняется при изменении температуры?
@CuriousOne Это произойдет, если вы достаточно измените температуру; см. редактировать.
Прошу прощения, но это полная ерунда. Энтропия Шеннона не включает физических терминов, которые можно найти в термодинамике. Он просто по определению не чувствителен к температуре. Если вы измените определение на «энтропия Шеннона = термодинамическая энтропия», оно потеряет всю свою полезность, не говоря уже о том, что вызывает вопрос: зачем вы переименовываете то, что уже имеет имя?
Я полагаю, что я сказал, что энтропия Шеннона — это крошечное подмножество информационной энтропии, и я привел количественный пример изменения температуры, которое приводит к необратимому увеличению информационной энтропии системы хранения. Вас, кажется, беспокоит, что я могу изменить температуру книги, скажем, с 250 К до 300 К без изменения ее информационной энтропии; но это конкретное изменение обратимо , а обратимые процессы в термодинамике по определению изоэнтропичны.
Что меня беспокоит, так это то, что люди не могут понять простых определений. Энтропия Шеннона была и остается четко определенной для последовательностей символов. Это абстрактная мера информационного содержания, например, документа, и поэтому она чрезвычайно полезна. Термодинамическая энтропия является физической мерой движения однородных динамических систем. Вы можете изменить температуру книги, и это изменит энтропию бумаги, но ни на йоту не изменит энтропию Шеннона текста в книге. Это действительно не так сложно понять. В однородных системах информации нет, кстати.
@CuriousOne Энтропия Шеннона — это абстрактная мера содержания информации с физическими последствиями. В частности, энтропия Шеннона квантуется, и ваша интуиция об энтропии из термодинамики континуума может быть неприменима к системам с квантованными степенями свободы. Я отредактировал в другом примере. Я многому учусь, обращаясь к вашим комментариям, так что спасибо.
В физике нет рефератов. Все в физике есть измеряемые величины реальных систем. Энтропия Шеннона — это математическая величина в абстрактных системах. В этом есть смысл, но это просто не то же самое, что мы называем энтропией в термодинамике. Вещи, на которые он ссылается, не одинаковы.
И я рассказал вам, как это измерить (и признал, что это сложно).
В вычислении энтропии Шеннона нет ничего сложного. Вот код на Python: pythonfiddle.com/shannon-entropy-calculation , stackoverflow.com/questions/15450192/… (нет гарантий, что он работает). Что касается термодинамической энтропии... это требует серьезного калориметрического измерения тепла.
Приведенный выше ответ является «высокотемпературным» объяснением энтропии в том смысле, что он многословен и содержит множество слабо связанных примеров.

Формально две энтропии — одно и то же. Энтропия Гиббса в термодинамике равна

С знак равно к Б п я п п я
в то время как энтропия Шеннона теории информации
ЧАС знак равно п я журнал 2 п я .
Они равны с точностью до некоторых числовых множителей. Учитывая статистический ансамбль, вы можете рассчитать его (термодинамическую) энтропию, используя энтропию Шеннона, а затем умножив на константы.


Однако в некотором смысле вы правы. Часто, когда люди говорят об энтропии Шеннона, они используют ее только для подсчета вещей, которые мы интуитивно воспринимаем как информацию. Например, можно сказать, что энтропия транзистора, включенного или выключенного с равной вероятностью, равна 1 биту.

Но термодинамическая энтропия транзистора в тысячи, если не в миллионы раз выше, потому что она учитывает все, то есть конфигурации всех атомов, составляющих транзистор. (Если вы хотите объяснить это своим коллегам-программистам, скажите, что они не считают, является ли каждый отдельный атом «включенным» или «выключенным».)

В общем, количество «интуитивной» информации (например, битов или слов в книге) составляет совершенно незначительную долю общей энтропии. Термодинамическая энтропия библиотеки примерно такая же, как у склада пустых книг.

Комментарии не для расширенного обсуждения; этот разговор был перемещен в чат .
Отнесите это в тот чат, который создал @Manishearth, или опубликуйте другой ответ, ребята.
Технически невозможно напрямую сравнить величину термодинамической и информационной энтропии транзистора, если не указать макросостояния транзистора. Я согласен, однако, что, возможно, невозможно измерить больше, чем несколько основных величин для транзистора (возможно, сопротивление, индуктивность и т. д.), оставляя пространство возможных микросостояний все еще невероятно большим. Следовательно, для всех целей мы можем сказать, что термодинамическая энтропия выше, чем информационная энтропия.
Энтропия — это антропоморфная величина, определяемая в терминах макроскопических наблюдаемых, которые мы выбираем для описания системы. См. классическую статью Э. Т. Джейнса.

Честно говоря, я считаю, что этот вопрос на самом деле не решен, или, по крайней мере, в научном сообществе еще нет консенсуса относительно того, каков ответ.

Мое понимание отношения, я думаю, немного отличается от knzhou, rob или CuriousOne. Насколько я понимаю, термодинамическую энтропию можно рассматривать как особое применение информационной энтропии. В частности, можно применить принципы информации и информационной энтропии, чтобы спросить, как много человек знает о состоянии квантовой системы, и при определенных условиях термодинамическая энтропия Больцмана кажется восстановленной.

В качестве конкретного примера, недавний эксперимент, связанный с этим вопросом (1) , изучает «энтропию запутанности» взаимодействующей квантовой системы, которая представляет собой приложение информационной энтропии к квантовому состоянию. При соответствующих обстоятельствах (рассматривая матрицу плотности одной частицы термализованного квантового состояния) показано, что эта информационная энтропия идентична термодинамической энтропии Больцмана.

С этой точки зрения термодинамика есть «всего лишь» частное применение информационных принципов. Конечно, информационные принципы можно применять и к совершенно другим системам, таким как книги, радиосвязь и так далее. В результате термодинамическая и информационная энтропии — это не одно и то же, а два частных применения одного и того же общего принципа.

Однако это мнение ни в коем случае не разделяют все, и хотя это соответствие, по-видимому, работает в некоторых случаях, таких как описанный выше эксперимент, его еще предстоит объяснить в более общем контексте.

Два несколько связанных вопроса, которые могут вас заинтересовать:

Самопроизвольное превращение теплоты в работу при отрицательных температурах

Какие явления вызывают необратимый рост энтропии?


Приложение: Иерархия энтропии

Вот иерархия энтропий, которую я здесь утверждаю (игнорируя такие константы, как к Б ):

  1. Энтропия Шеннона: С Шеннон знак равно я п я журнал п я . Описывает, грубо говоря, как много человек знает о состоянии некоторой системы, с я являющиеся возможными состояниями. Эта система может быть, например, строкой двоичных битов.

  2. Применяя это к неизвестному квантовому состоянию, можно получить энтропию Гиббса: С Гиббс знак равно я п я журнал п я , где я теперь являются конкретно возможными квантовыми состояниями системы. Чтобы это выражение имело физический смысл, я должны быть собственными состояниями системы в базисе, в котором матрица плотности диагональна*. С этим условием, С Гиббс идентична энтропии фон Неймана квантового состояния: С ВН знак равно тр ( р журнал р ) , с р матрица плотности.

  3. Энтропия запутанности — это просто приложение С ВН к определенному пространственному подмножеству (обычно изолированной) системы: С Е Е , А знак равно тр ( р А журнал р А ) , куда р А - матрица плотности, полученная в результате частичного следа по матрице плотности большой системы, сохраняющей только некоторую локальную подсистему. Другими словами, это энтропия отдельной части какой-то большей системы.

  4. Весьма нетривиальное утверждение, сделанное в (1) (и в других местах), состоит в том, что для термализованной системы С Е Е , А небольшой локальной подсистемы р А эквивалентна термодинамической энтропии Больцмана, определяемой как: С Больц знак равно я ( п я , й журнал п я , й ) , с п я , й знак равно е Е я / к Б Т я е Е я / к Б Т , я как возможные состояния р А , а также к Б Т выбирают так, чтобы система имела правильную среднюю энергию. Кстати, это утверждение известно как «гипотеза термализации собственного состояния».

* В этом требовании нет ничего сверхъестественного: просто потому, что энтропия должна обладать некоторыми «хорошими» свойствами, такими как аддитивность, состояние я должны быть некоррелированы.

До сих пор было довольно много проницательных ответов о статистической механической энтропии, но пока единственное упоминание о термодинамической энтропии было сделано CuriousOne в комментариях, поэтому я подумал, что было бы полезно дать краткое общее напоминание о тонкой разнице. между понятием энтропии в термодинамике и формулами статистической механики и теории кодирования.

Один из подходов к пониманию термодинамической энтропии - через фундаментальные (или технологические) ограничения на максимально достижимый КПД тепловых двигателей. В первом томе лекций Фейнмана есть раздел по термодинамике, в котором красноречиво описывается, как эффективность Карно обеспечивает универсальную температурную шкалу. Т (с точностью до произвольного выбора единиц), так что количество г Вопрос Т является дифференциалом функции состояния С что называется энтропией. Поскольку термодинамическая энтропия в основном определяется производительностью тепловых двигателей, термодинамическая энтропия чувствительна только к характеристикам системы, которые способны поглощать тепло и расслабляться способами, позволяющими извлекать работу.

В этом смысле теоретико-информационная энтропия — это мера того, какие особенности вы знаете*, а термодинамическая энтропия — это мера того, какие особенности на малых масштабах коллективно влияют на системы на больших масштабах.

* Информационно-теоретическая энтропия и статистическая механическая энтропия (сами по себе) по сути просто меры объема пространства возможных результатов.

Я ценю, что вы подняли различие между статистическими и термодинамическими понятиями энтропии. Однако на этот пункт есть естественный ответ: связь между ними достаточно подробно исследуется в стандартных учебниках. Я следую Киттелю и Кремеру, например, в определении термодинамической энтропии с помощью статистической механики (как С грамм я б б с или аналогичный) и определение температуры как 1 / Т знак равно С / U (эквивалентно определению, данному в моем ответе), и используя их в качестве основы для стандартной термодинамики.
У меня, к сожалению, нет Киттеля и Кремера. Однако если они определяют термодинамическую энтропию так, как вы описываете, то я бы сказал, что связь между термодинамикой и статистической механикой в ​​этой книге недостаточно исследована. Однако Райф и Шредер (а также Фейнман, т. 1) стараются установить термодинамику на прочной концептуальной основе независимо от статистической механики. На мой взгляд, определение термодинамической энтропии от С грамм я б б с звучит кругообразно и уменьшает яркость уравнения Больцмана.
Что ж, там, где вы видите круговые рассуждения, я вижу особенно изящный пример сведения к общим принципам. Но я должен буду посмотреть, как эти процедуры.