Существует ли термодинамический предел эффективности сборки кубика Рубика?

Предположим, я построил машину, которая будет получать кубики Рубика, перемешанные в одну из 2 65 возможные положения куба, выбранные равномерно случайным образом. Может ли машина собирать кубики без выделения тепла?

Можно подумать, что решение куба состоит из уничтожения около 65 битов информации, потому что для описания состояния куба перед входом в машину требуется 65 бит, а для описания его после этого требуется ноль битов (поскольку известно, что он решается).

Если информация, хранящаяся в кубике Рубика, эквивалентна любому другому типу физически хранимой информации, то, согласно принципу Ландауэра, мы можем ожидать, что машина должна выделять тепло Т д С 65 Т к Б п ( 2 ) , но допустимо ли применять принцип Ландауэра к информации, хранящейся таким образом? Какой аргумент нужен, чтобы сказать, что определенный тип информации имеет физический смысл, так что для его уничтожения необходимо заплатить энтропийную цену где-то еще?

Я не убежден в вашем утверждении, что собранный куб содержит меньше информации. Вам нужно определить положение только подмножества кубиков, чтобы однозначно идентифицировать конфигурацию куба (поскольку, например, один скрученный угол заставляет скручиваться и второй угол). Вы не знаете, что куб решен, пока не убедитесь, что каждый кублет находится в правильном положении, поэтому вы никогда не измените энтропию куба, независимо от того, находится ли конфигурация в эстетически «приятном» состоянии или нет.
@CarlWitthoft Как всегда, количество информации, назначенной ансамблю, зависит от наблюдателя. С точки зрения наблюдателя, который знает (и действительно верит), что куб решается после машины, состояние до его решения имеет более высокую энтропию. С точки зрения наблюдателя, ничего не знающего, кроме правил движения кубика Рубика, я согласен с вами, что энтропия до и после одинакова.
Я также скептически отношусь к утверждению, что решенный куб содержит меньше информации только потому, что по соглашению он выглядит «правильным». Кроме того, решение не единственно. Если вы добавите ориентирующие метки на грани, вы увидите, что это более чем «решенная» конфигурация для обычного кубика Рубика.
@200_successes - Даже если вы добавите ориентиры, все равно верно, что если вы подсчитаете количество различных возможных расположений цветных квадратов и ориентиров, общее количество расположений, которые можно квалифицировать как «решенный» куб, намного меньше, чем число всех возможных нерешенных схем (или всех нерешенных схем, которые могут быть достигнуты с помощью некоторой последовательности ходов из вновь изготовленного куба в решенном состоянии, поскольку мы можем предположить, что первоначальная «рандомизированная» схема была создана путем случайного перетасовки только что изготовленный куб).
И, конечно, это всего лишь вопрос соглашения, какие схемы мы помечаем как «решенные», но суть в том, что если мы сконструируем машину, которая берет куб в произвольном начальном состоянии и всегда переводит его в одно из тех состояний, которые мы произвольно имеем. помечен как «решено», то эта машина переводит куб из большого числа возможных начальных макросостояний куба в меньшее число конечных макросостояний куба, поэтому для сохранения объема фазового пространства среда должна в конечном итоге перейти в макросостояние. с большим количеством микросостояний, чем было в его начальном макросостоянии (см. мои комментарии Натаниэлю).

Ответы (6)

Предположим, у вас есть кубик Рубика, сделанный из небольшого числа атомов при низкой температуре, так что вы можете совершать движения без какого-либо рассеивания трения, и давайте предположим, что кубик инициализирован случайным образом. 2 65 возможные состояния. Теперь, если вы хотите решить этот куб, вам нужно будет измерить его состояние. В принципе, вы можете сделать это, не рассеивая никакой энергии. Как только вы узнаете ходы, которые вам нужно сделать, чтобы собрать куб, их также можно будет сделать, не рассеивая никакой энергии.

Итак, теперь вы решили построить машину, которая будет собирать куб, не рассеивая никакой энергии. Сначала он измеряет состояние и сохраняет его в некоторой цифровой памяти. Затем он вычисляет ходы, необходимые для решения куба из этой позиции. (В принципе, это также не должно генерировать никакого тепла.) Затем он делает эти ходы, собирая куб.

В принципе ни один из этих шагов не должен выделять никакого тепла, но ваша машина заканчивается в состоянии, отличном от состояния, в котором она начинается. В конце процесса 65 битов состояния машины фактически рандомизируются, потому по-прежнему содержит информацию о начальном состоянии куба. Если вы хотите сбросить машину, чтобы она могла решить другой куб, вам придется сбросить эти биты состояния обратно в их начальные условия, а это то, что должно рассеивать энергию в соответствии с принципом Ландауэра.

В конце концов, ответ заключается в том, что вам придется заплатить энтропийную стоимость, чтобы стереть информацию во всех случаях, когда вам действительно нужно стереть эту информацию. Если вы хотите решить только конечное число кубов, вы можете просто сделать память достаточно большой для хранения всей полученной информации, поэтому нет необходимости стирать ее и не нужно выделять тепло. Но если вы хотите построить машину конечного размера, которая может решать кубы бесконечно долго, то в конечном итоге потребуется сбрасывать энтропию в окружающую среду.

Это относится и к демону Максвелла: если демону разрешено иметь бесконечную память, вся инициализированная до известного состояния, то ему никогда не нужно рассеивать энергию. Но дать ему бесконечную память — это почти то же самое, что дать ему бесконечный источник энергии; он способен бесконечно уменьшать термодинамическую энтропию своего окружения только за счет бесконечного увеличения информационной энтропии своего собственного внутреннего состояния.

Откуда мы знаем, что невозможно собрать куб без записи положения в состоянии машины?
@MarkEichenlaub: у взбитого кубика около 2 65 возможные состояния; у решенного есть только один. На микроскопическом уровне физика обратима, поэтому, когда куб решен, информация, необходимая для обращения решения и восстановления исходного зашифрованного состояния из решенного, должна куда- то уйти . Это означает, что он должен либо храниться в какой-то части системы, либо излучаться из нее (в виде тепла).
@IlmariKaronen Хорошо, да, я думаю, это звучит убедительно. Спасибо.
Для меня это звучит как ерунда — у куба есть одно начальное и одно конечное состояния. Он не находится в 2 ^ 65 состояниях одновременно. Можно ли вычислить шаги, необходимые для решения куба, — это совершенно другой вопрос.
@Jon Story - Знакомы ли вы с идеей фазового пространства в термодинамике и с идеей рассмотрения эволюции ансамбля различных точек (каждая из которых является «микросостоянием»), которые занимают некоторый объем фазового пространства, и идея сохранения объема ( теорема Лиувилля )? Если да, то просто рассмотрите начальный ансамбль, состоящий из микросостояний, принадлежащих всем возможным начальным макросостояниям куба, устройства и среды — если все они эволюционируют к одному и тому же конечному макросостоянию.
(продолжение) куба и устройства, то единственный способ, которым объем фазового пространства может остаться здесь неизменным, — это если среда окажется в макросостоянии с большим объемом, чем ее исходное макросостояние (т. е. с более высокой энтропией).
@IlmariKaronen Кажется, этот аргумент основан на возможности сказать, что состояние куба каким-то образом можно идентифицировать с микросостояниями. Например, если бы я мог записать состояние системы в виде тензорного произведения с у с т е м знак равно с ты б е с т а т е е в е р у т час я н грамм е л с е , то аргумент будет работать за счет уменьшения энтропии в с ты б е с т а т е заставляет меня увеличить его в е в е р у т час я н грамм е л с е , но откуда мне знать, что я могу так говорить о состоянии куба?
@Mark Eichenlaub - Когда вы говорите «каким-то образом идентифицируемый с микросостояниями», вы имеете в виду идентифицируемый с одним микросостоянием, или вы имеете в виду, что состояние куба (расположение того, что используется в качестве квадратов на каждой грани) можно рассматривать как тип макросостояния, состоящий из множества возможных микросостояний? Я думаю, что последнее имел в виду Илмари Каронен.
Да, я думаю, это правильно. Мы можем просмотреть набор всех микросостояний всей системы и разделить его на основе состояния куба в каждом микросостоянии. Тогда в силу приблизительной симметрии куба каждое состояние куба должно иметь примерно одинаковое количество связанных с ним микросостояний всей системы. Таким образом, снижение энтропии на основе подсчета микросостояний примерно такое же, как и на основе подсчета информации в кубе.
«дать ему бесконечную память — это почти то же самое, что дать ему бесконечный источник энергии» — это довольно увлекательное утверждение. У вас есть ссылки на это?
«он способен бесконечно уменьшать термодинамическую энтропию своего окружения только за счет бесконечного увеличения информационной энтропии своего собственного внутреннего состояния». Можете ли вы дать ссылку на это утверждение? Это интересно, но совершенно неправдоподобно. Простое сопоставление состояния одной системы с состоянием системы многих частиц кажется недостаточным для изменения макросостояния последней.
@JánLalinský JánLalinský это может быть связано с неточностью языка с моей стороны. Я хотел сказать, что «он может бесконечно уменьшать термодинамическую энтропию своего окружения, но только посредством процессов, которые включают бесконечное увеличение информационной энтропии его собственного внутреннего состояния». Энтропия уменьшается не только из-за корреляции, но и из-за того, что она может производить измерения и воздействовать на них без выделения тепла. Я предполагаю, что ссылкой будет статья Ландауэра, хотя я должен признать, что не читал оригинал. (см. следующий комментарий для ссылки)
@immibis Я думаю, что ссылкой будет статья Ландауэра ( pitt.edu/~jdnorton/lectures/Rotman_Summer_School_2013/… ), хотя я должен признать, что не читал ее. Любая недавняя трактовка демона Максвелла должна иметь хорошее объяснение того, как демон может уменьшать энтропию газа, позволяя выполнять работу, если только ему не приходится стирать информацию, которую он неизбежно хранит о газе во время его работы.
@MarkEichenlaub (отвечая на ваш первый комментарий) это просто потому, что машина должна знать состояние куба, чтобы решить его; как только эта информация будет скопирована в состояние машины, ее невозможно стереть без выделения тепла. Чтобы увидеть это по-другому, есть 2 65 возможных начальных (макро)состояний системы куб+машина, поэтому должно быть такое же количество возможных конечных состояний, если только информация не была потеряна. Куб всегда оказывается в одном и том же состоянии, поэтому машина должна оказаться в одном из 2 65 состояний в зависимости от начального состояния куба.
@MarkEichenlaub похоже, что обсуждение решило остальные ваши вопросы - верно?
Интуитивно я думаю, что это правильно. Я думаю, что это также не совсем строго, потому что информация, хранящаяся в кубе, явно отличается от информации, хранящейся в микроскопических степенях свободы. Сохранение информации — это теорема, которую мы можем вывести из гамильтоновой динамики. Если мы хотим применить его к кубику Рубика, нам нужно какое-то обоснование применимости наших идей о гамильтоновых системах. Должна быть определенная связь между состояниями кубика Рубика и микросостояниями, для которых у нас есть соответствующие теоремы об информации.
@MarkEichenlaub Я думаю, что ваш комментарий правильный; другой способ взглянуть на это состоит в том, что связь, которую вы ищете, является в точности принципом Ландауэра. В нем говорится, что хотя информация не обязательно должна сохраняться на макроскопическом уровне, мы не можем стереть макроскопическую информацию, не увеличив количество микроскопических состояний. В основном это связано с тем, что вы говорите в своем комментарии: в любой момент времени общее состояние системы может быть разделено на макросостояние микросостояние , поэтому по теореме Лиувилля нельзя уменьшить первое, не увеличив второе.
Можно ли иметь «фиктивный» куб, состояние которого не имеет значения? Тогда вы могли бы решить н другие кубы, сохраняя обратные ходы в фиктивном кубе. Вам никогда не придется уничтожать информацию, поскольку она вас просто не волнует.
@CJDennis, это хорошая идея, и мне потребовалось некоторое время, чтобы понять, почему она не работает. Допустим, вы собрали куб и теперь хотите выгрузить «отходы» информации о его начальном состоянии в фиктивный куб. Если фиктивный куб находится в известном состоянии (например, уже решен), вы можете просто «обменять» информацию в памяти на состояние фиктивного куба, очистив память. Но если вы (разработчик машины) не знаете состояние фиктивного куба, то это не работает; есть 2 65 биты неизвестной информации в памяти, и другое 2 65 биты в фиктивном кубе - все это не может быть сжато в куб.
...так что, если у вас есть неисчерпаемый запас изначально решенных фиктивных кубов, вы можете бесконечно решать кубы, перенося их скрэбл в фиктивные кубы - но с одним фиктивным кубом вы не можете решить более одного другого куба.
@Nathaniel Если каждое движение поворачивает одно лицо на 90, 180 или 270 градусов, разве вы не можете сохранить эту информацию в фиктивном кубе, повернув его в противоположном направлении? Если это так, то не имеет значения, каково начальное состояние фиктивного куба или в каком порядке вы делаете ходы на других кубах. Вы можете чередовать ходы или каждый раз выбирать случайный куб для перемещения. Вы бы эффективно выполнили XOR состояния каждого куба на фиктивном кубе.
@CJDennis XOR является обратимой операцией только в том случае, если вы также сохраняете один из ее входов. Зная только конечное состояние фиктивного куба, вы не можете реконструировать начальное состояние более чем одного входного куба, поэтому информация была потеряна.
@Nathaniel Информация была потеряна или зашифрована? Если я XOR 10 8-битных значений вместе, вы никогда не получите ни одно из них с какой-либо уверенностью, если вы уже не знаете по крайней мере 9 исходных значений. Если вы знаете любую девятку, вы всегда можете восстановить десятую.
@CJDennis, в этом и суть - информация не в результате XOR, а в корреляциях между результатом и входными данными. Если вы сохраните все входные данные, кроме одного, у вас все еще будет информация, но если вы удалите более одного из входных данных, у вас ее не будет. Таким образом, вы не можете использовать XOR для хранения информации о начальном состоянии более чем одного входного куба в одном «фиктивном» кубе, потому что решение входных кубов стирает входные данные для XOR.
@Nathaniel Итак, исходное решение работает только потому, что вы «знаете», что начальное состояние фиктивного куба было решено?
@CJDennis Я не уверен, что вы подразумеваете под «оригинальным решением». Вы имеете в виду случай, когда один входной куб можно решить, перенеся информацию о его начальном состоянии на фиктивный куб? Это действительно может работать только в том случае, если машина спроектирована исходя из предположения, что фиктивный куб имеет определенное начальное состояние. В противном случае будет по крайней мере два разных входа, которые идут к одному и тому же выходу (где «вход» включает в себя состояние куба, который нужно решить, и состояние фиктивного куба), поэтому его нельзя реализовать без шага стирания информации. что бы выделять тепло.

В принципе я согласен с вашим анализом, но не согласен с выводом. С алгоритмической точки зрения вы можете решить куб, не затрачивая тепла, пока информация не будет потеряна. Таким образом, в принципе у вас может быть дополнительный куб в известном состоянии, который вы затем трансформируете в тандеме с кубом, который пытаетесь решить. Начальное состояние первого куба затем кодируется в конечное состояние второго куба. В области обратимых вычислений второй куб представляет собой вспомогательную переменную.

Конечно, но вопрос в том, если мы не собираемся записывать информацию на второй куб (или где-либо еще), можем ли мы тогда обосновать вывод, что машина должна выделять тепло?
Дело в том, что это необратимо. Если вы хотите избавиться от трения и т. д., в какой-то момент ваш абстрактный кубик Рубика просто станет набором кубитов. Однако я не думаю, что принцип Ландауэра был доказан для общего представления информации.

На самом деле я прочитал заголовок по-другому, поэтому позвольте мне ответить на другой вопрос: каковы минимальные термодинамические требования для решения куба? Теперь, если вы проанализируете начальную позицию (что сделали некоторые алгебраисты), то вы знаете, сколько ходов требуется для решения. Если вы сделаете взвешенную сумму по всем начальным состояниям, т.е. взвешенную по количеству ходов к решению из каждого состояния, вы быстро найдете ожидаемую энергию (в «единицах хода»), стандартное значение. Дев и др.

Я думаю, это более скучно, чем предполагалось в вопросе :-( .

Предположим, я построил машину, которая будет получать кубики Рубика, перемешанные в одну из ~ 2 65 возможные положения куба, выбранные равномерно случайным образом. Может ли машина собирать кубики без выделения тепла?

Если под "отдачей тепла" вы подразумеваете превращение механической/электрической энергии во внутреннюю энергию, то на практике нет - в реальных машинах всегда есть некоторое трение и рассеяние механической/электрической энергии. Чрезвычайно трудно полностью предотвратить это, если есть какое-то движение.

Теоретически, если бы мы могли построить машину, которая преобразует куб без рассеивания энергии (подчиняясь обратимой механике, где нет тепла, или работая с незначительным количеством энергии (медленно)) тогда я думаю, что ответ будет положительным, поскольку существуют алгоритмы для решения задачи Рубика. куб, и я не вижу причин, по которым эти алгоритмы нельзя было бы запустить на такой машине. Хотя я не уверен.

Можно подумать, что решение куба состоит из уничтожения около 65 битов информации, потому что для описания состояния куба перед входом в машину требуется 65 бит, а для описания его после этого требуется ноль битов (поскольку известно, что он решается).

Если под «уничтожением информации» вы подразумеваете «восстановление куба в решенном состоянии и сброс машины в состояние готовности», то я согласен; в том смысле, что после решения куба информацию о начальном состоянии куба больше нельзя получить из него.

Однако позвольте мне уточнить один момент, который часто сбивает с толку; физическое состояние не является информацией. Использование термина «информация уничтожается» сбивает с толку анализ, потому что процесс фактически приводит к увеличению информации о кубе; мы не знали начального состояния, но в конце концов знаем, что оно решено.

Вот почему важно различать физическое состояние куба и информацию о состоянии куба. При этом разрушается не информация, а исходное физическое состояние; информация действительно увеличивается.

Конечно, информацию о начальном состоянии можно получить из состояния машины или ее окружения.

... по принципу Ландауэра мы могли бы ожидать, что машина должна выделять теплоту Т д С ~ 65 Т к Б п ( 2 ) , но допустимо ли применять принцип Ландауэра к информации, хранящейся таким образом?

Нет.

При сбросе машины действием среды информационная энтропия машины+куба уменьшается. Если бы информационная энтропия была тем же самым, что и термодинамическая энтропия , и весь процесс можно было бы разумно описать как обратимый термодинамический процесс, то можно было бы думать, что он сопровождается отдачей теплоты в окружающую среду, поскольку Клаузиус показал, что в таком случае Δ С т час е р м о д у н а м я с знак равно д Вопрос / Т .

Но это совсем не тот случай. Даже если предположить, что информационная энтропия среды увеличивается в результате процесса, этого самого по себе недостаточно, чтобы сделать вывод, что то же самое делает и термодинамическая энтропия. Это может быть даже неприменимо к окружающей среде. Если это так, то весь процесс все еще может происходить с передачей сколь угодно малой энергии, поэтому невозможно установить нижнюю границу количества тепла.

Я не понимаю, почему люди так верят и с энтузиазмом относятся к принципу Ландауэра. Понятия температуры, теплообмена и термодинамической энтропии имеют ограниченную применимость, и их областью применения является термодинамика макроскопических систем. Нет смысла усложнять описание вычислительных процессов, используя только ограниченные термины термодинамики или статистической физики.

Какой аргумент нужен, чтобы сказать, что определенный тип информации имеет физический смысл, так что для его уничтожения необходимо заплатить энтропийную цену где-то еще?

Я не уверен, почему вы используете выражение «физически значимый». Информация не является физическим свойством тел. Это нефизическое понятие. Изначально информация находится в уме. Затем оно может быть закодировано в физическое состояние другого тела, такого как книга, жесткий диск или кубик Рубика, но для преобразования состояния в информацию все равно нужен разум.

Однако правдоподобна энтропийная стоимость, то есть информационная энтропийная стоимость. После взаимодействия среды с системой неизвестного состояния (кубиком Рубика) объем имеющейся у нас информации об окружающей среде, скорее всего, уменьшается. Это означает, что информационная энтропия (наше незнание состояния окружающей среды) увеличивается, поэтому и цена.

Однако я хотел бы повторить здесь, что нет прямого следствия изменения термодинамической энтропии (или выделения тепла) ни в одной из этих систем.

Информационная энтропия и термодинамическая энтропия — очень разные понятия, и между их изменениями нет общепризнанной корреляции. Только в термодинамически обратимом термодинамическом процессе они соответствуют друг другу. Совсем не обязательно, чтобы среда подвергалась такому процессу, как машина собирает кубик Рубика.

«Понятия температуры и энтропии имеют ограниченное применение, и их надлежащая область использования - (статистическая) термодинамика. Нет необходимости описывать компьютер в терминах этой схемы». Возможно, в этом нет необходимости , но вопрос в том, к каким выводам вы придете, если решите описать это в этих терминах. Если вы используете расположение квадратов на кубе и состояние памяти компьютера как макропеременные для описания макросостояния (возможно, наряду с другими, такими как температура), то если система гарантированно в конечном итоге окажется с одним и тем же значением этих переменных ,
(продолжение), что подразумевает, что некоторая комбинация макросостояний куба, решающего куб компьютера и окружающей среды должна иметь более высокую множественность (следовательно, более высокую энтропию), чем исходные макросостояния, предположительно из-за повышения температуры. См. мои комментарии к сообщению Натаниэля о сохранении объема в фазовом пространстве для рассуждений.
Это очевидный момент, который не был целью вопроса. Что делать, если компьютеру нужно решить очень большое количество кубов, а памяти недостаточно для их хранения?
Я переформулировал и расширил ответ.
@MarkEichenlaub: я не уверен, что это так очевидно, поэтому я думаю, что было бы неплохо выразить это в ответе. Если на машине недостаточно памяти, ее необходимо сбросить до того, как будет решен следующий куб. Так что в игру вступает окружающая среда - см. выше.
@Hypnosifl: Я думаю, что нет смысла использовать термодинамику и макропеременные, такие как температура и термодинамическая энтропия, для описания чисто механического процесса, даже если можно применить информационную энтропию, поэтому я так сказал. Я не вижу смысла вводить макропеременные, когда микропеременные необходимы для определения и обсуждения деталей процесса. Правда, это можно сделать для куба, в большей степени для компьютера и, может быть, для какой-то ограниченной модели среды. Я просто не вижу смысла в этом. Но я могу ошибаться.
Но дело не в том, чтобы дать реалистичную оценку тепла, выделяемого механическим процессом, а просто в том, чтобы с помощью статистической механики показать, что существует абсолютная нижняя граница энтропии, которая может быть произведена любым процессом этот тип (тот, в котором макропеременные, связанные как с расположением куба, так и с памятью устройства, гарантированно получат известный набор конечных значений независимо от начальных значений). Вы действительно не согласны со статистическим обоснованием такой нижней границы или просто говорите, что это бесполезно на практике?
Кроме того, я бы сказал, что термодинамическая энтропия — это особый тип информационной энтропии — самоинформация это логарифм вероятности данного результата из любого выборочного пространства , которое вы, возможно, захотите использовать, тогда как термодинамическая энтропия макросостояния равна k, умноженное на -log вероятности того, что «результат» системы окажется в конкретном микросостоянии при известном макросостоянии (или kx log общего числа микросостояний). Но вы можете выбрать любой произвольный набор макропеременных для определения своего макросостояния.
@Hypnosifl, информационная энтропия для системы (куб + машина) уменьшается. Вводить информационную энтропию для среды не имеет большого смысла, но если мы это сделаем, и эволюция надсистемы будет гамильтоновой, то общая информационная энтропия останется постоянной. Если информационная энтропия определяется как аддитивная, информационная энтропия среды увеличивается. Это не очень интересно. Это зависит от упомянутых специальных предположений, и даже если это справедливо, это не имеет значения для передачи тепла или термодинамической энтропии.
@Hypnosifl, k-кратный логарифм числа микросостояний - это не термодинамическая энтропия, а особый случай информационной энтропии для случая, когда все состояния равновероятны. При дополнительных предположениях его значение для механической модели термодинамической системы (газ в сосуде) можно сделать пропорциональным термодинамической энтропии для состояний термодинамического равновесия. Но куб, машина и окружающая среда не являются моделями какой-либо термодинамической системы, и нет смысла говорить, что они находятся в состоянии термодинамического равновесия.
Я имел в виду самоинформацию индивидуального результата, а не информационную энтропию H (которая на самом деле является ожидаемой ценностью самоинформации для результата, прежде чем вы узнаете, каков результат). Самоинформация примерно равна длине сообщения, необходимого для передачи результата, с использованием идеальной схемы, такой как кодирование Хаффмана, которое использует меньше символов для более вероятных результатов. В этих терминах стат мех. энтропия макросостояния всего в k раз больше длины сообщения, необходимого для указания микросостояния, при условии, что вы уже знаете макросостояние.
Кроме того, это своего рода вопрос точки зрения, но я бы сказал, что другое определение энтропии в статистической механике, С знак равно к я п я журнал п я , по-прежнему в конечном счете основывается на идее рассмотрения всех микросостояний как равновероятных, так как я понимаю, что вы обычно получаете п я для каждого микросостояния i вашей системы A, предполагая, что она находится в контакте с резервуаром B, и что более крупная комбинированная система (A+B) с равной вероятностью может находиться в любом из своих микросостояний.
Затем, если вы определяете макросостояния для комбинированной (A+B) системы в терминах микросостояний A (каждое макросостояние состоит из всех микросостояний A+B, в которых A находится в одном конкретном микросостоянии), с макросостояниями, определенными таким образом, С знак равно к я п я журнал п я дает k-кратное ожидаемое значение длины сообщения, необходимого для указания макросостояния A+B (или, что то же самое, для указания микросостояния A) без указания полного микросостояния A+B, используя кодирование Хаффмана с предположением, что каждое полное микросостояние для A+B равновероятно.
Окончательно, С знак равно к журнал Ом может быть взято как определение энтропии макросостояния, которое все еще применимо, даже если система выходит из равновесия. Затем идея состоит в том, чтобы использовать теорему Лиувилля, которая говорит, что динамика должна сохранять объем в фазовом пространстве. Если у вас есть ансамбль микросостояний в момент времени t0, которые все находятся в одном из некоторого набора макросостояний A1, A2, …, An, они не могут все эволюционировать в микросостояния, которые все являются членами макросостояний B1, B2, …, Bm в момент времени t1 если сумма энтропий второго набора меньше суммы энтропий первого набора,
(продолжение), так как это означало бы, что ансамбль уменьшил свой объем в фазовом пространстве. Вы не согласны с тем, что это логическое следствие теоремы Лиувилля? Это тип аргумента, используемый здесь , например, для вывода принципа Ландауэра. Я полагаю, что вы также можете использовать подобный аргумент, чтобы сделать вывод о том, что изолированная система, начиная с макросостояния, далёкого от равновесия, скорее всего, будет развиваться в направлении макросостояний с более высокой энтропией, см. раздел 2 здесь .

В зависимости от того, насколько широко вы интерпретируете идею кубика Рубика, квантово-механическая версия не требует тепла ни для рандомизации, ни для решения. Предположим, у нас есть виртуальный куб, состояние которого представлено 65 кубитами. Желательно, чтобы разные состояния системы имели очень низкую связь, но на практике она должна быть, поэтому система, которая начинается в базисном состоянии, где каждый бит имеет определенное значение, в конечном итоге разовьется в суперпозицию. Чтобы рандомизировать систему, мы ждем очень долгое (но случайное) время, а затем читаем кубиты. Затем мы проводим серию унитарных операций, чтобы вернуть кубиты в состояние | 0 , 0 , 0...0 , представляющий решенный куб. Поскольку в принципе ни одна из операций не требует энергии, термодинамические затраты отсутствуют.

Кубик Рубика может хранить информацию. Информация может быть изменена. Кубик Рубика — это запоминающее устройство. Изменение одного бита информации в кубике Рубика требует не менее энергии kT ln 2. Это принцип Ландауэра.

Энергия изменения бита в кубике Рубика становится тепловой энергией кубика Рубика.

Этому же закону подчиняется и виртуальный кубик Рубика в памяти компьютера.

Я не согласен с этим. Состояние кубика Рубика можно изменить (в принципе) с помощью унитарной операции, не требующей затрат энергии. Переход между чистыми состояниями не требует затрат энергии. Но рандомизация состояния (удаление информации) требует энергии. Это принцип Ландауэра, см. ответ Натаниэля.
Вы перезаписываете старую информацию, когда храните бит в кубике Рубика. Кубик Рубика — необратимое устройство. Чтобы сделать кубик Рубика обратимым, нужно изменить кубик Рубика, точно так же, как ноутбук нужно довольно сильно изменить, если мы хотим сделать из него обратимый компьютер.
Обычный физический кубик Рубика, конечно, необратим. Однако я не вижу в принципе ничего, что мешало бы вам сделать его с очень малым трением и изменить конфигурацию квазистатически, что, очевидно, требует исчезающе малого количества энергии.
Тепловые вибрации будут рандомизировать кубик Рубика с низким трением во время попытки медленного письма ... Но посмотрите ответ lionelbrits.
Конечно, тогда вам придется делать это при нулевой температуре. Или, если угодно, при такой температуре, что / к Б Т намного дольше, чем время, необходимое для записи.