Почему информация неуничтожима?

Я действительно не могу понять, что имеет в виду Леонард Сасскинд, когда говорит в видео « Леонард Сасскинд о мире как голограмме» , что информация неразрушима.

Действительно ли можно восстановить ту информацию, которая потеряна из-за увеличения энтропии?

Он сам говорил, что энтропия — это скрытая информация. Затем, хотя скрытая информация имеет измеримые последствия, я думаю, что информация, потерянная в результате необратимого процесса, не может быть восстановлена. Однако утверждение Сасскинда совершенно противоположное. Как понять потерю информации процессом возрастания энтропии и его связь с утверждением «информация неуничтожима».

В ответах можно использовать физику черных дыр, но, поскольку он предлагает общий закон физики, я бы предпочел ответ, не связанный с черными дырами.

Информация теряется для нашего восприятия, но она все еще существует во Вселенной.
Это связано с унитарностью эволюции КМ.
Это очень расплывчато и невозможно ответить. Это основано на популяризации?
Я думаю, он имеет в виду, что эволюция времени обратима ... другими словами, +1 комментарий @Raskolnikov.
@BenCrowell HDE публикует ссылку, по которой, как я предполагаю, Сасскинд делает заявление или, по крайней мере, одно из ОП отображает как сообщение.
Говоря простым языком, как я понимаю, согласно КМ мы можем описать мир с помощью волновой функции. Уравнение движения этой волновой функции обратимо, поэтому, если вы знаете волновую функцию в какой-то момент времени, вы можете использовать уравнение эволюции волновой функции, чтобы предсказать, какой будет волновая функция в будущем или в прошлом.
Микроскопические законы физики обратимы, необратимость появляется только за счет огрубления до большего эффективного масштаба, но микроскопическая информация не теряется. Таким образом, единственный контекст, в котором остается вопрос, может ли информация быть уничтожена, находится в контексте черных дыр, о которых ОП не хочет слышать. Но даже в этом случае проблема была решена, как можно прочитать, например, в [многих] (информация о черной дыре сайта: motls.blogspot.com) статьях TRF.
Однако не предполагает ли это решение все еще нерешенной проблемы интерпретации квантовой механики? В частности, что представляет собой «реальное» состояние Вселенной между наблюдениями/измерениями и, кроме того, наблюдаемый в них «коллапс волновой функции» (в частности, сведение многих возможностей к одной) является субъективным, а не объективным. (т.е. реальное физическое удаление «настоящих» веток)?
У него есть несколько книг (серия «Теоретический минимум») и онлайн-лекции по статистической механике, посвященные этим концепциям. В основном он рассматривает унитарные преобразования в КМ и теорему Лиувилля в классической механике как варианты сохранения информации. Под «скрытой информацией» он имеет в виду грубую энтропию и интерпретацию Джейн ее как недоступной информации.

Ответы (8)

Как утверждение «информация неуничтожима» совместимо с «информация теряется в энтропии»?

Давайте сделаем вещи как можно более конкретными и простыми. Давайте забудем о квантовой физике и унитарной динамике, давайте поиграем с очень простыми обратимыми клеточными автоматами.

Рассмотрим пространство-время, состоящее из квадратной решетки ячеек с заданным на ней троичным (3-значным) полем. Значения имеют цветовую кодировку, поэтому ячейки могут быть желтыми, оранжевыми и красными. «Уравнения поля» состоят из набора разрешенных раскрасок для каждого блока ячеек 2x2:

введите описание изображения здесь

Всего разрешено 27 локальных цветовых узоров. Они определены таким образом, что когда три из четырех квадратов окрашены, цвет четвертой ячейки определяется однозначно. (Проверь это!)

Уравнения поля не содержат «направления эволюции». Так как же определить времяподобное направление? Предположим, что, глядя «на север» или «на запад» по направлениям решетки, вы попадаете на горизонт, за которым простирается бесконечное море желтых квадратов:

введите описание изображения здесь

«Север» и «Запад» мы называем «лучами света из прошлого». Эти два луча ячеек составляют «моментальный снимок» Вселенной, сделанный из пространственно-временной точки, определяемой пересечением двух лучей. Учитывая этот «моментальный снимок» и используя уравнения поля (разрешенные раскраски 2x2), мы можем начать реконструировать прошлое:

введите описание изображения здесь

Здесь правило, применяемое для окрашивания ячейки, следует из квадрата внизу центрального столбца в обзоре 27 разрешенных квадратов 2x2. Это единственный шаблон 2x2 из 27, который соответствует заданным цветам справа, снизу и справа внизу от окрашиваемой ячейки. Идентифицируя этот шаблон 2x2 как однозначно соответствующий предоставленным цветам ячеек, верхний левый цвет становится фиксированным.

Продолжая таким образом, мы получаем полное прошлое вселенной до любой желаемой точки:

введите описание изображения здесь

Мы замечаем, что построили полное прошлое, зная раскраски «световых ячеек» в «моментальном снимке», которые, исключая однородное море за горизонтом, насчитывают не более 25 ячеек. Мы идентифицируем это количество как энтропию (количество тритов ), наблюдаемую из точки, где встречаются два световых луча. Обратите внимание, что в более поздние времена энтропия больше: эта простая модель соблюдает второй закон термодинамики.

Теперь обращаем динамику вспять, и происходит интересная вещь: зная всего 9 цветовых значений световых лучей в будущее (опять же без учета однородного моря за горизонтом):

введите описание изображения здесь

Мы можем реконструировать полное будущее:

введите описание изображения здесь

Мы называем эти 9 тритов, которые определяют полную эволюцию этой вселенной клеточных автоматов, «информационным содержанием» вселенной. Очевидно, что 25 триллионов энтропии действительно содержат 9 триллионов информации. Эта информация присутствует, но «скрыта» в энтропийных тритах. Энтропия в этой модели будет продолжать расти. 9 тритов информации остаются постоянными и скрытыми (но извлекаемыми) из все большего числа тритов энтропии.

Обратите внимание, что ни одно из сделанных наблюдений не зависит от деталей «уравнений поля». На самом деле, любой набор разрешенных раскрасок 2x2, однозначно определяющий цвет оставшейся ячейки при заданных цветах трех ячеек, приведет к одним и тем же наблюдениям.

На основе этой игрушечной модели можно сделать еще много наблюдений. Одной из очевидных особенностей модели является то, что она демонстрирует не «большой взрыв», а скорее «большой отскок». Кроме того, информационное содержание (9 тритов в приведенном выше примере), определяющее эту вселенную, значительно меньше, чем более поздняя энтропия (которая неограниченно растет). Это прямое следствие присутствия в модели «прошлого горизонта». Кроме того, несмотря на то, что «уравнения поля» в этой модели полностью обратимы, сделанный «моментальный снимок» позволяет вам реконструировать полное прошлое, но не будущее. Эту «стрелу времени» можно обойти, реконструируя прошлое за пределами «большого скачка», когда прошлое и будущее меняются ролями, и на основе сделанной реконструкции можно получить новый снимок.

Эти наблюдения, однако, выходят далеко за рамки заданных вопросов.

Этот пост звучит так круто, но за ним немного сложно следить... Можете ли вы сделать часть реконструкции более конкретной? Откуда берутся некоторые цифры?
Если «энтропия» — это «скрытая информация», то не должна ли энтропия быть 9 тритов, а не 25? 9 тритов явно скрыты.
@Peter - правильно, информация скрывается в энтропии. В представленном CA энтропия — это количество тритов, которое увеличивается (25 на данном временном шаге и увеличивается на два на каждом временном шаге). Информация, скрытая в энтропии, не превышает 9 тритов. PS. поправили наводящий вопрос.
@kηives — добавили цифру, чтобы сделать динамику реконструкции более явной. Это помогает?
Хотя ответ WIMP напрямую касался вопроса, я нашел эту игрушечную модель очень интересной и иллюстрирующей некоторые основные идеи.
Спасибо, Пратьюш. И спасибо за оживление этой темы. Было весело разрабатывать эту игрушечную модель и превращать ее в «вселенную с растущей энтропией».
Хотя ваш пример очень красивый и оригинальный, у меня другое мнение по этому поводу. Я думаю, что «начальное состояние» соответствует всем верхним и левым полям, а «конечное состояние» соответствует всем правым и нижним полям. «Информация» сохраняется просто потому, что во всех ящиках есть цвета, и это возможно благодаря «единым» правилам автоматического сотового, которые всегда позволяют нам присвоить цвет каждому ящику.
Мы могли бы определить «энтропию» для начального и конечного состояний, приняв во внимание, что вероятность того, что состояние а окрашено в какой-то цвет, равна количеству ящиков этого цвета, деленному на общее количество ящиков (25), для рассматриваемое состояние и вычислить энтропию Шеннона. «энтропия» увеличилась, а «информация» сохраняется.
Такое классное объяснение!!! Однако в модели числа частиц в ящике по Авогадро, хотя ньютоновская динамика определенно детерминистична, реконструкция начального состояния по снимку, сделанному в гораздо более позднее время, почти невозможна, и наша способность сделать это ограничена. А показатель Ляпунова?
@Johannes - Лучше на 4 года позже, чем никогда. :) Как вы придумали свои клеточные автоматы!?! Меня это так увлекло, что я создал электронную таблицу, чтобы поиграть с ней. Как я уверен, вы знаете, что расширение модели выше в прошлое или будущее приводит к ковру Серпинского (SC)! Я погуглил, чтобы узнать, создал ли кто-нибудь SC, используя что-то вроде ваших 27 плиток 2x2, но ничего не нашел. Не могли бы вы рассказать немного больше о том, как вы придумали этот клеточный автомат на основе плиток и почему вы думаете, что он применим к сохранению информации и энтропии? С удовольствием поделюсь своей таблицей, если кому интересно.
Поскольку я не получил ответа от @Johannes, я чувствую себя обязанным публично критиковать его ответ, не имея возможности сначала обсудить с ним свои опасения. Как я уже отмечал выше, шаблоны и правила, которые он вводит, определяют клеточный автомат, создающий шаблон, известный как ковер Серпинского. Вот изображение, сгенерированное из правил: Ковер Серпинского . Я не думаю, что детерминированное создание изображения из набора правил и исходного шаблона действительно проливает свет на проблему.

Я не знаю, в каком контексте Сасскинд упомянул об этом, но он, вероятно, имел в виду, что эволюция во времени унитарна. Это означает, среди прочего, что оно обратимо, т. е. никакая информация не может быть потеряна, потому что вы можете, по существу, начиная с любого момента времени (времяподобного среза), запустить время в обратном направлении (теоретически) и вычислить, что произошло раньше.

Если бы эволюция черной дыры действительно была идеально тепловой, она нарушила бы унитарность, и информация действительно была бы потеряна. Сасскинд, я полагаю, думает, что это не так.

Что я пытался подчеркнуть в своем вопросе, так это тот факт, что на практике вы не можете его вычислить , и я говорю не только о невозможности «вычислить измерения», но даже для квантового состояния (достаточно сложной реальной системы), потому что это должно быть указано, тогда вам потребуются измерения для начала, поэтому все состояние не будет вычислимым. Утверждение «информация неуничтожима» — странное, я хотел бы понять, к чему оно относится. Мой вопрос в том, как «гипотетическая информация», не подлежащая восстановлению каким -либо образом, может все еще называться информацией?
Я думаю, вы слишком много вчитываетесь в слова. Как я уже сказал, я предполагаю, что он, вероятно, просто говорил об унитарности.

Предупрежу, что я не теоретик струн, и поэтому работа Засскинда не совсем мне знакома (и, вероятно, я бы не понял ее, если бы она была), поэтому я не полностью знаю контекст (предполагаемой цитаты о том, что энтропия есть скрытая информация).

Но то, что он, возможно, имеет в виду под «скрытой» информацией, является одним или обоими из двух: первое теоретическое, второе практическое:

  1. Колмогоровская сложность К ( Ом ) для данной системы Ом (точнее: сложность однозначного описания системы) в общем случае невычислима . К ( Ом ) связано с понятием энтропии Шеннона С С час а ( Ом ) (см. сноску);
  2. И колмогоровская сложность системы, и энтропия Шеннона маскируются от макроскопических наблюдений статистическими корреляциями между микроскопическими компонентами систем: термодинамические системы, измеримая энтропия С е Икс п ( Ом ) (обычно это больцмановская) равна истинной энтропии Шеннона С С час а ( Ом ) плюс любая взаимная информация М ( Ом ) (логарифмическая мера статистической корреляции) между компонентами системы: С е Икс п ( Ом ) знак равно С С час а ( Ом ) + М ( Ом )

Надеюсь, следующие объяснения покажут вам, почему эти представления о «скрытом» никоим образом не связаны с «разрушением» или даже «невосстановимостью».

Колмогоровская сложность системы — это размер (обычно измеряемый в битах) наименьшего возможного описания состояния системы. Или, как замечательно выразился пользователь @Johannes: это минимальное количество вопросов «да/нет», на которые нужно было бы ответить, чтобы однозначно указать систему. Даже если вы можете однозначно и точно описать состояние системы, в общем случае не существует алгоритма, позволяющего решить, может ли более сжатое описание быть эквивалентным. См., например, обсуждение теоремы о невычислимости колмогоровской сложности в Википедии . Таким образом, в этом смысле истинная энтропия вещи скрыта от наблюдателя, даже если вещь и ее совершенное описание полностью наблюдаемы им.

Вот вам и скрытность энтропии (количества информации). Но как насчет самой информации? Невычислимость колмогоровской сложности также имеет отношение к этому вопросу: учитывая, что количество энтропии, описывающее состояние системы, невычислимо, в общем случае нет способа сказать, было ли состояние этой системы обратимо закодировано в состояние дополненной системы, если наша исходная система сливается с другими системами: другими словами, более применимыми к черным дырам словами: нет алгоритма, который мог бы сказать, закодировано ли состояние нашей исходной системы в состоянии какой-то другой системы, которая поглотила первую.

Для обсуждения второго пункта, т.е. чем отличаются экспериментально измеренная энтропия и колмогоровская сложность, см. мой ответ здесь . Я также обсуждаю там, почему информация не может быть уничтожена в некоторых простых ситуациях, а именно: если соответствующие законы физики обратимы. , тогда

Мир должен каким-то образом помнить, как вернуться в любое состояние, из которого он развился (сопоставление между состояниями системы в разное время — взаимно однозначное и обратное).

Это более общий способ описания унитарной эволюции, данного в других ответах.

Послесловие : Чарльз Беннет в своей статье «Термодинамика вычислений — обзор» выдвигает интригующую и удовлетворительную теорию о том, что причина, по которой физико-химики не могут придумать безотказный алгоритм вычисления энтропий молекул, с которыми они имеют дело, заключается именно в этом. теорема о невычислимости (обратите внимание, что не исключены алгоритмы для определенных конкретных случаев, поэтому теорема не может доказать, почему физические химики не могут вычислять энтропию, но она весьма правдоподобна в том же смысле, в каком можно сказать, что одна из причин, почему отладка программное обеспечение — трудная проблема, заключается в неразрешимости теоремы Тьюринга о проблеме остановки).

Сноска : энтропия Шеннона — это понятие, более применимое к системам, которые рассматриваются как принадлежащие стохастическому процессу, когда имеется подробное статистическое описание процесса. Колмогоровская сложность, напротив, больше относится к «описаниям», и для полного определения необходимо определить язык описания. К ( Ом ) . Как именно они связаны (или даже имеют ли какое-либо значение) в таких вопросах, как те, которые рассматриваются в информационном парадоксе черной дыры, — это вопрос, ответ на который, вероятно, ожидает дальнейшей работы за пределами «взглядов» физического сообщества (как указано в другом ответе) о том, является ли или не информация переживет основную материю и энергию, выброшенные в черную дыру.

Еще одна сноска (26 июля, 13): См. также страницу Википедии о парадоксе Берри и замечательный доклад Грегори Чайтина под названием «Парадокс Берри», сделанный на коллоквиуме «Физика и информатика» в Университете Нью-Мексико. Парадокс Берри знакомит (хотя и не полностью, но в обыденных словах) с зачатками идей, лежащих в основе Колмогоровской Сложности, и действительно приводит Чайтина к его самостоятельному открытию Колмогоровской Сложности, хотя неформализованный Парадокс Берри на самом деле неоднозначен. В докладе также приводится несколько острых небольших примеров личного общения с Куртом Гёделем.

Редактировать 2 августа 2013 г. Ответы на вопросы Пратьюша :

Я не мог понять связь между термодинамической энтропией и колмогоровской сложностью. Пожалуйста, прокомментируйте это. Особенно часть «Значит, в этом смысле истинная энтропия вещи скрыта от наблюдателя, хотя вещь и ее совершенное описание вполне наблюдаемы им». Если вы знаете точное состояние системы, то в энтропия в физике равна нулю, можем ли мы упростить описание не укладывается в картину

Сначала попробуем разобраться

Если известно точное состояние системы, то в физике энтропия равна нулю, можем ли мы упростить описание не укладывается в картину

На самом деле вопрос о том, возможно ли упрощение, является центральным для настоящей проблемы. Предположим, наше описание нашей системы Ом является Н Ом биты длинные. Кроме того, предположим, что мы очень усердно работали, чтобы получить как можно более короткое полное описание, поэтому мы надеемся, что Н Ом где-то рядом с колмогоровской сложностью К ( Ом ) < Н Ом . Появляется еще одна система «глотателя». Σ , который мы очень тщательно изучаем, пока не получим то, что, по нашему мнению, является полным описанием Σ , который Н Σ биты длинные. Опять же, мы считаем, что Н Σ рядом Σ Колмогоровская сложность К ( Σ ) < Н Σ глотатель Σ поглощает систему Ом - так что две системы сливаются в результате какого-то физического процесса. Теперь мы очень внимательно изучим нашу объединенную систему и обнаружим, что каким-то образом мы можем получить полное описание, длина которого Н Ом Σ намного короче, чем Н Ом + Н Σ биты длинные. Можем ли мы сказать, что процесс слияния был необратим, в том смысле, что если бы мы прогнали время вспять, исходное, разделенное Ом а также Σ не появится вновь? Дело в том, что мы не можем, даже если Н Ом Σ Н Ом + Н Σ . Почему? Потому что мы никогда не можем быть уверены, что действительно нашли самые короткие описания Ом а также Σ . Нет никакого способа сказать, является ли К ( Ом ) знак равно Н Ом , К ( Σ ) знак равно Н Σ .

В конечном счете, здесь речь идет о вопросе о том, являются ли временные эволюции в физике взаимно однозначными функциями, т. е. если задано конечное состояние системы, всегда ли это недвусмысленно подразумевает уникальное начальное состояние? Наша главная главная проблема здесь заключается в том, простите за некоторую витиеватость речи, что мы не знаем, как Природа кодирует состояния своих систем. Образно говоря, схема кодирования и кодовая книга — это то, над чем работают физики. Колмогоров Предполагается, что здесь уместна сложность или связанные с ней концепции, поскольку предполагается, что если кто-то действительно знает, как работает Природа, то он знает, что такое максимально сжатое (в информационно-теоретическом смысле) конфигурационное пространство для данной системы и, следовательно, кратчайшее возможное описание системы' Состояние — это число, обозначающее, в какой из точек конфигурационного пространства находится конкретная система. Если количество возможных точек в конечном конфигурационном пространстве — конечной колмогоровской сложности (по модулю аддитивной константы) — меньше, чем количество возможных точек в начальном пространстве, то можно сказать, что в общем случае процесс уничтожает информацию, потому что два или более начальные состояния отображаются в конечное состояние. Нахождение скрытого порядка в кажущемся случайным поведении — трудная задача: этот факт заставляет криптографию работать. Казалось бы, случайные последовательности могут быть сгенерированы из чрезвычайно простых законов: свидетель тогда мы можем сказать, что в целом процесс уничтожает информацию, потому что два или более начальных состояния отображаются в конечное состояние. Нахождение скрытого порядка в кажущемся случайным поведении — трудная задача: этот факт заставляет криптографию работать. Казалось бы, случайные последовательности могут быть сгенерированы из чрезвычайно простых законов: свидетель тогда мы можем сказать, что в целом процесс уничтожает информацию, потому что два или более начальных состояния отображаются в конечное состояние. Нахождение скрытого порядка в кажущемся случайным поведении — трудная задача: этот факт заставляет криптографию работать. Казалось бы, случайные последовательности могут быть сгенерированы из чрезвычайно простых законов: свидетельБлюм Блюм Шуб или Мерсенн Твистерс . Мы можем наблюдать кажущуюся случайной или иным образом тонкую структуру в чем-то и предположить, что нам нужна чрезвычайно сложная теория, чтобы описать это, тогда как Природа может все время использовать метафорический вихрь Мерсенна и резюмировать изысканную структуру в нескольких битах в Своей кодовой книге!

Теперь попробуем разобраться с:

Я не мог понять связь между термодинамической энтропией и колмогоровской сложностью. Пожалуйста, прокомментируйте это.

Одна из интерпретаций термодинамической энтропии состоит в том, что это приближение к «информационному содержанию» системы или количеству битов, необходимых для полного описания системы с учетом только ее макроскопических свойств. На самом деле ваш комментарий «Я не мог понять связь между термодинамической энтропией и колмогоровской сложностью» — очень хороший ответ на весь этот вопрос! - в целом мы не знаем связи между ними, и это препятствует попыткам узнать, сколько информации действительно требуется для однозначного кодирования состояния системы.

Но в некоторых случаях понятия связаны. Классический пример здесь — Больцман. ЧАС -энтропия для газа, состоящего из статистически независимых частиц:

ЧАС знак равно я п я журнал 2 п я

куда п я есть вероятность того, что частица находится в состоянии номер я . Приведенное выше выражение выражено в битах на частицу (здесь я только что перемасштабировал единицы измерения, чтобы постоянная Больцмана к Б знак равно журнал е 2 ).

Если действительно заполнение состояний частицами действительно случайно и статистически независимо, то с помощью теоремы Шеннона о бесшумном кодировании можно показать , что количество битов, необходимых для кодирования состояний большого числа Н из них именно ЧАС бит на частицу. Это минимальное количество битов в том смысле, что если кто-то попытается построить код, который присваивает ЧАС ϵ бит на частицу тогда, как Н вероятность ошибки кодирования приближается к единице для любого ϵ > 0 . И наоборот, если мы хотим присвоить ЧАС + ϵ , то всегда существует такой код, что вероятность полностью однозначного кодирования стремится к единице при Н для любого ϵ > 0 . Итак, в этом частном случае энтропия Больцмана равна сложности Колмогорова как Н : мы должны выбрать ЧАС + ϵ бит на частицу плюс постоянные накладные расходы для описания того, как работает кодирование на языке, с которым мы работаем. Эти служебные данные, распределенные по всем частицам, приближаются к нулю битов на частицу, поскольку Н .

Когда термодинамическая система находится в «равновесии» и заселение состояний частиц статистически независимо, мы можем подключить распределение вероятностей Больцмана

п я знак равно Z 1 е β Е я

в ЧАС и покажите, что это дает то же самое, что и энтропия Клаузиуса С е Икс п полученные из экспериментальных макросостояний.

Если существует корреляция между заполнениями частиц, аналогичные комментарии в принципе применимы к энтропии Гиббса, если для всех частиц известны совместные распределения вероятностей состояний. Однако совместные распределения вероятностей вообще невозможно найти, по крайней мере, из макроскопических измерений. См. статью « Энтропия Гиббса против энтропии Больцмана » Э. Т. Джейнса, а также многие другие его работы на эту тему). Кроме того, у пользователя Nathaniel из Physics Stack Exchange есть отличная докторская диссертация , а также несколько статей, которые могут представлять интерес. Трудность измерения энтропии Гиббса — еще одна трудность во всей этой проблеме. Я также дал еще один ответ , резюмирующий эту проблему.

Последний способ связать KC с другими концепциями энтропии: вы можете, если хотите, использовать понятие KC, чтобы определить , что мы подразумеваем под «случайным» и «статистически независимым». Руководствуясь теоремой Шеннона о бесшумном кодировании, мы можем использовать ее даже для определения вероятностей. Последовательность переменных является случайной, если нет модели (описания), которую можно использовать для описания их значений, кроме как для обозначения их значений. О степени «случайности» в случайной величине можно думать так: вы можете найти модель, которая в некоторой степени описывает последовательность переменных, но только приблизительно. Более короткое описание случайной последовательности состоит в том, чтобы определить модель и ее граничные условия, затем закодировать эту модель и условия , а такжерасхождения между наблюдаемыми переменными и моделью. Если модель лучше, чем угадывание, это будет более содержательное описание, чем просто полное наименование значений. Переменные являются «статистически независимыми», если нет описания, даже в принципе, которое может моделировать, как значение одних переменных влияет на другие, и, таким образом, наиболее содержательное описание последовательности состоит в том, чтобы назвать все отдельные переменные полностью. Это то, что делают корреляционные функции между случайными величинами, например: знание значения X может быть использовано для уменьшения дисперсии второй коррелированной переменной Y с помощью линейной модели, включающей коэффициент корреляции (я имею в виду, уменьшить дисперсию в условное распределение вероятностей ). Наконец, мы можем перевернуть теорему Шеннона о бесшумном кодировании с ног на голову и использовать ее дляопределить вероятности через КС: вероятность того, что дискретная св. Икс равно Икс является п если имеет место следующее. Возьмите последовательность с.в. и для каждой запишите последовательность значений истинности. Икс знак равно Икс " или же Икс Икс и «найти максимально содержательное описание» (нам понадобится «оракул» из-за невычислимости КК) этой последовательности значений истинности и ее длины в битах и ​​битах на член последовательности. Тогда вероятность «p» — это такое число, что п журнал 2 п ( 1 п ) журнал 2 ( 1 п ) равняется этим битам на член последовательности, поскольку длина последовательности (принятие ограничения улучшает статистические оценки и распределяет служебные данные фиксированной длины при описании схемы кодирования по многим элементам последовательности, так что эти служебные данные не влияют на число битов на член последовательности). Этот подход позволяет обойти некоторые философские минные поля, возникающие даже при определении случайности и вероятности — см . статью Стэнфордского философского словаря «Шанс против случайности» , чтобы узнать об этом.

Наконец :

Если известно точное состояние системы, то в физике энтропия равна нулю

Здесь наши проблемы заключаются в тонких различиях (1) между экземпляром ансамбля систем, все из которых считаются членами одного и того же случайного процесса или «населения», и самим ансамблем, (2) информационной и термодинамической энтропиями и (3) безусловной и условные информационно-теоретические энтропии.

Когда я сказал, что «истинная энтропия вещи скрыта от наблюдателя, даже если вещь и ее совершенное описание полностью наблюдаемы им», ну, конечно, теоретико-информационная энтропия Шеннона, обусловленная полным знанием наблюдателем система ничто. Напротив, термодинамическая энтропия будет одинаковой для всех. Еще одно отличие состоит в том, что теоретико-информационная энтропия для другого наблюдателя, не обладающего полным знанием, отлична от нуля. В данном случае я имел в виду сложность Колмогорова, или количество вопросов «да/нет», необходимых для определения системы из одной и той же базовой статистической совокупности, потому что это количество, если его можно рассчитать до и после физического процесса,

Я надеюсь, что эти размышления помогут вам, Пратьюш, в вашем стремлении понять неразрушимость или отсутствие информации в физике.

Колмогоровская сложность не является «истинной энтропией Шеннона». Это две разные (но связанные) вещи.
@PeterShor Дорогой Питер: еще раз взгляните на обсуждение, пожалуйста. Я борюсь с этими концепциями в подобных ситуациях (особенно имеют ли вероятностные идеи смысл в таких ситуациях, как IP Black Hole), и я не думаю, что я одинок. Я просто пытаюсь донести идею о том, что скрытое — это не то же самое, что уничтоженное или даже невосстановимое, и я не хотел слишком сильно загромождать это другими идеями — эти глубокие обсуждения серьезно проверяют мои способности к техническому письму.
Downvoter: серьезно? Что не так с этим как с объяснением того, как информация может быть скрыта, но не уничтожена? Пожалуйста, укажите причины: мы могли бы узнать что-то от вас. Насколько я понимаю, одной из основных целей этого сайта является обмен знаниями.
Это вопрос о вознаграждении, поэтому более агрессивные отрицательные голоса, вероятно, можно объяснить тем, что люди играют в хардбол более энергично, чем обычно ... :-/
@Дилатон Аааа! Я не заметил предмет щедрости! Я немного медленно соображаю, когда дело доходит до политики. Это заставляет меня чувствовать себя лучше — я подумал, что, возможно, упускаю что-то, что-то замечательное в невычислимости, тему, которая никогда не перестает волновать меня.
Я не мог понять связь между термодинамической энтропией и колмогоровской сложностью. Пожалуйста, прокомментируйте это. Особенно часть «Значит, в этом смысле истинная энтропия вещи скрыта от наблюдателя, хотя вещь и ее совершенное описание вполне наблюдаемы им». Если вы знаете точное состояние системы, то в энтропия в физике равна нулю, можем ли мы упростить описание, не приходит в голову.
@Prathyush я отредактировал, чтобы попытаться ответить на ваши вопросы
@Prathyush Я добавил еще один способ связать KC с другими концепциями энтропии.
Если вы посмотрите на связанное видео Сасскинда, станет совершенно ясно, что он говорит об энтропии Шеннона, а не о колмогоровской сложности.
@PeterShor Интересно. Теперь, когда я ответил (или попытался ответить) на вопросы Пратюша, мне нужно внимательно просмотреть видео. Поправьте меня, если это не так, как вы понимаете, но энтропия Шеннона также скрыта в том смысле, что она такая же, как энтропия Гиббса, полученная из совместного распределения вероятностей частиц, а не из произведения маргинальных распределений (как если бы они были независимый). Сокрытие энтропии Гиббса рассматривается в работах Эдвина Джейнса, которые я цитирую, и в моем бойком изложении вышеприведенного механизма (скрытые или ненаблюдаемые корреляции).
Да... Шенноновская энтропия тоже в этом смысле скрыта.

Как многие здесь говорили, он, вероятно, говорит об унитарности. Сасскинд вторит общему мнению физиков. Я не думаю, что у нас есть (пока) конкретный способ хотя бы точно сформулировать принцип, не говоря уже о каких-либо доказательствах. Но, основываясь на унитарности в квантовой механике и (чего бы это ни стоило) физической интуиции о гравитации, кажется , что разумным было бы сохранение информационного содержания.

Простая иллюстрация этого принципа — теорема о запрете клонирования . Насколько я понимаю, там говорится, что вы не можете уничтожить информацию в регистре (кубит , в который вы не можете скопировать некоторую информацию) способом, совместимым с унитарной эволюцией. Если вам это удалось, то вы сможете инвертировать унитарную эволюцию и сгенерировать информацию из регистра, который вы должны были уничтожить.

Что касается скрытой информации, думайте о ней как о временно скрытой. Когда некоторая информация находится внутри черной дыры, вы не можете получить доступ к этой информации, и черная дыра имеет соответствующую энтропию. Когда черная дыра испаряется, не остается ничего, что могло бы содержать энтропию, так что информация, должно быть, каким-то образом была отправлена, и теперь она не скрыта (по крайней мере, так считается на сегодняшний день). Опять же, я не думаю, что есть конкретные расчеты, чтобы установить это окончательно — в основном потому, что мы плохо разбираемся в квантовой гравитации.

Вкратце : неразрушимость информации — это скорее идеал, к которому стремятся ученые, чем закон природы. Это идеальный вариант, поскольку физические преобразования могут в лучшем случае различать столько же состояний до преобразования, сколько и после него; больше невозможно, а меньше выглядит как возможность для улучшения.


Проще говоря, мы знаем, что не можем получить информацию без измерения/наблюдения. Таким образом, лучшее, что может сделать физическая модель, — это сохранить информацию.

Например, если о физической системе известно 10 битов информации и больше никакой информации не получено (например, посредством измерений), то ни в каком гипотетическом типе физики строго невозможно когда-либо иметь более 10 битов информации о физической системе. после любого преобразования, например, после перемещения вперед или назад во времени.

Напротив, легко потерять информацию. На самом деле, если кто-то просто забывает то, что он знает о физике, то даже идеальные ньютоновские системы теряют 100% информации, поскольку невозможно предсказать их эволюцию. (Стоит отметить, что информация является свойством модели, а не самой вселенной, поэтому разные наблюдатели могут воспринимать разные утечки информации.)

Итак, идеальная сохранность информации. Всякий раз, когда нам не удается сохранить информацию, мы не можем быть уверены, что наши модели завершены. Тогда утверждение о том, что информация неразрушима, в основном является идеалистическим требованием, чтобы законы физики достигли этой теоретической оптимальности.

В качестве идеала стоит отметить, что это не обязательно практическая истина. Мы можем построить гипотетические законы физики, которые практически не сохранят информацию; если что-то из этого произойдет, то утверждение о нерушимости информации останется нереализованным.

Несмотря на это, системы, которые, как представляется, теряют информацию, являются явными целями для ученых по двум важным причинам:

  1. Любое предсказание, которое можно сделать на основе « потерянной » информации, представляет собой новое открытие.

  2. Большинство современных законов физики предназначены для сохранения информации, поэтому они являются готовыми инструментами для атаки на систему с потерями.

Материал черной дыры является примером второго пункта. Если кажется, что черные дыры пропускают информацию, в то время как современные теории этого не делают, то это похоже на прекрасную возможность атаковать модели черных дыр с помощью других теорий и посмотреть, что из этого получится.

Это лучший ответ здесь, и он действительно подходит к корню вопроса. Короче говоря, ученые надеются , что информация неуничтожима, и связывают себя теоретическими узлами, пытаясь сохранить эту возможность.
Да, кажется, что энтропия очень связана с неравенством обработки данных ( en.m.wikipedia.org/wiki/Data_processing_inequality ). Кто-нибудь захочет уточнить? Я не очень хорошо разбираюсь в теории информации и только в зачаточном состоянии.
@JonathanJeffrey: Это определенно забавная тема. Что вы искали для разработки? Кстати, спасибо за ссылку на статью в Википедии о неравенстве обработки данных !

Куча людей ответила, но с очень сложными вещами. Поэтому я собираюсь ответить некоторыми гораздо более понятными и забавными вещами...

Во-первых, Сасскинд думает, как и многие люди, что физические законы обратимы, и поэтому само собой разумеющееся, что информация не может быть потеряна, иначе вы не сможете обратить вещи вспять.

И когда он говорит, что информация не теряется, он имеет в виду теоретически, относящуюся ко всей вселенной с богоподобным состоянием знания, а не к какому-то конкретному человеку.

Тогда возникает вопрос, что именно вы подразумеваете под энтропией. Энтропия — это информация в системе, которую вы не знаете. Например, в ванне с водой обычные наблюдения могут включать температуру, давление и объем, но в состояниях всех молекул воды, их движениях и режимах колебаний закодировано бесчисленное количество битов информации. Это неизвестная информация, и многое даже не наблюдается на практике; все, что мы знаем, это вещи о распределении энергии. Количество битов энтропии было бы количеством битов дополнительной информации помимо того, что вы уже знаете, которую вам нужно было бы кропотливо каталогизировать, чтобы полностью описать систему в один момент.

Давайте рассмотрим один из способов потери информации: стирание компьютерных данных. Всякий раз, когда бит переворачивается в памяти компьютера, эта информация перезаписывается, и обычно мы считаем ее потерянной.

Однако физическое переключение этих битов генерирует тепло в схеме, и этот каскад событий атомного масштаба включает рассеивание этого бита информации в режимы тепловых колебаний. Фактически Е знак равно к Т л н 2 это максимальное количество энергии, которое выделится при переворачивании бита при температуре T.

Итак, вы спрашиваете, можно ли восстановить эту информацию из среды, чтобы мы могли узнать значение бита? В данном конкретном случае ответ отрицательный, потому что тепло от бита имеет почти бесконечные размеры для рассеяния, и поэтому нет реального практического способа собрать его вместе, но это не означает, что информация уничтожается, просто она больше недоступна для нас и, следовательно, становится неизвестной информацией, которая, как мы знаем, существует и поддается количественному измерению, и поэтому мы называем ее энтропией.

Теперь позвольте мне показать вам способ, которым энтропия действительно может быть уменьшена. Предположим, у вас есть коробка, в которую вы бросаете компьютерные кабели, такие как кабели USB или шнуры питания. Возможно, вы изначально положили их друг на друга упорядоченным образом. Но потом, год спустя, вы приходите к этому ящику, а все шнуры спутались в большой клубок шерсти. Начальное упорядоченное состояние имеет низкую энтропию. Вы кладете кабели друг на друга в каком-то порядке, так что якобы вы должны знать некоторую информацию о расположении содержимого коробки, даже если вы не знаете всей специфики. Теперь, со временем, люди могут ковыряться в коробке в поисках того или иного кабеля, таким образом перемешивая содержимое, отодвигая вещи в сторону и вибрируя содержимое различными способами. Это беспорядочная неизвестная информация об окружающей среде, которая добавляется к содержимому коробки. Это случайная группа сил на различных кабелях с течением времени, и вы не записываете эту информацию. Таким образом, увеличивается энтропия системы (скрытая информация от внешних случайных возмущений).

В конце концов, у вас есть целая куча кабелей, которые связаны друг с другом различными способами, вместо того, чтобы быть независимыми и просто организованными. Информация, закодированная во всех этих узлах и путаницах, исходила из случайной добавленной информации об окружающей среде. Это увеличение энтропии.

Итак, недовольный такой ситуацией, вы решаете их организовать. Но на практике это означает, что вы должны распутать все узлы, проследив за каждым кабелем в системе и осознав информацию, которая была добавлена, чтобы распутать все клубки и снова разделить их. Так что этот процесс сортировки, который вы делаете, снижает энтропию системы, потому что вы исчерпывающе каталогизируете (и быстро забываете), как именно скрытая информация была закодирована в сплетениях кабелей. Но также обратите внимание, что этот процесс требует энергии и времени с вашей стороны. А информация, которая была закодирована в кабельных сплетениях, попала в ваш мозг, а потом забылась и рассеялась в виде тепловой энергии.

Но странно то, что энтропия связана с вашим уровнем знаний. Это означает, что мы с вами потенциально можем приписать разную энтропию одной и той же системе в зависимости от того, что мы знаем заранее.

Например, если я получаю миллион бит информации, я могу вычислить частоту единиц и нулей и другую статистику, и это дает мне некоторую информацию, но тогда остальное я считаю скрытым, и поэтому я могу поставить большое число энтропии в теме. Но у кого-то другого может быть определенное количество информации о том, что биты представляют собой некое закодированное сообщение, поэтому для них энтропия ниже, потому что дополнительная информация ограничивает битовую комбинацию в структурированном пространстве меньшем, чем 2 Н .

Точно так же, если бы кто-то каким-то образом заметил, как каждое взаимодействие с коробкой кабелей влияло на него с течением времени, то в конце концов энтропия с точки зрения этого человека была бы низкой, даже если кабели все еще были бы запутанными. Просто тот человек, который наблюдал, как они запутались, не дал информации скрыться, и по идее не нужно собственно анализировать кабели на конце, чтобы понять их, он мог механически их распутать, как робот с нулевым или низким уровнем восприятия.

а как насчет вселенной тепловой смерти, куда делась информация?

Я всегда понимал, что это результат эволюции времени, сохраняющей меру в пространстве состояний. Итак, у нас есть пространство состояний п с мерой мю и есть ансамбль состояний в п распределяется по какой-то другой мере ν . У нас также есть динамическая система, описывающая эволюцию во времени. ф : п × р п куда ф ( п , т ) это состояние, в котором частица изначально находится в состоянии п заканчивается через некоторое время т . Важнейшее свойство ф заключается в том, что он сохраняет меру в том смысле, что если небольшая область фазового пространства имеет некоторый объем фазового пространства В , то в любое время позже он будет иметь тот же объем фазового пространства В .

Теперь обратимся к классической механике Н частицы в г Габаритные размеры. Мера мю дан кем-то г мю знак равно г г Н Икс г г Н п . Функция ф ( п , т ) определяется уравнениями Гамильтона. У нас есть ансамбль состояний, распределенных по некоторой мере ν . Обычно говорят о плотности фазового пространства р данный г ν знак равно р г мю . Тогда энтропия определяется как С знак равно р ( п ) журнал р ( п ) г мю .

Теперь рассмотрим эволюцию энтропии во времени. У нас есть С ( т ) знак равно р ( п , т ) журнал р ( п , т ) г мю . Таким образом, мы должны найти временную эволюцию р . У нас есть р ( п , т ) знак равно р ( ф 1 ( п ) , 0 ) дет п ф ( п , т ) . Но теорема Луивилля говорит, что определитель в знаменателе должен быть равен единице, поэтому р ( п , т ) знак равно р ( ф 1 ( п ) , 0 ) . В настоящее время С ( т ) знак равно р ( ф 1 ( п ) , 0 ) журнал р ( ф 1 ( п ) , 0 ) г мю . Теперь снова по теореме Лувилля мы можем сделать замену переменных ф 1 ( п ) п получить С ( т ) знак равно р ( п , 0 ) журнал р ( п , 0 ) г мю знак равно С ( 0 ) поэтому энтропия должна быть постоянной.

Другой случай, на который следует обратить внимание, — это квантовая механика. Здесь фазовое пространство п пространство волновых функций и мю является мерой на этом пространстве (это сложнее для бесконечномерных гильбертовых пространств). Функция ф дан кем-то | ψ ( 0 ) U ( т , 0 ) | ψ ( 0 ) , куда U является (унитарным) оператором временной эволюции. У нас есть распределение состояний, заданное ν а матрица плотности, описывающая этот набор состояний, имеет вид р знак равно | ψ ψ | г ν . Тогда энтропия определяется как С знак равно Тр ( р журнал р ) .

Теперь рассмотрим эволюцию энтропии во времени. У нас есть С ( т ) знак равно Тр ( р ( т ) журнал р ( т ) ) . Таким образом, мы должны найти временную эволюцию р . У нас есть р ( т ) знак равно | ψ ψ | г ν т , где индекс т означает, что мы говорим о распределении в то время т . Теперь с тех пор ν т является толчком ν 0 под ф ( , т ) , у нас есть это р ( т ) знак равно U ( т , 0 ) | ψ ψ | U ( т , 0 ) г ν 0 знак равно U ( т , 0 ) | ψ ψ | г ν 0 U ( т , 0 ) знак равно U ( т , 0 ) р ( 0 ) U ( т , 0 ) . Теперь с тех пор журнал ( U ( т , 0 ) р ( 0 ) U ( т , 0 ) ) знак равно U ( т , 0 ) журнал ( р ( 0 ) ) U ( т , 0 ) , а по цикличности следа имеем С ( т ) знак равно Тр ( р ( т ) журнал р ( т ) ) знак равно Тр ( р ( 0 ) журнал р ( 0 ) ) знак равно С ( 0 ) , поэтому энтропия постоянна.

Заметьте, что недостаточно, чтобы динамика была обратимой. Затухающий гармонический осциллятор обратим, но его энтропия уменьшается (он отдает энтропию своему окружению, предполагая, что его начальная энергия намного больше, чем к Т ). Динамика действительно должна сохранять объем в пространстве состояний.

Я могу ошибаться, но я действительно не думаю, что оригинальный постер последует этому чрезмерно техническому ответу. Трудно даже понять, как это решает вопрос, и я в значительной степени понимаю вашу математику.
@Robotbugs или Брайан, не могли бы вы уточнить, как это связано с вопросом? Я не очень хорошо разбираюсь (э-э... вообще) в теории меры, но мне стало ясно, что энтропия во многом связана с мерами над пересечениями подмножеств фазового пространства, поэтому я чувствую, что этот ответ царапает что-то важный; Я просто этого не понимаю.
В частности, вы можете думать о подмножестве фазового пространства как о вопросе Y/N о том, находится ли состояние в подмножестве или нет. Для распределенного (смешанного) состояния использование этого подмножества для измерения вместо этого дает число от 0 до 1. Для точечного распределения (где мы действительно всегда можем получить ответы 0/1=Y/N) энтропия (количество Y/N qs для определения состояния с заданной точностью) масштабируется логарифмом объема фазы пространство. Но как нам распространить это определение энтропии на смешанные состояния и как оно тогда масштабируется?

Это будет философский ответ, впрочем, полезный:

Логика на самом деле довольно проста:

Прерывистости нет. Есть причина и следствие.

ЛЮБОЕ текущее состояние вещей — это «следствие», возникшее из бесконечного множества причин. И это также само является причиной последующих эффектов.

Короче говоря, как и материя, информация также трансформируется, переходит в разные состояния посредством причинно-следственной механики.

Итак, то, что мы называем «хаосом» или «энтропией» или любым другим, казалось бы, непостижимым и неотслеживаемым состоянием существования, также является состоянием, являющимся результатом бесконечного числа причин, ведущих к следствиям.

То, что мы не в состоянии проследить, различить, вычислить, осмыслить, объяснить такие состояния существования, не означает, что они находятся вне причинно-следственной механики и других механик, создающих существование.

Таким образом, любое состояние в хаотическом, энтропийном состоянии должно быть теоретически прослеживаемым к более ранним состояниям, должно фактически возникать из-за причинно-следственной механики, которую можно наблюдать, вычислять, если у вас есть для этого средства, а также должно быть естественным образом связано с любыми другими состояниями. более раннее состояние информации, включая состояние, в котором энтропия, хаос или «уничтоженная информация» еще не возникли, а более ранняя информация, которую мы наблюдаем, уже существовала, как она есть.

Сохранение информации, если хотите. Информация также подчиняется причинно-следственной механике, которая нерушима нигде в существовании. (То, что некоторые случаи кажутся «нарушающими» причинно-следственные связи — как некоторые эксперименты в квантовой физике — не означает, что они нарушают механику в отношении самого существования в целом, не говоря уже о вселенной)

Если бы вы посмотрели на черные дыры и объяснения, которые привели Сасскинд и другие, то здесь нет никаких исключений — информация защищена, сохранена и связана тем или иным образом.

Следовательно, он неразрушим: вы должны быть в состоянии восстановить любую информацию, которая привела к ТЕКУЩЕМУ состоянию информации, путем анализа текущего состояния информации и ее деконструкции. Что включает в себя все, что попадает в черную дыру и сливается с сингулярностью.

Ваша интуиция неверна: причинно-следственной связи и непрерывности временной эволюции недостаточно, чтобы гарантировать сохранение информации. Довольно легко построить уравнения, описывающие непрерывную эволюцию системы во времени, в которой информация все еще постоянно теряется с течением времени. Вам нужно наложить дополнительное ограничение, чтобы гарантировать сохранение информации; в формализме квантовой механики этим ограничением является унитарность .
Обратите внимание на то, как оно начинается: «Это будет философский ответ». И обратитесь к пункту, где сказано: «То, что мы не в состоянии отслеживать, различать, вычислять, постигать, объяснять такие состояния существования, не означает, что они находятся вне причинно-следственной механики и других механик, создающих существование». Концептуальные и вычислительные инструменты для обработки преобразований и отношений между состояниями не означают, что они имеют прерывность. Точно так же, как черные дыры «уничтожали информацию», пока Сасскинд не придумал объяснение.
«Философия» не является оправданием для того, чтобы быть неправым. Вы вообще мой комментарий читали? Меня не волнует, будут преобразования непрерывными или прерывистыми, потому что это не имеет значения. Моя точка зрения конкретно касается того, что, по-видимому, является вашим основным аргументом: «Нет разрыва. Есть причина и следствие». Это просто не объясняет сохранение информации.
Что непростительно, так это говорить о области, в которой больше всего философии среди наук, а затем относиться к ней язвительно и пренебрежительно. Если слово «философия» слишком сложно вписать в контекст, замените его словом «логика». Логика непрерывности существует за пределами потенциала бесконечных параллельных вселенных или альтернативных реальностей или всех других всеобъемлющих концепций, которые используются в этой области. Это не ограничивается узкой темой, на которую вы сейчас смотрите. Непрерывность исходит из причины и следствия. И это выходит за рамки Большого взрыва.
Ты не понял. Я считаю науку поддисциплиной философии; Я бы никогда не отказался от философии. Я отклонил ваш аргумент о преемственности, потому что это неправильный ответ на вопрос. Вы, кажется, очень убеждены в том, что преемственность/причинность имеет значение, поэтому мне интересно, говорим ли мы вообще об одном и том же? Я использую стандартное физическое определение информации . По-видимому, это то, на что ссылаются ОП и Сасскинд. Возможно, то, что вы говорите, имеет смысл, если вы используете другое определение информации.
Непрерывность и причинность важны, ПОТОМУ ЧТО все существование после большого взрыва представляет собой цепь причинно-следственных событий, которые приводят к текущему положению дел. Но поскольку само понятие «разрыва» в любом месте означало бы присутствие «ничто» в этой точке, оно разрушило бы все существование, аннулировав все через себя: концептуально вы можете заполнить ничто только бесконечностью. Следовательно, случайность и непрерывность должны происходить на всем пути от бесконечности. Это означает, что она идет дальше, чем Большой взрыв.
Информация — это не концепция, которая возникает из этого существования или находится вне его, — это концепция, которая также связана всеми правилами, существующими для всего остального. Даже если вы возьмете часть информации, которая ограничена, локализована в определенной ограниченной физической системе, и заметите, что она была «уничтожена» внутри этой системы, информацию все равно можно будет отследить и реконструировать благодаря непрерывности, которая должна существовать ВНУТРИ и ВНЕ этой ограниченной, локализованной системы: Потому что существуют непрекращающиеся причинно-следственные цепи. Поэтому информация неуничтожима.
«Уничтожение» информации в данной ограниченной локализованной физической системе само по себе не может произойти, поскольку, когда система была изменена для «уничтожения» этой информации, вся система и ее состояние, включая этот конкретный фрагмент информации, изменились на что-то другое. это результат воздействия причин. «Уничтоженная» информация все еще содержится, скрыта в состоянии системы посредством причинно-следственных цепочек через непрерывность. Поэтому информацию невозможно уничтожить. но преобразился. даже в локализованных и ограниченных физических системах.
@MarkMitchison спасибо за обмен комментариями. Я верю, что поговорка «быть неправым» имеет значение. Это может научить или дать понимание, поэтому я был удивлен тем, насколько неприятными показались дебаты unity100. Ваш обмен мнениями помог мне осознать всю ценность неправильного, которое может быть потеряно без мотивации фальсифицировать наши собственные выводы. Возможно, эта мотивация противоречит человеческой природе. Однако кажется, что от этого выигрывает все — наука, политика, даже отношения.