Что такое энтропия запутанности? и все эти истории о подсчете [закрыто]

В квантовой механике запутанность — это концепция, которая информирует нас о природе состояний. Это утверждение о непродуктивных состояниях, то есть о корреляциях. Это мой довольно глупый взгляд на запутанность (корреляции?). Есть нечто, называемое «энтропия запутанности».. Я несколько смутно припоминаю, что такое стандартное определение энтропии в статистической механике. Я слышал, что существует много типов энтропии, но я не уверен, что это актуально. Что такое энтропия запутанности?; и что за болтовня о подсчете (состояний), которая всегда бывает в газетах по этому поводу? Поскольку у меня очень ограниченный физический опыт, я бы предпочел исследовать ответы, в которых не упоминаются черные дыры или квантовая теория поля, если это возможно. Я надеюсь, что они могут быть ускорены в очень базовой квантовой механике или в каком-то классическом аналоге, имеющем дело, скажем, с классическими корреляциями и статистической механикой.

Энтропия запутанности — это энтропия Гиббса для квантовых систем. Краткий отчет об энтропии Гиббса см. на physics.stackexchange.com/a/141324/28512 .

Ответы (1)

Я предполагаю, что вы озадачены несоответствием между концепцией энтропии как меры «беспорядка» и концепцией энтропии запутанности как меры «корреляции», учитывая, что многие статьи определяют их по одной и той же формуле. Причина путаницы в том, что энтропия запутанности часто представляется в упрощенной версии, которая «выглядит» как обычная энтропия. Что-то упущено без должного объяснения.

Для любых двух квантовых систем А и Б взаимная энтропия или взаимная информация определяется как разница между энтропией А и Б в отсутствие запутанности и их энтропия при наличии запутанности. Если мы обозначим регулярную энтропию как С и взаимная энтропия как я , то обычно имеем

я ( А + Б ) "=" С ( А ) + С ( Б ) С ( А + Б )
Как и обычные энтропии, взаимная энтропия всегда положительна, я ( А + Б ) 0 и учитывает как запутанность, так и классические корреляции. Но для частного случая, когда запутанное состояние А и Б — чистое состояние, классических корреляций нет и полная энтропия равна нулю, С ( А + Б ) "=" 0 . Бывает и так, что в этом случае обязательно С ( А ) "=" С ( Б ) , поэтому взаимная энтропия уменьшается до
я ( А + Б ) "=" 2 С ( А )
и становится мерой запутанности. 2 фактор в конечном итоге отбрасывается из-за экономии языка и обозначений. Имейте в виду, однако, что это уже не так, когда состояние А + Б состояние не чистое, а смешанное С ( А + Б ) > 0 .

Если суммарное состояние AB не является чистым, то это взаимная информация и уже не мера запутанности, а тотальные корреляции (квантовые и классические). Называть это энтропией запутанности явно неправильно, и я не знаю, чтобы люди делали это систематически.
@NorbertSchuch Вы, конечно, правы. Извините, давно не пользовался и увлекся. Это правильно сейчас?
Звучит отлично. -- Одна примечательная вещь, которую следует отметить в отношении энтропии запутанности, заключается в том, что причина, по которой она так популярна в квантовой информации, заключается в том, что она однозначно определяет величину запутанности в асимптотическом сценарии (т. е. когда мы хотим измерить запутанность во многих копиях некоторого чистое состояние), что, конечно, здорово иметь. Является ли этот асимптотический сценарий, конечно, уместным, например, в приложениях для конденсированных сред, это другой вопрос.
То есть в основном смешанные государственные мероприятия в виде различных очисток (перегонки, себестоимости и т. д.)?
Запутанность дистилляции, стоимость запутывания и т. д. не работают через очищение (очищение — это способ думать о смешанном состоянии как о части большего чистого состояния), а путем нахождения асимптотических протоколов, которые связывают его с запутанностью чистого состояния — сколько пар Белла на копию мы можем извлечь, сколько пар Белла на копию необходимо для построения состояния и т. д. Но существует множество мер запутанности со смешанными состояниями — не существует единственной хорошей меры запутанности.
Понятно. Плохая формулировка по поводу очищения, имел в виду то, что вы сказали.
Для меня всегда проблематично говорить о запутанности смешанного состояния его матрицей плотности, поскольку матрица плотности на самом деле не полностью определяет «состояние». Таким образом, запутанность смешанного состояния, по-видимому, определяется набором «эквивалентных» состояний, и мы всегда говорим об ограничивающем свойстве набора.
@X.Dong Матрица локальной плотности запутанной системы не указывает, запутана система или нет, но всегда полностью характеризует локальное состояние системы. То есть из него можно вычислить все локальные наблюдаемые системы. Запутанность, отох, видна только в суммарной матрице плотности всех задействованных систем - она ​​нелокальна.
@udrv О, я думал, что Норберт говорил о запутанности смешанных состояний, где матрица плотности не локальна, а в составной системе со смешанным состоянием. Тогда, как вы сказали, истинное состояние должно зависеть от очистки, иначе мы можем говорить только о граничных свойствах набора «эквивалентных» состояний, описываемых одной и той же матрицей плотности. Это не звучит для меня хорошим определением запутанности смешанного состояния.
@ X.Dong Ну, он говорил о нелокальных смешанных состояниях, но я думаю, что мы имели в виду разные вещи. Вы имели в виду, что смешанные состояния неоднозначны в отношении их конкретной реализации в виде статистических суперпозиций, и поэтому возникает вопрос, может ли запутанность зависеть от конкретной реализации? Под граничными свойствами вы имеете в виду локальные свойства? Не знаком с термином.
@udrv Да. Я думаю, что он говорит о нелокальном смешанном состоянии. Тогда запутанность данной матрицы плотности определяется как нижний предел запутанности всех возможных реализаций матрицы плотности. Вот что я имею в виду под «граничными свойствами» матрицы плотности, которая на самом деле соответствует набору, а не конкретному «состоянию».
@ X.Dong Правильно, теперь это имеет смысл. Другое слово для «граничных» свойств — «экстремальные» свойства.