В квантовой механике запутанность — это концепция, которая информирует нас о природе состояний. Это утверждение о непродуктивных состояниях, то есть о корреляциях. Это мой довольно глупый взгляд на запутанность (корреляции?). Есть нечто, называемое «энтропия запутанности».. Я несколько смутно припоминаю, что такое стандартное определение энтропии в статистической механике. Я слышал, что существует много типов энтропии, но я не уверен, что это актуально. Что такое энтропия запутанности?; и что за болтовня о подсчете (состояний), которая всегда бывает в газетах по этому поводу? Поскольку у меня очень ограниченный физический опыт, я бы предпочел исследовать ответы, в которых не упоминаются черные дыры или квантовая теория поля, если это возможно. Я надеюсь, что они могут быть ускорены в очень базовой квантовой механике или в каком-то классическом аналоге, имеющем дело, скажем, с классическими корреляциями и статистической механикой.
Я предполагаю, что вы озадачены несоответствием между концепцией энтропии как меры «беспорядка» и концепцией энтропии запутанности как меры «корреляции», учитывая, что многие статьи определяют их по одной и той же формуле. Причина путаницы в том, что энтропия запутанности часто представляется в упрощенной версии, которая «выглядит» как обычная энтропия. Что-то упущено без должного объяснения.
Для любых двух квантовых систем и взаимная энтропия или взаимная информация определяется как разница между энтропией и в отсутствие запутанности и их энтропия при наличии запутанности. Если мы обозначим регулярную энтропию как и взаимная энтропия как , то обычно имеем
аланф