Как мы количественно определяем такого рода информацию в квантовой механике?

Пусть задана квантовая система с гильбертовым пространством ЧАС . Предположим, что оно описывается квантовым состоянием р , т. е. матрица плотности. Мы можем определить энтропию фон Неймана как

С ( р ) "=" Тр р бревно р .

Можно показать, что С ( р ) "=" 0 если и только если р чисто, другими словами, если существует | ψ е ЧАС такой, что

р "=" | ψ ψ | .

Далее предположим, что | ψ является чистым состоянием. Очевидно, он кодирует некоторую информацию о рассматриваемой системе.

Например, предположим, что система представляет собой нерелятивистскую частицу со спином 1/2 массы м . В этом случае полный набор состояний | п , о собственные состояния импульса и спина. Затем

  • Если | ψ "=" | п , о у нас есть информация, что импульс п , спин о а масса м .

  • Если | ψ "=" с + | п , 1 / 2 + с | п , 1 / 2 у нас есть информация, что импульс п , эта масса м и у нас есть некоторая информация о вращении, хотя с ней связана неопределенность .

  • Если | ψ "=" ф ( п ) | п , о д 3 п у нас есть то же самое рассуждение выше. У нас есть информация, что спин о , масса м и у нас есть некоторая информация о импульсе .

Сейчас если С ( р ) количественно определяет информацию, мы обязательно имели бы С ( | ψ ψ | ) "=" 0 . Тем не менее мне кажется неправильным говорить, что «информация об этом состоянии равна нулю». Как я уже сказал, во всех приведенных выше примерах у нас есть хоть какая-то информация о системе.

Для начала во всех штатах точно знаем массу. Это уже информация.

Во-вторых, если п , о описываются спинорной волновой функцией

Ψ ( п ) "=" ( ψ + ( п ) ψ ( п ) ) ,

у нас есть некоторая информация о п и о содержалась в Ψ ( п ) это должно быть определено количественно с некоторой мерой неопределенности.

В частности Ψ ( п ) я "=" дельта ( п д ) дельта я Дж должно означать «максимальная информация» — мы знаем импульс и вращение . И у нас должен быть «минимум информации» — состояние с максимальной неопределенностью этих переменных .

Таким образом, из всего вышесказанного кажется очевидным, что чистые состояния связаны с информацией . Информация, кажется, связана с наблюдаемыми. И, наконец, кажется, что эта информация интуитивно должна быть количественно определена мерой, варьирующейся от «минимум информации/максимальная неопределенность» до «максимальная информация/минимальная неопределенность».

Более того, энтропия фон Неймана, по-видимому, не отражает этого, поскольку она говорит, что такое состояние не имеет связанной с ним информации, что, по-видимому, не соответствует действительности.

Так как же нам количественно оценить эту информацию, содержащуюся в чистом виде, в конце концов?

Хороший вопрос, я думаю, но вам, возможно, придется переставить части: проверка энтропии = 0 на самом деле является максимальной негэнтропией - это то, что измеряет информацию.
С точки зрения теории информации информация означает неопределенность. Таким образом, для чистого состояния энтропия фон Неймана = 0 означает, что в его состоянии нет неопределенности. Но это не значит, что мы не можем извлечь информацию о его состоянии. Как и в классической системе, бит с фиксированным значением 1 не несет никакой информации, поскольку в нем нет неопределенности. Но вы все еще можете утверждать, что у нас есть информация о том, что бит находится в состоянии 1. Мы должны быть осторожны, используя слово «информация».
Итак, в конце концов, когда кто-то говорит об информации, он имеет в виду не «информацию, которой мы располагаем в настоящее время», а на самом деле «информацию, которую можно найти экспериментальным путем»? Так что, когда мы все это знаем, больше ничего нельзя узнать и информация равна нулю?

Ответы (1)

Чистые состояния действительно несут максимальную информацию . На самом деле они максимальны относительно частичного порядка на состояниях, определяемых следующим образом.

Позволять р , ю быть два состояния. Мы говорим, что р ю если существует 0 λ 1 такой, что р λ ю , где большее или равное отношение на операторах (т.е. А 0 если ψ , А ψ 0 для всех ψ ).

Сейчас, ю является экстремальным или чистым состоянием тогда и только тогда, когда оно максимально относительно , в смысле ю ϖ если ϖ "=" λ ю , для некоторых 0 λ 1 .

Из этого определения нетрудно понять, почему чистые состояния несут максимальную информацию о системе среди состояний. В самом деле, пусть р быть смешанным состоянием. Тогда существуют два состояния ϖ 1 и ϖ 2 , и 0 < λ < 1 такой, что

р "=" λ ϖ 1 + ( 1 λ ) ϖ 2 .
На самом деле существует (возможно, бесконечное) множество чистых состояний Ом "=" { ю я , я е я } и коэффициенты { 0 < λ я < 1 , я е я } такой, что
р "=" я е я λ я ю я .

Следовательно, информация, которую несет смешанное состояние р (его описание системы) полностью закодировано в информации, которую несет множество Ом чистых состояний и вообще кодируется другими состояниями . С другой стороны, чистое состояние несет максимальную информацию, поскольку информация, которую они несут, не может быть закодирована в информации, содержащейся в любом другом состоянии . Набор п чистых состояний, таким образом, исчерпывает (посредством выпуклых комбинаций) все возможные конфигурации системы и, таким образом, содержит в некотором смысле все возможные знания о системе.