Максимальная теоретическая плотность данных

Наши возможности по хранению данных на физических носителях продолжают расти, при этом максимальный объем данных, который вы можете хранить в данном томе, увеличивается экспоненциально из года в год. Устройства хранения данных продолжают уменьшаться, а их емкость увеличивается.

Хотя, думаю, это не может продолжаться вечно. «Вещи» могут быть очень маленькими; а как же информация? Насколько маленьким может быть один бит информации?

Иными словами: при ограниченном физическом пространстве — скажем, 1 кубическом сантиметре — и не принимая во внимание больше измерений, чем мы имеем доступ в настоящее время, какой максимальный объем информации может храниться в этом пространстве? В какой момент экспоненциальный рост плотности хранения приходит к такой окончательной и окончательной остановке, что у нас нет причин даже пытаться увеличивать ее дальше?

это отличный вопрос, связанный с ковариантной границей энтропии Буссо - см. мой ответ
атом водорода имеет бесконечно много собственных состояний с энергией...
@MarkEichenlaub Но, безусловно, собственные состояния с более высокой и более высокой энергией заполняют все больше и больше места: IIRC не имеет ограничений на «размер» собственного состояния по мере увеличения энергии.

Ответы (4)

Ответ дается ковариантной границей энтропии (CEB), также называемой границей Буссо в честь Рафаэля Буссо, который первым предложил ее. CEB звучит очень похоже на голографический принцип (HP) в том смысле, что оба связывают динамику системы с тем, что происходит на ее границе, но на этом сходство заканчивается.

HP предполагает, что физика (в частности, Супергравитация или SUGRA) в d-мерном пространстве-времени может быть сопоставлена ​​с физикой конформной теории поля, живущей на его d-1-мерной границе.

CEB больше соответствует линии границы Бекенштейна, которая говорит, что энтропия черной дыры пропорциональна площади ее горизонта:

С знак равно к А 4

Короче говоря, максимум информации, которую вы можете хранить в 1   с м 3 знак равно 10 6   м 3 пространства пропорциональна площади его границы. Для однородного сферического объема эта площадь равна:

А знак равно В 2 / 3 знак равно 10 4   м 2

Следовательно, максимальная информация (количество битов), которую вы можете сохранить, примерно определяется следующим образом:

С А А п л

куда А п л площадь планка 10 70   м 2 . Для нашего 1   с м 3 объем это дает С м а Икс 10 66 биты.

Конечно, это грубая оценка по порядку величины, но она лежит в общих чертах и ​​дает вам представление о пределе, о котором вы говорите. Как видите, у нас есть еще десятилетия, если не столетия, прежде чем наша технология сможет насытить эту границу!


Изменить : спасибо @mark за указание на это 1   с м 3 знак равно 10 6   м 3 и не 10 9   м 3 . Изменяет конечный результат на три порядка.

Об энтропии и планковской площади

В ответ на замечания @david в комментариях позвольте мне остановиться на двух вопросах.

  1. Планковская площадь: из lqg (а также из теории струн) мы знаем, что геометрические наблюдаемые величины, такие как площадь и объем, квантуются в любой теории гравитации. Этот результат находится на кинематическом уровне и не зависит от фактической динамики. Квант площади, как и следовало ожидать, порядка л п л 2 куда л п л это планковская длина. В квантовой гравитации динамическими объектами являются именно те элементы площади, которым связывают спиновую переменную. Дж , где обычно Дж знак равно ± 1 / 2 (самое низкое повторение SU (2)). Каждый спин может нести один кубит информации. Таким образом, естественно связать площади Планка с одной единицей информации.

  2. Энтропия как мера информации. В сообществе физиков существует большое непонимание взаимосвязи между энтропией и С – обычно описывается как мера беспорядка – и полезная информация я такие как хранящиеся на чипе, счетах или любом другом устройстве. Однако они одни и те же. Я помню, как однажды меня высмеяли в чате по физике за то, что я сказал это, поэтому я не ожидаю, что кто-то примет это за чистую монету.

Но подумайте об этом на секунду (или две). Что такое энтропия?

С знак равно к Б п ( Н )

куда к Б постоянная Больцмана и Н число микроскопических степеней свободы системы. Для газа в ящике, например, Н соответствует количеству различных способов распределения молекул в данном объеме. Если бы мы могли использовать газовую камеру в качестве устройства для хранения информации, то каждая из этих конфигураций соответствовала бы единице памяти. Или рассмотрим спин-цепочку с м спины. Каждый спин может принимать два (классических) значения ± 1 / 2 . Используя спин для представления бита, мы видим, что спиновая цепочка длины м может кодировать 2 м разные числа. Чему равна соответствующая энтропия:

С п ( 2 м ) знак равно м п ( 2 ) количество бит

поскольку мы отождествили каждый спин с битом (точнее, с кубитом). Поэтому мы можем с уверенностью сказать, что энтропия системы пропорциональна количеству битов, необходимых для описания системы, и, следовательно, ее емкости.

Я слышал это несколько раз, мог бы также спросить сейчас. Что, если взять том В 2 который лежит внутри вашего тома В 1 такой, что А 2 > А 1 . Какой из них сможет хранить больше информации?
@space_cadet: у этого есть задатки отличного ответа; моя единственная (надеюсь, конструктивная) критика заключается в том, что вы на самом деле не объясняете , почему константа пропорциональности С / А относится к А п л . Конечно, полное доказательство было бы излишним, но я думаю, было бы полезно включить в этот аргумент несколько слов о значении площади Планка для людей, которые с ней не знакомы. Также я предпочел бы использовать другой символ вместо С в вашем последнем уравнении, поскольку энтропия не совсем измеряет количество битов информации. (Я знаю, что это просто постоянная разница в факторах, просто это выглядит странно)
Спасибо @mark и @david за ваши комментарии. Я надеюсь, что редактирование разрешит вопросы, которые у вас были. Что касается того, что указал @bruce (хороший, кстати), я все еще обрабатываю и вернусь, если у меня будет ответ.
@Брюс: В 2 очевидно; весь смысл голографии в том, что объем вообще не имеет значения, имеет значение только площадь :-) Конечно, я не уверен, в какой степени это доказано (как при микроскопическом расчете) для общих поверхностей (даже не гладких?) а не для горизонтов вполне общей ЧД.
Это хороший ответ, но я должен задаться вопросом, сколько этой информации можно на самом деле использовать. Понятно, что вы дали абсолютную нижнюю границу этой информации. Но на самом деле мы не сможем изменять и читать биты из горизонта BH. Поэтому я думаю, что должна существовать большая нижняя граница. Или вы предполагаете, что всей этой голографической информацией можно как-то управлять, хотя бы в принципе?
@marek - хорошая мысль (два комментария вверх). Я думал в том же духе. Интересно, что эта линия рассуждений проливает свет на геометрическую природу ограничения энтропии, поэтому ее стоит рассмотреть более подробно.
@marek - это не нижняя граница . Это верхняя граница . Он определяет максимальное количество информации, которое вы можете хранить в данном регионе. Или я вас неправильно понимаю? Во-вторых, я ничего не предлагаю о том, как можно управлять такой информацией. Это отдельный вопрос, который заставит нас рассмотреть ограничения на обработку и передачу информации, а не на ее хранение . На эту тему есть интересная статья JB Pendry, доступная здесь .
@space_cadet: извините, я поменял порядок, я хотел написать upper . И кстати, нет, это не отдельный вопрос. Если вы хотите сохранить свою информацию, это потому, что вы хотите, чтобы она была в безопасности и чтобы восстановить ее позже. Забрасывание вещей в БХ, на мой взгляд, не считается хранением информации (по крайней мере, эта информация рано или поздно улетит как излучение Хокинга) :-) Но спасибо за ссылку.
@space_cadet: ответ неполный. Все, что он говорит, это то, что вы можете хранить информацию только на поверхности. Это имеет смысл (вам нужна поверхность, чтобы иметь возможность извлекать информацию). С другой стороны, вопрос касается объема. Итак, теперь возникает вопрос: какую площадь поверхности вы можете поместить в заданный объем? en.wikipedia.org/wiki/Menger_sponge
В «Удовольствии узнавать что-то » Ричард Фейнман также размышляет о пределах плотности информации. Насколько я помню, он не доходит до планковской длины, предположительно потому, что это очень далеко от технологии, даже в наши дни. Интересная лекция.
@raskolnikov - Фейнман был одним из первых сторонников квантовых вычислений. На эту тему есть его статья примерно 1982 года. @Sklivvz - информация, которая может храниться на горизонте черной дыры или другой поверхности, является максимальной информацией, которая может храниться в любой области (т.е. объеме), ограниченной этой поверхностью. При достаточно высоких энергиях пространство-время становится 2+1-мерным, и понятие объема исчезает.
Есть проблемы с определением информации по площади поверхности: 1) оно делает информационную емкость зависимой от наблюдателя (для наблюдателя под названной поверхностью информационная емкость будет сильно отличаться) 2) она не аддитивна и зависит от выбранного нами деления пространство: сумма многих объемов размером 1 см ^ 3, очевидно, может хранить больше информации, чем одна область того же объема, и обе они меньше, чем объем, который охватывает оба. 3) Не учитывает различий между квантовой и классической информацией 4) Необратима: для наблюдателя энтропия Вселенной оказывается ограниченной
это делает информационную емкость зависимой от наблюдателя ... Я не уверен, что вы имеете в виду. для наблюдателя под названной поверхностью информативность будет сильно отличаться, извините, я этого не понимаю. Вы имеете в виду, что наблюдатель внутри ограниченной области увидит что-то отличное от наблюдателя снаружи ? оно не является аддитивным и зависит от деления, которое мы выбираем для пространства ... существует ограничение на типы поверхностей, которые насыщают границу энтропии. Обычно это минимальные или «экстремальные» поверхности, уникальные для данного пространства-времени.
Он не учитывает различий между квантовой и классической информацией ... опять же, я не понимаю, что вы пытаетесь донести. Пожалуйста, объясните, в чем заключаются эти различия и почему голография не может их объяснить. 4) Необратимо: для наблюдателя энтропия Вселенной оказывается ограниченной ... Это одна критика или две? Голография фактически обеспечивает унитарность и, следовательно, (микроскопическую) обратимость квантовой теории гравитации. См. ответ Любоша на вопрос 5407. Кроме того, я не понимаю, почему нежелательно, чтобы энтропия Вселенной была конечной величиной.
В математической дисциплине теории информации энтропия сообщения — это ожидаемое значение информации, содержащейся в этом сообщении. Формулы те же, поэтому неудивительно, что энтропия также является мерой содержания информации в физических системах.
Верен ли ответ вскоре после Большого взрыва?

Хорошо, тогда скажем, что для заданного объема и технологии поиска наномолекулярных данных. Предполагая, что вы хотите, чтобы данные были безопасными, извлекаемыми, состоящими из долгосрочного стабильного атома, каков максимальный объем данных, которые можно с пользой хранить.

Итак, во-первых, нам нужно 1/2 общего объема, который будет использоваться для одного молекулярного слоя выбранной вами молекулы, это будет «тарелка» для нашего «жесткого диска».

На него вы помещаете атомы, представляющие биты, так что ваш объем делится на объем выбранной вами молекулы/элемента, разделенный на 2 как общее количество битов.

Но с молекулярным хранилищем вы можете использовать разные молекулы и иметь, например,

Нет молекулы = 0 Золото = 1 Платина = 2 Серебро = 3

Тогда у вас есть 4-битное хранилище данных без большой потери в размере, добавьте немного углерода 12 и углерода 13 и до 6 бит, найдите более стабильные элементы и до 8 бит и так далее.

Конечно, извлечение данных было бы ужасно медленным, но для длительного хранения небольшого размера. Ваши говорящие квадриллионы бит на см3

Я не физик, но я знаю информатику и слежу за основами физики, поэтому позвольте мне дать другой ответ на это:

Мы еще не знаем. Пока есть более мелкие вещи, которые можно найти, изменить и наблюдать, мы можем использовать их для хранения информации.

Например, если обнаружено новое квантовое свойство, которое может находиться в состоянии A или состоянии B, это новый бит. Если это в каждом миллиарде атомов чего-то, это еще миллиард бит данных. Если затем мы научимся манипулировать этим свойством в двух дополнительных состояниях (скажем, прямо-наружно и наизнанку), то мы просто добавим новый бит, увеличив эту емкость до степени 2.

Итак, проблема в том, что мы все еще изучаем, из чего состоят материя и пространство-время. Пока мы не придумаем доказуемо правильную единую теорию, мы не знаем, сколько различных вещей содержится в любом материале. Учитывая, что каждое отдельное дополнительное состояние представляет собой изменение плотности информации как минимум на ^2, довольно бесполезно давать «примерные» цифры, пока мы не узнаем больше. Так что, вероятно, лучше дать что-то вроде закона Мура — предсказание того, что мы будем время от времени удваивать хранилище, пока не закончатся новые открытия/технологии.

Коэффициент преобразования физической энтропии в информационную энтропию (в случайных битах) использует предел Ландауэра: (физическая энтропия)=(информационные биты)*kb*ln(2). Количество вопросов «да/нет», которые необходимо задать, чтобы определить, в каком состоянии находится физическая система, равно энтропии Шеннона в битах, но не интенсивной, конкретной энтропии Шеннона H, а его экстенсивной, полной энтропии источника, генерирующего данные. : S=N*H, где H=1, если n битов взаимно независимы.

Предел Ландауэра гласит, что 1 бит информации, необратимо изменяющий состояние, высвобождает энтропию kb*ln(2), которая является высвобождением тепловой энергии для данного T: Q=T*kb, подразумевая, что существовала запасенная потенциальная энергия, которая была битом. Это показывает, что энтропия — это информационная энтропия: ln(2) преобразуется из ln() в log2(). kb представляет собой простой коэффициент преобразования средней кинетической энергии на частицу (определение температуры) в тепловые джоули, который измеряется в джоулях/джоулях, т.е. безразмерный. Если бы наше T определялось в джоулях кинетической энергии (в среднем 1/2 mv^2 частиц) вместо кельвинов, то kb=1. Итак, kb — это безразмерные джоули/джоули. Это не фундаментальная константа, как h. c также не имеет фундаментальных единиц, если вы принимаете время = i * расстояние, как упоминал Эйнштейн в приложении 2 к своей книге,

«Энтропия» Шеннона (конкретная, интенсивная) равна H = sum (-p * log (p)) и он 13 раз заявил в своей статье, что H имеет единицы битов, энтропии или информации НА СИМВОЛ, а не биты (общая энтропия) как предполагает большинство людей. Источник информации генерирует энтропию S=N*H, где N - количество испускаемых символов. H представляет собой «удельную энтропию», основанную на вероятности «n» уникальных символов из общего числа N символов. H не является «полной энтропией», как обычно полагают, находя свою физическую параллель с S o = энтропия/моль. Физический S=N*S o и информационный S=N*H. Редко можно найти тексты, объясняющие это.

Физическая энтропия, кажется, всегда (?) равна S=kb*N*[ln(состояния/частица)+c], а отличие от информационной энтропии - это c. Но в объемном веществе, где энергия распределена поровну между объемами, физическая энтропия равна S=N*S.о . Информационная энтропия совершенно аналогична этой (S=N*H), но я не могу вывести S o из H. Опять же, S битов = S/(kb*ln(2)).

Таким образом, энтропия Шеннона намного проще и получается МЕНЬШЕ энтропии, если вы попытаетесь сделать N частиц в физической системе эквивалентными N уникальным символам. Простейшая физическая энтропия - это независимые гармонические осцилляторы в 1D, разделяющие общую энергию, но не обязательно равномерно, S = kb * ln [(состояния / осциллятор) ^ N / N!], что равно S = N * [log (состояния / частица) +1] для больших N. Таким образом, даже в простейшем случае c остается. Энтропия Шеннона имеет принципиально иную форму: S~log((состояния/символ)^N) = N*log(состояния/символ), когда каждый символ независим друг от друга (нет шаблонов в данных и равные вероятности символов). Например, для случайных двоичных данных S=log2(2^N) = N бит. Поэтому трудно увидеть точную связь в простейшем случае (+1 не является незначительной разницей), даже если с помощью вопросов «верно/неверно» они немедленно показываются как идентичные количества с простым коэффициентом преобразования. Аппроксимация Стирлинга точна в пределе N, а H Шеннона в некотором роде зависит от бесконечного N для получения точных p, поэтому аппроксимация не представляет для меня проблемы.

Я не противоречил ничему из того, что сказал user346, но я хотел показать, почему связь не тривиальна, за исключением случая рассмотрения удельной энтропии объемной материи. В QM используется S=sum(-p*log(p)), но энтропия Шеннона равна S=N*sum(-p*log(p)). Они получаются одинаковыми, потому что расчет p отличается. Физическое p = (определенное макросостояние) / (общее количество микросостояний), но числитель и знаменатель определяются не просто путем подсчета. Информация p = (количество отдельных символов) / (общее количество символов) для данного источника. И тем не менее, они оба требуют одинакового количества битов (вопросы да/нет) для определения точного микросостояния (после применения преобразования kb*ln(2)).

Но есть проблема, о которой упоминалось в комментариях к его ответу. В информационной системе мы требуем, чтобы биты были надежными. Мы никогда не сможем получить 100% надежность из-за тепловых колебаний. При этом пределе в 1 бит = kb*ln(2) мы имеем 49,9999% вероятности того, что какой-либо конкретный бит не находится в ожидаемом состоянии. Предел Ландуэра, безусловно, предел. Энергия, необходимая для разрыва связи, которая удерживает один из этих битов в системе потенциальной памяти, «чуть ниже» (фактически равна) средней кинетической энергии тепловых волнений. Предел Ландауэра предполагает, что энергия, необходимая для разрыва нашей связи памяти, равна E=T*kb*ln(2), что немного слабее, чем связь Ван-дер-Ваальса, которая является едва ли не самой слабой вещью, которую можно назвать «связью» в присутствии термические волнения.

Так что мы должны решить, какой уровень надежности мы хотим, чтобы наши биты. Использование предела черной дыры, похоже, также добавляет проблему «доступности». Это информационное содержание системы, но не система хранения информации.