Наши возможности по хранению данных на физических носителях продолжают расти, при этом максимальный объем данных, который вы можете хранить в данном томе, увеличивается экспоненциально из года в год. Устройства хранения данных продолжают уменьшаться, а их емкость увеличивается.
Хотя, думаю, это не может продолжаться вечно. «Вещи» могут быть очень маленькими; а как же информация? Насколько маленьким может быть один бит информации?
Иными словами: при ограниченном физическом пространстве — скажем, 1 кубическом сантиметре — и не принимая во внимание больше измерений, чем мы имеем доступ в настоящее время, какой максимальный объем информации может храниться в этом пространстве? В какой момент экспоненциальный рост плотности хранения приходит к такой окончательной и окончательной остановке, что у нас нет причин даже пытаться увеличивать ее дальше?
Ответ дается ковариантной границей энтропии (CEB), также называемой границей Буссо в честь Рафаэля Буссо, который первым предложил ее. CEB звучит очень похоже на голографический принцип (HP) в том смысле, что оба связывают динамику системы с тем, что происходит на ее границе, но на этом сходство заканчивается.
HP предполагает, что физика (в частности, Супергравитация или SUGRA) в d-мерном пространстве-времени может быть сопоставлена с физикой конформной теории поля, живущей на его d-1-мерной границе.
CEB больше соответствует линии границы Бекенштейна, которая говорит, что энтропия черной дыры пропорциональна площади ее горизонта:
Короче говоря, максимум информации, которую вы можете хранить в пространства пропорциональна площади его границы. Для однородного сферического объема эта площадь равна:
Следовательно, максимальная информация (количество битов), которую вы можете сохранить, примерно определяется следующим образом:
куда площадь планка . Для нашего объем это дает биты.
Конечно, это грубая оценка по порядку величины, но она лежит в общих чертах и дает вам представление о пределе, о котором вы говорите. Как видите, у нас есть еще десятилетия, если не столетия, прежде чем наша технология сможет насытить эту границу!
Изменить : спасибо @mark за указание на это и не . Изменяет конечный результат на три порядка.
Об энтропии и планковской площади
В ответ на замечания @david в комментариях позвольте мне остановиться на двух вопросах.
Планковская площадь: из lqg (а также из теории струн) мы знаем, что геометрические наблюдаемые величины, такие как площадь и объем, квантуются в любой теории гравитации. Этот результат находится на кинематическом уровне и не зависит от фактической динамики. Квант площади, как и следовало ожидать, порядка куда это планковская длина. В квантовой гравитации динамическими объектами являются именно те элементы площади, которым связывают спиновую переменную. , где обычно (самое низкое повторение SU (2)). Каждый спин может нести один кубит информации. Таким образом, естественно связать площади Планка с одной единицей информации.
Энтропия как мера информации. В сообществе физиков существует большое непонимание взаимосвязи между энтропией и – обычно описывается как мера беспорядка – и полезная информация такие как хранящиеся на чипе, счетах или любом другом устройстве. Однако они одни и те же. Я помню, как однажды меня высмеяли в чате по физике за то, что я сказал это, поэтому я не ожидаю, что кто-то примет это за чистую монету.
Но подумайте об этом на секунду (или две). Что такое энтропия?
куда постоянная Больцмана и число микроскопических степеней свободы системы. Для газа в ящике, например, соответствует количеству различных способов распределения молекул в данном объеме. Если бы мы могли использовать газовую камеру в качестве устройства для хранения информации, то каждая из этих конфигураций соответствовала бы единице памяти. Или рассмотрим спин-цепочку с спины. Каждый спин может принимать два (классических) значения . Используя спин для представления бита, мы видим, что спиновая цепочка длины может кодировать разные числа. Чему равна соответствующая энтропия:
поскольку мы отождествили каждый спин с битом (точнее, с кубитом). Поэтому мы можем с уверенностью сказать, что энтропия системы пропорциональна количеству битов, необходимых для описания системы, и, следовательно, ее емкости.
Хорошо, тогда скажем, что для заданного объема и технологии поиска наномолекулярных данных. Предполагая, что вы хотите, чтобы данные были безопасными, извлекаемыми, состоящими из долгосрочного стабильного атома, каков максимальный объем данных, которые можно с пользой хранить.
Итак, во-первых, нам нужно 1/2 общего объема, который будет использоваться для одного молекулярного слоя выбранной вами молекулы, это будет «тарелка» для нашего «жесткого диска».
На него вы помещаете атомы, представляющие биты, так что ваш объем делится на объем выбранной вами молекулы/элемента, разделенный на 2 как общее количество битов.
Но с молекулярным хранилищем вы можете использовать разные молекулы и иметь, например,
Нет молекулы = 0 Золото = 1 Платина = 2 Серебро = 3
Тогда у вас есть 4-битное хранилище данных без большой потери в размере, добавьте немного углерода 12 и углерода 13 и до 6 бит, найдите более стабильные элементы и до 8 бит и так далее.
Конечно, извлечение данных было бы ужасно медленным, но для длительного хранения небольшого размера. Ваши говорящие квадриллионы бит на см3
Я не физик, но я знаю информатику и слежу за основами физики, поэтому позвольте мне дать другой ответ на это:
Мы еще не знаем. Пока есть более мелкие вещи, которые можно найти, изменить и наблюдать, мы можем использовать их для хранения информации.
Например, если обнаружено новое квантовое свойство, которое может находиться в состоянии A или состоянии B, это новый бит. Если это в каждом миллиарде атомов чего-то, это еще миллиард бит данных. Если затем мы научимся манипулировать этим свойством в двух дополнительных состояниях (скажем, прямо-наружно и наизнанку), то мы просто добавим новый бит, увеличив эту емкость до степени 2.
Итак, проблема в том, что мы все еще изучаем, из чего состоят материя и пространство-время. Пока мы не придумаем доказуемо правильную единую теорию, мы не знаем, сколько различных вещей содержится в любом материале. Учитывая, что каждое отдельное дополнительное состояние представляет собой изменение плотности информации как минимум на ^2, довольно бесполезно давать «примерные» цифры, пока мы не узнаем больше. Так что, вероятно, лучше дать что-то вроде закона Мура — предсказание того, что мы будем время от времени удваивать хранилище, пока не закончатся новые открытия/технологии.
Коэффициент преобразования физической энтропии в информационную энтропию (в случайных битах) использует предел Ландауэра: (физическая энтропия)=(информационные биты)*kb*ln(2). Количество вопросов «да/нет», которые необходимо задать, чтобы определить, в каком состоянии находится физическая система, равно энтропии Шеннона в битах, но не интенсивной, конкретной энтропии Шеннона H, а его экстенсивной, полной энтропии источника, генерирующего данные. : S=N*H, где H=1, если n битов взаимно независимы.
Предел Ландауэра гласит, что 1 бит информации, необратимо изменяющий состояние, высвобождает энтропию kb*ln(2), которая является высвобождением тепловой энергии для данного T: Q=T*kb, подразумевая, что существовала запасенная потенциальная энергия, которая была битом. Это показывает, что энтропия — это информационная энтропия: ln(2) преобразуется из ln() в log2(). kb представляет собой простой коэффициент преобразования средней кинетической энергии на частицу (определение температуры) в тепловые джоули, который измеряется в джоулях/джоулях, т.е. безразмерный. Если бы наше T определялось в джоулях кинетической энергии (в среднем 1/2 mv^2 частиц) вместо кельвинов, то kb=1. Итак, kb — это безразмерные джоули/джоули. Это не фундаментальная константа, как h. c также не имеет фундаментальных единиц, если вы принимаете время = i * расстояние, как упоминал Эйнштейн в приложении 2 к своей книге,
«Энтропия» Шеннона (конкретная, интенсивная) равна H = sum (-p * log (p)) и он 13 раз заявил в своей статье, что H имеет единицы битов, энтропии или информации НА СИМВОЛ, а не биты (общая энтропия) как предполагает большинство людей. Источник информации генерирует энтропию S=N*H, где N - количество испускаемых символов. H представляет собой «удельную энтропию», основанную на вероятности «n» уникальных символов из общего числа N символов. H не является «полной энтропией», как обычно полагают, находя свою физическую параллель с S o = энтропия/моль. Физический S=N*S o и информационный S=N*H. Редко можно найти тексты, объясняющие это.
Физическая энтропия, кажется, всегда (?) равна S=kb*N*[ln(состояния/частица)+c], а отличие от информационной энтропии - это c. Но в объемном веществе, где энергия распределена поровну между объемами, физическая энтропия равна S=N*S.о . Информационная энтропия совершенно аналогична этой (S=N*H), но я не могу вывести S o из H. Опять же, S битов = S/(kb*ln(2)).
Таким образом, энтропия Шеннона намного проще и получается МЕНЬШЕ энтропии, если вы попытаетесь сделать N частиц в физической системе эквивалентными N уникальным символам. Простейшая физическая энтропия - это независимые гармонические осцилляторы в 1D, разделяющие общую энергию, но не обязательно равномерно, S = kb * ln [(состояния / осциллятор) ^ N / N!], что равно S = N * [log (состояния / частица) +1] для больших N. Таким образом, даже в простейшем случае c остается. Энтропия Шеннона имеет принципиально иную форму: S~log((состояния/символ)^N) = N*log(состояния/символ), когда каждый символ независим друг от друга (нет шаблонов в данных и равные вероятности символов). Например, для случайных двоичных данных S=log2(2^N) = N бит. Поэтому трудно увидеть точную связь в простейшем случае (+1 не является незначительной разницей), даже если с помощью вопросов «верно/неверно» они немедленно показываются как идентичные количества с простым коэффициентом преобразования. Аппроксимация Стирлинга точна в пределе N, а H Шеннона в некотором роде зависит от бесконечного N для получения точных p, поэтому аппроксимация не представляет для меня проблемы.
Я не противоречил ничему из того, что сказал user346, но я хотел показать, почему связь не тривиальна, за исключением случая рассмотрения удельной энтропии объемной материи. В QM используется S=sum(-p*log(p)), но энтропия Шеннона равна S=N*sum(-p*log(p)). Они получаются одинаковыми, потому что расчет p отличается. Физическое p = (определенное макросостояние) / (общее количество микросостояний), но числитель и знаменатель определяются не просто путем подсчета. Информация p = (количество отдельных символов) / (общее количество символов) для данного источника. И тем не менее, они оба требуют одинакового количества битов (вопросы да/нет) для определения точного микросостояния (после применения преобразования kb*ln(2)).
Но есть проблема, о которой упоминалось в комментариях к его ответу. В информационной системе мы требуем, чтобы биты были надежными. Мы никогда не сможем получить 100% надежность из-за тепловых колебаний. При этом пределе в 1 бит = kb*ln(2) мы имеем 49,9999% вероятности того, что какой-либо конкретный бит не находится в ожидаемом состоянии. Предел Ландуэра, безусловно, предел. Энергия, необходимая для разрыва связи, которая удерживает один из этих битов в системе потенциальной памяти, «чуть ниже» (фактически равна) средней кинетической энергии тепловых волнений. Предел Ландауэра предполагает, что энергия, необходимая для разрыва нашей связи памяти, равна E=T*kb*ln(2), что немного слабее, чем связь Ван-дер-Ваальса, которая является едва ли не самой слабой вещью, которую можно назвать «связью» в присутствии термические волнения.
Так что мы должны решить, какой уровень надежности мы хотим, чтобы наши биты. Использование предела черной дыры, похоже, также добавляет проблему «доступности». Это информационное содержание системы, но не система хранения информации.
пользователь346
Марк Эйхенлауб
Селена Рутли