Размер вселенной, на молнии

Сжатые архивы в информатике, с некоторой точки зрения, уменьшают размер данных за счет минимизации повторения данных.

Возьмите каждую частицу (с любой точностью, которую вы предпочитаете) во всей вселенной, в различных полях, в определенный момент времени, как вектор в поле. Если эти векторы собрать вместе, чтобы сформировать огромный файл (логично ли, что диск может содержать этот файл, не имеет отношения к этому вопросу), а затем сжать с использованием вышеупомянутого типа алгоритма сжатия, насколько он может стать меньше?

Другими словами, имеют ли векторы в дискретный момент времени частиц в разных полях шаблон, который мы можем упростить, чтобы при обработке данных обо всей вселенной не было необходимости действительно рассчитывать вещи для каждой частицы?

Примечание. Я имею в виду относительный размер сжатия, а не реальное количество бит, которое он может потреблять. Я говорю о среднем во Вселенной, поэтому вопрос о том, бесконечно ли велика Вселенная, не имеет значения.

Ответы (2)

Сжатие с потерями или без потерь?

Большая часть современной физики работает со сжатием с потерями; мы вычисляем орбиты, основываясь на целых планетах, а не на системах частиц, вращающихся вокруг других систем частиц. В зависимости от количества «потери», которое вы готовы принять, это может работать как своего рода «сжатие»; мы не сжимаем системы частиц, а вместо этого обнаруживаем группы частиц в известных конфигурациях и просто сохраняем их.

Но, как и при сжатии Jpeg, вы получите гигантские артефакты, которые тем хуже, чем сильнее вы используете сжатие.

Сжатие без потерь не будет работать без устройства компенсации Гейзенберга; поскольку все характеристики частицы не могут быть определены на 100% точно в соответствии с наукой, какой мы ее знаем сегодня, мы не сможем сжать Вселенную без потерь.

Различные методы сжатия дают разные результаты сжатия. Одни обрабатывают одни типы данных лучше, чем другие, поэтому определить какое-то число будет практически невозможно.

Насколько велика Вселенная? Все это спорно, если Вселенная на самом деле бесконечна по размерам, поскольку бесконечное сжатие бесконечности все еще имеет бесконечный размер. Если бы я хотел быть придурком, я мог бы сделать Infinity Big! ответ :D

Почему бы не упаковать вместо компресса? Более безопасным методом «сжатия» вселенной была бы ее дефрагментация; там ужасно много пустого пространства, и, перемещая частицы ближе друг к другу (используя своего рода взмах руки, чтобы они не взаимодействовали), вместе с некоторыми метаданными, вы, вероятно, могли бы сжать вселенную в очень маленькое пространство.

Хорошим примером того, когда упрощение «рассматривать комок слипшихся частиц как один большой комок частицы» не удается, являются mascons , или массовые концентрации. Это особенно очевидно на примере земной Луны, где поддерживать пассивную, стабильную орбиту в течение любого реального промежутка времени сложно, но и Земля не совсем идеальная сфера. (Это даже не идеальный сплюснутый сфероид.) Концентрация массы (астрономия) в Википедии .
Проблема в том, что пустое пространство не является полностью пустым. Если требуется отслеживать все , вы не можете просто вырезать полосу Вселенной и сказать: «Здесь 508,53 световых года пустого пространства».
Извините за двусмысленность вопроса. Я не спрашиваю об абсолютном размере, только об относительном размере. Пожалуйста, смотрите последнюю строку в отредактированном вопросе
Принцип неопределенности Гейзенберга гласит, что данные не могут быть получены точно с самого начала, поэтому сжатие по необходимости будет с потерями.

По-видимому, существует фундаментальный предел объема информации, необходимой для кодирования всех частиц в объеме пространства, который намного меньше, чем вы могли бы получить, исходя из разрешения этого объема.

Голографический принцип показывает, что содержимое любого тома ограничено площадью поверхности двумерной границы, проведенной вокруг него! Если я правильно помню , это 2 бита на квадратную длину планки .

В случае наблюдаемой Вселенной границей является космологический горизонт. Итак, 13,82 миллиарда световых лет в радиусе — это площадь поверхности ≈2,15×10 35 квадратных метров. Получается примерно 1,6×10 105 бит.

Это пропорционально площади поверхности, а не объему, поэтому довольно сильно сжато. Если бы вы могли сжать измерения всех реальных частиц в объеме каким-то супер-умным способом, вы могли бы ожидать, что он выдаст случайное число такого размера — его нельзя было бы сжать дальше.

Теперь плохие новости: вы не можете хранить это значение ни в какой системе, меньшей, чем наблюдаемая Вселенная. Как объяснялось выше, это фундаментальный предел того, сколько информации может быть представлено в данном объеме пространства.

Если бы ваше сжатие не было таким хорошим, как этот теоретический максимум, вам фактически потребовался бы объем, больший , чем наша наблюдаемая Вселенная, для его хранения.

изменить, чтобы перейти к отредактированному вопросу

Коэффициент сжатия не является постоянной величиной или даже коэффициентом в смысле умножения. Это высшая сила. Это разница между возведенным в квадрат и кубом или числом, возведенным в степень 2/3. Число основано на радиусе.

Вы должны понимать, что это на много порядков больше, чем то, что вы видите в zip-файле или других примерах, потому что радиус Вселенной (в планковских длинах) , деленный на то же значение в квадрате , очень и очень велик. Уменьшение верхнего значения на коэффициент , заметив, что spqce в основном пусто, даст очень небольшую разницу.

Нет, я этого вообще не вижу. Он ориентирован только на размер заархивированного файла и относительный коэффициент сжатия. Вы поняли этот ответ? Ссылки читать?
Я понимаю, что энтропия неизбежно увеличивается с увеличением объема данных для сжатия. Я, вероятно, не слишком хорошо написал вопрос - не ожидал, что кто-то будет достаточно серьезным, чтобы рассчитать его как точные науки: P
Мне странно приятно узнать, что самый эффективный способ полностью описать наблюдаемую вселенную — построить ее.