Почему асимметрия материи-антиматерии удивительна, если асимметрия может быть порождена случайным блужданием, при котором частицы попадают в черные дыры?

Насколько я понимаю, ранняя Вселенная была очень «горячей» (т.е. энергетически плотной) средой. Было даже достаточно жарко, чтобы из фотонов образовались черные дыры .

Мое второе понимание заключается в том, что черные дыры могут терять массу из-за излучения Хокинга, что составляет :

Физическое понимание процесса можно получить, представив себе, что излучение частиц и античастиц испускается сразу за горизонтом событий. Это излучение не исходит непосредственно от самой черной дыры, а скорее является результатом того, что виртуальные частицы «подгоняются» под действием гравитации черной дыры, превращаясь в реальные частицы. гравитационной энергии, вылет одной из частиц снижает массу черной дыры. 3

Альтернативный взгляд на этот процесс состоит в том, что флуктуации вакуума вызывают появление пары частица-античастица вблизи горизонта событий черной дыры. Один из пары падает в черную дыру, а другой убегает. Чтобы сохранить полную энергию, частица, упавшая в черную дыру, должна была иметь отрицательную энергию (по отношению к наблюдателю, находящемуся далеко от черной дыры). Это заставляет черную дыру терять массу, и стороннему наблюдателю может показаться, что черная дыра только что испустила частицу. В другой модели процесс представляет собой эффект квантового туннелирования, при котором пары частица-античастица будут формироваться из вакуума, и одна из них будет туннелировать за горизонт событий.

Поэтому я смоделировал сценарий с двумя типами частиц, которые создаются в соотношении 50/50 из-за излучения Хокинга и всегда аннигилируют друг друга, если это возможно.

Редактировать:

В этой симуляции создаются обе частицы, но одна из них засасывается в черную дыру. Другой остается снаружи. Так что заряд должен сохраняться.

Симуляция (написанная на R) находится здесь:

# Run the simulation for 1 million steps and initialize output matrix
n_steps = 1e6
res     = matrix(ncol = 2, nrow = n_steps)

# Initiate number of particles to zero
n0 = n1 = 0
for(i in 1:n_steps){
  # Generate a new particle with 50/50 chance of matter/antimatter
  x = sample(0:1, 1)

  # If "x" is a matter particle then...
  if(x == 0){
    # If an antimatter particle exists, then annihilate it with the new matter particle. 
    #Otherwise increase the number of matter particles by one
    if(n1 > 0){
      n1 = n1 - 1
    }else{
      n0 = n0 + 1
    }
  }

  # If "x" is an antimatter particle then...
  if(x == 1){
    # If a matter particle exists, then annihilate it with the new antimatter particle. 
    # Otherwise increase the number of antimatter particles by one
    if(n0 > 0){
      n0 = n0 - 1
    }else{
      n1 = n1 + 1
    }
  }

  # Save the results and plot them if "i" is a multiple of 1000
  res[i, ] = c(n0, n1)
  if(i %% 1000 == 0){
    plot(res[1:i, 1], ylim = range(res[1:i, ]), type = "l", lwd = 3, panel.first = grid())
    lines(res[1:i, 2], col = "Red", lwd = 3)
  }
}

Вот снимок результатов, где черная линия — количество частиц «типа 0», а красная линия — количество частиц «типа 1»:введите описание изображения здесь

Очевидно, что это упрощенная одномерная модель, в которой любая созданная антиматерия немедленно аннигилирует соответствующей частицей материи и т. д. Однако я не понимаю, почему нельзя ожидать, что качественный результат «вида» доминирующей частицы будет справедлив в целом. . Так на чем же основано ожидание равного количества материи и антиматерии? Как это противоречит этой простой симуляции?

РЕДАКТИРОВАТЬ:

Как просили в комментариях, я изменил симуляцию, чтобы разрешить различное начальное количество частиц и вероятность генерации каждой частицы.

# Run the simulation for 1 million steps and initialize output matrix
n_steps = 250e3
res     = matrix(ncol = 2, nrow = n_steps)

# Initial number of each type of particle and probability of generating type 0
n0 = 0
n1 = 0
p0 = 0.51
for(i in 1:n_steps){
  # Generate a new particle with 50/50 chance of matter/antimatter
  x = sample(0:1, 1, prob = c(p0, 1 - p0))

  # If "x" is a matter particle then...
  if(x == 0){
    # If an antimatter particle exists, then annihilate it with the new matter particle. 
    # Otherwise increase the number of matter particles by one
    if(n1 > 0){
      n1 = n1 - 1
    }else{
      n0 = n0 + 1
    }
  }

  # If "x" is an antimatter particle then...
  if(x == 1){
    # If a matter particle exists, then annihilate it with the new antimatter particle. 
    # Otherwise increase the number of antimatter particles by one
    if(n0 > 0){
      n0 = n0 - 1
    }else{
      n1 = n1 + 1
    }
  }

  # Save the results and plot them if "i" is a multiple of 1000
  res[i, ] = c(n0, n1)
  if(i %% 1e4 == 0){
    plot(res[1:i, 1], ylim = range(res[1:i, ]), type = "l", lwd = 3, panel.first = grid())
    lines(res[1:i, 2], col = "Red", lwd = 3)
  }
}

Некоторые примеры:

n0 = 1000, n1 = 0, p = 0,5введите описание изображения здесь

n0 = 0, n1 = 0, p = 0,51введите описание изображения здесь

п0 = 1000, п1 = 1000, р = 0,5введите описание изображения здесь

РЕДАКТИРОВАТЬ 2:

Спасибо всем за ваши ответы и комментарии. Я узнал, что процесс образования материи из черных дыр называется «бариогенез черных дыр». Однако в работах, которые я проверял на эту тему (например, Нагатани 1998 , Маджумдар и др. 1994 ), похоже, не говорится о том же, что и я.

Я говорю, что через динамику симметричного образования и аннигиляции материи-антиматерии наряду с симметричным бариогенезом через излучение Хокинга вы всегда будете получать дисбаланс с течением времени, который будет иметь тенденцию к росту из-за положительной обратной связи. То есть условия Сахарова , такие как CP-нарушение, фактически не требуются для получения асимметрии.

Если вы принимаете существование парного образования, аннигиляции и излучения Хокинга, то вы должны по умолчанию ожидать, что один доминирующий вид частиц всегда будет доминировать над другим. Это единственное стабильное состояние (кроме вселенной, состоящей только из энергии). Приблизительно равные материя/антиматерия совершенно очевидно очень нестабильны, потому что они аннигилируют друг друга, так что ожидать этого не имеет смысла.

Возможно, что в какой-то более сложной модели (включающей более одного типа пар частиц, расстояние между частицами, силы и т. д.) эта тенденция к асимметрии каким-то образом компенсировалась бы. Но я не могу придумать никакой причины, по которой это могло бы быть, это должно быть делом людей, которые ожидают, что симметрия материи-антиматерии придумает механизм, объясняющий это (на что было бы странно тратить свое время, поскольку это решительно не то, что мы наблюдаем в нашей вселенной).

Что касается некоторых конкретных проблем, у людей были:

1) Опасения по поводу накопления отрицательного заряда в черных дырах и положительного заряда в обычном пространстве.

  • В то время как в симуляции есть только одна частица, на практике это будет происходить параллельно для пар электрон-позитрон и протон-антипротон с (на самом деле) равными скоростями. Так что я бы не ожидал какого-либо дисбаланса заряда. Вы можете представить пары частиц в моделировании наполовину электрон-позитрон и наполовину протон-антипротон.

2) В ранней Вселенной было недостаточно черных дыр, чтобы объяснить асимметрию

  • Я пытался и не смог получить точную цитату для этого, чтобы я мог выяснить, какие предположения были сделаны, но я сомневаюсь, что они включили положительную обратную связь, показанную симуляцией, в свой анализ. Кроме того, мне было интересно, рассматривают ли они возможность образования кугельблиц-черных дыр во Вселенной, состоящей только из энергии. Наконец, тенденция к доминирующему виду продолжается все время, в любом случае это не должно было происходить в ранней Вселенной.

3) Если этот процесс продолжается во Вселенной, похожей на нашу сегодняшнюю (где частице может потребоваться много времени, чтобы добраться от одной черной дыры до другой), мы должны ожидать, что некоторые черные дыры локально произведут преобладание антивещества. регионы и другие для создания регионов с преобладанием материи. В конце концов некоторые из этих областей должны вступить в контакт друг с другом, что приведет к наблюдаемой массовой аннигиляции частиц.

  • Я согласен, что это было бы ожиданием по умолчанию, но если вы начнете с состояния с сильным преобладанием материи, будет очень маловероятно, что будет сгенерировано достаточное количество антиматерии, чтобы локально аннигилировать всю материю, и даже тогда есть только 50% вероятность следующей фазы. является антивеществом. Присвоение цифр подобным вещам потребует более сложной модели, которую я не хочу здесь пытаться использовать.

4) Физики не считают асимметрию чем-то удивительным.

  • Ну, в википедии так написано :

    Ни стандартная модель физики элементарных частиц, ни общая теория относительности не дают известного объяснения того, почему это должно быть так, и естественно предположить, что Вселенная нейтральна со всеми сохраняющимися зарядами. [...] Как отмечается в исследовательской статье 2012 года, «Происхождение материи остается одной из величайших загадок в физике».

5) Этот процесс представляет собой какую-то экзотическую «альтернативную» теорию стандартной.

  • Этот процесс был выведен, приняв стандартную физику/космологию за правильность. Это прямое следствие взаимодействия между образованием/аннигиляцией пар и излучением Хокинга. Это может показаться нелогичным для людей, привыкших думать о том, что мы в среднем ожидаем от модели, когда на самом деле мы хотим думать о том, как ведут себя отдельные экземпляры. Если симуляцию запустить несколько раз и сложить все «частицы», результат будет примерно 50/50 материи/антиматерии. Однако мы наблюдаем одну конкретную вселенную, а не среднее значение всех возможных вселенных. В каждом конкретном случае всегда есть доминирующая разновидность частицы, которую мы в конечном итоге называем «материей».

Итак, прочитав ответы/комментарии, я думаю, что ответ на мой вопрос, вероятно, заключается в том, что физики думали о том, чего они ожидают в среднем, когда им следовало думать о том, что произойдет в конкретных случаях. Но я недостаточно знаком с литературой, чтобы сказать.

Редактировать 3:

После разговора с Крисом в чате я решил поставить скорость аннигиляции в зависимость от количества частиц во Вселенной. Я сделал это, установив вероятность аннигиляции на exp(-100/n_part), где n_part — количество частиц. Это было довольно произвольно, я выбрал его, чтобы иметь приличный охват всего типичного диапазона для 250 тыс. шагов. Это выглядит так:введите описание изображения здесь

Вот код (я также добавил немного распараллеливания, извините за повышенную сложность):

require(doParallel)

# Number of simulations to run and threads to use in parallel
n_sim   = 100
n_cores = 30

# Initial number of each type of particle and probability
n0 = 0
n1 = 0
p0 = 0.5

registerDoParallel(cores = n_cores)
out = foreach(sim = 1:n_sim) %dopar% {
  # Run the simulation for 250k steps and initialize output matrix
  n_steps = 250e3
  res     = matrix(ncol = 2, nrow = n_steps)

  for(i in 1:n_steps){
    # Generate a new particle with 50/50 chance of matter/antimatter
    x = sample(0:1, 1, prob = c(p0, 1 - p0))

    n_part = sum(res[i -1, ]) + 1
    p_ann  = exp(-100/n_part)
    flag   = sample(0:1, 1, prob = c(1 - p_ann, p_ann))


    # If "x" is a matter particle then...
    if(x == 0){
      # If an antimatter particle exists, then annihilate it with the new matter particle. 
      # Otherwise increase the number of matter particles by one
      if(n1 > 0 & flag){
        n1 = n1 - 1
      }else{
        n0 = n0 + 1
      }
    }

    # If "x" is an antimatter particle then...
    if(x == 1){
      # If a matter particle exists, then annihilate it with the new antimatter particle. 
      # Otherwise increase the number of antimatter particles by one
      if(n0 > 0 & flag){
        n0 = n0 - 1
      }else{
        n1 = n1 + 1
      }
    }

    # Save the results and plot them if "i" is a multiple of 1000
    res[i, ] = c(n0, n1)
    if(i %% 1e4 == 0 && sim %in% seq(1, n_sim, by = n_cores)){
      # plot(res[1:i, 1], ylim = range(res[1:i, ]), type = "l", lwd = 3, panel.first = grid())
      # lines(res[1:i, 2], col = "Red", lwd = 3)
      print(paste0(sim, ": ", i))
    }
  }
  return(res)
}

Вот пример 25 результатов:введите описание изображения здесь

И гистограмма процента частиц, которые были в второстепенном классе к концу каждой симуляции:введите описание изображения здесь

Таким образом, результаты по-прежнему согласуются с более простой моделью в том смысле, что такие системы имеют тенденцию иметь доминирующий вид частиц.

Редактировать 4:

После дальнейшего полезного разговора с Крисом он предположил, что решающим дополнительным фактором является аннигиляция более чем одной пары частиц за шаг. В частности, количество удаленных частиц должно быть выборкой из распределения Пуассона со средним значением, пропорциональным общему количеству частиц, т.е. существует большое количество частиц материи и антиматерии.

Вот код (который сильно отличается от предыдущего):

require(doParallel)

# Number of simulations to run and threads to use in parallel
n_sim   = 100
n_cores = 30

# Initial number of each type of particle and probability
n0 = 0
n1 = 0
p0 = 0.5
m  = 10^-4

# Run the simulation for 250k steps and 
n_steps = 250e3

registerDoParallel(cores = n_cores)
out = foreach(sim = 1:n_sim) %dopar% {
  # Initialize output matrix
  res = matrix(ncol = 3, nrow = n_steps)

  for(i in 1:n_steps){
    # Generate a new particle with 50/50 chance of matter/antimatter
    x = sample(0:1, 1, prob = c(p0, 1 - p0))

    # If "x" is a matter particle then...
    if(x == 0){
      n0 = n0 + 1
    }

    # If "x" is an antimatter particle then...
    if(x == 1){
      n1 = n1 + 1
    }

    # Delete number of particles proportional to the product of n0*n1
    n_del = rpois(1, m*n0*n1)
    n0 = max(0, n0 - n_del)
    n1 = max(0, n1 - n_del)

    # Save the results and plot them if "i" is a multiple of 1000
    res[i, 1:2] = c(n0, n1)
    res[i, 3]   = min(res[i, 1:2])/sum(res[i, 1:2])
    if(i %% 1e4 == 0 && sim %in% seq(1, n_sim, by = n_cores)){
      # plot(res[1:i, 1], ylim = range(res[1:i, ]), type = "l", lwd = 3, panel.first = grid())
      # lines(res[1:i, 2], col = "Red", lwd = 3)
      print(paste0(sim, ": ", i))
    }
  }
  return(res)
}

А вот результаты для различных значений «m» (от которого зависит, как часто происходит аннигиляция). На этом графике показана средняя доля второстепенных частиц для каждого шага (с использованием 100 симуляций на значение m) в виде синей линии, зеленая линия — это медиана, а полосы +/- 1 стандартное отклонение от среднего:

введите описание изображения здесь

Первый график имеет то же поведение, что и мои симуляции, и вы можете видеть, что по мере того, как m становится меньше (скорость аннигиляции как функция числа частиц становится реже), система стремится оставаться в более симметричном состоянии (50/50 материи/антиматерии). ), по крайней мере, для большего количества шагов.

Таким образом, ключевое предположение, сделанное физиками, по-видимому, состоит в том, что скорость аннигиляции в ранней Вселенной была очень низкой, так что могло накопиться достаточное количество частиц, пока они не станут достаточно распространенными, чтобы ни одна из них никогда не была полностью «уничтожена».

РЕДАКТИРОВАТЬ 5:

Я провел одну из этих пуассоновских симуляций для 8 миллионов шагов с m = 10 ^ -6, и вы можете видеть, что доминирование просто занимает больше времени (это выглядит немного иначе, потому что 1 сигма-заполнение не будет отображаться с таким количеством точки данных):введите описание изображения здесь

Из этого я делаю вывод, что очень низкие показатели аннигиляции просто задерживают время, а не приводят к принципиально другому результату.

Редактировать 6:

То же самое происходит с m = 10^-7 и 28 миллионами шагов. Совокупная диаграмма выглядит так же, как и выше m = 10^-6 с 8 миллионами шагов. Итак, вот несколько частных примеров. Вы можете увидеть четкую тенденцию к доминирующему виду, как и в исходной модели:введите описание изображения здесь

Редактировать 7:

Подводя итог... Я думаю, что ответ на вопрос («почему физики так думают?») ясен из моего разговора с Крисом здесь . Крис, похоже, не заинтересован в том, чтобы превратить это в ответ, но я приму его, если кто-то напишет подобное.

Комментарии не для расширенного обсуждения; этот разговор был перемещен в чат .
В этом примере используется один тип частицы/античастицы. Если он заряжен, протон/антипротон (что является вашим аргументом), то сохранение заряда и сохранение барионного числа совпадают, что делает его нефизическим. Если вы посмотрите литературу о «бариогенезе черных дыр», необходимы дополнительные предположения модель ( GUTS или что-то еще) зависит от того, чтобы модели были прогнозирующими, а не просто случайными блужданиями.
Вышеизложенное верно для одиночной черной дыры. Не существует механизма, гарантирующего, что при статистическом распределении черных дыр одна и та же частица будет доминировать над черной дырой. Статистика для двух частиц сказала бы, что это будет 50/50, если только не используется модель, и именно поэтому модели необходимы.
@annav По сути, я пытаюсь сделать это проще, потому что я думаю, вам нужно придумать механизм, который предотвращает доминирование между материей и антиматерией. Было бы несложно добавить в эту модель еще один набор пар частиц, но я пока не хочу этого делать. Есть много других деталей расчета, которые уже несовместимы с нашей вселенной. Результаты имеют только качественное значение.
Я пытаюсь сказать, что случайного блуждания вокруг одной черной дыры недостаточно, так как при множестве черных дыр и протоны, и антипротоны могут быть поглощены с вероятностью 50/50, и что необходима физическая модель, которая введет барионы и приведет к барионам. нарушение номера
@annav Это в комментариях, которые были отправлены в чат, но я представлял, что это произошло в ранней Вселенной, когда расстояние между черными дырами можно было приблизительно пренебречь (материя, созданная одной, могла быть быстро уничтожена антиматерией, созданной другой, до точку можно считать мгновенной). Однако это далеко не единственный сценарий.
@Livid Проблема в том, что у нас есть приличное представление о том, когда это произошло, хотя у нас нет всех деталей - когда материя стала доминировать (и не темная энергия, и антиматерия по существу исчезли), Вселенная уже была огромный. На самом деле, наши современные лучшие модели предполагают, что это не было случайностью - Вселенная была по существу пустой во время инфляции (отсутствие энергии или материи), и это был (спекулятивный) коллапс инфлатонного поля, который высвободил всю не темную энергию, которую вы видите. вокруг вас сегодня. Это умозрительно, но с хорошей математикой и соответствует тому, как работает QFT.
@Luaan Я хочу подчеркнуть, что это предположение о ранней вселенной не имеет решающего значения для моей точки зрения. Как отмечалось в моем «редактировании 2», положительная обратная связь, вызывающая асимметрию в симуляции, является прямым следствием принятия образования пар и излучения Хокинга. Я имею в виду, хорошо, Вселенная была огромной, а затем были локализованные области материи и антиматерии (но немного больше материи), и в далеком прошлом был период аннигиляции, который делает регионы с преобладанием антиматерии очень редкими сегодня. Хотя мне кажется более логичным, что это произойдет немедленно.
@Livid Излучение Хокинга и образование пар не связаны. Вы по-прежнему предполагаете, что черная дыра просто случайным образом создает либо позитрон, либо электрон с вероятностью 50%. Нет никаких оснований этому верить. Излучение Хокинга зависит от заряда черной дыры, поэтому, если черная дыра испускает 100 электронов подряд, гораздо больше шансов, что в следующий раз это будет позитрон. Это не случайный процесс, а вероятностный . Настройте свою симуляцию, чтобы учесть это, и ваша асимметрия исчезнет. Вам все еще нужно что-то конкретно предпочитающее материю.
@Luaan Я не думаю, что «настройка» модели для получения точного количества соотношения материи и антиматерии, чтобы не позволить кому-то доминировать, имеет большой смысл. Вы в основном тонко настраиваете его, чтобы он не соответствовал действительности. Если черной дыре необходимо «испускать» частицы в зависимости от заряда, почему бы с таким же успехом не испускать антипротон вместо электрона? Но посмотрите мой разговор с Крисом ниже.
@Luaan Проверьте последние изменения. Ключ, кажется, низкий уровень аннигиляции.
@Livid Поскольку антипротон имеет гораздо большую массу, чем позитрон, я уже упоминал об этом раньше. Это означает, что для производства нужны намного меньшие черные дыры, и даже тогда они встречаются намного реже.
@Luaan Хорошо, как я уже упоминал ранее. Я хочу сказать, что ожидаю такого же качественного результата от более сложной детализированной модели. Люди продолжают придумывать, что добавить, и каждый раз до сих пор мы видели один и тот же качественный результат. Как вы думаете, почему черные дыры разного размера компенсируют этот эффект? По какому механизму?

Ответы (5)

Поздравляем с открытием работающего метода бариогенеза! Действительно, если у вас есть куча черных дыр, то по чистой случайности вы получите дисбаланс. И этот дисбаланс останется даже после того, как черные дыры испарятся, потому что результат испарения не зависит от общего барионного числа, вошедшего в черную дыру.

Вот так черные дыры могут нарушать законы сохранения. Единственные законы сохранения, которые они не могут нарушить, — это те, в которых сохраняющуюся величину можно измерить извне. Например, заряд все еще сохраняется, потому что вы можете отслеживать заряд черной дыры, измеряя ее электрическое поле. В Стандартной модели барионное число не имеет такого связанного поля.

Кроме того, вы должны исходить из того, что образуется достаточное количество черных дыр, чтобы ваш механизм работал. В стандартных моделях этого не происходит, несмотря на высокие температуры. Если вы начнете со стандартного Большого взрыва, Вселенная будет расширяться слишком быстро, чтобы образовались черные дыры.


Однако в физике поиск механизма, решающего проблему, — это не конец, а начало. Мы не все сидим и ломаем голову в поисках какого-либо механизма достижения бариогенеза. На самом деле существует как минимум десять известных концептуально различных способов сделать это (включая ваш), воплощенных в сотнях конкретных моделей. Проблема в том, что все они требуют спекулятивной новой физики, дополнений к основным моделям, которые мы уже экспериментально проверили. Никто не может заявить, что конкретная из этих моделей верна, в отсутствие каких-либо независимых доказательств.

Как будто мы все сидим и пытаемся найти шестизначный пароль от сейфа. Если вы проходите мимо и говорите «ну, очевидно, это может быть 927583» без каких-либо дополнительных доказательств, это технически верно. Но вы не взломали сейф. Проблема бариогенеза не аналогична придумыванию любого шестизначного числа, это легко. Проблема в том, что мы не знаем, какой из них актуален, какой механизм действительно существует в нашей вселенной.

Физики, изучающие эти вопросы, на самом деле пытаются связать эти модели с вещами, которые мы можем измерить, или придумывают простые модели, объясняющие сразу несколько загадок. Например, один из способов проверить модель первичных черных дыр — вычислить их количество, достаточно тяжелое, чтобы дожить до наших дней, и в этом случае вы можете отправиться на их поиски. Или, если они были созданы какой-то новой физикой, вы могли бы поискать эту новую физику. Еще один аспект заключается в том, чтобы отметить, что если сегодня все еще существует достаточно первичных черных дыр, они могут быть темной материей, поэтому вы можете попытаться одновременно получить правильное представление о бариогенезе и темной материи. Все это включает в себя много чтения, математики и моделирования.

Комментарии не для расширенного обсуждения; этот разговор был перемещен в чат .
Похоже, ОП спросил: «Почему X удивителен, когда я могу придумать для него вполне разумное объяснение?». И ваш ответ: «Этому есть куча возможных объяснений». Это не дает прямого ответа на вопрос ОП. Похоже, прямой ответ таков: «Существование дисбаланса само по себе не удивительно ... просто мы не знаем конкретно, почему он существует» ... По вашей аналогии, нас не удивляет утверждение, что ЯВЛЯЕТСЯ чем-то под колпаком фокусника... мы просто не знаем, что это за штука.
Удален дальнейший раунд расширенного обсуждения в комментариях. Если кто хочет здесь пообщаться , ведите в чат .
Итак, настоящий вопрос: почему так трудно найти доказательства того, что такое настоящий и «правильный» механизм?
@The_Sympathizer Ответ прост: история вселенной — отличный ластик. Грубо говоря, все оказывается в тепловом равновесии в течение длительного времени, поэтому выживают только «реликвии», такие как само барионное число. Именно поэтому я подчеркнул «объяснение нескольких головоломок одновременно»… довольно легко, даже типично, прийти к гипотезе, которую невозможно проверить, если вы этого не сделаете.
@knzhou: Ага. Как и многие другие виды исторических исследований в других областях (например, биология, история человечества). Информация ушла, рассеяна, энтропизирована, невосстановима.

Местонахождение

Ожидается, что случайное блуждание создаст разные (противоположные) асимметрии в разных регионах, включая регионы, которые достаточно удалены, чтобы не влиять друг на друга. Если бы это было основной причиной асимметрии, то мы ожидали бы, что это вызовет преобладание материи в некоторых областях наблюдаемой Вселенной и преобладание антиматерии в других областях наблюдаемой Вселенной.

Однако мы наблюдаем глобальное, универсальное преобладание материи, которая кажется единообразной во всей наблюдаемой Вселенной; поскольку любая граница между областями материи и антиматерии создаст наблюдаемые эффекты, которых, кажется, не существует.

Если бы «бариогенез черных дыр» был наиболее распространен вскоре после Большого взрыва, то я ожидал бы, что сегодня результаты будут одинаковыми. По сути, я предполагаю, что скорость бариогенеза сегодня намного ниже, чем в прошлом, потому что черных дыр стало меньше (потому что Вселенная стала менее плотной).
@Livid «скорость бариогенеза сегодня намного ниже, чем в прошлом» является здесь ключевым предположением, которое, ИМХО, нельзя вывести напрямую из того факта, что вселенная была более горячей/плотной, но кажется, что она должна иметь твердую истину/ложь ответ, хотя я не компетентен сказать, что это такое.
Поскольку вы думаете, что мы можем это наблюдать, я хочу знать, как мы можем наблюдать материю/антиматерию галактики вне локальной группы.
@Joshua суть в том, что, хотя межзвездное пространство очень и очень разрежено, если в двух соседних галактиках (и окружающих их областях пространства) одна была преимущественно материей, а другая - антиматерией, то на границе между «областью материи» и « области антиматерии», даже если эта граница («пустое» пространство не-галактики) настолько разрежена, насколько это возможно, эта пограничная область неизбежно достаточно велика, чтобы события аннигиляции и их энергетическая сигнатура были бы достаточно частыми, чтобы быть ясно достаточно наблюдательны и необычны, чтобы их нельзя было спутать с чем-то другим.
Готовы ли вы сказать то же самое о взаимодействии между группами галактик? Взаимодействие между группами падает довольно быстро.
@Livid Черные дыры не имеют ничего общего с абсолютной плотностью; речь идет о градиентах плотности . Когда инфляция закончилась, плотность энергии была огромной, да, но по существу она была везде одинаковой. Нет оснований ожидать, что черных дыр было больше, чем сегодня, особенно таких, которые не испаряются за очень короткое время. Имейте в виду, что заряд сохраняется - убегание -1 одного электрона уравновешивается дополнительным +1 на черной дыре - что, конечно, заставляет черную дыру отталкивать дальнейшие позитроны и притягивать электроны, и когда испускается излучение Хокинга, это не нейтрально.
@Luaan Смотрите мое первое предложение о кугельблице в ранней вселенной. Как я себе это представлял, сначала была вселенная, состоящая только из энергии, затем из нее образовалось несколько черных дыр, затем черные дыры произвели материю и антиматерию, и одна «случайно» стала доминирующей, как показано в симуляции.
@Livid Вам все еще нужны градиенты плотности для образования черных дыр. Вселенная чрезвычайно однородна. Но даже если бы черные дыры каким-то образом образовались в больших количествах, но при этом имели малые массы (чтобы легко «испариться»), и даже если бы вся материя и антиматерия сформировались как излучение Хокинга (нет никаких причин в это верить), вам нужно было бы сохранить заряжать. Это огромная проблема, потому что протоны намного массивнее электронов. Вы не получите мир из X протонов и X электронов, вы получите мир из X позитронов и X электронов. Чтобы получить материю-вселенную, нужно что-то, что предпочитает материю.
@Livid На самом деле я написал ответ, который исследует все это (и пытается показать по аналогии, как на самом деле работает излучение Хокинга, предполагая, что оно вообще существует), но он оказался слишком длинным, поэтому я его бросил. Но главное заключается в том, что 1) во Вселенной доминирует материя, несмотря на большие расстояния; нет сгустков материи и сгустков антиматерии даже в самых больших наблюдаемых масштабах, 2) заряд должен сохраняться, 3) излучение Хокинга никоим образом не похоже на «половина виртуальной пары частиц падает в черную дыру», 4) черным дырам нужны градиенты плотности
@Luaan Как упоминалось в других ответах, «бариогенез черной дыры» - это общепринятый процесс, соответствующий стандартной физике. Вы не согласны с этим?
@Livid Нет. Если бы ранняя Вселенная была полна микроскопических первичных черных дыр, их испарение могло быть источником всей материи вокруг нас (но это большое если! Вам нужен способ, чтобы эти черные дыры сформировались). Но это не то, о чем вы спрашивали в своем вопросе, по крайней мере, изначально.
@Luaan В исходном вопросе я предположил, что черные дыры были кугельблицем.
@Livid Как это что-то меняет?
@Luaan Вы сказали: «Вам нужен способ, чтобы эти черные дыры сформировались». Однако механизм представляет собой кугельблиц-форму.

Ваша симуляция случайным образом создает единственную частицу типа 1 или типа 2. Если эти два типа заряжены, то любой из этих двух процессов создания нарушает закон сохранения заряда. Насколько нам известно, сохранение заряда — это абсолютный закон физики, включая такие процессы, как образование и испарение черных дыр.

ОП пояснил в комментарии:

Обе частицы созданы, но одна засасывается в черную дыру. Другой остается снаружи. Так что заряд должен сохраняться.

Засасывание частицы в черную дыру не означает, что частица никогда не существовала. Ее масса-энергия, заряд и угловой момент все еще присутствуют в черной дыре. Это пример универсальности закона сохранения заряда как закона физики.

Допустим, в вашем моделировании частицы, представленные черной кривой на вашем графике, являются электронами. Тогда Вселенная в вашей симуляции накопила большой избыток положительно заряженных черных дыр. Эти положительно заряженные черные дыры (в среднем) не излучают электрически нейтральное излучение Хокинга. К тому времени, когда они полностью испарятся, они испустят положительно заряженные частицы, такие как позитроны, в количестве, точно равном количеству положительных зарядов, которые они израсходовали. (Я делаю эти утверждения так, как будто мы точно знали, что излучение Хокинга действует определенным образом. На самом деле у нас нет прямых доказательств, и методы квазиклассической гравитации никогда и никоим образом не сравнивались с наблюдениями, поэтому мы не можем действительно убедитесь, что они работают.)

Вы можете посмотреть условия Сахарова: https://en.wikipedia.org/wiki/Baryogenesis#GUT_Baryogenesis_under_Sakharov_conditions

Комментарии не для расширенного обсуждения; этот разговор был перемещен в чат .

Материя и антиматерия не создаются по одному случайным образом. Чтобы исправить вашу симуляцию, вам нужно всегда создавать электрон одновременно с созданием позитрона.

Нарушает ли добавление черной дыры эту симметрию? Точно нет. Заряд по-прежнему сохраняется — позитрон, который «падает» в черную дыру, не просто исчезает — он изменяет заряд, угловой момент и т. д. всей черной дыры. Поэтому, если черная дыра поглощает электрон, она становится немного более отрицательно заряженной. Черная дыра может поглотить не только электрон, но и позитрон — каждое нарушение баланса заряда означает, что частицы с различным зарядом притягиваются по-разному. Если вашей черной дыре каким-то образом удалось поглотить миллиард электронов за раз, она будет отталкивать электроны, притягивая позитроны. Дисбаланс быстро исчезнет.

Но в любом случае излучение Хокинга работает иначе (при условии, что оно действительно существует). Не существует пары частица-античастица, которая создается вблизи ровного горизонта черной дыры, из которых одна создается случайным образом таким образом, что она падает в дыру, а другая ускользает. Если бы это была правильная картина, излучение Хокинга испускалось бы во всех видах искривленного пространства-времени, включая земное. Так называемые виртуальные частицы — это возмущения в основных квантовых полях, которые нечастицы. Реальная частица — это устойчивый волновой пакет в поле, который самораспространяется и, если игнорировать взаимодействие с другими полями, никогда не исчезает; у него есть определенная масса, электрический заряд и т. д. Виртуальные частицы больше похожи на водную рябь, которую вы получаете, когда бросаете камень в пруд. Виртуальный электрон не имеет ни массы электрона, ни его заряда, ни чего-либо еще. Это не электрон, который аннигилирует с позитроном слишком быстро, чтобы его можно было наблюдать, — это вообще не частица. Иногда люди путают такие вещи, как «2 фотона -> 1 электрон + 1 позитрон -> 2 фотона» с виртуальными частицами. Между ними нет полезного сходства. Черная дыра похожа на дыру в барабанной оболочке. Его наличие означает, что одни колебательные режимы не разрешены, а другие запрещены.

Конечно, позитроны — не единственная положительно заряженная частица во Вселенной. Может ли излучение быть в форме протонов? Не совсем. Протоны действительно очень массивны по сравнению с электронами и позитронами. Даже если бы у вас была черная дыра, достаточно маленькая, чтобы излучение Хокинга имело достаточную энергию для производства протонов, вы бы ожидали тысячу позитронов на каждый произведенный протон, даже если предположить, что позитроны и протоны работают совершенно одинаково (а это не так). И, конечно же, вы все равно ожидаете, что антипротоны будут производиться в тех же количествах — конечным результатом по-прежнему будет вселенная без материи или антиматерии.

Это также означает, что на самом деле довольно сложно сделать материю из излучения Хокинга! Если верить популярному описанию излучения Хокинга и виртуальных частиц, следует ожидать, что большая черная дыра производит намного больше излучения, чем маленькая черная дыра. «Спонтанное образование пар» должно быть одинаковым во всем пространстве-времени, поэтому при прочих равных большая черная дыра должна «захватывать» больше пар, чем меньшая черная дыра; если мы игнорируем все эффекты, такие как заряд и гравитация, вы должны ожидать, что рождение пар будет соответствовать площади поверхности черной дыры (горизонту событий).

Но это совсем не так — ожидается, что меньшие черные дыры излучают гораздо больше излучения, чем большие черные дыры. Мало того, более крупные черные дыры излучают гораздо более длинные волны (и, следовательно, менее энергичные частицы, почти исключительно фотоны и, возможно, нейтрино), чем маленькие черные дыры. Черные дыры звездной массы слишком массивны, чтобы производить что-то вроде электрона — даже черная дыра земной массы слишком массивна .слишком много (около семи порядков). Излишне говорить, что вы должны ожидать протоны от еще меньших черных дыр, и в гораздо меньших количествах, чем любые электроны; а для незаряженной черной дыры вы получите примерно столько же электронов, сколько и позитронов. Симметрия по-прежнему присутствует, потому что, в конце концов, вы не поглощаете случайным образом одну из пары спонтанно образовавшихся частиц — вы искажаете колебания в электрическом квантовом поле, а результат зависит от того, каким было значение поля. в первую очередь.

Чтобы объяснить господство материи во Вселенной, нужно что-то, что предпочитает материю. Даже если простой статистической случайности было бы достаточно, чтобы объяснить преобладание материи, вы бы не ожидали, что Вселенная состоит из материи. Вы должны ожидать очаги материи рядом с очагами антиматерии. Но это было бы очень очевидно в наших обзорах, даже с очень большого расстояния — граница между карманом материи и карманом антиматерии светилась бы как сумасшедшая. Мы этого не видим.

Но на самом деле нам удалось найти одну вещь во Вселенной, которая по-разному обращается с материей и антиматерией — симметрия не идеальна. Это слабое ядерное взаимодействие, и физики очень рады узнать больше об этом фундаментальном взаимодействии, которым до сих пор немного пренебрегали; и особенно о его связи с относительно недавно подтвержденным полем Хиггса. Расписывать не буду, так как это уже слишком долго :)

У нас осталось еще одно важное дело. Вы предполагаете, что если в ранней Вселенной была большая плотность энергии, это должно было вызвать образование черных дыр. Это распространенное заблуждение — черные дыры не образуются в результате высокой плотности материи или энергии. Им нужен градиент плотности.. Различие не имеет большого значения, когда вы говорите о черных дырах, которые мы наблюдаем — вы, по сути, сравниваете плотность энергии почти вакуума с массивно сжатой звездной массой материи. Но в то время как ранняя Вселенная, до бариогенеза, имела очень высокую плотность энергии, она также была невероятно однородной — она была (и до сих пор остается) очень, очень плоской. Не было ни «наклона» пространства-времени, ни черных дыр. Сначала вам потребуются значительные отклонения, локализованные карманы с низкой плотностью энергии, но мы видим в космическом фоновом излучении, что Вселенная была чрезвычайно однородной (в точке, где она стала в значительной степени прозрачной для излучения).

«Материя и антиматерия не создаются по одному случайным образом. Чтобы исправить вашу симуляцию, вам нужно всегда создавать электрон одновременно с созданием позитрона». Именно это происходит при хокинговском излучении, которое моделирует моя симуляция.
«Чтобы объяснить господство материи во вселенной, нужно что-то, что предпочитает материю». Я думаю, вы упустили существенную часть вопроса. Все, что осталось, называется «материей». Это антропоцентрическая номенклатура. Если бы случайно выжила материя другого рода, ее назвали бы материей. Нет необходимости в предпочтениях, просто нарушение симметрии.
@MSalters Вам нужно предпочтение, чтобы объяснить, почему симметрия нарушается одинаково везде во Вселенной, а не в случайных участках материи и антиматерии.
@chris Вот почему я предположил, что материя «заперлась» как доминирующий вид в очень плотной высокоэнергетической среде вскоре после Большого взрыва. Сейчас скорость бариогенеза должна быть намного ниже. Хотя с помощью этого метода можно получить локальные области, в которых преобладает антиматерия, это должно быть очень редко, потому что сначала необходимо аннигилировать всю локальную материю.
@Livid Есть части вселенной, которые причинно не связаны друг с другом, то есть у них не было возможности смешаться друг с другом со времен Большого взрыва (или конца инфляции в инфляционных моделях). В любом случае, если вы утверждаете, что барионный дисбаланс, который мы наблюдаем сегодня, вызван случайностью, то нет смысла вообще упоминать о черных дырах — это, по крайней мере, с такой же вероятностью может произойти случайно без черных дыр.
@Chris Нет, я не предлагаю «случайность вызвала барионный дисбаланс, который мы наблюдаем сегодня». Я говорю, что барионный дисбаланс гарантирован, если вы принимаете образование/аннигиляцию пары материя-антиматерия и излучение Хокинга . Какой вид в конечном итоге станет доминирующим (и называется «материей»), зависит от наших знаний о системе. Назовите этот аспект «случайным», если хотите.
@Livid Локальный барионный дисбаланс в некотором масштабе гарантируется просто случайностью: т. Е. Плотность барионного числа не всегда равна нулю. Проделайте то же случайное блуждание только с частицами, покидающими и входящими в объем пространства, и вы получите похожие результаты.
@Chris «Проделайте то же случайное блуждание только с частицами, покидающими и входящими в объем пространства, и вы получите аналогичные результаты». Вам придется закодировать это, чтобы продемонстрировать это, потому что для меня это не имеет смысла. Я точно знаю, что получу ~50% материи и 50% антиматерии в объеме. Не доминирующий вид.
@Chris Под «барионным дисбалансом» я имею в виду почти все барионы одного вида (то есть материи), а не 51-49% или что-то в этом роде. Почти равное количество материи и антиматерии нестабильно, и я бы никогда не ожидал увидеть это. Мой вопрос: почему физики, по-видимому, ожидают увидеть это?
@MSalters Не совсем. Если бы материя и антиматерия поменялись местами, мы бы просто назвали антиматерию материей. Это не меняет аргумента — вам все еще нужно что-то, что предпочитает одно или другое. Нарушения симметрии было бы достаточно, если бы вы предположили то, что предполагал Ливид, — что каждый отдельный электрон немедленно аннигилирует с позитроном, если таковой имеется, и наоборот. Но мы знаем, что это не так, потому что существует универсальный предел скорости, и вы должны ожидать объемы, в которых преобладает материя, и объемы, в которых преобладает антиматерия, чего мы не наблюдаем.
@Luaan Немедленное уничтожение не обязательно для возникновения господства. См. мое последнее обновление, где я делаю вероятность аннигиляции функцией количества частиц (то же самое видно, если я использую только количество частиц «анти» к только что сгенерированному). И мне также интересно, была ли очень ранняя Вселенная настолько маленькой, что аннигиляция могла быть практически мгновенной.
@Livid Дело не во времени, а в расстоянии - частицы приближаются достаточно близко, чтобы вообще уничтожить. Дело в том, что по мере увеличения разделения вы ожидаете образования сгустков материи и антиматерии, а не однородной материи или антиматерии. Вы все еще предполагаете, что существует глобальный пул материи и антиматерии.
@Luaan Если вы хотите сказать мне, что вы хотите смоделировать, это имеет для вас смысл, как это сделал Крис. Нам нужно придумать способ, который не заканчивается тем, что я вычисляю траектории и выполняю чехарду, и т.д. Это должно быть простое доказательство концепции.
@Livid В конце концов, это очень просто. Запустите 100 симуляций. Вместо того, чтобы усреднять их, подсчитайте, сколько в конечном итоге преобладает материя и сколько преобладает антиматерия. Это ваше ожидание того, как в среднем должны выглядеть причинно несвязанные части вселенной. Вы обнаружите, что Вселенная представляет собой смесь сгустков материи и антиматерии, чего мы не наблюдаем в реальности.
@Luaan Вы можете найти это и многое другое в моем обсуждении с Крисом здесь . Как я уже говорил пару раз: мы не живем в среднем по многим вселенным, мы наблюдаем один экземпляр вселенной. Поэтому некорректно сравнивать то, что предсказано в среднем, с нашими наблюдениями. Меня не удивляет, что среднего результата в действительности не наблюдается. Я думаю, что это сбивает с толку, потому что расчеты для среднего не имеют логической ошибки и имеют те же единицы измерения, что и отдельные экземпляры, но они означают разные вещи.
@Livid Точно, мы не живем в среднем по многим вселенным. Но это то, что вы имитируете. Я предлагаю вам смоделировать множество отдельных причинно несвязанных участков нашей вселенной. Вы все еще предполагаете, что у каждого электрона было достаточно времени, чтобы аннигилировать с каждым существующим позитроном. Но как, если скорость света конечна? Насколько велика, по вашему мнению, Вселенная в момент остановки бариогенеза? Как быстро он расширялся? Вы предполагаете, что то, что произошло в одном месте, должно было произойти точно так же во всех местах ранней Вселенной.
@Luaan Я специально не пытаюсь смоделировать среднюю вселенную и сравнить ее с нашей вселенной, но это то, что вы только что буквально попросили меня сделать, «как в среднем должны выглядеть причинно несвязанные части вселенной». И я не понимаю, где я предполагаю, что «у каждого электрона было достаточно времени, чтобы аннигилировать каждый позитрон» в модели Криса. Предполагается, что они взаимодействуют со скоростью, пропорциональной произведению числа каждого из существующих: m*n1*n2. Теперь вы утверждаете, что есть какой-то другой эффект, потому что я не совсем уверен, что это устранит дисбаланс. Как я могу добавить это?
@Livid Я не уверен, что здесь так сложно понять. Космос большой. Вы предполагаете, что только потому, что есть позитрон и электрон, они аннигилируют. Это не так - им нужно сначала подойти друг к другу. У большей части вещей во вселенной никогда не было возможности взаимодействовать каким-либо образом. Таким образом, в вашей модели вы должны предположить, что вы получаете объемы пространства, где доминирует материя, и объемы пространства, где доминирует антиматерия. Они не могут достичь друг друга, чтобы уничтожить друг друга. Дисбаланс останется.
@Luaan «Вы предполагаете, что только потому, что есть позитрон и электрон, они аннигилируют». Я не согласен, однако модель (я говорю о модели пуассоина (m * n0 * n1)) действительно предполагает, что любой позитрон и электрон могут в конечном итоге аннигилировать друг друга. "в вашей модели вы должны предположить, что вы получаете объемы пространства, где преобладает материя, и объемы пространства, где преобладает антиматерия" . реальность? Это то, что нужно вывести из каких-то принципов, а не предполагать само по себе.

Просматривая ответы на этот старый вопрос, я не вижу основного статистического аргумента: асимметрия материи и антиматерии слишком велика, чтобы ее можно было объяснить случайным блужданием.

Считайте, что случайное блуждание Н шаги имеют тенденцию заканчиваться примерно Н шагах от его исходной точки. Точно так же процесс Пуассона (в котором все события независимы), который дает в среднем Н успехи будут иметь неопределенность вокруг этого среднего значения около Н .

Наблюдаемая Вселенная содержит примерно 10 80 барионы. Если мы представим, что это статистическая флуктуация в процессе, в котором нет внутреннего предпочтения материи антиматерии, этот процесс должен был бы происходить приблизительно 10 160 раз. Предположим, что каждая такая аннигиляция в конце концов производит два фотона: теперь эти фотоны вносят свой вклад в космический микроволновый фон. Но мы знаем плотность реликтового излучения. Отношение барионов к фотонам в нашей Вселенной составляет примерно 10 9 , нет 10 80 .

В Стандартной модели уже есть СР-нарушение (то есть асимметрия вещества и антивещества). Проблема в том, что известные С п нарушение слишком мало, чтобы объяснить господство материи, из которой мы состоим. Но отсутствующее CP-нарушение — это вопрос фактора 10 4 или около того, не в миллиард раз.