Существует ли значительная вероятность того, что БАК пропустит «экзотические» частицы или события?

В своей популярной книге «Частица на краю Вселенной» Шон Кэрролл говорит, что БАК из-за своей исключительной способности собирать информацию обязательно должен полностью отбрасывать большую часть собираемых им данных.

Мне было интересно, как это делается, отделяя «интересные» события от остального.

Кэрролл говорит, что между аппаратными и программными методами только несколько сотен событий в секунду из многих миллионов, производимых в секунду , сохраняются для полного анализа.

Является ли это алгоритмом сопоставления с образцом, который используется для анализа данных, и в этом случае вовлеченные люди, как теоретики, так и экспериментаторы, используют его в качестве руководства к тому, как будут выглядеть «странные» события?

Я уверен, что сомневаюсь в объединенном многолетнем опыте тысяч теоретиков и экспериментаторов. Кроме того, у меня, конечно, нет опыта, чтобы задавать вопрос в конкретных терминах.

Но в целом, если экзотическое событие производит действительно новую для нас сигнатуру, такую ​​как темная материя или член четвертого поколения частиц, как мы можем быть уверены, что не пропустили его, если мы не знаем, что именно? искать в первую очередь?

Конечно, ответ может быть, скажем, из-за выходной энергии БАК, у нас есть пределы возможного, и мы действительно знаем, чего ожидать в любом конкретном диапазоне. Мне просто интересно, есть ли шанс, что мы пропустим что-то столь же важное, как бозон Хиггса?

Ответы (1)

События в детекторах физики высоких энергий, которые не могут предоставить полезные данные, в основном потому, что они являются результатом событий мягкого рассеяния, отбрасываются несколькими уровнями триггерных цепей. То, что делают эти схемы, предписывается так называемыми триггерными меню, которые основаны на теоретических предсказаниях большого количества известных и гипотетических типов физических событий.

Как вы правильно заметили, если должно произойти экзотическое событие, заметно отличающееся от любого из типов событий, охватываемых меню триггера, то оно может потеряться в триггере. Для защиты от полной потери таких событий существуют предварительно масштабированные триггерные меню (например, один на тысячу, десять тысяч или миллион пересечений группы и т. д.), которые пропускают поток данных, менее смещенный или полностью не смещенный предположениями о структуре события. Тем не менее, необходимо найти компромисс между частотой событий после запуска и количеством этих предварительно масштабированных событий, иначе сбор данных, хранение и особенно конвейеры анализа данных будут завалены, скорее всего, бесполезными данными. В конечном итоге это означает, что достаточно редкие экзотические события могут остаться незамеченными.

Если вы хотите увидеть, насколько все это сложно на самом деле, я бы посоветовал взглянуть, например, на этот отчет о техническом проектировании ATLAS cern.ch/atlas-proj-hltdaqdcs-tdr/tdr-v1-r4/PDF/TDR- 2up.pdf. Это всего лишь один из документов высшего уровня. Чтобы познакомиться с системой в деталях, вам, конечно же, придется прочитать сотни статей и внутренних технических отчетов.

Да и жизнь коротка. Я знаю, что этот вопрос рассматривался теми, кто знает ГОРАЗДО больше, чем я, просто Кэрролл пропустил то, что, по моему мнению, более заслуживало более продолжительного рассмотрения, которое могло бы научить меня физике элементарных частиц. Это для вас, однако, попса, иногда это заставляет вас думать самостоятельно, а иногда оставляет вас разочарованным, с лишь проблеском ответа. Спасибо за это
@AcidJazz: Я могу сказать вам, что дизайн этих триггерных меню был важным делом в начале и середине 1990-х годов (разумеется, на основе десятилетий предыдущего опыта и теории), даже когда детекторы все еще находились в стадии разработки. На самом деле даже невозможно спроектировать функциональный детектор без понимания структуры события. К счастью, каждый эксперимент может основываться на физике, изученной в предыдущих экспериментах, так что большая часть этого на самом деле является очень хорошо зарекомендовавшей себя теорией... но количество интеллектуального труда, затрачиваемого на эти расчеты и симуляции, просто ошеломляет.
@AcidJazz В дополнение к комментариям CouriousOnes постоянно рассматривается вопрос о том, что должно быть в триггерах, как структурировать триггерные решения и сколько событий с минимальной и нулевой предвзятостью должно быть принято. кроме того, части системы запуска работают на FPGA, поэтому возможны существенные изменения типа. Используемые в наши дни системы невероятно гибки по сравнению с теми, на которые я опирался менее двух десятилетий назад.
@dmckee Это очень-очень далеко от Уилсона и его фотографий из камеры Вильсона. Я спросил, как работают триггеры, но, честно говоря, кажется, что весь сайт будет охватывать только этот процесс. Это должно быть более чем неприятно, хотя и необходимо, отпустить так много данных, зная, что одна запись может, просто может, рассказать нам что-то действительно новое.
@AcidJazz: dmckee дал отличные советы. Современные триггеры представляют собой программируемые сквозные таблицы, реконфигурируемые с помощью программируемых аппаратных средств, а некоторые уровни представляют собой программы, работающие на серверном оборудовании. Триггеры развиваются и обновляются. Однако интересная вещь, которая произошла на LHC, заключалась в том, что первоначальные оценки того, сколько событий нужно было обработать, примерно в десять раз превышали то, что они обрабатывают прямо сейчас. Отчасти это произошло из-за чрезмерно усердных оценок физики. Даже с технологией 1995 года мы могли бы обрабатывать гораздо больше, чем сегодня, но в этом нет необходимости.