В своей популярной книге «Частица на краю Вселенной» Шон Кэрролл говорит, что БАК из-за своей исключительной способности собирать информацию обязательно должен полностью отбрасывать большую часть собираемых им данных.
Мне было интересно, как это делается, отделяя «интересные» события от остального.
Кэрролл говорит, что между аппаратными и программными методами только несколько сотен событий в секунду из многих миллионов, производимых в секунду , сохраняются для полного анализа.
Является ли это алгоритмом сопоставления с образцом, который используется для анализа данных, и в этом случае вовлеченные люди, как теоретики, так и экспериментаторы, используют его в качестве руководства к тому, как будут выглядеть «странные» события?
Я уверен, что сомневаюсь в объединенном многолетнем опыте тысяч теоретиков и экспериментаторов. Кроме того, у меня, конечно, нет опыта, чтобы задавать вопрос в конкретных терминах.
Но в целом, если экзотическое событие производит действительно новую для нас сигнатуру, такую как темная материя или член четвертого поколения частиц, как мы можем быть уверены, что не пропустили его, если мы не знаем, что именно? искать в первую очередь?
Конечно, ответ может быть, скажем, из-за выходной энергии БАК, у нас есть пределы возможного, и мы действительно знаем, чего ожидать в любом конкретном диапазоне. Мне просто интересно, есть ли шанс, что мы пропустим что-то столь же важное, как бозон Хиггса?
События в детекторах физики высоких энергий, которые не могут предоставить полезные данные, в основном потому, что они являются результатом событий мягкого рассеяния, отбрасываются несколькими уровнями триггерных цепей. То, что делают эти схемы, предписывается так называемыми триггерными меню, которые основаны на теоретических предсказаниях большого количества известных и гипотетических типов физических событий.
Как вы правильно заметили, если должно произойти экзотическое событие, заметно отличающееся от любого из типов событий, охватываемых меню триггера, то оно может потеряться в триггере. Для защиты от полной потери таких событий существуют предварительно масштабированные триггерные меню (например, один на тысячу, десять тысяч или миллион пересечений группы и т. д.), которые пропускают поток данных, менее смещенный или полностью не смещенный предположениями о структуре события. Тем не менее, необходимо найти компромисс между частотой событий после запуска и количеством этих предварительно масштабированных событий, иначе сбор данных, хранение и особенно конвейеры анализа данных будут завалены, скорее всего, бесполезными данными. В конечном итоге это означает, что достаточно редкие экзотические события могут остаться незамеченными.
Если вы хотите увидеть, насколько все это сложно на самом деле, я бы посоветовал взглянуть, например, на этот отчет о техническом проектировании ATLAS cern.ch/atlas-proj-hltdaqdcs-tdr/tdr-v1-r4/PDF/TDR- 2up.pdf. Это всего лишь один из документов высшего уровня. Чтобы познакомиться с системой в деталях, вам, конечно же, придется прочитать сотни статей и внутренних технических отчетов.
пользователь81619
CuriousOne
dmckee --- котенок экс-модератор
пользователь81619
CuriousOne