Насколько серьезно мы можем относиться к успеху Стандартной модели, когда у нее так много входных параметров?

Стандартная модель физики элементарных частиц чрезвычайно успешна. Однако у него есть много экспериментально подогнанных входных параметров (например, массы фермионов, углы смешивания и т. д.). Насколько серьезно мы можем относиться к успеху Стандартной модели, когда у нее так много входных параметров?

На первый взгляд, если у модели много входных параметров, она может соответствовать большому объему данных. Существуют ли качественные и, что более важно, количественные предсказания Стандартной модели, которые не зависят от этих экспериментально подобранных параметров? Опять же, я не сомневаюсь в успехе SM, но это проблема, которую я хотел бы решить и демистифицировать.

Идея состоит в том, чтобы использовать подмножество известных параметров для предсказания других, а затем сравнить их с экспериментами, см., например, тесты электрослабой точности.
Может быть , этот мой ответ прояснит использование констант, полученных физикой .
Я думаю, что это все еще открытый вопрос, сколько из этих параметров на самом деле являются независимыми. Одна из целей «Теории всего» — уменьшить их.
Количество параметров обусловлено количеством фундаментальных полей. У вас есть три калибровочных поля, каждое со своей собственной связью, у вас есть дюжина фундаментальных фермионов, каждый со своей массой, и т. д. Считаете ли вы, что количество фундаментальных полей бросает вызов достоверности стандартной модели?
Сколько количественных результатов можно было бы получить без экспериментальной подгонки каких-либо констант? Никто. Количество свободных параметров проблематично для SM, но формулировка вопроса, по крайней мере, для меня довольно странная. Насколько серьезно можно относиться к успеху ньютоновской гравитации, если для определения ускорения свободного падения на поверхности Земли требуются 3 «экспериментально подогнанных параметра» (а также примите во внимание, как это было проверено в то время — и к тому времени, когда оно стало общепринятым!). Кроме того, эти константы не просто исчезают по мере уточнения модели: вместо этого они становятся структурными параметрами...
Разве ни одна математическая модель не имеет входных параметров, моделирующих что-либо с определенной степенью точности? Вспомните о Лотке-Вольтерре или попробуйте математически смоделировать какое-нибудь другое явление, происходящее в технике, и получить хорошее количественное согласие. Людям не нравится номер, который есть в SM, а не тот факт, что они существуют. Насколько я знаю, сам факт подгонки параметров с философской точки зрения не беспокоит (могу ошибаться).
Например, я когда-то изучал простую математическую модель транспортного потока, выходящего на кольцевую развязку. я использовал 3 входные параметры, так почему же можно ожидать отсутствия входных параметров в такой модели, как Стандартная модель, которая описывает множество разрозненных физических явлений с очень высокой степенью точности?
Сколько сотен мезонов и адронов, предсказанных по паре десятков параметров, будут считаться «успешными»?

Ответы (7)

Неверно думать, что вся стандартная модель физики элементарных частиц была определена экспериментально. Это далеко не так. В большинстве случаев теоретические предсказания физики элементарных частиц позже подтверждались экспериментально и довольно часто с очень высокой точностью.

Например, физики-теоретики предсказали существование Вт ± и Z бозоны и их массы, бозон Хиггса, существование глюонов и многие их свойства еще до того, как эти частицы были обнаружены. Паули постулировал существование нейтрино для объяснения сохранения энергии при бета-распаде до того, как нейтрино было обнаружено. Аномальный магнитный момент электрона, значение которого было предсказано Юлианом Швингером, согласуется с экспериментом до 3-х частей в 10 13 . Нарушение четности в слабом взаимодействии, предсказанное Ли и Янгом, позднее было подтверждено экспериментально. Предсказание позитрона Дираком было обнаружено четыре года спустя Андерсоном.

Список можно продолжать, и список огромен 1 . Физика элементарных частиц, возможно, является самой успешной физической теорией, потому что снова и снова ее предсказания позже подтверждались экспериментом с удивительно высокой точностью (хотя иногда наши теории нуждались в улучшении, чтобы объяснить некоторые детали экспериментальных данных). Я могу быть предвзятым, исходя из теоретического фона физики элементарных частиц, но я всегда соглашался с тем, что Стандартная модель — самая математически красивая, глубокая и глубокая модель из всей физики. Это отражено в его почти чудесной точной предсказательной силе.


1 Еще несколько важных моментов:
1935 Хидэки Юкава предложил сильное взаимодействие для объяснения взаимодействий между нуклонами .
1947 Ганс Бете впервые использует перенормировку.
1960 Йоичиро Намбу предлагает SSB (нарушение киральной симметрии) в сильном взаимодействии.
1964 Питер Хиггс и Франсуа Энглер предлагают механизм Хиггса.
1964 г. Мюррей Гелл-Манн и Джордж Цвейг заложили основу кварковой модели.
1967 Стивен Вайнберг и Абдус Салам предлагают электрослабое взаимодействие/объединение.


Между экспериментом и теорией существует диалектика. Теория объясняет эксперимент и предлагает, какие вопросы нужно задать и, следовательно, какие эксперименты нужно провести. В то время как эксперимент говорит нам, где наша теория верна, а где нет. В физике есть три наиболее важных нерешенных вопроса: темная материя, темная энергия и квантовая гравитация. Эксперимент установил первые два. Последнее маловероятно экспериментально из-за ограничений современных технологий, и поэтому существуют такие разногласия по поводу теорий квантовой гравитации. Это показывает, почему эксперимент...
... по-прежнему имеет огромное значение в физике. Без него мы далеко не уедем.
Да, конечно, эксперимент имеет решающее значение в физике.
Не забывайте вывод Дирака об антивеществе!
Я согласен с большой ценностью Стандартной модели, но история гораздо более сбалансирована между теорией и экспериментом, чем предполагает этот ответ. Было много экспериментальных сюрпризов, и в списке основных моментов теоретической работы отсутствуют многие другие теоретические предложения, которые оказались бесполезными или вводящими в заблуждение.
Стоит отметить, что многие из этих предсказаний не были интуитивными или предсказуемыми, они просто появляются из необработанной стандартной математики модели, когда значения совершенно не связанных явлений используются для определения относительно небольшого числа параметров. И тогда некоторые из этих предсказаний масс частиц и взаимодействий оказываются не только реальными, но и предсказанными с поразительной точностью.
@Stilez Это точно правда. Я надеялся, что это подразумевается в ответе. Я на самом деле добавлю ваши баллы к нему, когда у меня будет немного времени. Спасибо.
Я заметил, что люди иногда отдают предпочтение эксперименту, а не теории. Если вы читали статьи 1960-х годов, в которых кое-что из этого возникло, ключевым моментом было то, что проводились теоретические исследования, которые привели к теореме Голдстоуна, безмассовым бозонам Намбу-Голдстоуна, спонтанному нарушению симметрии и т. д., то до этого работа Зумино по двумерной электродинамике и так далее.
@joseph h -- Ты прав! Я должен был посмотреть на теги по заданному вопросу. В правильном контексте мои комментарии были совершенно идиотскими, поэтому я их немедленно удалю. (Я одержим космологией, которая заменила все остальное в моем чтении, но довольно хромает на физике элементарных частиц, которая, очевидно, имела много успешных земных приложений и, конечно же, учитывалась во вдохновляющей модели Гута.) Я искренне ценю вы обратили мое внимание на эту оплошность.
@ Эдуард, лол. Не проблема. Я был виновен в том же. Я тоже удалю свои ответы. Ваше здоровье.

Стандартная модель может иметь много параметров, но она также говорит о многих вещах, каждый из которых обычно включает очень ограниченное количество параметров. Например , время жизни мюона

т мю "=" 6144 π 3 М Вт 4 г 4 м мю 5
зависит только от М Вт , г , м мю ( г – слабое изоспиновое взаимодействие), а время жизни тауона т т удовлетворяет
т т т мю "=" 1 3 ( | В ты д | 2 + | В ты с | 2 ) + 2 м мю 5 м т 5 ,
который зависит только от | В ты д | , | В ты с | , м мю , м т . Таким образом, для этих двух прогнозов требуется шесть параметров, что само по себе звучит не так уж впечатляюще. Но это упускает суть. Полный набор прогнозов СМ использует все параметры в различных подмножествах, создавая систему гораздо большего количества одновременных уравнений, чем у нас есть параметров. Если (принимая одну оценку, обсуждаемую здесь) существуют 37 параметры, это не похоже на то, что мы подходим к степени- 36 многочлен у "=" п ( Икс ) по ОЛС . Это больше похоже на требование одних и тех же нескольких коэффициентов для одновременного решения множества различных задач регрессии.

Я уверен, что кто-то будет возражать против моей формулы для т мю имеет время на левой стороне и обратную массу на правой стороне, использует натуральные единицы и должен читаться

т мю "=" с 2 6144 π 3 М Вт 4 г 4 м мю 5
в единицах СИ, чтобы раскрыть использование еще двух параметров с , . Имейте в виду, однако, что они оба имеют точные значения СИ по определению . Во всяком случае, это не сильно влияет на аргумент.

И не забывайте о предсказательной силе Стандартной модели. Он предсказывает почти всю физику с высокой точностью в масштабах от субатомного до межгалактического.
@AccidentalTaylorExpansion субатомный хорошо, но макроскопический/межгалактический? Не могли бы вы привести пару примеров?

На сегодняшний день, 24 сентября 2021 г., БАК выпустил 2852 публикации. Допустим, в каждой публикации по 5 сюжетов. Каждый участок имеет 50 очков. Мы округлим это число до 1 000 000 точек данных вместе со сравнением с теорией.

Какую часть данных по физике элементарных частиц составляет БАК? 1%? Я не знаю. Физика элементарных частиц началась в 1908 году с открытия Резерфорда. 197 А ты ( α , α ) 197 А ты эксперимент. Допустим, LHC — это 0,1% всех данных.

Это означает, что 1 миллиард точек данных объясняется с помощью Н свободные параметры. Я помню Н "=" 37 , но, возможно, он изменился. Википедия говорит Н "=" 19 . Я не знаю об этом.

В любом случае, количество данных на несколько порядков энергии, включающих все известные формы материи, в ЭМ, слабом и сильном секторах, объясняемых таким небольшим количеством параметров, является экстраординарным.

Несмотря на темные дела .

Ваша точка зрения хорошо принята, но для протокола, большинство этих точек данных не независимы друг от друга (распределения смазывания энергетического разрешения, одни и те же параметры измеряются снова и снова), уменьшая вашу оценку на много порядков. Все-таки большое количество по сравнению с количеством бесплатных параметров.
@rfl это те же параметры, только если модель правильная. Измерение угла Вайнберга в LEP по сравнению с нарушением четности на атомных орбиталях может быть совершенно не связано с альтернативной (и неправильной) стандартной моделью.
Конечно. Но даже данный коэффициент ветвления или время жизни и т. д. измеряется снова и снова в (надеюсь, когда-либо более точных) публикациях.
Собираясь в Сен-Жени-Пуйи, я встретил коллаборацию с 2852 публикациями...
19 параметров Википедии не включают массу нейтрино. С массой нейтрино это 26. Некоторые люди не считают θ КХД что приводит к 18 или 25.

Вопрос, в конечном счете, не в физике, а в статистике. Недаром физика элементарных частиц остается одной из немногих областей физики, где статистика все еще практикуется на высоком уровне (во многих других областях высокая точность измерений сводила потребность в статистическом анализе к вычислению стандартных отклонений). В частности, глава о статистике в PRD представляет собой отличный ускоренный курс по статистическому анализу. 

Сколько параметров много? 

В физике мы привыкли к моделям, где количество параметров можно пересчитать по пальцам, потому что мы стремимся понять элементарные взаимодействия/процессы/и т.д. Описание любых явлений реального мира обязательно приводит к объединению многих элементов и использованию большего количества параметров. Модели, используемые в технике, например, при проектировании самолетов или в государственном планировании, содержат сотни и тысячи параметров. Большие перспективы машинного обучения связаны с современными вычислительными возможностями для использования моделей с миллионами параметров, часто имеющих очень неясное значение (для людей), но они по-прежнему работают очень хорошо, как мы видим по тегам Facebook или растущему качеству Google. переводить.

Сколько данных? 

Будет ли у нас слишком много параметров, зависит от того, сколько у нас данных. Эмпирическое правило состоит в том, что у нас больше точек данных, чем у нас есть параметров. Однако более принципиальные подходы строятся вокруг вероятности , то есть вероятности наблюдения данных при заданных нами значениях параметров:

п ( Д | θ ) .
Модель в этом контексте является средством математического выражения этой связи между параметрами и данными.

Теперь, если наша модель хороша, вероятность будет увеличиваться по мере увеличения количества данных (количества точек данных) — хотя это увеличение не является строго монотонным из-за случайных эффектов. Если этого не происходит, наша модель не годится — возможно, она слишком упрощена, имеет слишком мало параметров — это называется недообучением .

Сравнение моделей 

Учитывая большое количество данных, модель с большим количеством параметров, как правило, приводит к более высокой вероятности - именно в этом заключается проблема, поднятая в ОП. Попутно замечу, что мы никогда не можем доказать или опровергнуть модель саму по себе — мы скорее сравниваем разные модели и выбираем лучшую. Модель с большим количеством параметров может быть просто лучше, потому что она лучше аппроксимирует физическую реальность. Но такая модель может привести к более высокой вероятности просто потому, что у нас есть больше параметров для настройки — это то, что мы называем переоснащением .

Разработаны методы корректировки количества параметров при корректировке модели. Одним из наиболее известных является информационный критерий Акаике (AIC), где сравниваются величины

А я С "=" к М бревно п ( Д | М ) ,

где к М это количество параметров un model М . Тогда модель с наименьшим значением AIC считается той, которая достигает наилучших результатов с наименьшим количеством параметров.

Чтобы этот простой критерий не показался слишком интуитивным, позвольте мне указать, что для его строгого обоснования требуется совсем немного математики. Существуют также более сложные версии, а также альтернативные критерии, такие как байесовский информационный критерий (где к М заменяется его логарифмом). 

Вот как в двух словах происходит выбор лучшей модели. Физика вмешивается в формулировку логически мотивированных моделей на выбор. Подозреваю, что если мы посмотрим на публикации того времени, когда была сформулирована Стандартная модель, то альтернативных предложений было немало, а в дискуссиях среди ученых, наверное, еще больше. Но прелесть физики в том, что она позволяет значительно сузить выбор моделей — как альтернативу подходам машинного обучения, где все возможные модели равны, а выбор основывается исключительно на их совместимости с данными.

Если у вас есть н входные параметры в детерминистской теории, которые вы можете идеально подогнать не более чем н точки данных, просто регулируя эти параметры. В вероятностной теории это более тонко, но есть аналогичная ассоциация. Независимо от того, сколько параметров требуется стандартной модели, это намного меньше, чем необходимо для обработки 1 петабайта данных, собираемых на БАК в секунду.

Мы должны серьезно относиться к стандартной модели, потому что она обладает исключительной предсказательной силой.

Мне кажется, что сосредоточение внимания на многих параметрах, вводимых вручную в Стандартной модели, упускает из виду лес за деревьями. Нет никаких требований, чтобы законы природы соответствовали нашим представлениям о том, как должна выглядеть теория. Конечным арбитром теории является то, делает ли она проверяемые предсказания. Поскольку Стандартная модель так хороша в этом, мы должны отнестись к ней серьезно.

30 с лишним параметров невелики по сравнению с 30 тысячами или даже 30 миллионами. Конечно, физики хотели бы сократить количество параметров до одного или вообще до нуля. Тем не менее, мы можем относиться к нему серьезно из-за его экспериментального успеха. Более элегантный с математической точки зрения вывод стандартной модели основан на некоммутативной геометрии. Это дает полную модель, включающую смешивание нейтрино в естественной геометрической форме, даже если она некоммутативна.

«Это дает полную модель, включающую смешивание нейтрино в естественной геометрической форме, даже если она не коммутативна». Можете дать ссылку?
@mithusengupta123: Посмотрите книгу « Некоммутативная геометрия» Алена Конна и Матильды Марколли.
@MoziburUllah, вы не должны упоминать работу Конна без обязательной оговорки о том, что это не основное исследование.
@проф. Легослав: Я не думаю, что это необходимо — даже Виттен изучал некоммутативную геометрию. Более того, многие работы, проделанные в науке, не являются мейнстримными.
@MoziburUllah это необходимо. Не мейнстрим не значит неправильный, я согласен с этим. Но мы не можем вводить в заблуждение таких людей, как OP — мы должны честно говорить о том, что подтверждено, а что нет. Заминусовали исключительно из-за этого.