Матричная производная матрицы с ограничениями

Я ищу общий метод для получения производных правил матрицы с ограничениями по отношению к ее матричным элементам.

В случае симметричной матрицы С я Дж С я Дж "=" С Дж я ), один из способов сделать это следующий (см. Изменение метрики относительно метрики ). Мы говорим, что вариация матричного элемента дельта С я Дж такое же, как у дельта С Дж я , и поэтому

дельта С я Дж "=" дельта С я Дж + дельта С Дж я 2 "=" дельта я к дельта Дж л + дельта я л дельта Дж к 2 дельта С к л "=" С я Дж ; к л дельта С к л .
Тензор С я Дж ; к л имеет приятное свойство, что С я Дж ; к л С к л ; м н "=" С я Дж ; м н . Затем один говорит, что
дельта С я Дж дельта С к л "=" С я Дж ; к л .

Должен признаться, что мне не совсем понятно, почему это правильная процедура (она кажется совершенно произвольной, хотя очевидно, что она работает для вычисления производных функции симметричной матрицы). Это означает, что мне непонятно, как это обобщить, когда ограничение другое.

Например, возьмем набор матриц О принадлежность к группе С О ( Н ) . Есть ли способ написать дельта О я Дж дельта О к л с точки зрения тензора Б я Дж ; к л , со всеми теми же приятными свойствами?

В случае С О ( 2 ) , это кажется довольно простым, так как тогда О Дж я "=" ( 1 ) я + Дж О я Дж , и в этом случае находим

дельта О я Дж дельта О к л "=" дельта я к дельта Дж л + ( 1 ) я + Дж дельта я л дельта Дж к 2 ,
который действительно делает свою работу. Однако обратите внимание, что я не использовал определяющее свойство С О ( Н ) , то есть О О Т "=" 1 , и я не уверен, что это актуально...

Уже в случае С О ( 3 ) , кажется, нелегко найти эквивалентный тензор...


Боковое примечание: используя определяющее свойство С О ( 2 ) , можно массировать формулы, чтобы получить

дельта О я Дж дельта О к л "=" О я л О к Дж .
Прежде всего, это напрямую зависит от О , что кажется плохим. Кроме того, если мы условно определим Б я Дж ; к л [ О ] "=" О я л О к Дж (что уже отличается от того, что мы нашли для С О ( 2 ) ), то имеем Б я Дж ; к л [ О ] Б к л ; м н [ О ] "=" дельта я м дельта Дж н , что выглядит довольно странно...


Если кто-нибудь знает стандартную процедуру (если таковая существует) или хорошую ссылку, это было бы очень признательно. В любом случае, хорошее объяснение (может быть, немного формальное) в случае симметричной матрицы также может помочь мне разобраться в проблеме.

Ответы (2)

  1. Настраивать. Пусть дано м -мерное многообразие М с координатами ( Икс 1 , , Икс м ) . Пусть дано н -мерное физическое подмногообразие Н с физическими координатами ( у 1 , , у н ) . Пусть будет дано м н независимые ограничения

    (1) х 1 ( Икс )     0 , , х м н ( Икс )     0 ,
    которое определяет физическое подмногообразие Н . [Здесь означает слабое равенство, т.е. равенство по модулю ограничений.] Предположим, что
    (2) ( у 1 , , у н , х 1 , , х м н )
    представляет собой систему координат для расширенного многообразия М .

  2. производная Дирака. По аналогии со скобкой Дирака введем производную Дирака

    (3) ( Икс я ) Д   "="   Икс я а "=" 1 м н х а Икс я ( х а ) у   "="   α "=" 1 н у α Икс я ( у α ) х , я   е   { 1 , , м } ,
    который проецируется на физическое подмногообразие
    ( Икс я ) Д у α   "="   у α Икс я , ( Икс я ) Д х а   "="   0 ,
    (4) я   е   { 1 , , м } , α   е   { 1 , , н } , а   е   { 1 , , м н } .

  3. Примечание. Во многих важных случаях можно выбрать физические координаты ( у 1 , , у н ) так что производная Дирака (4) может быть записана как линейная комбинация неограниченных частных Икс -только производные, без ссылки на ( у , х ) -система координат (2), ср. уравнения (10) и (14) ниже.

  4. Коммутируют ли производные Дирака? Коммутатор

    (5) [ ( Икс я ) Д , ( Икс Дж ) Д ]   "="   α , β "=" 1 н у α Икс я [ ( у α ) х , у β Икс Дж ] ( у β ) х ( я Дж )   ?   0
    слабо пропадает? Не обязательно. Но если преобразование координат Икс я ( у α , х а ) линейна, то производные Дирака коммутируют.

  5. Пример. Пусть физическое подпространство является гиперплоскостью Н "=" { х ( Икс ) "=" 0 } с ограничением

    (6) х   "="   я "=" 1 м Икс я .
    Определение физических координат
    (7) у α   "="   Икс α 1 м я "=" 1 м Икс я , α   е   { 1 , , н "=" м 1 } .
    Наоборот,
    (8) Икс α   "="   у α + 1 м х , α   е   { 1 , , н } , Икс м   "="   β "=" 1 н у β + 1 м х .
    Производные связаны как
    Икс α   "="   ( у α ) х 1 м β "=" 1 н ( у β ) х + ( х ) у , α   е   { 1 , , н } ,
    (9) Икс м   "="   1 м β "=" 1 н ( у β ) х + ( х ) у .
    Производная Дирака становится после некоторой алгебры
    (10) ( Икс я ) Д   "="   Икс я ( х ) у   "="   Икс я 1 м Дж "=" 1 м Икс Дж , я   е   { 1 , , м } .

  6. Пример. Дифференциация относительно симметричную матрицу можно рассматривать как дираковское дифференцирование (3), где ограничения (1) задаются антисимметричными матрицами. Определять

    (11) с ( я Дж )   "="   М я Дж + М Дж я 2 и а ( я Дж )   "="   М я Дж М Дж я 2 для я   >   Дж ; и г ( я )   "="   М я я .
    Наоборот,
    (12) М я Дж   "="   θ я Дж ( с ( я Дж ) + а ( я Дж ) ) + θ Дж я ( с ( Дж я ) а ( Дж я ) ) + дельта я Дж г ( я ) ,
    где дискретная ступенчатая функция Хевисайда θ я Дж здесь предполагается подчиняться θ я я "=" 0 (без неявной суммы). Производные связаны как
    (13) М я Дж   "="   θ я Дж 2 ( с ( я Дж ) + а ( я Дж ) ) + θ Дж я 2 ( с ( Дж я ) а ( Дж я ) ) + дельта я Дж г ( я ) .
    Производная Дирака становится после некоторой алгебры
    (14) ( М я Дж ) Д   "="   θ я Дж 2 с ( я Дж ) + θ Дж я 2 с ( Дж я ) + дельта я Дж г ( я )   "="   1 2 ( М я Дж + М Дж я ) .

  7. Примечание. Дополнительные сложности возникают, если координаты и/или ограничения не определены глобально. Для начала достаточно, чтобы (2) была системой координат в трубчатой ​​окрестности Н .

  8. Репараметризация ограничений. Предположим, что существует вторая система координат

    (15) ( у ~ 1 , , у ~ н , х ~ 1 , , х ~ м н )
    (который мы украшаем тильдами), так что
    (16) у ~ α   "="   ф α ( у ) , х ~ а   "="   г а ( у , х )     0.
    Это означает, что
    (17) ( х а ) у   "="   ( х ~ б х а ) у ( х ~ б ) у ~ , ( у α ) х     ( у ~ β у α ) х ( у ~ β ) х ~ ,
    то есть
    (18) Δ х   "="   с п а н { ( х 1 ) у , , ( х н м ) у }     Т М
    является инволютивным распределением, а
    (19) Δ у   "="   с п а н { ( у 1 ) х , , ( у н ) х }     Т М
    является слабым распределением.

    Можно показать, что производная Дирака и ее коммутаторы

    (20) ( Икс я ) Д     ( Икс я ) Д , [ ( Икс я ) Д , ( Икс Дж ) Д ]     [ ( Икс я ) Д , ( Икс Дж ) Д ] ,
    [прав. системы координат (15) и (2) соответственно] слабо согласуются. Это показывает, что производная Дирака (3) является геометрической конструкцией.

  9. Субподмногообразие. Учитывая п -мерное физическое подподмногообразие п с физическими координатами ( г 1 , , г п ) . Пусть будет дано н п независимые ограничения

    (21) ф 1 ( у )     0 , , ф н п ( у )     0 ,
    которое определяет физическое подмногообразие п . Предположим, что
    (22) ( г 1 , , г п , ф 1 , , ф н п )
    образует систему координат для подмногообразия Н . Можно показать, что
    (23) ( Икс я ) Д ( п )   "="   ( Икс я ) Д ( Н ) а "=" 1 н п ( ф а Икс я ) Д ( Н ) ( ф а ) г , я   е   { 1 , , м } .
    Это показывает, что построение производной Дирака ведет себя естественно относительно. дальнейшие ограничения.

Кроме того, на практике обычно гораздо полезнее забыть, что ваша матрица симметрична, когда вы дифференцируете, и наложить условие симметричности позже.
Спасибо за ответ. Однако мне совершенно непонятно, как это реализовать для конкретного случая (например, в случае симметричных матриц, что делать Икс я и у я представляют? Независимый матричный элемент для последнего?). Не могли бы вы дать явное вычисление для симметричного случая, чтобы я мог попытаться обобщить его для моих случаев? Кроме того, что является хорошей ссылкой, чтобы начать изучать это?
тоже не понимаю что ( / х а ) у на практике должно означать...
Большое спасибо за пример! Если я переведу все между 2 и 3, то Икс соответствует (независимым) элементам М , с 'песок г к у и а к х с. Теперь я попытаюсь понять, смогу ли я понять все это для моих более сложных случаев!
@Qmechanic: я думаю, что лучше понимаю свое замешательство, хотя у меня все еще есть некоторые проблемы. Если бы я использовал стандартные дифференциалы с ограничениями, я бы наложил г М Дж я "=" г М я Дж , и я бы получил М я Дж | С "=" М я Дж + М Дж я (чего и следовало ожидать наивно). Но то, что вы, кажется, делаете, это допускает произвольное г М Дж я и г М я Дж , проецируя это на пространство М я Дж "=" М Дж я , который дает М я Дж | Д "=" 1 2 М я Дж + 1 2 М Дж я . Мой вопрос: почему использовать один, а не другой? В чем разница между ними?
Ваш метод, кажется, согласуется с этой статьей: doi.org/10.1016/0895-7177(95)00082-D Есть ли у вас другие ссылки на этот метод?
я не уверен, что М я Дж | С должно означать. Рассмотрим детально его определение. Только М я Дж | Д кажется действительным. Производная Дирака была разработана с нуля, вдохновленная ограниченной динамикой, ср. например, Хенно и Тейтельбойм.
Вот простой пример того, что я имею в виду. Возьмите функцию ф ( Икс , у ) , с ограничением Икс "=" у . Дифференциал ф , с ограничением, есть г ф "=" ф ( 1 , 0 ) г Икс + ф ( 0 , 1 ) г у . Стандартный метод реализации ограничения состоит в том, чтобы сказать, что г у "=" г Икс и поэтому г ф "=" ( ф ( 1 , 0 ) + ф ( 0 , 1 ) ) г Икс , что дает производную от ф относительно Икс с ограничением г ф / г Икс | С "=" ф ( 1 , 0 ) + ф ( 0 , 1 ) . С другой стороны, ваш метод допускает произвольное изменение с Икс и г у , которые затем проецируются на подпространство ограничения: ( дельта Икс , дельта у ) "=" п ( г Икс , г у ) что в данном случае означает...
... дельта Икс "=" 1 2 ( г Икс + г у ) и дельта у "=" 1 2 ( г Икс + г у ) , а вариация ф дан кем-то дельта ф "=" ф ( 1 , 0 ) дельта Икс + ф ( 0 , 1 ) дельта у "=" ф ( 1 , 0 ) + ф ( 0 , 1 ) 2 ( г Икс + г у ) , Который означает, что г ф / г Икс | Д "=" ф ( 1 , 0 ) + ф ( 0 , 1 ) 2 . (Примечание: если мы положим г у "=" г Икс в предыдущей формуле мы получаем тот же результат, что и при стандартном методе.)

Мне кажется немного неуместным дифференцировать ортогональную матрицу по ее компонентам. По определению это будет означать, что вы хотите выяснить, как изменяются другие компоненты матрицы, если вы изменяете компонент. Однако это однозначно определено только в случае SO (2), но не для SO ( Н > 2 ). Чтобы увидеть это более явно, рассмотрим вращение в 3D. Здесь у вас есть 3 угла, и если вы хотите изменить одну запись, есть вообще разные возможности. Это, конечно, не что иное, как утверждение, что ТАК( Н > 2 ) имеет более одного генератора.

Следовательно, более разумный способ (ИМХО) дифференцировать ортогональную матрицу - записать ее как

О "=" опыт ( Т ) , где   Т   антисимметричный
и дифференцировать по компонентам Т аналогично тому, что вы цитируете для симметричного матричного дифференцирования. Аналогичным образом это можно применить ко всем группам матриц, например, к унитарным матрицам. Т будет антиэрмитовским.

Просто чтобы уточнить ваше утверждение о том, что зависимость производной плохая: вы можете вывести формулу для SO (2), также используя параметризацию

О "=" опыт ( θ Т 1 ) "=" ( потому что θ грех θ грех θ потому что θ ) ,
где Т 0 — антисимметричная «единичная» матрица. Затем
О я Дж О к "=" О я Дж θ θ О к "=" О я Дж θ ( О к θ ) 1 .
Это приводит к тому же результату, что и выше, поскольку
О θ "=" ( грех θ потому что θ потому что θ грех θ ) .
Но также ясно, что точка, в которой вы берете производную, имеет значение.

В интересующей меня задаче мне действительно нужно вывести элементы матрицы, к сожалению. И мне также нужен общий метод, случай O (N) - это просто пример (это не совсем тот, который меня интересует)