(Шелдон Росс) Доказательство независимости выборочного среднего и выборочной дисперсии

Пожалуйста, обратитесь к доказательству, приведенному в: Шелдон Роуз, Первый курс в вероятности:

Автор говорит, что с тех пор { Д , Икс я Икс ¯ , я "=" 1 , , н } и { Икс ¯ , ( Икс я Икс ¯ ) , я "=" 1 , , н } имеют одинаковое совместное распределение, что показывает, что Икс ¯ не зависит от последовательности отклонений Икс я Икс ¯ , я "=" 1 , н .

Почему-то выделенное жирным шрифтом утверждение не выглядит слишком очевидным. Может кто-нибудь уточнить? Я что-то пропустил?

введите описание изображения здесь

Это раздел 7.8.2?
@cohomonoid Да, это правильно
Две компоненты многомерного нормального распределения независимы тогда и только тогда, когда они некоррелированы. Это особое свойство многомерного нормального распределения. (В этом отношении вам действительно не нужна случайная величина Д совсем.)
@ Ян спасибо. Насколько я знаю, автор не доказал этот результат, который вы излагаете, в своей книге. Может быть, поэтому он ввел переменную Y. Приходя к этому, также не доказано, что всегда можно найти независимую переменную Y с указанными средним значением и дисперсией

Ответы (3)

Очевидно. Дух.

Просто шучу. Итак, чтобы добавить немного к тому, что сказал автор, есть несколько вещей, которые вы должны собрать вместе, чтобы понять.

  • Прежде всего, Икс я Икс ¯ для я "=" 1 , , н и Икс ¯ вместе представляют собой линейную комбинацию Икс 1 , , Икс н , и поэтому имеют совместное многомерное нормальное распределение. Если бы вы написали матрицу, она выглядела бы примерно так

    [ 1 1 н 1 н 1 н 1 н 1 1 н 1 н 1 н 1 н 1 1 н 1 н 1 н ]
    с я й строка, соответствующая Икс я и ( н + 1 ) й грести к Икс ¯ . Это верно независимо от матрицы, я просто вычислил ее для удобства, чтобы вы знали, о чем мы говорим.

  • Если вы позволите Д быть нормальной случайной величиной со средним значением мю и дисперсия о 2 / н , затем { Д , Икс 1 Икс ¯ , , Икс н Икс ¯ } имеет то же совместное многомерное распределение, что и { Икс ¯ , Икс 1 Икс ¯ , , Икс н Икс ¯ } . Это связано с тем, что многомерное распределение { Д , Икс 1 Икс ¯ , , Икс н Икс ¯ } определяется его ожиданиями и ковариационной матрицей (независимо от Д , если совместное распределение является многомерным нормальным). В случае Д , ковариационная матрица выглядит так:

    [ В а р ( Икс 1 ) 0 0 0 В а р ( Икс н ) 0 0 0 В а р ( Д ) ]
    Записи вне диагонали равны 0, потому что Икс я независимы друг от друга, поэтому Икс я Икс ¯ ; нули в последней строке и последнем столбце есть, потому что Д является независимым от всех Икс я , следовательно, и Икс я Икс ¯ , который является просто линейной комбинацией Икс я .

Ситуация несколько иная для { Икс ¯ , Икс 1 Икс ¯ , , Икс н Икс ¯ } ; имеем следующую матрицу:

[ В а р ( Икс 1 ) 0 0 0 В а р ( Икс н ) 0 0 0 В а р ( Икс ¯ ) ]
В последней строке имеем С о в ( Икс я Икс ¯ , Икс ¯ ) (и аналогично в последнем столбце). Как отмечено в книге, обратите внимание, что все эти значения равны нулю.

  • Следовательно, поскольку В а р ( Икс ¯ ) "=" о 2 н "=" В а р ( Д ) , и Д не зависит от Икс я , делаем вывод, что Икс ¯ не зависит от Икс я потому что совместное распределение { Д , Икс 1 Икс ¯ , , Икс н Икс ¯ } и { Икс ¯ , Икс 1 Икс ¯ , , Икс н Икс ¯ } одинаковы. Это объединяет кучу вещей:
    • Многомерные нормальные распределения определяются их математическим ожиданием и ковариационной матрицей.
    • Если Д не зависит от Икс я , то она не зависит от Икс я Икс ¯ .
    • { Д , Икс 1 Икс ¯ , , Икс н Икс ¯ } и { Икс ¯ , Икс 1 Икс ¯ , , Икс н Икс ¯ } имеют одинаковое многомерное нормальное распределение (посмотрите на их ковариационную матрицу и используйте первый факт в этом списке).
    • Совместное многомерное распределение двух многомерных переменных { Икс 1 , , Икс н } и { Д 1 , , Д м } определяет их независимость (если вы можете факторизовать распределение как продукт
      Ф Икс 1 , , Икс н , Д 1 , , Д м ( Икс 1 , , Икс н , у 1 , , у м ) "=" Ф Икс 1 , , Икс н ( Икс 1 , , Икс н ) Ф Д 1 , , Д м ( у 1 , , у м )
      что эквивалентно определению независимости).

Объедините все эти вещи вместе, и вы увидите, что Икс ¯ не зависит от Икс 1 Икс ¯ , , Икс н Икс ¯ .

Факт ничего не стоит: если вы посмотрите на линейное преобразование, которое посылает ( Икс 1 , , Икс н ) к ( Икс 1 Икс ¯ , , Икс н Икс ¯ ) , это карты р н в ( н 1 ) -мерное подпространство р н , подпространство тех векторов, для которых сумма координат равна нулю. Есть еще одно линейное преобразование, которое отправляет ( Икс 1 , , Икс н ) к ( Икс ¯ , , Икс ¯ ) , т. е. одномерное подпространство, натянутое на среднее (если оно, конечно, не равно нулю, но это пространство, в которое попадает среднее, натянутое на вектор ( 1 , , 1 ) ). Из-за свойств многомерного распределения ортогональность этих двух векторов подразумевает, что они не коррелированы (из-за способа вычисления ковариации) и, следовательно, независимы (из-за того, что мы обсуждали выше). (Это еще одно доказательство вашего беспокойства, принимая ( Д 1 , , Д м ) "=" ( Икс ¯ , , Икс ¯ ) с н "=" м .)

Надеюсь, это поможет,

Большое спасибо за ответ.

В предыдущем предложении или двух сказано, что Д не зависит от Икс я , поэтому он не зависит от Икс я Икс ¯ (До нашей эры Икс ¯ является функцией Икс я ). С Д , Икс я Икс ¯ имеет то же распределение, что и Икс ¯ , Икс я Икс ¯ , это значит, что Икс ¯ не зависит от Икс я Икс ¯ .

Спасибо. Не могли бы вы также объяснить, в таком случае, какая польза от результата: с о в ( Икс ¯ , Икс я Икс ¯ ) "=" 0
@MathMan, как сказал Ян выше, подразумевает независимость, поэтому введение Д может быть не нужно

Альтернативное доказательство следующее: в гауссовой модели Икс ¯ н это CSS (полная и достаточная статистика) для мю пока ( н 1 ) С н 2 о 2 х ( н 1 ) 2 таким образом, выборочная дисперсия является вспомогательной для мю .

Здесь мы можем применить теорему Басу, заключающую, что

Икс ¯ н С н 2