О независимости остаточной суммы квадратов с нецентральным хи-квадрат распределением

Тип работы:
Реферат
Предмет:
Физико-математические науки


Узнать стоимость

Детальная информация о работе

Выдержка из работы

электронное научно-техническое издание
НАУКА и ОБРАЗОВАНИЕ
Эя №ФС 77 — 30 569. Государствен идя регистрация № 421 100 025. 155Н 1994−0408_
О независимости остаточной суммы квадратов с нецентральным хи-квадрат распределением.
77−30 569/226125
# 10, октябрь 2011
Сидняев Н. И., Андрейцева К. С.
УДК 51. 519. 2
МГТУ им. Н. Э. Баумана ni@mail. ru 9 259 988 800@mail. ru
1. Введение
Дисперсионный анализ определяется как статистический метод, предназначенный для оценки влияния различных факторов на результат эксперимента, в связи, с чем область применения этого метода становится значительно шире. Несмещенной оценкой для неизвестных параметром является, как известно, сумма квадратов. Основная идея дисперсионного анализа заключается в разбиении этой суммы квадратов отклонений на несколько компонент, каждая из которых соответствует предполагаемой причине изменения средних ([1], гл. 3, п. 3.1.3. с. 92).
Рассмотрим разложение остаточной суммы квадратов
00 = 01 + 02
и докажем независимость слагаемых 01 и 02. Для доказательства нам понадобятся две
теоремы и четыре вспомогательные леммы.
Лемма 1.1. Ранг произведения двух матриц, А и В меньше или равен минимального из рангов матриц, А и В, т. е.
г (АВ) & lt- тт (г (А), г (В)).
Доказательство. Так как по правилу умножения матриц столбцы матрицы АВ являются линейной комбинацией столбцов матрицы А, то число линейно независимых столбцов в АВ не может превосходить число линейно независимых столбцов в, А — следовательно, г (АВ) & lt- г (А). Проведя аналогичные рассуждения для строк (строки АВ являются линейной комбинацией строк В), получим, что г (АВ) & lt- г (В). Лемма доказана.
Следствие закона инерции квадратичных форм (о количестве инвариантов): если Q = х'-Лх является квадратичной формой от п переменных х^…, хп и ее ранг равен г, т. е. г (Л) = г, то существует г линейных комбинаций
г 2
переменных х^…, хп, например, гг, таких, что Q = 2 Яг и каждое Л1 = 1 или -1.
I=1
Используем теорему Кохрана [1], как простое следствие следующей теоремы.
N 2 _
Теорема 1.1. Пусть 2у- = Ql +… + Qs, где QJ¦, у = 1, я, является квадратичной
I=1
формой ранга п ¦ от переменных У1,…, УN. Тогда необходимым и достаточным условием существования ортогонального преобразования г = Лу, переводящего вектор у = (,…, УN) в вектор г = ((,…, zN) так, чтобы при этом
П1 П1 +п- П1 +… +Иу
Ql = 2*?, Q2 = 2^,., Qs = 2 гг2,
I =1 ?=П1 +1 I=П1 +… +Пя-1 +1 (1 1)
является условие П1 + п- +… + пя = N.
Доказательство. Необходимость. Если такое ортогональное преобразование
N п1 +… +пя
существует, то 2 Уг- = 2 г. Левая часть является квадратичной формой ранга N, а
I=1 I=1
правая часть — квадратичной формой ранга П1 + п- +… + пя. По лемме 1.2 отсюда следует, что ранги квадратичных форм равны, т. е. п + п- +… + пя = N.
Достаточность. Так как ранг QJ равен п ¦, то из следствия закона инерции
квадратичных форм отсюда следует, что существует п- линейных комбинаций гп

переменных У1,…, УN, таких, что QJ = 2ЛЛ, где каждое Я = 1 или -1. Для Ql индексы
I
I принимают значения 1, 2,…, п1- для Q2- п1 +1,…, п1 + п- и т. д. Теперь, если 2пI = N,
I=1
то существует N линейных комбинаций ?1,…, ZN, которые в матричных обозначениях можно записать так: г = ЛУ.
Вводя диагональную матрицу DNхN с диагональными элементами Я,…, ЛN,
я N я N
получаем, что 2 Qj = 2Ягг2 = г '-Dz = У '-Л'-DЛy. С другой стороны, 2 Qj = 2 У- = У У.
¦=1 I=1 ¦=1 I=1
Так как симметричная матрица квадратичной формы единственна, то заключаем, что А'-ПА = I, следовательно, А невырождена. Теперь докажем, что Б = I. Действительно,
предположим, что Як = -1. Тогда по формуле у = А-12 мы можем найти значения
У1,…, уN, соответствующие значениям = 0 при г ^ к и = 1, а для этих значений
N N 2
I у2 = = Як = -1, что невозможно. Следовательно, Б = I и, А '-А = I. Последнее
г=1 г=1
равенство показывает, что преобразование 2 = Ау ортогонально. Теорема доказана. Замечание. Условие Iп1 = N обеспечивает всем квадратичным формам 01
г =1
положительную определенность, так как при ортогональном преобразовании получается, что все их характеристические числа равны 0 или 1.
Теорема 1.2 [1]. Пусть случайные величины уг, г = 1, N, независимы и имеют нормальные распределения N (г/г, 1) соответственно. Пусть далее
N о
I у2 = 01 +… + О,
г =1 ,
где 0 г, г = 1, , — квадратичная форма от переменных у1,…, УN ранга пг. Тогда
01,…, 0, будут иметь независимые нецентральные % -распределения с П1,…, п,
,
степенями свободы соответственно тогда и только тогда, когда I п1 = N. Если через 8
г=1
2
обозначен параметр нецентральности 0 г, то значение 8¦ может быть получено заменой
yj на Г, 1у в 0, т. е. если 0 = у'-Ау, то 88 = Л'-АЛ, где V = (^1,… ,^N) — у = 0−1,…, УN).
Доказательство. Необходимость. Если 01,…, 0, являются независимыми случайными величинами, имеющими %2-распределения с П1,…, п, степенями свободы
соответственно, то из определения нецентрального %2-распределения следует, что 10j
j=1
2, N 2
имеет нецентральное % -распределение с I nj степенями свободы. Но так как I уг-
j=1 г=1
2 N 2 ,
имеет нецентральное % -распределение с N степенями свободы, а I уг = 10j, то,
г=1 j=1
я
следовательно, 2 п- = N.
¦=1
я
Достаточность. Пусть 2 п- = N. Тогда при ортогональном преобразовании г = Лу
¦=1
теоремы 1. 1, случайные величины ZN снова будут независимыми и нормально
2
распределенными. Из соотношений (1. 1) и определения нецентрального % -распределения следует, что Ql,…, Qs имеют независимые нецентральные % -распределения с п^…, пя степенями свободы соответственно. Теорема доказана.
2. Вспомогательные теоремы и леммы
Предположим, что пространство значений случайных величин разбито на конечное число г частей я1,…, без общих точек, и пусть р1,…, рп — соответствующие вероятности
Р = Р{X е Б}, 2 Р = 1.
Будем предполагать, что все р{ & gt- 0. Обозначим через: число наблюденных значений случайных величин — X принадлежащих множеству.
Рассмотрим вектор (о 1 ,…о г). В качестве меры расхождения между эмпирическим и
г о
теоретическим распределением рассмотрим выражение 2 С (~ - Р1)2, где коэффиценты
7=1 п
С могут быть выбраны более или менее произвольно. Пирсон показал ([2] гл. 10. 6, с. 261,
Г31 п
[3], что если с = -, то полученная мера Рг
х1 = 2- О — р,)2 = 2 о -«
1 Рг V п) 1 Прг (21)
обладает чрезвычайно простыми свойствами.
Теорема 2.1. При пда распределение %%п стремится к распределению %2 с г — 1 степенями свободы.
На основании этой теоремы по заданному уровню значимости, а находят по таблицам число %% из условия
Р{%2 & gt-%а} = а, (2. 2)
Гипотеза Н0 отвергается, если вычисленная по выборке величина & gt- %2а.
При доказательстве теоремы нам потребуется следующая лемма. Лемма 2.1. Пусть о 1 ,…о г — целые неотрицательные числа, причем о1 + о2 +… + ог = п.
Число способов, посредством которых п элементов могут разделены на г групп, из которых первая содержит о1 элементов, вторая о2 элементов, …, г — ог элементов равно
п!
01!..0 !.
Доказательство. Первую группу из о1 элементов можно выбрать СЩ1 способами. После того, как образована первая группа, остается п — о1 элементов. Поэтому вторую группу из о2 элементов можно выбрать С-ц способами и.т.д. После образования г — 1
группы остается п-о1 -… ог-1 = ог элементов, которые и образуют последнюю группу. Таким образом, число всех возможных способов, посредством которых п элементов могут быть распределены на г групп, из которых первая содержит о1 элементов, …, г содержит
ог элементов, равно
С°1. С °2.. С°г-1
п п-о1 п-01-… -Ог-2
С = п!
Используя формулу Сп к!(п к)!, получим утверждение леммы.
Доказательство. Результат любого испытания с вероятностью р = Р{X е } будет принадлежать множеству Si. Поэтому, на основании леммы 2. 1, вероятность того, что в процессе п независимых испытаний о1 значений будет принадлежать множеству Б1, …, ог значений будет принадлежать множеству Бг, равно
п!
& quot- • ро рог
II I 1 г
о1! о2!- ог! (2. 3)
Это выражение, как легко видеть, является общим членом разложения (Р1 +… + Рг) п. Совместное распределение случайного вектора о = (о1,…, ог) задается (2. 3) и является полиноминальным распределением. Найдем характеристическую функцию с полиноминальным распределением. Имеем
п|
Мег ('-& quot- = Ме& quot-"- виг°г = I е& quot-"- сиг°г Р& quot-1 • •••
/ '- I I 1 г
& quot-^0 & quot-!•••"--1
& quot-+… +"- =п
= (Р/1 +… +Ргеиг)п
Введем новые величины хг = & quot-'- гпр1, г = 1,2,…, г. Тогда, очевидно, Iх^^^р^ = 0.
4пРг
%2Г = I х]. Найдем характеристическую функцию случайного вектора х = (х1з…, хг).
1
Имеем
«и-прч
, Ч г ('-
_ Д 4пг (-1х) — & lt-пр —
р^,…, -г) = Ме1 (чх) = Ме
щ I- п1
М • с ^пРг__
цк 0 & quot-к. "-1
I& quot- =п
Еч, — & quot-г I- п I
е 4 т • с 4прг__г±_р& quot- • • р& quot- =
., 1 I 1 г
= е к^р~к I е 1 VnpГ • ег4прг__ГЪ_р& quot- • • р& quot-г =

& quot->- 0 I& quot- =п
& quot- к. "- I

= е-^^(ре^ +… + Р/^г)п
(2. 4)
Далее, для любых фиксированных '-1,…, '- г получим
1п р (-& gt-,…, -г) = п 1п (I Рке& quot-к) — гл/^ (2. 5)
2 2 1 х _ … х 1
Из разложений ех = 1 + х + - + 0(х3), 1п (1 + х) = х- - + 3Я, |Я| & lt- |х31 и из (2. 6)
следует
I р/4^ ^ рк + I Р^к + 21 р, +о (п-3'-2)
2 ч прк)
1 /2
Iрк + Iр^к -21 ^+о (п-3'-2)
2п
к
ln p^,…, tr) = n ln[1 + -±= Z tkJpkZ + O (n 3/2)] -
Vn 2n ^
— ^ Z tk4p~k =
= n ln[-^ Z hjpk — 2- Z tj + O (n-3/2)] -
л/n 2n ^
— n [ --n Z tk4K — T1- Z ti+O (n-3/2)]2 +
2 y/n 2 n
±R — ^^v- Z = - 2 Z t2+2(Z)2+O (n-½) (2 6)
Таким образом, из (2. 6) получаем
, ч — к Z '-k — (Z '-kJPk)2] - 2Q (ti,…, tr)
lim p (t1,…, tr) = e 2 = e 2
n — OT
(2. 7)
Квадратичная форма Q (t1,…, tr) = Z tk — (Z tk/ft)2 имеет матрицу Л = I — pp'-, где I обозначает единичную матрицу, а P — вектор — столбец, заменяя t1,…, tr новыми переменными м1з…, ur с помощью ортогонального преобразования, при котором
r r__r r-1
ur = ZhJE, получим Q'-г) = Zt2k-(Z& quot-l^Pk)1 = Zu2 -ur2 = Zur2.
11 1 1
Итак, квадратичная форма Q (t13…, tr) неотрицательная и имеет ранг r — 1, т. е. при n -^от совместная характеристическая функция величин х1,…, xr стремится к выражению exp (-1/ 2Q), являющемуся характеристической функцией некоторого несобственного нормального распределения ранга r — 1, в котором вся масса сосредоточена на гиперплоскости Z xk -J~pk = 0.
Из теоремы непрерывности следует, что в пределе величины x1,…, xr имеют несобственное нормальное распределение с нулевыми, средними и матрицей вторых
г
моментов Л. Отсюда получаем, что в пределе величина %2r = Z x2k имеет
1
распределение %2 ^ r -1 степенями свободы, ч.т.д.
3. Нецентральное хи-квадрат распределение
Рассмотрим случай, когда у1, у2, —, уп — независимые случайные величины, имеющие нормальное распределение со средним? i (i=1, 2,., n) и дисперсией 1, т. е.
уг (/Лг, 1) 0=1, 2,.., п). Тогда распределение случайной величины
п
^ у2
и
г =1
называется нецентральным %2-распределением [1−3].
Величина 4й представляет собой радиус гиперсферы в п-мерном пространстве [1,4]. Распределение случайной величины и зависит только от параметров п и
, г=1 У
ч 1'-2
2
а = I I /л/. Поэтому его также называют нецентральным %2 -распределением с п
степенями свободы и параметром нецентральности, а [2,5,6]. В этом случае, следуя [4], случайную величину и будем обозначать
и = %1а
Если, а = 0, т. е. = 0 ^=1, 2,…, п), то распределение случайной величины и
22 называют центральным % -распределением или просто % -распределением с п
степенями свободы и случайную величину и будем обозначать
и = %2.
Пусть Р^}%1а}=а. Величину %2а. п)0 называют порогом или, а — процентной точкой %2 — распределения с п степенями свободы. Ее значения для различных, а и п [5,6]. Математическое ожидание и дисперсия случайной величины %2.а равны
М{%-Л= п + а2- В%1а}= 2п + 4а2.
Если их = и и 2 = %2Пг-аг — независимые случайные величины, то из определения
2 2 нецентрального % -распределения сразу следует, что их сумма и = иг + и2 = %п-а имеет
нецентральное %2 — распределение с п=п1+п2 степенями свободы и параметров не
I 2 2 V'- 2 центральности, а = а + а2).
4. Результаты
Для доказательства независимости слагаемых 01 и 02 приведем следующие вспомогательные утверждения.
Лемма 4.1. Ранг суммы квадратичных форм не превосходит суммы их рангов. Доказательство. Достаточно показать, что если Л1 и Л- являются матрицами
одного порядка и ранг Л1 равен п{, то г (Л1 + Л-) & lt- г + г-. Для векторного пространства,
порожденного столбцами Л1, выберем базис из г1 векторов. Тогда так как столбцы
Л1 + Л- равны суммам соответствующих столбцов Л1 и Л-, то они являются линейными
комбинациями г + г- векторов двух базисов- следовательно, число линейно независимых
столбцов в Л1 + Л- не может превосходить г + г-. Следовательно, г ((1 + Л-) & lt- г
& lt- г + г.
Лемма доказана.
N
Следствие. Если 2У1 = Ql +… + Qs, где ранг QJ меньше или равен п ¦, у = 1, я, и
I=1
если п1 + п2 +… + пя = N, то г (2-)= п-, у = 1, я.
Доказательство. Оно следует непосредственно из леммы 4.1. С одной стороны
г я Л я
2QJ & lt-2г (Qj)<- 2п- = N
V ¦ =
¦=1
¦=1
а с другой стороны
Следовательно,
2 Qj
)
Л г N Л 2

2 У2
VI=1)
= N
2(Q ¦)=N
¦=1
При условии г^)& lt- п ¦, у = 1, я, выполнение последнего равенства возможно только тогда, когда г^у)= п ¦, у = 1, я, что и доказывает следствие.
Лемма 4.2. Если Q является квадратичной формой от переменных У1,…, УN и может быть выражена как квадратичная форма от переменных гр, являющихся линейными
комбинациями У1,…, УN, то г (9)& lt- р.
Доказательство. Пусть Q = У'-Лмхку = г'-Врхрг и г = Срх^у, где Л и В симметричны. Тогда из равенства Q = У '-С '-ВСу следует, что Л = С '-ВС, а по лемме 1. 1
г
1
г
получаем: г (0) = г (А) = г ((С '-В)С) & lt- г©. Так как С — матрица размера (р х N), то г© & lt- р. Лемма доказана.
Используя приведенные выше утверждения, приступим к доказательству
л 0'- '-
независимости 01 и 02. Так как 00 = у '-у — Р X0 у, то
уу = 01 + 02 + 03, (4. 1)
ло'- '- / '- -1 '-
где 03 =Р X0 у = у '-А у — А3 = X0 (х0 X0) X0.
Определим ранги квадратичных форм 01, 02 и 03. Так как г (А3) = р0, то г (03)= щ = р0 [1,2,6]. Перейдем к анализу квадратичной формы
п т1
02 = IIрl, — у1У
I=1,=1
Введем переменные = у, — у1, I = 1, п —, = 1, т1. Очевидно, что
п т1
02 = И4
1 =1,=1
_ 1 т1 т11
Так как уг = - IуI, то Цуь -уг)= 0
т, =1 ,
•л
,=1
т1
1= 0, поэтому
,=1
т1−1
21 т, = - I 21,
,=1
Таким образом,
п т1−1 2 п 2
п т1−1 2 п
(т1 -1 ^
02 = I I 21, + I 21т1 = I I 21, + I — 11,
I=1 ,=1
I = 1
I=1 ,=1
I=1^ ,=1 у
Как видно из этого выражения, 02 является квадратичной формой от п2 переменных
— --п I
, I = 1, п —, = 1, т1 -1, где п2 = К1 — 1) = N — п. Поскольку переменные являются
I=1
линейными комбинациями у, то, применяя лемму 4. 2, получаем
г (02)& lt- п2 = N — п.
Следуя аналогичной схеме рассуждений для 01, применяя лемму 4, находим
2
r Q1 n1 = n —
po
Действительно, квадратичная форма Ql от переменных у^ после некоторых преобразований может быть записана в виде Ql = 2 '- Тг, где 2 — п -мерный вектор, а г (Т) = п — р0.
Но и без этого на основании следствия леммы 4. 1, так как п1 + п- + п3 = N, получаем) = п — ро- г (Q2) = N — п- г (Qз)= ро.
Уь
В силу того, что случайные величины --, I = 1, п, я = 1, ш1, независимы и имеют
а
(* * Л] Л] нормальное распределение Nт,, 11, где гц. = = -, то переход от равенства (4. 1) к
а а
равенству
уу =, о-,
а2 а2 а2 а2
Q1
позволяет применить теорему Кохрана. По этой теореме случайные величины --,
а2
Q2 Qз 2
-- и -- независимы и имеют нецентральные % -распределения соответственно с а2 а2
п — ро, N — п и ро степенями свободы. Таким образом, независимость Ql и Q2 доказана. Замечание. Применяя теорему Кохрана для вычисления параметра нецентральности
2 Q2
5- квадратичной формы --, легко убедиться, что независимо от того, истинна гипотеза
а2
2 Q9 2
Но или нет, 5- = 0, т. е. величина и- = -- имеет центральное % -распределение:
а2
1 п т1 1 п т1 (1 т1 Л2 1 П т1
52 =--22(-г)2=-т22 г--2 г = --22(г-г)2 =о
y'-ls '-И/ 2 CT /=1s=1 CT /=1s=1
V ml s=1 у
CT2 l=1s=1
Список литературы
1. Асатурян В. И. Теория планирования эксперимента. М.: Радио и связь, 1883. 248 с.
2. Сидняев Н. И. Теория вероятностей и математическая статистика. М.: Юрайт, 2011. -170−190 с.
3. Тескин О. И. Статистическая обработка и планирование эксперимента. М.: МВТУ, 1982. 75 с.
4. Математическое моделирование интенсивности теплопередачи методами теории планирования эксперимента'- Сидняев Н. И. и др. & quot-Инженерно-физичекий журнал. -2002. -Т. 75, № 2 -С. 132−138.
5. Сидняев Н. И. Теория планирования эксперимента и анализ статистических данных. М.: Юрайт, 2011. -95−220 с.
electronic scientific and technical periodical
SCIENCE and EDUCATION
_EL .№ FS 77 — 30 569. № 11 421 100 025, ISSN 1W4−04HM_
Independence of the residual quadratic sums in the with noncentral hi-2 distribution
77−30 569/226125
# 10, October 2011
Sidnyaev N. I., Andreytseva K.S.
Bauman Moscow State Technical University
sidn_ni@mail. ru 9 259 988 800@mail. ru
1. Introduction
The dispersive analysis is defined as the statistical method intended for estimation of influence of various factors on a result of experiment, so application area of this method becomes much wider. Unbiased estimate for unknown parameters is the sum of squares. The main idea of the dispersive analysis consists in splitting of this sum of squares of deviations into some components, each of which corresponds to the prospective reason of averages changing.
Let'-s consider decomposition of the residual sum of squares
Qo = + 02
and we will prove independence of the summands Q: and Q2. Two theorems and four auxiliary lemmas will be necessary for the proof.
Lemma 1.1. The rank of composition of two matrixes A and B is less or equal to minimal rank of matrixes A and B i.e.
r (AB)& lt- min (r (A), r (B)).
Proof. By a rule of matrixes multiplication, columns of matrix AB are a linear combination of columns of a matrix A, then the number of linearly independent columns in AB can'-t surpass the number of linearly independent columns in A- consequently
r (AB)& lt-r (A)
Doing similar reasoning for the lines (the lines of AB are a linear combination of the lines B), we will receive that r (AB) & lt- r (B). The lemma is proved.
Consequence of the inertia law of square-law forms (about quantity of invariants): if Q = x Ax is the square-law form with n variables xl3…, xn and its rank is equal to r, r (A) = r, then r
r
linear combinations of variables xl3…, xn exist, for example, z1,., zr such that Q =? Aizf and
i=1
every Xi = 1 or -1.
We will use the Kohran theorem as a simple consequence of the following theorem.
N
Theorem 1.1. Let? y2 = Q +… + Qs,
i=1
where Qj, j = 1,5, are the square-law form with rank nj from variables y1,…, yN. Then the condition n1 + n2 +… + ns = N is a necessary and sufficient condition for existence of the
r
orthogonal transformation z = Ay translating a vector y = (,…, yN) into a vector
r
z = (,…, zN) in such way, that
^ n +n2 n1 +… + n
Q1 =?z2, Q2 =Zz2,…, qs =? z2,
i=1 i=n1 +1 i=n +… +ns-1 +1
Prove. Necessity.
N n1 +… +ns
If such orthogonal transformation exists, then? y2 =? z2. The left part is the square-law
i=1 i=1
form of a rank N, and the right part is the square-law form of a rank n1 + n2 +… + ns. By the lemma 1. 2, ranks of square-law forms are equal, i.e. n1 + n2 +… + ns = N. Sufficiency.
As the rank Qj is equal nj, then from a consequence of the inertia law of square-law forms, it
follows that nj linear combinations z1,…, zn of variables y1,…, yN exist, such that Qj = ?Aizf
i
where each Ai = 1or -1. For Q1 indexes i have values 1,2,…, n1- for Q2- n1 +1,…, n1 + n2 etc.
s
Now, if? ni = N, then N linear combinations z1,…, zN exist, which in matrix designations can
i=1
be written so: z = Ay. Using a diagonal matrix DNxN with diagonal elements A1,…, AN, we receive that
s N
? Qj =?V2 = z Dz = y A DAy
j=1 i =1
On the other hand S Qj = S y2 = y '-y. As the symmetric matrix of the square-law form is
-=i i=
unique, it is concluded that A '-DA = I, hence, it is nondegenerate. Now we will prove that D = I. Let =-1. Then under the formula y = A& quot-1 z we can find the values of y,…, yN corresponding to values zi = 0 at i ^ k and zk = 1, and for these values
N N
S yi2 =SV2 = 4 = - i=1 i=1
?
that is impossible. Hence, D = I and A '-A = I. Last equality shows that transformation z = Ay is orthogonal. The theorem is proved.
5
Remark. The condition S ni = N makes the square-law forms Qi positive definite, as at
i=1
orthogonal transformation, it turns out that all their characteristic numbers are equal 0 or 1.
Theorem 1.2 [1]. Let random variables yi, i = 1, N, are independent and have normal distributions N (r]i, 1) accordingly. Let further
N
S y2=Q1+… +a i =1
where Q, i = 1, 5, — the square-law form from variables y1,…, yN of nt rank. Then Q1,…, Qs have independent noncentral x2- distribution with n1,…, n5 freedom degrees accordingly, in only
5
case, when S n = N. If 5t is the parameter of noncentrality Qi, then the value Sf can be
i=1
received by replacement y}. on Q, i.e. if Q = yAty, then Sf = rfA^, where
r r
r = (r,…, rN) — y ^y^. -yN).
Proof. Necessity.
If Q1,…, Q5 are the independent random variables with x2- distribution with n1,…, n5 freedom
s s
degrees accordingly, then S Qj has noncentral x2 — distribution with S nj freedom degrees.
j=1 j=1
N
As? y2 has noncentral x2- distribution with N freedom degrees, and? y2 =? Qj, hence,
?=1 i=1 j=1
?i=N •
Sufficiency. Let? nj = N. Then at orthogonal transformation z = 4y (theorem 1. 1), random
j=1
variables z1,…, zN will be independent and normally distributed. From parities (1. 1) and definitions of noncentral x2 — distributions follows that Q1,…, Qs have independent noncentral X2 — distributions with n1,…, ns freedom degrees accordingly. The theorem is proved.
2. Auxiliary theorems and lemmas
We will assume that the space of values of random variables is split into finite r parts s1,…, sn without the general points, and let p1,…, pn — probabilities P = P{X e St}, ?p = 1.
Let'-s assume that all pi & gt- 0. Let oi is the number of observed values of random variables — X belongs to set 5i.
Let'-s consider a vector (u1,… ur). As a divergence measure between empirical and
r u
theoretical distribution we will consider? ci (- - pi)2, where factors ci could be chosen
i=1
n
n
random. Pearson has shown ([2], [3]) that if ci = -, then received measure
pt
xf = ?- u — p.)2 =? — n
1 pi V n J 1 npi (21)
possesses extremely simple properties.
Theorem 2.1. At nro, distribution xX aspires to distribution x2 with r — 1 degrees of freedom.
On the basis of this theorem by the set significance value a we will find the number xl from the condition
p{x2 & gt-xa} = a (2. 2)
The hypothesis H0 is rejected, if xI & gt- x2a.
At the proof of the theorem the following lemma is required to us.
Lemma 2.1. Let v1,… vr — the whole non-negative numbers, and u1 + u2 +… + vr = n. Number of ways, by means of which n elements can be divided into r groups, the first of which
n!
contains v elements, the second elements — v2, …, ri -v elements, is equal to-.
v1 … vr !
Proof. The first group of v1 elements can be chosen by C^ ways. After the first group is formed, n — v1 elements remain. Therefore, the second group of v2 elements can be chosen by CV-v ways etc. After formation of r — 1 groups, n-v1 -… vr-1 = vr elements remain, which form the last group. Thus, the number of all possible ways by means of which n elements can be distributed on r groups, from which the first contains v1 elements, ., ri contains vr elements, is equal to
Cv1. Cv2 • • • CVr-1
n n-v1 n-v1 -… -vr-2
/k- n!
Using the formula Cn =---, we will receive the lemma statement.
k!(n-k)!
Proof. Result of any test with probability p = P{X e Si }will belong to set Si. Therefore, on the basis of a lemma 2. 1, the probability of that v1 values will belong to set S1, ., vr values will belong to set Sr, is equal to
n!
ppv1 • • • Pvr
V! v2!& quot-vr! (2. 3)
This expression, as it is easy to see, is the general member of decomposition (P +… + Pr)& quot-. Joint distribution of a random vector v = (v,…, vr) is set by expession (2. 3) and is polynominal distribution. We will find the characteristic function with polynominal distributions. We have
M e& gt-(, v) = M? kv… dtv'- =? ?kv… dtv -- p ••• Pvr
v: °+vr =» vl^vr! r =(P1eltl +… +Pre& quot-r)n
Let'-s enter new quantities:
V — nPi
x, =
nP i = 1,2,…, r
Then obviously, SXijp = 0, x2 = S x2. We will find characteristic function of a random
1
vector x = (x17…, xr). We have
, u-np, i (t ,--=?)
(fit,., t) = Mei (hx) = Me =
hU-pL
=? e 1 ^ • e ^__l_pu.. pur =
?-i & quot-'- _ i _ i i r
u & gt-0 ui !• -• Ur!
?u =n
np np np
= e ynft • v1 e
? e ^ •-e---- P? •., Pu =
?U …
it1 itr
= ?t^Vpk ^^ +… +p^r)n
Further, for any fixed tl ,…, t r, we will receive
ln f (ti,…, tr) = n ln (? Pkeltk) — iyfn? ^Vp
(2. 4)
(2. 5)
22 x x 1 I I
From decompositions ex = 1 + x + - + O (x3), ln (1 + x) = x- - + 3R, R| & lt- |x3|, and from (2. 5) follows that
? p^ =? pt +? p^+2? pt +O (n-3'-2) =
itk l 2 =? pk +? p^ - 2? n+O (n-3/2)
ln f (ti,…, tr) = n ln[1 +? tkJJk? tk2 + O (n-3/2)] -
vn 2 n ^
-^? tk4pk =
= nln[ '-? t^--L? tk2 + O (n-3/2)] -Vn 2n ^
-l[--1? tk4K-2-? tk2 + O (n-3/2)]2 +
2 Vn 2 n
+ -«R -ijn? t^VpT = -2? tk2 + |(? tk4Vk)2 + O (n-½)
(2. 6)
So, now we can receive that
., x — Z tk — (Z '-iJPk)2] - (ti,…, tr)
lim (p (t1,…, tr) = e 2 = e 2
n ^ (2. 7)
The square-law form
Q (, i,…,, r)=Z t2 — (Z tkJP)2
has a matrix A = I — pp'- where I designates an individual matrix, and P is a vector — column, replacing t1,…, tr with new variables u1,…, ur by means of orthogonal transformation, at which ur = Z tk^JPk, we will receive
r r r r-1
Q (ti,…, tr) = Z tk — (Z tlJPl)2 =Z uk — u2 = z
u2
1
So, the square-law form Q (t1,…, tr) is non-negative and also has a rank r — 1, i.e. at n, joint characteristic function of quantities x 1,…, xr aspires to the expression exp (-1 /2Q), which is characteristic function of some nonintrinsic normal distribution of a rank r — 1, in which all weight is concentrated to a hyperplane S xkyfpk = 0.
From the continuity theorem follows that x1,…, xr have nonintrinsic normal distribution with zero average and a matrix of the second moments A. From here we receive that the quantity
r_
%2r = S x2k in a limit has distribution x2 with r — freedom degrees.
1
3. Noncentral x2 -distribution
Let'-s consider that y 1, y2, ., Yn — the independent random variables with normal distribution with an average (i=1, 2, ., n) and a dispersion 1, i.e. yt~N (fj.i, 1) (i=1, 2,., n). Then random variable distribution
n
u = S yf
i=1
is called as noncentral x2 — distribution [1−3]. The quantity yfu represents radius of a hypersphere in n-dimensional space [1,4].
/ N½
(n
Random variable distribution u depends only on parameters n and a = I? juf
. Therefore
V i=1
, 2
it also names as noncentral x — distribution with n degrees of freedom and non-centrality parameter a [2,5,6]. In this case, following [4], a random variable u we will designate
u = xL
If, a = 0, i.e. ?j.i = 0 (i=1, 2,…, n), distribution of random variable u named as central x2 -distribution or it is simple x2 — distribution with n degrees of freedom and a random variable u we will designate
u = x"2.
Let Pjx!2)xaa-a }= a. Quantity xa-n)0 is named as a threshold or a — percentage point of x2 -distribution with n freedom degrees. Its values for various a and n [5,6]. The mean and variance of a random variable xla are
M{xU= n + a2- D{xU= 2n + 4a2
If u1 = Xniai and u2 = x"2-CT2 — independent random variables, then from definition of noncentral x2 — distribution it follows that their sum u = u1 + u2 = xl-a has noncentral x2-distribution with n=n1+n2 degrees of freedom and parameters of not centrality a = (a12 +& amp-1)1
/2
4. Main results
For the proof of Ql and Q2 independence we will result following auxiliary statements. Lemma 4.1. The rank of the sum of square-law forms doesn'-t surpass the sum of their ranks. Proof. It is enough to show that if Al and A2 are matrixes of one order and the rank a. is
equal to n., then r^ + A2) & lt- rL + r2. For the vector space generated by columns A., we will choose basis from vectors r… As columns Al + A2 are equal to the sums of corresponding columns Al and A2, then they are linear combinations rL + r2 of vectors of two bases- hence, the number of linearly independent columns in Al + A2 can'-t surpass rL + r2. Hence, r (aAl + A2) & lt- rL + r2. The lemma is proved.
N 2 _
Consequence. If Sy*- = Q1 +… + Q5, where the rank Qj is less or equal to n ¦, j = 1, 5 and
i=1
if n1 + n2 +… + n5 = N, then r (Qj)= nj, j = 1, 5. Proof. It follows directly from a lemma 4.1. On the one hand
r 5 5
ZQj & lt-ZrQn} = n j=1

j=1
and on the other hand
(s (N
Z Qj = r Z y

= N
v i =1 —
Hence,
^^)= N
j=1.
Under a condition of r (Qj)& lt- n-, j = 1, s, performance of last equality is possible only when rQj)= nj, j = 1, s, as proves a consequence.
Lemma 4.2. If Q is the square-law form from variables y1,…, yN and can be expressed as the square-law form from the variables z1,…, zp which are linear combinations of y1,…, yN, to
r (Q)& lt- p.
Proof. Let Q = y'-ANxNy = z'-Bpxpz and z = Cp xNy, A and B are symmetric. Then from equality Q = y'- CBCy follows that A = C'-BC, and on a lemma 1.1 it is received: r (Q) = r (A) = r ((C'-B)C) & lt- r©. As C — a matrix of the size (p x N), then r© & lt- p. The lemma is proved.
Using resulted above the statement, we will start the proof of independence Q1 and Q2. As
A o'-
Qo = y '-y -p Xo'-y, then
y y = Q1 + Q2 + Q3
(4. 1)
where
r
r
A, i '- V1
03 =p Xo y = y '-A3y. A3 = Xo (xo Xo) Xc
Let'-s define ranks of square-law forms Q1, Q2 and Q3. As r (A3) = p0, then r (Q3) = n3 = p0 [1,2,6]. We will pass to the analysis of the square-law form
n mi i -x& gt- Q2 = SS ((i5 -yiT i=15=1
Let'-s enter variables zl5 = yl5 — yl, l = 1, n- 5 = 1, mt. It is obvious that
n mi
2
Q2 =SSzi5
l=15=1
1 '-& quot-l '-& quot-l '-& quot-l
As yl = - S yl5, then S ((l5 — yl T= 0 ^ S zl5 = 0, m
therefore
ml 5=1 5=1 5=1
ml-1 zlmt = - S zl5.
5=1
Thus,
n mt -1 n n mt-1 n r mi-1 ^
Q2 =SS zi25 +Szi2mi =SSzi5 +S -Szi
l = 1 5=1 l = 1 l = 1 5 = 1 l = 1 V 5 = 1
Apparently from this expression, Q2 is the square-law form from n2 variables l = 1, n —
5 = 1, ml -1, n2 = S (mi -1) = N — n. As variables zl5 are linear combinations of yls, and
i=1
applying a lemma 4. 2, we receive
r (Q2)& lt- n2 = N — n. Following the similar scheme for Q1 and applying the lemma 4, we find
r (Q1 T& lt- n1 = n -P0.
Really, square-law form Q1 from variables yl5 after some transformations can be written down in a kind Q1 = z '-Tz, z — n -dimensional vector, and r (T) = n — p0.
On the basis of a consequence of a lemma 4.1 as n1 + n2 + n3 = N, we receive rQi) = n —0- r (& lt-32) = N — n — r (03)= pQ.
yi
Regarding that random variables, l = 1, n, s = 1, ml are independent and have normal
a
(* * h h distribution Nhs, 1j, where 7]ls = - = -, then transition from equality (4. 1) to equality
a a
yy = ql, Q2. Q3
a2 a2 a2 a2
allows to apply the Kohran theorem. Under this theorem random variables,jr and
a2 a2 a2
are independent and have noncentral % - distributions with n — p0, N — n and p0 freedom degrees. Thus, independence of Q1 and Q2 also is proved.
Remark. Applying the Kohran theorem to calculation of parameter of non-centrality S2 of
Q2
the square-law form -2, it is easy to be convinced that if the hypothesis H 0 is true or not, then a2
2 Q2 2 S2 = 0 i.e. the quantity u2 = -2r has central % - distribution:
a2
1 n m 1 n m f 1 mi 1 n ml
?22 =-T-h)2 =-TZZ h--Zh =-TZZ (h-h)2 = 0
a 1=1 s=1 a 1=1 s=1
V mi s=1 y
a
1=1 s=1
References
1. V.S. Asaturyan. The theory of planning an experiment. Radio I svyaz, Moscow, Vol. 73, No. 3, 1983, pp. 35−241.
2. V.A. Kolemaev, O.V. Staroverov, A.S. Turundaevski. The probability theory and mathematical statistics, Vyishaya shkola, Moscow, 1991, pp. 16−34.
3. N.I. Sidnyaev. Statistical processing and planning an experiment, Uright, Moscow, 2011, pp. 170−190.
4. N.I. Sidnyaev, V.A. Levin, N.E. Afonina. Mathematical modeling of intensity of heat transmission by means of the theory of planning an experiment, IFG, 2002, vol. 75, No. 2, pp. 132−138.
5. N.I. Sidnyaev, The theory of planning experiment and analysis of statistical data, Uright, Moscow, 2011, pp. 95−220.

ПоказатьСвернуть
Заполнить форму текущей работой