Термінова допомога студентам
Дипломи, курсові, реферати, контрольні...

Курс лекцій з теорії вероятностей

РефератДопомога в написанніДізнатися вартістьмоєї роботи

Але розподілу випадкових величин далеко ще не вичерпуються дискретними распределениями. Приміром, якщо точка впадає наудачу на відрізок, можна поставити випадкову величину, рівну координаті цієї точки. Але число значень цієї випадкової величини незліченно, отже, її розподіл дискретним перестав бути. Та й ймовірність цієї випадкової величині прийняти кожна з своїх можливих значень (потрапити… Читати ще >

Курс лекцій з теорії вероятностей (реферат, курсова, диплом, контрольна)

Розділ 1. Класична імовірнісна схема.

1.1 Основні формули комбинаторики.

У розділі ми займемося підрахунком числа «шансів». Про кількість шансів кажуть, коли можливий кілька різних результатів будь-якого дії (вилучення карти з колоди, підкидання кубики чи монетки, двох кубиків тощо.). Кількість шансів — їх кількість таких можливих результатів, чи, інакше кажучи, число способів зробити це действие.

Теорему про перемножении шансов.

Теорему 1. Нехай є, k груп елементів, причому i-я група містить ni елементів, 1 0, P (A) > 0).

Теорему множення для більшої кількості событий:

Теорему 7. P (A1? A2 ??? An) = P (A1) P (A2A1) P (A3 A1? A2)… P (An A1??? An-1)если відповідні умовні ймовірності определены.

4.2 Независимость.

Визначення 16. Події A і B називаються незалежними, якщо P (A?B) = P (A)P (B).

Приклад 14.

1. Крапка з координатами ?,? впадає наудачу в квадрат зі стороною 1. Довести, що з будь-яких x, у (R події A = {? np + p.

Бачимо, що, залежно від цього, є число 1 > np + p цілим чи немає, є або два равновероятных «найімовірніших» числа успіхів k0 = np + p і k0 -1 > np + p — 1, либо одне «найбільш ймовірне» число успіхів k0 = [np + p].

Сформулюємо вже доведене твердження як теоремы.

Теорему 12. У n випробуваннях схеми Бернуллі з імовірністю успіху p найімовірнішим числом успіхів является.

a) однину k0 = [np + p], якщо число np + p не целое;

б) два числа k0 = np + p і k0 -1= np + p -1, якщо число np + p целое.

Приклад 19. Якщо p = q = ½, то, при парному числі випробувань n число np + p = n/2 + 1 /2— не ціле, отже найімовірніший єдине число успіхів [n/2 + 1 /2] = n/2. І цілком зрозуміло, оскільки є парне число можливостей — отримати 0, 1, …n успіхів, причому ймовірності отримати k і n-k успіхів одинаковы.

При непарному ж числі випробувань n число np + p = n/2 + 1 /2 — ціле, отже найбільш імовірними (і однаково ймовірними) є дві числа успіхів n/2 + 1 /2 і n/2 — 1 /2.

5.3 Номер першого успішного испытания.

Розглянемо схему Бернуллі з імовірністю успіху p щодо одного випробуванні. Випробування проводяться до появи першого успіху. Введемо величину? , рівну номера першого успішного испытания.

Теорему 13. Можливість те, що перший успіх відбудеться революції у випробуванні з номером k, равна.

P (? = k) = p qk-1.

Доказ. Действительно,.

Визначення 21. Набір чисел {p qk-1 } називається геометричних розподілом ймовірностей і позначається Gp чи G (p).

Геометричне розподіл ймовірностей має цікавим властивістю, що можна назвати властивістю «нестарения». Нехай величина? позначає, скажімо, час безвідмовної роботи (яка вимірюється цілим числом годин) деякого устрою. Припустимо, що з величини? ймовірність прийняти будь-який свій значення k з точністю дорівнює pqk-1. Справедливо таке утверждение.

Теорему 14. Нехай P (? = k) = p qk-1. Тоді для довільних n, k (0.

P (? > n+k? > n) = P (? > k).

Цьому рівності можна надати таке звучання: якщо відомо, що пристрій пропрацював без відмов n годин, то ймовірність йому працювати ще щонайменше k годин така ж сама, як ймовірність пропрацювати щонайменше k годин для створення нового устройства.

Можна прочитати цієї формули й дуже: ймовірність що працює влаштуванню пропрацювати ще скількись годин залежить від моменту, ми почали часовідлік, чи то з того, скільки працює устройство.

Доказ. За визначенням умовної вероятности,.

(4).

Останнє рівність випливає з те, що подія {? > n+k} тягне подія {? > n}, отже те що цих подій є {? > n+k}. Знайдемо для довільного m (0 ймовірність P (? > m).

Можна зазначити, що подія {? > m} означає, що у схемою Бернуллі перші m випробувань завершилися «невдачами», але це подія має ймовірність саме qm.

Повертаючись до (4), получим.

5.4 Наближення гипергеометрического розподілу биномиальным.

Розглянемо урну, що містить N куль, у тому числі K куль — білі, а решта N-K куль — чорні. З урни наудачу (без повернення) вибираються n куль. Можливість PN, K (n, k) те, що буде вибрано рівно k білих хусток і nk чорних куль, перебувають розслідування щодо формулі (див. визначення 8 гипергеометрического розподілу вероятностей):

Якщо куль в урні дуже велике, то отримання однієї, двох, трьох куль майже змінює пропорцію білих хусток і чорних куль в урні, отже ймовірності PN, K (n, k) невідь що від ймовірностей у процедурі вибору з возвращением.

P (получить рівно k білих куль під час виборів n куль з поверненням) =.

Сформулюємо нашу першу граничну теорему.

Теорему 15. Якщо N >? і K >? отже K/N > p ((0, 1) то тут для будь-яких фіксованих n, 0 0, то, очевидно, ймовірність отримати будь-яке кінцеве число успіхів при дедалі вищому числі випробувань котиться до нуля. Необхідно щоб можливість успіху p = pn> 0 одночасно зі зростанням числа випробувань. Але від випробування до іспиту можливість успіху змінюватися неспроможна (див. визначення схеми Бернулли).

Тому розглянемо «схему серій»: есть.

випробування? з імовірністю успіху p1.

два випробування? ,? з імовірністю успіху p2.

n випробувань? , …, ? з імовірністю успіху pn.

Можливість успіху змінюється не всередині однієї серії випробувань, як від серії до серії, коли змінюється загальна кількість випробувань. Означимо через vn число б у n-той серії испытаний.

Теорему 17 (Теорему Пуассона).

Нехай n >? , pn> 0 отже n pn>? > 0. Тоді нічого для будь-якого k? 0 ймовірність отримати k б у n випробуваннях схеми Бернуллі з імовірністю успіху pn прагне величине.

[pic] (5).

[pic]для n >? , pn> 0 отже n pn> ?

Визначення 22. Нехай? > 0— деяка стала. Набір чисел [pic] називається розподілом Пуассона з параметром ?.

Користуючись теоремою 17, можна наближено вважати ймовірність отримати щонайменше десяти б у 1000 випробувань схеми Бернуллі з імовірністю успіху 0.003, з обчислення якої ми розпочали. Оскільки n = 1000 «велике», а pn = 0.003 «мало», то, узявши? = n pn = 3, написати близьке равенство.

[pic](6).

Залишилося вирішити, а чи достатньо n=103 «велике», а pn = 0.003 «мало», щоб замінити точну ймовірність P (vn = k) на близьке значение.

[pic].

Треба лише вміти оцінювати відмінність між цими двома вероятностями.

Теорему 18 (Теорему Пуассона з оцінкою погрешности).

Нехай A ({0, 1, …, n} — довільне безліч цілих неотрицательных чисел, vn — число б у n випробуваннях схеми Бернуллі з імовірністю успіху p,? = n p. Тогда.

[pic].

Отже, теорема 18 подає можливість самим вирішувати, чи достатньо n «велике», а p «мало», керуючись отриманої величиною погрешности.

Яка ж похибка у формулі (6)?

[pic].

Похибка трохи більше 0,009 (за ймовірності близько 0,001). У всякому разі, можна стверджувати, що бажана ймовірність неможливо більше, ніж 0,01=0,001+0,009.

Розглянемо ще одне формулу наближеного обчислення pn (m) коли n велике. На відміну від попереднього результату число успіхів m у разі теж зростає зі зростанням n, а можливість успіху постоянна.

Локальна теорема Муавра — Лапласа.

Нехай [pic]. Предположим, що [pic]и величини [pic]являются обмеженими. Тогда.

[pic].

Зокрема, якщо [pic], то.

[pic].

Доказательство:

З огляду на обмеженості величин [pic] різницю [pic]вместе з n і m Скористаємося формулою Стирлинга.

[pic].

[pic].

З огляду на визначення [pic].

[pic].

Розділ 6. Випадкові величини і їхня распределения.

6.1 Випадкові величины.

Ми вже бачили, що з дуже багатьох експериментів немає жодних відмінностей в підрахунку ймовірностей подій, тоді як елементарні результати у тих експериментах дуже різняться. Але б нас і повинні цікавити саме ймовірності подій, а чи не структура простору елементарних фіналів. Тому час переважають у всіх таких «схожих» експериментах замість найрізноманітніших елементарних фіналів використовувати, наприклад, числа. Тобто запровадити відповідність (інакше кажучи, відображення) між елементарними наслідками і речовими числами (із нею зручно работать).

Нехай є випадковий експеримент і поставлено ймовірнісна простір (?, ?, Р).

Визначення 23. Функція ?:? >R називається випадкової величиною, якщо нічого для будь-якого x (R безліч {? < x} = {?: ?(?) < x} є подією, то є належить ?-алгебрі подій ?.

Зауваження 10. Можна сміливо вважати, що будь-який безліч елементарних фіналів є подія, і, отже, випадкова величина є довільна функція з? в R. Ніяких неприємностей практиці цю зазвичай не влечет.

Визначення 24. Говоритимемо, що функція ?:? >R є? -вимірної, якщо {?: ?(?) < x} належить? нічого для будь-якого x (R.

Отже, випадкова величина є? — измеримая функція, яка має в відповідність кожному елементарного результату? (? число ?(?) (R.

Приклад 21. Підкидаємо 1 раз кубик. Нехай? = {1, 2, 3, 4, 5, 6}, і дві функції з? в задано так: ?(?)=? , ?(?)= ?2.

Якщо? є чимало всіх підмножин ?, то? і? випадкові величинами, оскільки будь-яке безліч елементарних фіналів належить ?, в тому однині і {?: ?(?) < x} чи {?:? (?) < x}. Можна записати відповідність між значеннями випадкових величин? і? імовірностями приймати цих значень як «таблиці розподілу ймовірностей» чи, коротко, «таблиці распределения»:

|? |1 |2 |3 |4 |5 |6 | |Р |1/6|1/6|1/6|1/6|1/6|1/6|.

|? |1 |4 |9 |16 |25 |36 | |Р |1/6|1/6|1/6|1/6|1/6|1/6|.

Тут 1/6 = Р (?=1)=…= Р (?=6) = Р (? =1)= …= Р (? =36).

Нехай? -алгебра подій? полягає лише з чотирьох множеств:

? = {? ,(, {1,3,5},{2,4,6} }.

тобто подією є, крім достовірного і неможливого подій, випадання парного (відповідно, непарного) числа очок. Переконаємося, що за такої «бідної»? -алгебрі ні ?, ні? є випадковими величинами, тому що ці функції не? — вимірні. Візьмемо (наприклад) x = 3,967. Бачимо, что.

{? (?: ?(?) < 3,967}= {1, 2, 3}(? і {? (?:? (?) < 3,967}= {1}(?

Тепер спробуємо зрозуміти, навіщо потрібна? — вимірність і чому потрібно, щоб {?: ?(?) < x} було событием.

Якщо задана випадкова величина ?, нам може знадобитися обчислити ймовірності типа.

P (? = 5) = P{?: ?(?) = 5},.

P (? ([-3,7]),.

P (? (3,2),.

P (? > 0).

(і взагалі найрізноманітніші ймовірності влучення у різні безлічі на прямий). Це лише якщо безлічі, які стоять під знаком ймовірності, є подіями (нагадаю, що ймовірність є функція з? — алгебри подій у [0,1]).

Але якщо зажадати, щоб Ax = {?: ?(?) < x} було подією незалежно від x, ми з властивостей? — алгебри відразу одержимо, что.

і [pic]— подія, і [pic]— событие,.

і [pic]— событие,.

і {?: ?(?) = x}= Bx Ax — событие,.

(7).

тощо., тощо. (операції перетину, об'єднання, доповнення подій не виводять з класу событий).

Можна зажадати у визначенні 23 чогось іншого. Наприклад, щоб подією було потрапляння до будь-який інтервал: (?: ?(?) ([a, b]) для будь-яких a < b.

Або ж щоб {?: ?(?) (x} було подією нічого для будь-якого x. Будь-яке таке визначення еквівалентно исходному.

Наведемо різні типи розподілів випадкових величин. Під розподілом випадкової величини ми розуміти соответствие.

«значення випадкової величини? ймовірність приймати це значение»,.

або (чаще).

«безліч на прямий? ймовірність випадкової величині потрапити до це множество».

6.2 Дискретні распределения.

Визначення 25. Кажуть, що випадкова величина? має дискретне розподіл, якщо є кінцевий чи лічильний набір чисел {a1, a2, …} такий, что:

а) pi = P{? = ai} > 0 всім i;

б)[pic].

Тобто випадкова величина? має дискретне розподіл, якщо вона приймає лише рахункове число значений.

Визначення 26. Якщо випадкова величина? має дискретне розподіл, назвемо таблицею розподілу відповідність ai? pi, яке найчастіше малюють так:

|? |а1 |А2 |а3 |… | |Р |р1 |р2 |р3 |… |.

6.3 Приклади дискретних распределений.

Вырожденное распределение.

Кажуть, що випадкова величина? має вырожденное розподіл з параметром чи пишуть? (Ia якщо? приймає єдине значення і з ймовірністю 1, тобто P (? = a) = 1. Таблиця розподілу? має вид.

|? |а | |Р |1 |.

Розподіл Бернулли.

Кажуть, що випадкова величина? має розподіл Бернуллі з параметром р, і пишуть? (Вр, якщо? приймає значення 1 і 0 з імовірностями р і одну — р, відповідно. Випадкова величина? з такою розподілом дорівнює числу б у одному випробуванні схеми Бернуллі з ймовірністю успіху (0 успіхів чи 1 успіх). Таблиця розподілу? має вид.

|? |0 |1 | |Р |(1-p)|р |.

Биномиальное распределение.

Кажуть, що випадкова величина? має биномиальное розподіл з параметрами n і p, де 0 (p (, n і пишуть? (Вn, р, якщо? приймає значення 0, 1, …, n з імовірностями P (? = k) = Cnk pk (1-p)n-k. Випадкова величина? з такою розподілом можна буде числа б у n випробуваннях схеми Бернуллі з імовірністю успіху р .

Таблиця розподілу? має вид.

|? |0 |1 |… |k |… |n | |Р |(1-p)|n |… |Cnk pk |… |Pn | | |n |p (1-p)n-1 | |(1-p)n-k | | |.

Геометричне распределение.

Кажуть, що випадкова величина? має геометричне розподіл з параметром р, де 0 (p (, n, і пишуть? (Gр, якщо? приймає значення 1, 2, 3, …з імовірностями P (? = k) = p (1-p)k-1. Випадкова величина? з такою розподілом можна буде номери першого успішного випробування, у схемою Бернуллі з імовірністю успіху р .

Таблиця розподілу? має вид.

|? |1 |2 |… |k |… | |Р |p |Р (1 — р) |… |p (1-p)k-1|… |.

Розподіл Пуассона.

Кажуть, що випадкова величина? має розподіл Пуассона з параметром ?, де? > 0, і? (П ?, якщо? приймає значення 0, 1, 2 … з вероятностями.

[pic].

Таблиця розподілу? має вид.

|? |1 |2 |… |k |… | |Р |е-? |? е-? |… |(?k /k!)е-|… | | | | | |? | |.

Гипергеометрическое распределение.

Кажуть, що випадкова величина? має гипергеометрическое розподіл з параметрами n, N і K, K (N, n (N якщо? приймає цілі значення від max (0, N — K — n) до min (K, n) з вероятностями.

[pic].

. Випадкова величина? з такою розподілом можна буде числа білих куль серед n куль вибраних наудачу і повернення з урни, що містить До білих кульок і N-K не белых.

Зауважте, що з цими распределениями ми готуємося вже добре знакомы.

Але розподілу випадкових величин далеко ще не вичерпуються дискретними распределениями. Приміром, якщо точка впадає наудачу на відрізок [0,1], можна поставити випадкову величину, рівну координаті цієї точки. Але число значень цієї випадкової величини незліченно, отже, її розподіл дискретним перестав бути. Та й ймовірність цієї випадкової величині прийняти кожна з своїх можливих значень (потрапити до точку) дорівнює нулю. Отож не лише таблиця розподілу немає, а й відповідність «значення величини (ймовірність їх прийняти» щось говорить про розподілі випадкової величины.

Які ж характеристиками ще можна описати распределение?

Розділ 7. Функція распределения.

Зауважимо, що у тому самому відрізку [0, 1] ймовірності влучення в безлічі позитивної заходи не нульові. І термін «наудачу» ми колись описували саме на термінах ймовірностей влучення в безліч. Може бути, розумно описати розподіл випадкової величини, поставивши нічого для будь-якого безлічі, ймовірність прийняти значення від цього безлічі? Це справді повне опис розподілу, але надто вже важко з нею працювати — занадто багато множин на прямой.

Чи не можна обійтися завданням ймовірностей влучення у якійсь менший набір множин на прямий? Виявляється, які можна обмежитися лише імовірностями влучення в інтервали (-(, x) всім x (R, з допомогою яких можна буде визначити і можливість потрапити до будь-який інший множество.

Зауваження 11. Можна з такою самою успіхом обмежитися набором ймовірностей влучення в інтервали (-(, x], чи (x ,(), чи [x ,(), чи в (х1, x2). Втім, останніх вже занадто много.

Визначення 27. Функцией розподілу випадкової величини? називається функція F?(x): R ([0, 1], при кожному x (R рівна F?(x) = P (? < x) = P{?: ?(?) < x}.

Приклад 22. Випадкова величина? має вырожденное розподіл Ic. Тогда.

[pic].

Приклад 23. Випадкова величина? має розподіл Бернуллі Вр. Тогда.

[pic].

Приклад 24. Говоритимемо, що випадкова величина? має рівномірний розподіл на відрізку [a, b] і писати? (Ua, b («uniform»), якщо? — координата точки, кинутою наудачу на відрізок [a, b] числової прямий. Це розподіл можна поставити і з допомогою функції распределения:

[pic].

7.1 Властивості функції распределения.

Теорему 19.

Функція розподілу F?(x) має такими свойствами:

F1) Функція розподілу F?(x) не убуває: якщо х1 < x2 то F?(x1)< F?(x2);

F2) Існують пределы.

[pic] і [pic].

F3) Функція розподілу F?(x) безупинна слева:

[pic].

Теорему 20. Якщо функція F: R ([0, 1] задовольняє властивостями (F1)-(F3), то F є функція розподілу деякою випадкової величини ?, тобто знайдеться ймовірнісна простір (?, ?, Р) і випадкова величина? у цьому просторі, що F (х) = F?(x).

Інші корисні властивості функцій распределения.

F4) У будь-якій точці х0 різниця F?(х0+0) — F?(х0) дорівнює P (? = х0):

Слідство 3. Якщо функція розподілу F?(x) безупинна у точці х0, то.

P (? = х0) = 0.

F5) Для будь-який випадкової величини? має місце рівність P (а (? < b) = F?(a) — F?(b).

Якщо ж функція розподілу F?(x) безупинна (нічого для будь-якого x, чи лише у точках a і b), то.

P (а (? < b) = P (а <? < b) = P (а (? (b) = P (а <? (b) =.

F?(a) — F?(b).

Функція розподілу дискретного распределения.

Ми вже бачили, як виглядають функції розподілу деяких дискретних розподілів. З властивостей (F4), (F5) следует.

Властивість 4. Випадкова величина? має дискретне розподіл тоді навіть тільки тоді ми, коли функція розподілу F? — ступінчаста функція. При цьому можливі значення? — точки ai стрибків F?, и.

pi = P (? = ai) = F? (ai + 0) — F? (ai) — величини скачков.

У наступному розділі ми розглянемо випадкові величини, функції розподілу яких немає задовольняють властивості 4 хоча б оскільки вони зовсім не від мають розривів. Понад те, ми виділимо клас функцій розподілу, які «відновлюються зі своєї похідною» з допомогою інтегрування (звані абсолютно безперервні функции).

Розділ 8. Абсолютно безперервні распределения.

Визначення 28. Случайная величина? має звані абсолютно безупинне розподіл, якщо є неотрицательная функція f?(x) така, що з будь-якого x (R функція розподілу F?(x) представима в виде.

[pic].

У цьому функція f?(x) називається щільністю розподілу випадкової величини ?.

Теорему 21. Плотность розподілу має свойствами:

(f1) f?(x)(0 нічого для будь-якого x;

(f2) [pic].

Ці дві властивості повністю характеризують клас плотностей:

Лема 2. Якщо функція f має властивостями (f1) і (f2), що існує ймовірнісна простір і випадкова величина? у ньому, на яку f є щільністю распределения.

Доказ. Нехай? є сфера, ув’язнена між віссю абсцис і графіком функції f («подграфик» функції f). Площа області? дорівнює 1 по властивості (f2). І хоча випадкова величина? є абсциса точки, наудачу кинутою у цю область.

Тоді (згадати геометричну ймовірність) нічого для будь-якого x (R.

[pic].

тобто f є щільністю розподілу випадкової величини ?

Властивості плотностей.

(f3) Якщо випадкова величина? має абсолютно безупинне розподіл, що його функція розподілу скрізь непрерывна.

Слідство 4. Якщо випадкова величина? має абсолютно безупинне розподіл, то P (? = x) = 0 нічого для будь-якого x (R.

(f4) Якщо випадкова величина? має абсолютно безупинне розподіл, що його функція розподілу дифференцируема майже скрізь, и.

[pic].

для майже всіх х.

Зауваження 12. Термін для «майже всіх» означає «всім, крім (можливо) x з деякого безлічі нульової заходи (довжини)». Зауважте, що вартісну під інтегралом функцію можна змінити лише у точці (чи безлічі нульової довжини), і інтеграл («площа подграфика») від надання цього не изменится.

(f5) Якщо випадкова величина? має абсолютно безупинне розподіл, то.

[pic].

Доказ. Действительно,.

[pic].

Інші рівності випливають із слідства 5.

8.1 Приклади абсолютно безперервних распределений.

Равномерное.

Це розподіл нам вже знайоме. Кажуть, що? має рівномірний розподіл на відрізку [a, b], і пишуть? (Ua, b если.

[pic].

Зауважте, що у точках a і b функція розподілу недифференцируема, і щільність можна поставити як угодно.

Показательное.

Кажуть, що? має показове розподіл з параметром ?,? > 0 і? (Є?, если.

[pic].

Показове розподіл єдиний абсолютно безперервним розподілом, котрій виконано властивість «не старіння» (й у сенсі є безперервним аналогом дискретного геометричного распределения).

Теорему 21. Властивість «Не старіння». Нехай? (Є?. Тоді для будь-яких x, у > 0.

[pic].

Нормальное.

Кажуть, що? має нормальне розподіл з параметрами чи ?2, де, а (R,? > 0, і пишуть? (якщо? має таку щільність распределения:

[pic]для будь-якого x (R.

Переконаємося, що f?(x)действительно є щільністю розподілу. Так як f?(x) > 0 всім x (R, то властивість (f1) виконано. Перевіримо виконання (f2). Використовуємо табличний інтеграл (інтеграл Пуассона).

[pic].

Нормальне (інакше зване гауссовским під назвою Карла Гаусса розподіл грає винятково важливу роль теорії ймовірностей, тому ми дуже докладно вивчимо все властивості цього распределения.

8.2 Властивості нормального распределения.

Нормальне розподіл задається, як бачимо, з допомогою щільності розподілу. Пов’язано це про те, що не можна виписати первообразную від функции[pic] інакше як у вигляді інтеграла, тому функцію розподілу цього закону можна записати лише такому виде:

[pic].

Ми нерідко використовуватимемо позначення для функції розподілу нормального розподілу з параметрами чи ?2.

Стандартне нормальне распределение.

Нормальне розподіл при [pic] а = 0 і ?= 1 називається стандартним нормальним розподілом. Щільність стандартного нормального розподілу має вид.

[pic]для будь-якого x (R.

а функція распределения.

[pic].

табулирована (тобто її значення враховано під час багатьох x) майже переважають у всіх математичних довідниках. Встановимо зв’язок между.

[pic].

Властивість 5. Для будь-якого x (R справедливо соотношение.

[pic].

Це ж мовою випадкових величин можна сформулювати так:

Слідство 5. Якщо [pic] то.

Слідство 6. Якщо [pic] то.

[pic].

Як бачимо, обчислення будь-яких ймовірностей для нормально розподіленої випадкової величини зводиться до вирахування функції розподілу Ф0,1. Її свойства.

Властивість 6. Ф0,1(0) = 0,5.

Властивість 7. Ф0,1(-х) = 1 — Ф0,1(х).

Властивість 8. Якщо? (N0,1, то.

[pic].

Властивість 9 («Правило трьох сигм»).

Якщо [pic]то[pic].

Сенсу в запам’ятовуванні числа 0.0027 немає ніякої, тоді як пам’ятати, що майже всю масу нормального розподілу зосереджена межах [a — 3?, a — 3?] завжди полезно.

Сенсу в запам’ятовуванні числа 0.0027 немає ніякої, тоді як пам’ятати, що майже всю масу нормального розподілу зосереджена межах [a-3?, a+3?], завжди полезно.

Розділ 9. Випадкові вектора та його распределения.

Визначення 29. Якщо випадкові величини [pic] задано однією вероятностном просторі, то вектор ([pic]) ми називати випадковим вектором.

Визначення 30. Функція [pic] називається функцією розподілу випадкового вектора ([pic]) чи функцією спільного розподілу випадкових величин [pic].

9.1 Властивості функції спільного распределения.

Для простоти позначень всі подальші міркування і формулювання наводяться у разі n = 2 для випадкового вектора ([pic]).

F0) [pic].

F1) [pic] не зменшується за кожної координаті вектора (x1 x2).

F2) Для будь-якого і = 1, 2, существуют.

[pic].

[pic].

При этом.

[pic].

F3) Функція [pic] з кожної координаті вектора (x1 x2) безупинна слева.

Лише тепер цих властивостей бракує для описи класу функцій спільного розподілу. Інакше висловлюючись, виконання цих властивостей для деякою функції F: R2 (R зовсім не від гарантує, що цю функцію є функцією розподілу деякого випадкового вектора.

Приклад 25. Функция.

[pic][pic].

a) задовольняє всім властивостями (F0)-(F3);

б) перестав бути функцією розподілу ніякого вектора (?1, ?2.) хоча б оскільки, знайдися такий вектор, знайдеться і прямокутник [a1 b1] x [a2 b2], можливість потрапити куди (розрахований з допомогою цієї «функції розподілу») отрицательна:

P (a1 (?1< b1, a2 (?2 0, якщо вона не має щільність распределения.

[pic].

де стала з обчислюється з условия.

[pic].

Зауважимо, що показове розподіл Є? є гамма-распределение Г?, 1.

Лема 6. Нехай незалежні випадкові величини ?1, …, ?n мають показове розподіл Є? = Г?, 1 Тоді ?1 +…+?n (Г?, n.

«Випадкових величин без мат. очікування немає, оскільки, якщо в маємо випадкова величина ми завжди у праві від нього щось ожидать.».

З студентської контрольної работы.

Розділ 11. Числові характеристики випадкових величин.

11.1 Математичне очікування випадкової величины.

Визначення 38. Математичним очікуванням E? (середнім значенням, першим моментом) випадкової величини? з дискретним розподілом, заданим таблицею P (? = аi) = pi, називається число.

[pic] якщо зазначений ряд абсолютно сходится.

Якщо же.

[pic], то кажуть, що математичне очікування не существует.

Визначення 39. Математичним очікуванням E? випадкової величини? з абсолютно безперервним розподілом з щільністю розподілу f?(x), називається число.

[pic] якщо зазначений інтеграл абсолютно сходится.

Якщо же.

[pic], то кажуть, що математичне очікування не существует.

Математичне очікування має простий фізичний сенс: якби прямий розмістити одиничну масу, помістивши в точку аi масу pi (для дискретного розподілу), чи «розмазавши» її з щільністю f?(x) (для абсолютно безперервного розподілу), то точка E? є координата «центру ваги» прямой.

Приклад 26. Нехай випадкова величина? дорівнює числу очок, випадаючих при одному підкиданні кубики. Тогда.

[pic].

[pic][pic].

загалом при підкиданні кубики випадає 3.5 очка.

Приклад 27. Нехай випадкова величина? — координата точки, кинутою наудачу на відрізок [a, b]. Тогда.

[pic][pic].

центр тяжкості рівномірного розподілу на відрізку є середина отрезка.

11.2 Властивості математичного ожидания.

В усіх життєвих властивості передбачається, що аналізовані математичні очікування существуют.

E0. Математичне очікування випадкової величини є ЧИСЛО!

E1. Для довільній функції функція g: R (R.

[pic].

Доказ. Ми доведемо це властивість (як і майже всі подальші) лише дискретного розподілу. Нехай g (?) приймає значення с1 с2 … з вероятностями.

[pic].

Тогда.

[pic].

E2 Математичне очікування const одно цієї const Eс = с.

E3. const можна винести за знак математичного очікування: E (с ?) = з E?.

Доказ. Слід з властивості E1 при g (?) = з? .

E4. Математичне очікування суми будь-яких випадкових величин? і? одно сумі їх математичних ожиданий.

E (? + ?) = E (?)+ E (?).

Доказ. Для величин з дискретним розподілом: нехай xk і yn — значення? і ?, соответственно.

[pic].

E5.Если? (0 п.н. («майже напевно», тобто. з імовірністю 1: P (? (0) = 1), то E? (0;

Якщо? (0 п.н., і навіть E? = 0, то? = 0 п.н., тобто P (? = 0) = 1.

Слідство 11.

Якщо? (? п.н., то E? (E? .

Якщо? (? п.н., і навіть E? = E?, то? =? п.н.

E6. Математичне очікування твори незалежних випадкових величин одно твору їх математичних очікувань.: якщо? і? незалежні, то.

E (??) = E? E?.

Доказательство.

[pic].

Зауваження 16. Протилежне твердження до властивості E6 не так: з рівності E (??) = E? E?. Не слід незалежність величин? і ?.

Приклад 28. Нехай? (U0,2?,? = co ?,? = sin ?— явно залежні випадкові величини. Але математичне очікування їх твори одно твору їх математичних очікувань: по властивості E1.

[pic].

11.3 Моменти старших порядків. Дисперсия.

Визначення 40. Якщо [pic], то число.

[pic] називається моментом порядку k (kм моментом) випадкової величини ?;

[pic] називається абсолютним моментом порядку k (абсолютним kм моментом) випадкової величини ?;

[pic] називається центральним моментом порядку k (центральним kм моментом) випадкової величини ?;

[pic] називається абсолютним центральним моментом порядку k (абсолютним центральним kм моментом) випадкової величини ?.

Кількість D? = E (? — E?)2 (центральний момент порядку 2) називається дисперсией випадкової величини ?

Приклад 29. Нехай, скажімо, випадкова величина? приймає значення 0 з ймовірністю 1−10−5, і значення 100 з імовірністю 10−5. Подивимося, як моменти різних порядків реагують великі, але малоймовірні значення випадкової величины.

[pic].

Приклад 30. Дисперсія D? = E (? — E?)2 є «середнє квадрата відхилення випадкової величини? від своєї середнього». Подивимося, внаслідок чого ця величина отвечает.

Нехай випадкова величина? приймає значення ±1 з імовірністю ½, а випадкова величина? — значення ю ±10 з імовірністю ½. Тоді E? = E? = 0 тому D? = E ?2 = 1, D? = E?2 = 100. Кажуть, що дисперсія характеризує ступінь розкиду значень випадкової величини навколо її математичного ожидания.

Якщо казати про розподілі випадкової величини, як і розподілу одиничної маси по невесомому стрижню, то дисперсія є у точності момент інерції цього стрижня, закріпленого у центрі тяжести.

Визначення 40. Якщо дисперсія величини? кінцева, то число [pic]называют середньоквадратичним відхиленням випадкової величини ?.

Слід добре розуміти, що з існування моментів великих порядків слід існування моментів менших порядків. Зокрема, кінцівку другого моменту (чи дисперсії) тягне існування математичного ожидания.

11.4 Властивості дисперсии.

Усі властивості дисперсії взято з відповідних властивостей математичного ожидания.

D1. [pic].

Действительно,.

[pic].

D2. [pic].

D3.

[pic]если і лише коли ?= const.п.н.

Доказ. Дисперсія є лише математичне очікування п.н. неотрицательной с.в.:

D? = E (? — E?)2, і неотрицательность дисперсії випливає з властивості E5. З того самого властивості, D? = 0 як і лише коли E (? — E?)2 = 0 п.н., тобто? =? п.н.

D4. Дисперсія не змінюється від зсуву с.в. на постоянную:

[pic].

D5. Якщо? і? незалежні, то.

[pic].

Действительно,.

[pic].

оскільки математичне очікування твори незалежних с.в. одно твору їх математичних ожиданий.

D6. Мінімум среднеквадратического відхилення випадкової величини? від точок речовинної прямий є среднеквадратическое відхилення? від своєї математичного ожидания:

[pic].

Найменший момент інерції стрижня з розподіленої у ньому одиничної масою вийде, якщо точка обертання — центр тяжкості стрижня, а чи не будь-яка інша точка.

Доказательство.

[pic]причем рівність досягається лише, а = E?.

11.5 Математичні очікування й дисперсії стандартних распределений.

Приклад 31. Розподіл Бернуллі Вр,.

[pic].

Приклад 32. Биномиальное розподіл Вn, p.

Скористаємося властивістю стійкості биномиального розподілу щодо підсумовування — леммой 5. Візьмемо n незалежних випадкових величин ?1 ?2 … ?n, мають розподіл Бернуллі В, p = В1, p.

Тоді їх сума Sn = ?1 + ?2 +… + ?n має розподіл Вn, p.

[pic].

бо всі ?і однаково розподілені і їх математичне очікування одно pi;

[pic].

оскільки ?і незалежні і дисперсія кожної дорівнює pq.

Приклад 33. Геометричне розподіл Gp.

При p ((0,1).

[pic].

Рівність (*) з’явився внаслідок небажання диференціювати суму геометричній прогресії, що починається ні з 0 і з q. Зауважте, що похідна у доданих доданків дорівнює 0, отже похідні від результатів цих двох сум равны.

[pic].

Поэтому.

Приклад 34. Розподіл Пуассона П?

[pic][pic].

Показати, что.

[pic], отже [pic].

Приклад 35. Рівномірний розподіл Ua, b.

[pic][pic].

[pic].

Приклад 36. Стандартне нормальне розподіл N0,1.

[pic].

бо під інтегралом стоїть непарна функція, і саме інтеграл абсолютно сходиться (з допомогою швидко убутній [pic].

[pic].

Останнє рівність випливає з того, что.

а інтеграл у всій прямий від щільності будь-якого розподілу дорівнює 1. Поэтому.

Приклад 37. Нормальне розподіл [pic].

Ми знаємо, що если.

[pic][pic].

Поэтому.

[pic].

Приклад 38. Показове (експоненціальне) розподіл Е?

Знайдемо для довільного k (N момент порядку k.

[pic].

У цьому рівність ми скористалися гамма-функцией Эйлера:

[pic] Соответственно,.

[pic].

Приклад 39. Стандартне розподіл Коші С0,1.

Розподіл Коші. Кажуть, що? має розподіл Коші з параметрами ?, ?2, де? (R,? > 0, если.

[pic] всім x (R.

Розподіл Коші має, наприклад, абсциса точки перетину променя, посланого з точки (?, ?) під наудачу обраним углом,.

[pic] з віссю ОХ.

Математичне очікування задля розподілення Коші немає, поскольку.

[pic].

розходиться (подинтегральная функція поводиться на нескінченності як 1/х).

Приклад 40. Розподіл Парето.

Розподіл Парето. Кажуть, що? має розподіл Парето з параметрами х0, p. s, де х0 > 0, p. s > 0, если.

[pic].

У розподілу Парето існує лише моменти порядку u < p. s, поскольку.

[pic].

сходиться при u < p. s, тобто подинтегральная функція на нескінченності нескінченно мала проти 1/х.

«Випадкових величин без мат. очікування немає, оскільки, якщо в маємо випадкова величина ми завжди у праві від нього щось ожидать.».

З студентської контрольної работы.

Розділ 11. Числові характеристики випадкових величин.

11.1 Математичне очікування випадкової величины.

Визначення 38. Математичним очікуванням E? (середнім значенням, першим моментом) випадкової величини? з дискретним розподілом, заданим таблицею P (? = аi) = pi, називається число.

[pic] якщо зазначений ряд абсолютно сходится.

Якщо же.

[pic], то кажуть, що математичне очікування не существует.

Визначення 39. Математичним очікуванням E? випадкової величини? з абсолютно безперервним розподілом з щільністю розподілу f?(x), називається число.

[pic] якщо зазначений інтеграл абсолютно сходится.

Якщо же.

[pic], то кажуть, що математичне очікування не существует.

Математичне очікування має простий фізичний сенс: якби прямий розмістити одиничну масу, помістивши в точку аi масу pi (для дискретного розподілу), чи «розмазавши» її з щільністю f?(x) (для абсолютно безперервного розподілу), то точка E? є координата «центру ваги» прямой.

Приклад 26. Нехай випадкова величина? дорівнює числу очок, випадаючих при одному підкиданні кубики. Тогда.

[pic].

[pic][pic].

загалом при підкиданні кубики випадає 3.5 очка.

Приклад 27. Нехай випадкова величина? — координата точки, кинутою наудачу на відрізок [a, b]. Тогда.

[pic][pic].

центр тяжкості рівномірного розподілу на відрізку є середина отрезка.

11.2 Властивості математичного ожидания.

В усіх життєвих властивості передбачається, що аналізовані математичні очікування существуют.

E0. Математичне очікування випадкової величини є ЧИСЛО!

E1. Для довільній функції функція g: R (R.

[pic].

Доказ. Ми доведемо це властивість (як і майже всі подальші) лише дискретного розподілу. Нехай g (?) приймає значення с1 с2 … з вероятностями.

[pic].

Тогда.

[pic].

E2 Математичне очікування const одно цієї const Eс = с.

E3. const можна винести за знак математичного очікування: E (с ?) = з E?.

Доказ. Слід з властивості E1 при g (?) = з? .

E4. Математичне очікування суми будь-яких випадкових величин? і? одно сумі їх математичних ожиданий.

E (? + ?) = E (?)+ E (?).

Доказ. Для величин з дискретним розподілом: нехай xk і yn — значення? і ?, соответственно.

[pic].

E5.Если? (0 п.н. («майже напевно», тобто. з імовірністю 1: P (? (0) = 1), то E? (0;

Якщо? (0 п.н., і навіть E? = 0, то? = 0 п.н., тобто P (? = 0) = 1.

Слідство 11.

Якщо? (? п.н., то E? (E? .

Якщо? (? п.н., і навіть E? = E?, то? =? п.н.

E6. Математичне очікування твори незалежних випадкових величин одно твору їх математичних очікувань.: якщо? і? незалежні, то.

E (??) = E? E?.

Доказательство.

[pic].

Зауваження 16. Протилежне твердження до властивості E6 не так: з рівності E (??) = E? E?. Не слід незалежність величин? і ?.

Приклад 28. Нехай? (U0,2?,? = co ?,? = sin ?— явно залежні випадкові величини. Але математичне очікування їх твори одно твору їх математичних очікувань: по властивості E1.

[pic].

11.3 Моменти старших порядків. Дисперсия.

Визначення 40. Якщо [pic], то число.

[pic] називається моментом порядку k (kм моментом) випадкової величини ?;

[pic] називається абсолютним моментом порядку k (абсолютним kм моментом) випадкової величини ?;

[pic] називається центральним моментом порядку k (центральним kм моментом) випадкової величини ?;

[pic] називається абсолютним центральним моментом порядку k (абсолютним центральним kм моментом) випадкової величини ?.

Кількість D? = E (? — E?)2 (центральний момент порядку 2) називається дисперсией випадкової величини ?

Приклад 29. Нехай, скажімо, випадкова величина? приймає значення 0 з ймовірністю 1−10−5, і значення 100 з імовірністю 10−5. Подивимося, як моменти різних порядків реагують великі, але малоймовірні значення випадкової величины.

[pic].

Приклад 30. Дисперсія D? = E (? — E?)2 є «середнє квадрата відхилення випадкової величини? від своєї середнього». Подивимося, внаслідок чого ця величина отвечает.

Нехай випадкова величина? приймає значення ±1 з імовірністю ½, а випадкова величина? — значення ю ±10 з імовірністю ½. Тоді E? = E? = 0 тому D? = E ?2 = 1, D? = E?2 = 100. Кажуть, що дисперсія характеризує ступінь розкиду значень випадкової величини навколо її математичного ожидания.

Якщо казати про розподілі випадкової величини, як і розподілу одиничної маси по невесомому стрижню, то дисперсія є у точності момент інерції цього стрижня, закріпленого у центрі тяжести.

Визначення 40. Якщо дисперсія величини? кінцева, то число [pic]называют середньоквадратичним відхиленням випадкової величини ?.

Слід добре розуміти, що з існування моментів великих порядків слід існування моментів менших порядків. Зокрема, кінцівку другого моменту (чи дисперсії) тягне існування математичного ожидания.

11.4 Властивості дисперсии.

Усі властивості дисперсії взято з відповідних властивостей математичного ожидания.

D1. [pic].

Действительно,.

[pic].

D2. [pic].

D3.

[pic]если і лише коли ?= const.п.н.

Доказ. Дисперсія є лише математичне очікування п.н. неотрицательной с.в.:

D? = E (? — E?)2, і неотрицательность дисперсії випливає з властивості E5. З того самого властивості, D? = 0 як і лише коли E (? — E?)2 = 0 п.н., тобто? =? п.н.

D4. Дисперсія не змінюється від зсуву с.в. на постоянную:

[pic].

D5. Якщо? і? незалежні, то.

[pic].

Действительно,.

[pic].

оскільки математичне очікування твори незалежних с.в. одно твору їх математичних ожиданий.

D6. Мінімум среднеквадратического відхилення випадкової величини? від точок речовинної прямий є среднеквадратическое відхилення? від своєї математичного ожидания:

[pic].

Найменший момент інерції стрижня з розподіленої у ньому одиничної масою вийде, якщо точка обертання — центр тяжкості стрижня, а чи не будь-яка інша точка.

Доказательство.

[pic]причем рівність досягається лише, а = E?.

11.5 Математичні очікування й дисперсії стандартних распределений.

Приклад 31. Розподіл Бернуллі Вр,.

[pic].

Приклад 32. Биномиальное розподіл Вn, p.

Скористаємося властивістю стійкості биномиального розподілу щодо підсумовування — леммой 5. Візьмемо n незалежних випадкових величин ?1 ?2 … ?n, мають розподіл Бернуллі В, p = В1, p.

Тоді їх сума Sn = ?1 + ?2 +… + ?n має розподіл Вn, p.

[pic].

бо всі ?і однаково розподілені та його математичне очікування одно pi;

[pic].

оскільки ?і незалежні і дисперсія кожної дорівнює pq.

Приклад 33. Геометричне розподіл Gp.

При p ((0,1).

[pic].

Рівність (*) з’явився внаслідок небажання диференціювати суму геометричній прогресії, що починається ні з 0 і з q. Зауважте, що похідна у доданих доданків дорівнює 0, отже похідні від результатів цих двох сум равны.

[pic].

Поэтому.

Приклад 34. Розподіл Пуассона П?

[pic][pic].

Показати, что.

[pic], отже [pic].

Приклад 35. Рівномірний розподіл Ua, b.

[pic][pic].

[pic].

Приклад 36. Стандартне нормальне розподіл N0,1.

[pic].

бо під інтегралом стоїть непарна функція, і саме інтеграл абсолютно сходиться (з допомогою швидко убутній [pic].

[pic].

Останнє рівність випливає з того, что.

а інтеграл у всій прямий від щільності будь-якого розподілу дорівнює 1. Поэтому.

Приклад 37. Нормальне розподіл [pic].

Ми знаємо, що если.

[pic][pic].

Поэтому.

[pic].

Приклад 38. Показове (експоненціальне) розподіл Е?

Знайдемо для довільного k (N момент порядку k.

[pic].

У цьому рівність ми скористалися гамма-функцией Эйлера:

[pic] Соответственно,.

[pic].

Приклад 39. Стандартне розподіл Коші С0,1.

Розподіл Коші. Кажуть, що? має розподіл Коші з параметрами ?, ?2, де? (R,? > 0, если.

[pic] всім x (R.

Розподіл Коші має, наприклад, абсциса точки перетину променя, посланого з точки (?, ?) під наудачу обраним углом,.

[pic] з віссю ОХ.

Математичне очікування задля розподілення Коші немає, поскольку.

[pic].

розходиться (подинтегральная функція поводиться на нескінченності як 1/х).

Приклад 40. Розподіл Парето.

Розподіл Парето. Кажуть, що? має розподіл Парето з параметрами х0, p. s, де х0 > 0, p. s > 0, если.

[pic].

У розподілу Парето існує лише моменти порядку u < p. s, поскольку.

[pic].

сходиться при u < p. s, тобто подинтегральная функція на нескінченності нескінченно мала проти 1/х.

Розділ 12. Числові характеристики залежності випадкових величин.

12.1 Чим КиМу різниться дисперсія суми від суми дисперсий?

Ми знаємо, що з незалежних з. в. з кінцевими другими моментами дисперсія їх суми дорівнює сумі їх дисперсій. Чому дорівнює дисперсія цифру загальному случае?

[pic](10).

Величина E (??) — E? E? дорівнює нулю, якщо випадкові величини? і? незалежні (властивість E6 математичного очікування). З іншого боку, з рівності її нулю зовсім не від слід незалежність, як приклад 30. Виявляється, що цей величину часто використовують як «індикатор наявності залежності» пари з. в.

Визначення 41. Ковариацией cov (?, ?) випадкових величин? і? називається число.

[pic].

Властивість 10.

[pic].

Властивість 11.

a) [pic];

b) [pic].

Властивість 12. Дисперсія суми кількох випадкових величин обчислюється за будь-якою з наступних формул:

[pic].

Обговоримо чесноти та вади ковариации, як величини, що характеризує залежність двох із. в.

1. Якщо ковариация cov (?, ?) відрізняється від нуля, то величини? і? зависимы!

2. З гарантією про наявність залежності ми можемо бачити, якщо знаємо спільне розподіл пари? і ?, і можемо перевірити, дорівнює чи (наприклад) щільність спільного розподілу твору плотностей.

Але знайти спільне розподіл це часто буває складніше, ніж вважати математичне очікування твори? і ?. Якщо ми пощастить, і математичне очікування твори? і? нічого очікувати рівнятися твору їх мат. очікувань, ми скажімо, що? і? залежні не знаходячи їх спільного распределения!

Приклад 41. Покажемо, що з допомогою ковариации можна будувати висновки про залежності коли для обчислення спільного розподілу недостатньо данных.

Нехай? і? — незалежні випадкові величини, і дисперсія? відрізняється від нуля. Доведемо, що? і ?+? зависимы.

[pic] (11).

Поэтому.

[pic].

Отже,? і ?+? зависимы.

3. Прикро, що величина cov (?, ?) перестав бути «безрозмірною»: якщо? — обсяг газу посудині, а? — тиск цього газу, то ковариация вимірюється в кубометри x Паскали :).

Інакше висловлюючись, при множенні одній з величин ?,? на якесь число ковариация теж збільшується цього число. Але множення на число не б'є по «ступеня залежності» величин (вони живуть від цього «більш залежними» стає), отже велике значення ковариации значить сильнішою зависимости.

Треба якось нормувати ковариацию, одержавши зі неї «безрозмірну» величину, абсолютне значення которой.

а чи не змінювалося б із множенні чи зсуві випадкових величин на число;

б) засвідчило б «силі залежності» з. в.

Говря про «силі» залежності між с.в., маємо у вигляді таке. Найбільш сильна залежність — функціональна, та якщо з функціональних — лінійна залежність, коли ?= а? + b п.н. Бувають значно більше слабкі залежності. Тож якщо по послідовності незалежних випадкових величин ?1 ?2 … побудувати? = ?1 +???24 + ?25? = ?25 +?26 + …+?90, то ці величини залежні, проте не вельми «слабко залежні»: через одне-єдине загальне складова ?25 .

Отже, наступна величина є лише ковариация, нормована за потрібне образом.

12.2 Коефіцієнт корреляции.

Визначення 43. Коефіцієнтом кореляції ?(?, ?) випадкових величин ?, ?, дисперсії яких є і відмінні від нуля, називається число.

[pic].

Приклад 42. Розглянемо продовження прикладу 41, але нехай? і? будуть не лише незалежними, а й однаково розподіленими випадковими величинами, та його дисперсія відрізняється від нуля. Знайдемо коефіцієнт кореляції величин? і? + ?. За формулою (10),.

[pic].

Поэтому.

[pic].

Визначення 44. Випадкові величини? і? називають некоррелированными, якщо cov (?, ?) = 0 (або якщо ?(?, ?) = 0, — у разі, коли коефіцієнт кореляції существует).

Зауваження 17. Якщо один з величин? і? — стала, то ці величини незалежні, і cov (?, ?) = 0. Природно у разі теж думати, що? і? «некоррелированы», хоча коефіцієнт кореляції невизначений (дисперсія постійної дорівнює 0).

12.3 Властивості коефіцієнта корреляции.

Усюди далі спеціально не обмовляється, але передбачається, що коефіцієнт кореляції существует.

Теорему 26.

Коефіцієнт кореляції має такими свойствами.

1. Якщо з. в.? і? незалежні, то ?(?, ?) = cov (?, ?) = 0.

2. (?(?, ?)((. 1.

3. (?(?, ?)(= 1, як і лише коли з. в.? і? з імовірністю 1 лінійно пов’язані, тобто. існують числа, а (0 і b такі, що P (? = a?+ b) = 1.

Визначення 45. Нехай D кінцева і відрізняється від нуля. Визначимо випадкову величину.

[pic].

Перетворення [pic] називається стандартизацією випадкової величини ?, а самотужки над. в. [pic] називається стандартизованной, чи (слэнг!) центрированной і унормованого версією з. в. ?.

Властивість 13. Стандартизованная з. в. [pic]имеет нульовий математичне чекання, і одиничну дисперсию.

Доказ. Скористаємося властивостями математичного очікування й дисперсии:

[pic].

Корисно знати такі часто вжиті термины.

Визначення 46. Кажуть, що величини? і? негативно коррелированы, якщо ?(?, ?) < 0; кажуть, що величини? і? позитивно коррелированы, якщо ?(?, ?) > 0.

Сенс знака коефіцієнта кореляції особливо ясний у разі (?(?, ?) (= 1. Тоді знак? дорівнює знаку a у рівності? = a?+ b п.н. Тобто ?(?, ?) = 1 означає, чим більше ?, тим більше й ?. Навпаки, ?(?, ?) = -1 означає, чим більше ?, тим менше ?. Схожим чином можна трактувати знак коефіцієнта кореляції у разі, коли (?(?, ?) (< 1, пам’ятаючи при цьому, що залежність величин? і? сьогодні вже не лінійна і, можливо, навіть функциональная.

Так, величини? і? +? в прикладах 41 і 42 позитивно коррелированы, та їх залежність не функциональная.

Приклад 43.

Якщо з. в.? і? є координати точки, кинутою наудачу в трикутник з вершинами (2,0), (0,0) і (0,1), то коефіцієнт кореляції ?(?, ?) негативний. Це можна пояснити «пальцями» так: Чим більший ?, тим менше у? можливостей бути великий) Пропоную переконатись у цьому, перевіривши справедливість наступних высказываний.

Во-первых,.

[pic].

Во-вторых,.

Спільне розподіл координат точки, кинутою наудачу в довільну (измеримую) область D на площині має постійну щільність переважають у всіх точках області D. Це з поняттям «наудачу»: ймовірність потрапити до будь-яку область A (D, з одного боку залежить від площі Проте й залежить від форми й положення, А всередині D, рівняючись з іншого боку, інтегралу областю, А від щільності спільного розподілу координат точки. Ці дві якості можна поєднати, лише коли щільність спільного розподілу постійна всередині D. Понад те, ця стала, як бачити, є просто [pic] (хоча б оскільки інтеграл від нього по й усієї області D повинен ровняться ймовірності потрапити до D, чи единице).

Розподіл точки, кинутою наудачу до області (однаково де), називають рівномірним распределением.

Отже, щільність рівномірного розподілу є у довільній області на площині — стала, рівна (1/ площа області) для точок всередині області й нулю — поза. Тому (і навіть оскільки площа цього трикутника дорівнює 1).

[pic].

Те є ковариация (і з з нею й коефіцієнт кореляції) негативною (вважати cov (?, ?)).

Приклад 44.

Знайти коефіцієнт кореляції між числом випадань одиниці, і числом випадань шістки при n подбрасываниях симетричного кубика.

Рішення. Означимо для і = 1, 2, 3, 4, 5, 6 через ?і випадкову величину, рівну числу випадань межі з і окулярами при n подбрасываниях кубики. Порахуймо cov (?1, ?6).

Кожна з випадкових величин ?і має биномиальное розподіл з параметрами n і 1/6, поэтому.

[pic].

Зауважимо, сума ?1 + … + ?n цих величин дорівнює n. З огляду на симетрії кубики, все математичні очікування [pic]одинаковы, але, швидше за все, відрізняються от.

[pic].

Посчитаем.

З одного боку, це равно.

з іншого стороны,.

Отсюда.

Отже, шуканий коефіцієнт кореляції равен.

Цікаво, який отримав коефіцієнт кореляції залежить від n.

… Звідки, нарешті, випливає той надзвичайний, очевидно, слідство, що, якби спостереження з усіх подіями продовжувати всю вічність, причому ймовірність, нарешті, перейшла на повну достовірність, було б помічено, у світі все управляється точними відносинами й постійним законом змін, тож в речах, найвищою мірою випадкових, ми змушені було б визнати хіба що деяку необхідність, і, скажу я, рок.

Я до про б Б е р зв у л л і, Ars conjectandi.

(1713).

Розділ 13. Куди як і сходяться послідовності випадкових величин.

13.1 Відповідність «майже напевно» і «по вероятности».

Нагадаю, що випадкова величина є (измеримая) функція з деякого абстрактного безлічі? в безліч дійсних чисел. Послідовність випадкових величин є, цим, послідовність функцій (певних однією й тому самому просторі елементарних фіналів ?). І коли хочемо казати про збіжності послідовності випадкових величин {?n }(n=1, думати забувати, що ми маємо справу ні з послідовністю чисел, і з послідовністю функцій. Існують різновиди збіжності послідовності функцій. Щоразу давати визначення будь-якої збіжності ми, спираючись на відповідність числових послідовностей, як у вже відоме основне понятие.

Зокрема, при в кожному новому? (? маємо нову числову послідовність {?n (?)}(n=1. Тому, по-перше, можна казати про знайомої з математичного аналізу (майже) поточечной збіжності послідовностей функцій: про збіжності «майже скрізь», що у теорії ймовірностей називають сходимостью «майже наверное».

Визначення 46. Кажуть, що послідовність з. в. {?n } сходиться майже напевно до з. в.? при n ((, і пишуть: ?n (? п. зв., якщо P{ ?: ?n (?) (? при n ((} = 1.

Інакше висловлюючись, якщо? n (?) (? при n ((всім? (?, крім, можливо,? (A, де безліч (подія) A має нульову вероятность.

Відразу підкреслимо: аби розмовляти про збіжності «майже напевно», потрібно (по крайнього заходу, з визначення) знати, як влаштовані відображення? (?n (?). У завданнях ж теорії ймовірностей, зазвичай, відомий самі випадкові величини, а їх розподілу. Відомо, тобто, як і ймовірність тих елементарних фіналів ?, котрим? n (?) приймає значення заданому безлічі. Чи можемо, володіючи лише інформацією щодо розподілах, казати про будь-якої збіжності послідовності випадкових величин {?n } до з. в. ??

Можна, наприклад, зажадати, щоб ймовірність («частка») тих елементарних фіналів ?, котрим? n (?) не потрапляє у «?-околиця» числа? (?), зменшувалася нанівець зі зростанням n. Така відповідність в функціональному аналізі називається сходимостью «принаймні», а теорії ймовірностей — сходимостью «по вероятности».

Визначення 47. Кажуть, що послідовність з. в. { ?n } сходяться по ймовірності до з. в.? при n ((, і пишут:

[pic].

для будь-якого? > 0.

[pic].

Приклад 45. Розглянемо послідовність з. в. ?1, ?2, …, у якій все величини мають різні розподілу: з. в. ?n, n > 0, приймає значення й 0 і n7 з імовірностями [pic]. Доведемо, що ця послідовність сходиться по ймовірності до випадкової величині, рівної нулю п. зв. (нанівець, простіше говоря).

Справді, зафіксуємо довільне? > 0. Всім n починаючи з деякого n0 такого, що n07 >? вірно рівність (*) ниже.

[pic].

Отже, випадкові величини? n зі зростанням n можуть приймати відвідувачів дедалі більші і великі значення, але з все меншою і меншою вероятностью.

Зауваження 18. Відповідність по ймовірності необов’язково супроводжується сходимостью математичних сподівань чи моментів інших порядків: з [pic]не слід, що [pic].

Справді, в прикладі 45 має місце відповідність [pic], але не так, що [pic].

Якщо замість значення n7 взяти, скажімо, n (з тією ж ймовірністю 1/ n), получим.

[pic].

Якщо ж? n приймає значення 0 і [pic] з тими самими імовірностями, що у прикладі 45, то [pic], але вже настав другі моменти сходитися до другого моменту? не будут:

[pic].

Відповідність по ймовірності має звичайними для сходимостей властивостями. Наприклад, такими.

Властивість 13. Якщо [pic], то.

1. [pic];

2. [pic].

Властивість 14.

Якщо [pic], і g — безперервна функція, то [pic].

Якщо [pic], і g — безупинна у точці з, то [pic].

Щоб доводити відповідність по ймовірності, можна просто вміти вираховуватимуть [pic] на великих n. Та цього треба знати розподіл ?n, що не можливо. Скажімо, ?n то, можливо сумою інших з. в., розподілу яких немає стійкі по підсумовуванню, і обчислити розподіл їх суми за такою формулою пакунки чи ще якось буває сложно.

Якщо ми мали нерівності, дозволяють оцінити [pic] згори ніжабо, що ми вміємо спрямовувати нанівець І що простіше обчислюється, то відповідність по ймовірності ми б по лемме про поїздку двох міліціонерів: [pic]. Отже, нерівності П. Л. Чебышёва.

13.2 Нерівності Чебышёва.

Усі нерівності у тому параграфі заведено відносити одного класу, званому «неравенствами Чебышёва». Наступне нерівність часто називають власне нерівністю Чебышёва, бодай у такій формі вона з’явилася вперше, певне, на роботах А. А. Маркова (наприклад, Літочислення ймовірностей, 1913 г.).

Теорему 27 (Нерівність Маркова).

Якщо [pic], то тут для будь-якого позитивного x.

[pic].

Доказ. Введемо нову випадкову величину? x, звану «срезкой» з. в. (?(лише на рівні x:

[pic].

Для неї и,.

1. pic].

2. [pic].

Нам знадобиться таке понятие.

Визначення 48. Нехай A — деяке подія. Назвемо індикатором події A випадкову величину I (A), рівну одиниці, якщо подія A сталося, і нулю, якщо A не произошло.

За визначенням, I (A) має розподіл Бернуллі з параметром p = P (I (A) = 1) = P (A), і його математичне очікування одно ймовірності успіху p = P (A).

Випадкову величину? x можна в виде.

[pic].

Тогда.

[pic] (11).

Пригадаємо, що [pic], і оцінимо [pic]снизу відповідно до (11):

[pic].

Отже, [pic], що потрібно було доказать.

Наступне нерівність ми називати «узагальненим нерівністю Чебышёва».

Слідство 12. Нехай функція g монотонно зростає й неотрицательна на [0,(]. Якщо [pic], то тут для будь-якого позитивного х.

[pic].

У 1853 р. І. Бьенеме (I. Bienayme) й у 1866 р., незалежно від цього, П. Л. Чебышёв прямими методами довели таке неравенство.

Слідство 13 (Нерівність Чебышёва-Бьенеме). Якщо [pic], то.

[pic].

Як слідства одержимо зване «правило трьох сигм», яке формулюють, наприклад, так: ймовірність випадкової величині відрізнятиметься від свого математичного очікування більш, ніж три кореня з дисперсії, мала. Зрозуміло, кожному за розподілу величина цієї ймовірності своя: задля розподілення, наприклад, ця можливість дорівнює 0,0027 — див. властивість 9. Ми одержимо вірну всім розподілів з кінцевої дисперсией оцінку згори для «ймовірності з. в. відрізнятиметься від свого математичного очікування більш, ніж три кореня з дисперсии».

Слідство 14. Якщо [pic], то [pic].

13.3 Закони великих чисел.

Визначення 49. Кажуть, що послідовність з. в. [pic]с кінцевими першими моментами задовольняє закону великих чисел (ЗБЧ), если.

[pic] (12).

законами великих чисел прийнято називати твердження про умовах, при яких послідовність з. в. «задовольняє закону великих чисел».

З’ясуємо де спочатку, що означає і коли виконано ЗБЧ для незалежних ЗМІ і однаково розподілених с.в.

Зауважимо, що з. в. одинакого розподілені, то математичні очікування вони однакові (і рівні, например,[pic]), тому (12) можна записати в виде.

[pic].

Отже, закони великих чисел.

Теорему 28 (ЗБЧ у вигляді Чебышёва).

Для будь-який послідовності незалежних ЗМІ і однаково розподілених випадкових величин з кінцевим другим моментом [pic] має місце сходимость:

[pic].

ЗБЧ стверджує, що середнє арифметичне значної частини випадкових доданків «стабілізується» зі зростанням цього числа. Хай сильно кожна з. в. не відхилялася від своєї середнього значення, при підсумовуванні ці відхилення «взаємно гасяться», отже середнє арифметичне наближається до постійної величине.

Надалі побачимо, що вимога кінцівки другого моменту (чи дисперсії) пов’язане винятково з способом докази, і що твердження зберігає вірність якщо вимагати існування лише першого момента.

Доказ. Означимо через [pic] суму перших n з. в., які середнє арифметичне через [pic]. Тогда.

[pic].

Нехай? > 0. Скористаємося нерівністю Чебышёва (слідство 13):

[pic] (13).

при [pic], оскільки [pic], за умовою, конечна.

Слідство 15. Послідовність з. в. [pic] з кінцевими другими моментами задовольняє ЗБЧ, то есть.

[pic].

і під час кожного з наступних условий:

і якщо [pic], тобто [pic] при [pic];

б) якщо [pic]независимы і [pic], то есть.

[pic].

в) якщо [pic] незалежні, однаково розподілені і мають кінцеву дисперсию (ЗБЧ Чебышёва).

Теорему 29 (ЗБЧ у вигляді Хинчина).

Для будь-який послідовності незалежних ЗМІ і однаково розподілених випадкових величин з кінцевим першим моментом [pic] має місце сходимость:

[pic].

Понад те, за умов теореми 29 має місце відповідність «майже напевно». Одержимо як слідства з ЗБЧ Чебышёва закон великих чисел Я. Бернуллі (1713). На відміну від доведеного через півтора століття ЗБЧ Чебышёва, описывающего граничне поведінка середнього арифметичного з. в. з довільними распределениями, ЗБЧ Бернуллі — твердження лише схеми Бернулли.

Теорему 30 (ЗБЧ Бернулли).

Нехай, А — подія, яке може статися у будь-якій з n незалежних випробувань з і тієї ж ймовірністю P (А). Нехай vn (А) — число здійснень події На n випробуваннях. Тогда.

[pic].

У цьому нічого для будь-якого? > 0.

[pic].

13.4 Приклади використання ЗБЧ і нерівності Чебышёва.

Приклад 46.

Монета підкидається 10 000 раз. Оцінити можливість, що частота випадання герба відрізняється від можливості понад одну сотую.

Потрібна оцінити [pic], де [pic]—число випадань герба, а [pic] — незалежні з. в., мають розподіл Бернуллі з параметром ½, рівні «числу гербів, що випали при 1-му підкиданні» (тобто одиниці, якщо випав герб і нулю інакше, чи індикатору те, що випав герб). Оскільки [pic], бажана оцінка згори виглядає так:

[pic].

Інакше висловлюючись, нерівність Чебышёва дозволяє укласти, що, загалом, лише у чверті випадків при 10 000 подбрасываниях монети частота випадання герба надто відрізнятиметься від ½ понад одну соту. Ми побачимо, наскільки це груба оцінка, коли познайомимося з центральною граничною теоремой.

Приклад 47.

Нехай [pic] — послідовність випадкових величин, дисперсії яких обмежені одному й тому ж постійної З, а ковариации будь-яких з. в. [pic] і [pic] ([pic]), які є сусідніми в послідовності, рівні нулю. Чи задовольняє ця послідовність ЗБЧ?

Скористаємося нерівністю (13) і властивістю 12:

[pic].

Для і < j, за умовою, [pic], якщо [pic]. Отже, у сумі [pic] рівні нулю все складові крім, то, можливо, [pic] (їх рівно n -1 штука).

Оцінимо всі вони, використовуючи одна з властивостей коефіцієнта корреляции.

[pic](по умові задачи).

[pic][pic].

при [pic], тобто. послідовність [pic] задовольняє ЗБЧ.

… З цієї першої лекцій з теорії ймовірностей запам’ятав лише напівзнайомий термін «математичне очікування». Незнайомець вживав цей термін неодноразово, і щоразу уявляв собі велике приміщення, на кшталт залу очікування, з кахельною підлогою, де сидять котрі мають портфелями і бюварами і, підкидаючи раз у раз до стелі монетки і бутерброди, зосереджено чогось очікують. До цього часу я бачу це уві сні. Однак незнайомець оглушив мене дзвінким термином.

«гранична теорема Муавра — Лапласа» і додав, що це до діла не относится.

Аркадій і Борис Стругацькі, Стажеры.

Розділ 14. ЦПТ (центральна гранична теорема).

14.1 Як швидко [pic] сходиться до [pic]?

Нехай, як і законі великих чисел у вигляді Чебышёва, [pic] — сума n незалежних ЗМІ і однаково розподілених величин з кінцевої дисперсией. Тоді, з ЗБЧ, [pic] зі зростанням n. Або, після виконання до спільного знаменателю,.

[pic].

Якщо за розподілі на n ми маємо в межі нуль (себто деякою, однаково який, збіжності), резонно поставити собі запитання: а чи не занадто на «багато» ми поділили? Чи не можна поділити щось, що зростає до нескінченності повільніше, ніж n, щоб отримати у межі не нуль (і нескінченність, саме собой)?

Можна порушити це питання інакше. Ось послідовність, прагне (якось) нанівець. Чи можна її домножить що-небудь що зростає, щоб «погасити» це нанівець? Отримавши, цим, щось кінцеве і не на нуля в пределе?

Виявляється, що вони [pic], чи, що, той самий, [pic], не сходиться до нулю. Розподіл цієї, яка від n, випадкової величини стає дедалі більш схоже нормальне розподіл! Можна вважати, що ця послідовність сходиться до випадкової величині, має нормальне розподіл, але сходиться за ймовірності, а в сенсі збіжності розподілів, чи «слабкої сходимости».

14.2 Слабка сходимость.

Нехай задана послідовність з. в. pic], поставлено деяке розподіл [pic]с функцією розподілу [pic] і [pic]— довільна з. в., має розподіл [pic].

Визначення 50. Кажуть, що послідовність з. в. [pic] при [pic]сходится слабко чи з розподілу до з. в. [pic], чи говорять, що послідовність з. в. слабко сходиться до розподілу [pic], чи говорять, що розподілу с.в. [pic] слабко сходиться до розподілу [pic], і пишуть, [pic] чи [pic], чи [pic], для будь-якого x такого, що функція розподілу [pic] безупинна у точці x, має місце відповідність [pic]при [pic].

Інакше висловлюючись, слабка відповідність — це поточечная відповідність функцій розподілу переважають у всіх точках безперервності граничною функції распределения.

Властивість 15. Якщо [pic], й третя функція розподілу [pic] безупинна в точках a і b, то [pic] Навпаки, якщо переважають у всіх точках a і b безперервності функції розподілу [pic] має місце, наприклад, відповідність [pic], то [pic].

Наступне важливе властивість уточнює відносини між сходимостями.

Властивість 16.

1. Якщо [pic], то [pic].

2. Якщо [pic] = const, то [pic].

Доказательство.Докажем, слабка відповідність до постійної тягне відповідність по вероятности.

Пусть.

[pic].

незалежно від x, що є точкою безперервності граничною функції [pic], тобто за всіх [pic].

Візьмемо довільне [pic] і доведемо, что[pic]. Розкриємо модуль:

[pic].

(звужуємо подія під знаком вероятности).

[pic]поскольку в точках [pic] функція [pic] безупинна, і, отже, має місце відповідність послідовності [pic]к[pic].

Залишилося помітити, що [pic] немає більше 1, отже по лемме про двох міліціонерів [pic].

Наступне властивість наводить приклад операцій, які можна використовувати до слабко сходящимся послідовностям — скажімо, домножать їх у послідовності, сходящиеся по ймовірності до постійних величинам.

Властивість 17.

1. Якщо [pic] const і [pic], то [pic].

2. Якщо [pic] const і [pic], то [pic].

Кілька змістовних прикладів слабкої збіжності ми розглянемо в наступному розділі. Однак основний джерело слабко збіжних послідовностей і вельми сильніша і небезпечніша універсальний засіб для асимптотического аналізу розподілу сум незалежних ЗМІ і однаково розподілених випадкових величин подає ЦЕНТРАЛЬНА ГРАНИЧНА ТЕОРЕМА.

14.3 Центральна гранична теорема.

Ми називатимемо таке твердження «ЦПТ А. М. Ляпунова» (1901), але сформулюємо теорему Ляпунова лише у приватному разі — для послідовності незалежних ЗМІ і однаково розподілених випадкових величин.

Теорему 31 (ЦПТ).

Нехай [pic] — незалежні і однаково розподілені випадкові величини з кінцевої і ненульовий дисперсией: [pic]. Означимо через [pic]сумму перших n випадкових величин. Тоді послідовність з. в. [pic] слабко сходиться до стандартному нормальному распределению.

Користуючись визначенням і властивостями слабкої збіжності, і помітивши, що функція розподілу [pic]любого нормального закону безупинна скрізь на R, твердження ЦПТ можна сформулювати будьяким зі наступних способов:

Слідство 18. Нехай [pic] — незалежні і однаково розподілені випадкові величини з кінцевої і ненульовий дисперсией. Наступні затвердження еквівалентні одне одному і рівнозначні утвердженню ЦПТ.

Для будь-яких речовинних x < y при [pic] має місце сходимость.

[pic].

Для будь-яких речовинних x < y при [pic] має місце сходимость.

[pic].

Для будь-яких речовинних x < y при [pic] має місце сходимость.

[pic].

Якщо [pic] — довільна з. в. зі стандартним нормальним розподілом, то.

[pic].

Зауваження 19. Вкотре нагадаємо, що функція розподілу стандартного нормального закону шукається або за відповідної таблиці в довіднику, або з допомогою будь-якого програмного забезпечення, але ще не шляхом перебування первообразной.

14.4 Гранична теорема Муавра — Лапласа.

Одержимо як слідства з ЦПТ граничну теорему Муавра — Лапласа (P. P. S. Laplace, 1812; A. de Moivre, 1730). Подібно ЗБЧ Бернуллі, гранична теорема Муавра — Лапласа — твердження лише схеми Бернулли.

Теорему 32 (Гранична теорема Муавра — Лапласа).

Нехай, А — подія, яке може статися у будь-якому з n незалежних випробувань з і тієї ж ймовірністю p = P (A). Нехай [pic] — число здійснень події На n випробуваннях. Тоді [pic]. Інакше висловлюючись, для будь-яких речовинних x < y при [pic] має місце сходимость.

[pic].

14.5 Приклади використання ЦПТ.

Приклад 48.

Монета підкидається 10 000 раз. Оцінити можливість, що частота випадання герба відрізняється від можливості понад одну сотую.

Потрібна найти.

[pic], де [pic]—число випадань герба, а [pic] — незалежні з. в., мають один і той ж розподіл Бернуллі з параметром ½. Домножим обидві частини нерівності під знаком ймовірності на [pic] і поділимо на корінь з дисперсії [pic]одного слагаемого.

[pic].

[pic].

Відповідно до ЦПТ чи граничною теоремі Муавра — Лапласа, последовательность.

[pic].

слабко сходиться до стандартному нормальному розподілу. Розглянемо довільну з. в. [pic], має розподіл [pic].

[pic].

Рівність [pic] випливає з властивості 10.

Зауваження 20. Центральної граничною теоремою користуються для наближеного обчислення ймовірностей, що з сумами значної частини незалежних ЗМІ і однаково розподілених величин. У цьому розподіл центрированной і унормованого суми заміняють на стандартне нормальне распределение.

Наступний результат дозволяє оцінити похибка наближення в ЦПТ.

Теорему 33 (Нерівність Беррі - Эссеена).

У разі ЦПТ нічого для будь-якого x (R (тобто рівномірно по х).

[pic].

Зауваження 21. Про постійну З відомо, что:

а загальному разі З вбирається у 0,7655 (І. З. Шиганов),.

б) похибка наближення найбільша, якщо складові [pic] мають розподіл Бернуллі, і З у разі незгірш від, ніж [pic](C. G. Esseen, Б. А. Рогозин),.

в) як свідчать розрахунки, можна брати як З число 0,4 — навіть доданків із розподілом Бернуллі, особливо в малих n, що й це значення постійної виявляється занадто грубої оценкой.

Докладний огляд можна знайти у монографії В. М. Золотарева «Сучасна теорія підсумовування незалежних випадкових величин», стор. 264- 291.

Продовження прикладу 48. Перевірте, що з з. в. [pic] із розподілом Бернулли.

[pic].

Тому відмінність між лівої і правої частинами наближеного рівності в прикладі 48 при [pic]и [pic] вбирається у величины.

[pic].

отже бажана ймовірність [pic]не більше, ніж 0,0456+0,004. Доречно порівняти цей відповідь з оцінкою, отриманої з допомогою ЗБЧ в прикладі 48.

Приклад 49.

Нехай [pic] — незалежні і однаково розподілені випадкові величини з кінцевої і ненульовий дисперсией, [pic]сумму перших n випадкових величин. При яких з має або має місце сходимость.

[pic].

Відповідно до ЗБЧ, послідовність [pic] сходиться по ймовірності (а, отже, і найгірш) до [pic]. Слабка відповідність означає, що послідовність функцій розподілу [pic]сходится до функції розподілу [pic], якщо [pic] безупинна у точці з (і щось означає, якщо [pic] разрывна у точці з). Но.

[pic].

є функція розподілу вырожденного законом і безупинна у будь-якій точці з, крім [pic]. Отже, перший висновок: відповідність [pic] має місце для будь-якого з, крім, можливо, [pic]. Переконаємося, що з [pic] такий збіжності не може. Нехай [pic]. Відповідно до ЦПТ,.

[pic].

Аналогічно, до речі, поводиться і можливість [pic]. Вона також прагне до ½, а чи не до [pic].

———————————;

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

[pic].

Показати весь текст
Заповнити форму поточною роботою