Головна

Визначення. Додатковим до події А називається подія, що означає, що подія А не відбувається.

  1.  Amp; && 264. Об'єднання декількох комп'ютерів з метою обміну інформацією називається
  2.  Amp; && 349. Як називається процес запису файлу в архів?
  3.  EXCEL. Як називається знак ? Не дорівнює
  4.  Агент (виконавець), який без егоїзму або прихильності, не зачеплені задоволенням або незадоволенням, і наділений мужністю і жаром, називається саттвіческім.
  5.  Арксинуса числа х [- 1; 1] називається таке число у, синус якого дорівнює х.
  6.  Швидко виконуйте вдихи і видихи подібно (ковальським) бурдюки. Це називається капалабхаті, і це руйнує всі розлади, викликані слизом.
  7.  У творінні слідства (тіла) і інструменту (почуттів) пракріті називається причиною; в переживанні радості і страждання Пуруша називається причиною.

Визначення. елементарними наслідками досвіду називаються такі результати досвіду, які взаємно виключають одна одну і в результаті досвіду відбувається одне з цих подій, також яке б не була подія А, по наступило елементарного результату можна судити про те, чи відбувається або не відбувається ця подія.

Сукупність всіх елементарних фіналів досвіду називається простором елементарних подій.

теорема (Додавання ймовірностей). Імовірність суми двох несумісних подій дорівнює сумі ймовірностей цих подій.

Слідство 1: якщо події  утворюють повну групу несумісних подій, то сума їх ймовірностей дорівнює одиниці.

Визначення. протилежними називаються два несумісних події, що утворюють повну групу.

Теорема. Імовірність появи хоча б одного з двох спільних подій дорівнює сумі ймовірностей цих подій без ймовірності їх спільного появи.

Слідство 2: Сума ймовірностей протилежних подій дорівнює одиниці.

Визначення. Подія А називається незалежним від події В, ймовірність події А не залежить від того, відбулася подія В чи ні. Подія А називається залежним від події В, якщо ймовірність події А змінюється в залежності від того, відбулася подія В чи ні.

Визначення. Імовірність події В, обчислена за умови, що мала місце подія А, називається умовною ймовірністю події В.

Теорема. (Множення ймовірностей) Імовірність добутку двох подій (спільного появи цих подій) дорівнює добутку ймовірності однієї з них на умовну ймовірність іншого, обчислену за умови, що перша подія вже наступило.

Також можна записати:

Доказ цієї теореми безпосередньо випливає з визначення умовної ймовірності.

Якщо події незалежні, то  , І теорема множення ймовірностей набирає вигляду:

У разі твори кількох залежних подій ймовірність дорівнює добутку одного з них на умовні ймовірності всіх інших за умови, що ймовірність кожного наступного обчислюється в припущенні, що всі інші події вже відбулися.

З теореми твори ймовірностей можна зробити висновок про ймовірність появи хоча б однієї події.

Якщо в результаті випробування може з'явитися п подій, незалежних в сукупності, то ймовірність появи хоча б одного з них дорівнює

Тут подія А означає наступ хоча б однієї з подій Ai, А qi - Ймовірність протилежних подій .

Формула повної ймовірності.

Нехай деяка подія А може відбутися разом з одним з несумісних подій  , Складових повну групу подій. Нехай відомі ймовірності цих подій  і умовні ймовірності настання події А при настанні події Hi .

Теорема. Імовірність події А, яка може статися разом з одним з подій  , Дорівнює сумі парних творів ймовірностей кожного з цих подій на відповідні їм умовні ймовірності настання події А.

Фактично ця формула повної ймовірностівже використовувалася при вирішенні прикладів, наведених вище, наприклад, в задачі з револьвером.

Доведення.

Т. к. Події  утворюють повну групу подій, то подія А можна представити у вигляді такої суми:

Т. к. Події  несумісні, то і події AHi теж несумісні. Тоді можна застосувати теорему про складання ймовірностей несумісних подій:

При цьому

Остаточно отримуємо:

Теорема доведена.

Формула Бейеса. (Формула гіпотез)

Нехай є повна група несумісних гіпотез  з відомими ймовірностями їх настання  . Нехай в результаті досвіду настало подія А, умовні ймовірності якого по кожній з гіпотез відомі, т. Е. Відомі ймовірності .

Потрібно визначити які ймовірності мають гіпотези  щодо події А, т. е. умовні ймовірності .

Теорема. Імовірність гіпотези після випробування дорівнює добутку ймовірності гіпотези до випробування на відповідну їй умовну ймовірність події, яка сталася під час випробування, поділеній на повну ймовірність цієї події.

Ця формула називається формулою Бейеса.

Доведення.

За Теоремі множення ймовірностей отримуємо:

тоді якщо .

Для знаходження ймовірності P (A) використовуємо формулу повної ймовірності.

Якщо до випробування все гіпотези різновірогідні з ймовірністю  , То формула Бейеса набирає вигляду:

Повторення випробувань.

Формула Бернуллі.

Якщо проводиться кілька випробувань, в результаті яких може відбутися або не відбутися подія А, і ймовірність появи цієї події в кожному з випробувань не залежить від результатів інших випробувань, то такі випробування називаються незалежними щодо події А.

Припустимо, що подія А настає в кожному випробуванні з ймовірністю Р (А) = р. визначимо ймовірність Рт, п того, що в результаті п випробувань подія А наступило рівно т раз.

Цю ймовірність в принципі можна порахувати, використовуючи теореми додавання і множення ймовірностей, як це робилося в розглянутих вище прикладах. Однак, при досить великій кількості випробувань це призводить до дуже великим обчислень. Таким чином, виникає необхідність розробити спільний підхід до вирішення поставленого завдання. Цей підхід реалізований у формулі Бернуллі. (Якоб Бернуллі (1654 - 1705) - швейцарський математик)

Нехай в результаті п незалежних випробувань, проведених в однакових умовах, подія А настає з імовірністю Р (А) = р, А протилежне йому подія  з ймовірністю .

позначимо Ai - Настання події А у випробуванні з номером i. Т. к. Умови проведення дослідів однакові, то ці ймовірності рівні.

Якщо в результаті п дослідів подія А настає рівно т раз, то інші п-т Саме ця подія не настає. Подія А може з'явитися т раз в п випробуваннях в різних комбінаціях, число яких дорівнює кількості сполучень з п елементів по т. Це кількість сполучень знаходиться за формулою:

Імовірність кожної комбінації дорівнює добутку ймовірностей:

 Застосовуючи теорему додавання ймовірностей несумісних подій, отримуємо формулу Бернуллі:

Формула Бернуллі важлива тим, що справедлива для будь-якої кількості незалежних випробувань, т. Е. Того самого випадку, в якому найбільш чітко проявляються закони теорії ймовірностей.

Випадкові величини.

Вище розглядалися випадкові події, які є якісною характеристикою випадкового результату досвіду. Для отримання кількісної характеристики вводиться поняття випадкової величини.

Визначення. випадковою величиноюназивається величина, яка в результаті досвіду може приймати те чи інше значення, причому заздалегідь відомо яке саме.

Випадкові величини можна розділити на дві категорії.

Визначення. Дискретної випадкової величиною називається така величина, яка в результаті досвіду може приймати певні значення з певною ймовірністю, що утворюють рахункове безліч (безліч, елементи якого можуть бути пронумеровані).

Це безліч може бути як кінцевим, так і нескінченним.

Наприклад, кількість пострілів до першого попадання в ціль є дискретною випадковою величиною, т. К. Ця величина може приймати і нескінченне, хоча і рахункове кількість значень.

Визначення. Безперервною випадковою величиною називається така величина, яка може приймати будь-які значення з деякого кінцевого або нескінченного проміжку.

Очевидно, що число можливих значень неперервної випадкової величини нескінченно.

Для завдання випадкової величини недостатньо просто вказати її значення, необхідно також вказати ймовірність цього значення.

Закон розподілу дискретної випадкової величини.

Визначення. Співвідношення між можливими значеннями випадкової величини і їх можливостями називається законом розподілу дискретноївипадкової величини.

Закон розподілу може бути заданий аналітично, у вигляді таблиці або графічно.

Таблиця відповідності значень випадкової величини і їх ймовірностей називається поруч розподілу.

Графічне представлення цієї таблиці називається многоугольником розподілу. При цьому сума все ординат багатокутника розподілу являє собою ймовірність всіх можливих значень випадкової величини, а, отже, дорівнює одиниці.

Біномінальної розподіл.

якщо проводиться п незалежних випробувань, в кожному з яких подія А може з'явитися з однаковою ймовірністю р в кожному з випробувань, то ймовірність того, що подія не з'явиться, дорівнює q = 1 - p.

Приймемо число появ події в кожному з випробувань за деяку випадкову величину Х.

Щоб знайти закон розподілу цієї випадкової величини, необхідно визначити значення цієї величини і їх ймовірності.

Значення знайти досить просто. Очевидно, що в результаті п випробувань подія може не з'явитися зовсім, з'явитися один раз, два рази, три і т. д. до п раз.

Імовірність кожного значення цієї випадкової величини можна знайти за формулою Бернуллі.

Ця формула аналітично висловлює шуканий закон розподілу. Цей закон розподілу називається біномінальної.

Розподіл Пуассона.

(Симеон Дені Пуассон (1781 - 1840) - французький математик)

нехай проводиться п незалежних випробувань, в яких поява події А має ймовірність р. Якщо число випробувань п досить велике, а ймовірність появи події А в кожному випробуванні мало (p? 0,1), то для знаходження ймовірності появи події А k раз знаходиться наступним чином.

Зробимо важливе допущення - твір пр зберігає постійне значення:

Практично це припущення означає, що середнє число появи події в різних серіях випробувань (при різному п) залишається незмінним.

За формулою Бернуллі отримуємо:

Знайдемо межа цієї ймовірності при п® ?.


отримуємо формулу розподілу Пуассона:

Якщо відомі числа l і k, То значення ймовірності можна знайти за відповідними таблицями розподілу Пуассона.

Числові характеристики дискретних випадкових величин.

Закон розподілу повністю характеризує випадкову величину. Однак, коли неможливо знайти закон розподілу, або цього не потрібно, можна обмежитися перебуванням значень, званих числовими характеристиками випадкової величини. Ці величини визначають деякий середнє значення, навколо якого групуються значення випадкової величини, і ступінь їх розкиданості навколо цього середнього значення.

Визначення. математичним очікуванням дискретної випадкової величини називається сума творів всіх можливих значень випадкової величини на їх ймовірності.

Математичне сподівання існує, якщо ряд, що стоїть в правій частині рівності, сходиться абсолютно.

З точки зору ймовірності можна сказати, що математичне очікування приблизно дорівнює середньому арифметичному спостережуваних значень випадкової величини.

Властивості математичного очікування.

1) Математичне сподівання постійної величини дорівнює самій постійною.

2) Постійний множник можна виносити за знак математичного очікування.

3) Математичне сподівання добутку двох незалежних випадкових величин дорівнює добутку їх математичних очікувань.

Це властивість справедливо для довільного числа випадкових величин.

4) Математичне сподівання суми двох випадкових величин дорівнює сумі математичних очікувань доданків.

Це властивість також справедливо для довільного числа випадкових величин.

нехай проводиться п незалежних випробувань, ймовірність появи події А в яких дорівнює р.

Теорема. Математичне сподівання М (Х) числа появи події А в п незалежних випробуваннях дорівнює добутку числа випробувань на ймовірність появи події в кожному випробуванні.

Однак, математичне очікування не може повністю характеризувати випадковий процес. Крім математичного очікування треба ввести величину, яка характеризує відхилення значень випадкової величини від математичного очікування.

Це відхилення дорівнює різниці між випадковою величиною і її математичним очікуванням. При цьому математичне сподівання відхилення дорівнює нулю. Це пояснюється тим, що одні можливі відхилення позитивні, інші негативні, і в результаті їх взаємного погашення виходить нуль.

Визначення. Дисперсією (розсіюванням) дискретної випадкової величини називається математичне сподівання квадрата відхилення випадкової величини від її математичного очікування.

Обчислення дисперсії.

Теорема. Дисперсія дорівнює різниці між математичним очікуванням квадрата випадкової величини Х і квадратом її математичного очікування.

Доведення. З урахуванням того, що математичне сподівання М (Х) і квадрат математичного очікування М2(Х) - величини постійні, можна записати:

Властивості дисперсії.

1) Дисперсія постійної величини дорівнює нулю.

2) Постійний множник можна виносити за знак дисперсії, зводячи його в квадрат.

3) Дисперсія суми двох незалежних випадкових величин дорівнює сумі дисперсій цих величин.

4) Дисперсія різниці двох незалежних випадкових величин дорівнює сумі дисперсій цих величин.

Справедливість цього рівності випливає з властивості 2.

Теорема. Дисперсія числа появи події А в п незалежних випробувань, в кожному з яких ймовірність р появи події постійна, дорівнює добутку числа випробувань на ймовірності появи і непоявленія події в кожному випробуванні.

Середнє квадратичне відхилення.

Визначення. Середнім квадратичним відхиленнямвипадкової величини Х називається квадратний корінь з дисперсії.

Теорема. Середнє квадратичне відхилення суми кінцевого числа взаємно незалежних випадкових величин дорівнює квадратному кореню з суми квадратів середніх квадратичних відхилень цих величин.

Функція розподілу.

У всіх розглянутих вище випадках випадкова величина визначалася шляхом завдання значень самої величини і ймовірностей цих значень.

Однак, такий метод можна застосовувати далеко не завжди. Наприклад, в разі безперервної випадкової величини, її значення можуть заповнювати деякий довільний інтервал. Очевидно, що в цьому випадку поставити все значення випадкової величини просто нереально.

Навіть в разі, коли це зробити можна, найчастіше завдання вирішується надзвичайно складно. Розглянутий тільки що приклад навіть при відносно простому умови (приладів тільки чотири) призводить до досить незручним обчислень, а якщо в завданні буде кілька сотень приладів?

Тому постає завдання по можливості відмовитися від індивідуального підходу до кожного завдання і знайти по можливості найбільш загальний спосіб завдання будь-яких типів випадкових величин.

нехай х - Дійсне число. Імовірність події, що складається в тому, що Х прийме значення, менше х, Т. Е. Х < x, Позначимо через F (x).

Визначення. функцією розподілу називають функцію F (x), що визначає ймовірність того, що випадкова величина Х в результаті випробування прийме значення, менше х.

Функцію розподілу також називають інтегральною функцією.

Функція розподілу існує як для безперервних, так і для дискретних випадкових величин. Вона повністю характеризує випадкову величину і є однією з форм закону розподілу.

Для дискретної випадкової величини функція розподілу має вигляд:

Знак нерівності під знаком суми показує, що підсумовування поширюється на ті можливі значення випадкової величини, які менше аргументу х.

Функція розподілу дискретної випадкової величини Х розривна і зростає стрибками при переході через кожне значення хi.

Властивості функції розподілу ..

1) значення функції розподілу належать відрізку [0, 1].

2) F (x) - неубутна функція.

 при

3) Імовірність того, що випадкова величина прийме значення, укладену в інтервалі (a, b), Дорівнює приросту функції розподілу на цьому інтервалі.

4) На мінус нескінченності функція розподілу дорівнює нулю, на плюс нескінченності функція розподілу дорівнює одиниці.

5) Імовірність того, що неперервна випадкова величина Х прийме одне певне значення, дорівнює нулю.

Таким чином, не має сенсу говорити про будь - якому конкретному значенні випадкової величини. Інтерес представляє тільки ймовірність потрапляння випадкової величини в будь - якої інтервал, що відповідає більшості практичних завдань.

Щільність розподілу.

Функція розподілу повністю характеризує випадкову величину, проте, має один недолік. За функції розподілу важко судити про характер розподілу випадкової величини в невеликій околиці тієї чи іншої точки числової осі.

Визначення. щільністю розподілу ймовірностей неперервної випадкової величини Х називається функція f (x) - Перша похідна від функції розподілу F (x).

Щільність розподілу також називають диференціальної функцією. Для опису випадкової величини щільність розподілу є неприйнятною.

Сенс щільності розподілу полягає в тому, що вона показує як часто з'являється випадкова величина Х в деякій околиці точки х при повторенні дослідів.

Після введення функцій розподілу і щільності розподілу можна дати наступне визначення неперервної випадкової величини.

Визначення.Випадкова величина Х називається безперервної, Якщо її функція розподілу F (x) неперервна на всій осі ОХ, а щільність розподілу f (x) існує скрізь, за винятком (може бути, кінцевого числа точок.

Знаючи щільність розподілу, можна обчислити ймовірність того, що деяка випадкова величина Х прийме значення, що належить заданому інтервалу.

Теорема. Імовірність того, що неперервна випадкова величина Х прийме значення, що належить інтервалу (a, b), дорівнює визначеному інтегралу від щільності розподілу, взятому в межах від a до b.

Доказ цієї теореми грунтується на визначенні щільності розподілу і третьому властивості функції розподілу, записаному вище.

Геометрично це означає, що ймовірність того, що неперервна випадкова величина прийме значення, що належить інтервалу (a, b), дорівнює площі криволінійної трапеції, обмеженою віссю ОХ, кривої розподілу f (x) і прямими x = a и x = b.

Функція розподілу може бути легко знайдена, якщо відома щільність розподілу, за формулою:

Властивості щільності розподілу.

1) Щільність розподілу - невід'ємна функція.

2) Невласний інтеграл від щільності розподілу в межах від - ? до ? дорівнює одиниці.

Числові характеристики неперервних випадкових величин.

Нехай неперервна випадкова величина Х задана функцією розподілу f (x). Припустимо, що всі можливі значення випадкової величини належать відрізку [a, b].

Визначення. математичним очікуваннямнеперервної випадкової величини Х, можливі значення якої належать відрізку [a, b], називається певний інтеграл

Якщо можливі значення випадкової величини розглядаються на всій числовій осі, то математичне очікування перебувають розслідування щодо формулі:

При цьому, звичайно, передбачається, що невласний інтеграл сходиться.

Визначення. дисперсією неперервної випадкової величини називається математичне сподівання квадрата її відхилення.

За аналогією з дисперсією випадкової величини, для практичного обчислення дисперсії використовується формула:

Визначення. Середнім квадратичним відхиленнямназивається квадратний корінь з дисперсії.

Визначення. модоюМ0 дискретної випадкової величини називається її найбільш ймовірне значення. Для неперервної випадкової величини мода - таке значення випадкової величини, при якій щільність розподілу має максимум.

Якщо багатокутник розподілу для дискретної випадкової величини або крива розподілу для неперервної випадкової величини має два або кілька максимумів, то такий розподіл називається двухмодальним або многомодальним.

Якщо розподіл має мінімум, але не має максимуму, то воно називається антімодальним.

Визначення. медианой MD випадкової величини Х називається таке її значення, щодо якого равновероятно отримання більшого або меншого значення випадкової величини.

Геометрично медіана - абсциса точки, в якій площа, обмежена кривою розподілу ділиться навпіл.

Відзначимо, що якщо розподіл одномодальних, то мода і медіана збігаються з математичним очікуванням.

Визначення. початковим моментомпорядку k випадкової величини Х називається математичне очікування величини Хk.

Для дискретної випадкової величини: .

Для неперервної випадкової величини: .

Початковий момент першого порядку дорівнює математичному очікуванню.

Визначення. центральним моментомпорядку k випадкової величини Х називається математичне очікування величини

Для дискретної випадкової величини: .

Для неперервної випадкової величини: .

Центральний момент першого порядку завжди дорівнює нулю, а центральний момент другого порядку дорівнює дисперсії. Центральний момент третього порядку характеризує асиметрію розподілу.

Визначення. Ставлення центрального моменту третього порядку до середньому квадратичному відхиленню в третього ступеня називається коефіцієнтом асиметрії.

Визначення.Для характеристики гостровершинності і плосковершіннимі розподілу використовується величина, звана ексцесом.

Крім розглянутих величин використовуються також так звані абсолютні моменти:

Абсолютний початковий момент: .

Абсолютний центральний момент: .

Абсолютний центральний момент першого порядку називається середнім арифметичним відхиленням.

Рівномірний розподіл.

Визначення. Безперервна випадкова величина має рівномірнийрозподіл на відрізку [a, b], Якщо на цьому відрізку щільність розподілу випадкової величини постійна, а поза ним дорівнює нулю.

Постійна величина С може бути визначена за умови рівності одиниці площі, обмеженої кривою розподілу.

f (x)

0 a b x

отримуємо .

Знайдемо функцію розподілу F (x) на відрізку [a, b].

F (x)


0 a b x

Для того, щоб випадкова величина підпорядковувалася закону рівномірного розподілу необхідно, щоб її значення лежали всередині деякого певного інтервалу, і всередині цього інтервалу значення цієї випадкової величини були б різновірогідні.

Визначимо математичне сподівання і дисперсію випадкової величини, підпорядкованої рівномірному закону розподілу.

Ймовірність влучення випадкової величини в заданий інтервал:

Показовий розподіл.

Визначення. Показовим (експоненціальним)називається розподіл ймовірностей неперервної випадкової величини Х, яке описується щільністю

де l - позитивне число.

Знайдемо закон розподілу.

Графіки функції розподілу і щільності розподілу:

 f (x) F (x)

l 1

0 x 0 x

Знайдемо математичне сподівання випадкової величини, підпорядкованої показовому розподілу.

Результат отриманий з використанням того факту, що

Для знаходження дисперсії знайдемо величину М (Х2).

Двічі інтегруючи частинами, аналогічно розглянутому випадку, отримаємо:

тоді

Разом:

Видно, що в разі показового розподілу математичне сподівання і середнє квадратичне відхилення рівні.

Також легко визначити і ймовірність попадання випадкової величини, підпорядкованої показовому закону розподілу, в заданий інтервал.

Показовий розподіл широко використовується в теорії надійності.

Припустимо, якийсь пристрій починає працювати в момент часу t0= 0, А через якийсь час t відбувається відмова пристрою.

позначимо Т безперервну випадкову величину - тривалість безвідмовної роботи пристрою.

Таким чином, функція розподілу F (t) = P (T  визначає ймовірність відмови за час тривалістю t.

Імовірність протилежної події (безвідмовна робота протягом часу t) дорівнює R (t) = P (T> t) = 1 - F (t).

Визначення. функцією надійностіR (t) називають функцію, що визначає ймовірність безвідмовної роботи пристрою протягом часу t.

Часто на практиці тривалість безвідмовної роботи підпорядковується показовому закону розподілу.

Взагалі кажучи, якщо розглядати новий пристрій, то ймовірність відмови на початку його функціонування буде більше, потім кількість відмов знизиться і буде деякий час мати практично одне і те ж значення. Потім (коли пристрій виробить свій ресурс) кількість відмов буде зростати.

Іншими словами, можна сказати, що функціонування пристрою протягом всього існування (в сенсі кількості відмов) можна описати комбінацією двох показових законів (на початку і кінці функціонування) і рівномірного закону розподілу.

Функція надійності для будь-якого пристрою під час показового законі розподілу дорівнює:

Дане співвідношення називають показовим законом надійності.

Важливим властивістю, що дозволяє значно спростити рішення задач теорії надійності, є те, що ймовірність безвідмовної роботи пристрою на інтервалі часу t не залежить від часу попередньої роботи до початку розглянутого інтервалу, а залежить тільки від тривалості часу t.

Таким чином, безвідмовна робота пристрою залежить тільки від інтенсивності відмов l і не залежить від безвідмовної роботи пристрою в минулому.

Так як подібним властивістю володіє тільки показовий закон розподілу, то цей факт дозволяє визначити, чи є закон розподілу випадкової величини показовим чи ні.

Нормальний закон розподілу.

Визначення. нормальнимназивається розподіл ймовірностей неперервної випадкової величини, яке описується щільністю ймовірності

Нормальний закон розподілу також називається законом Гаусса.

Нормальний закон розподілу займає центральне місце в теорії ймовірностей. Це обумовлено тим, що цей закон проявляється у всіх випадках, коли випадкова величина є результатом дії великої кількості різних факторів. До нормальним законом наближаються всі інші закони розподілу.

Можна легко показати, що параметри и  , Що входять до щільність розподілу є відповідно математичним очікуванням і середнім квадратичним відхиленням випадкової величини Х.

Знайдемо функцію розподілу F (x).

Графік щільності нормального розподілу називається нормальної кривоїабо кривої Гаусса.

Нормальна крива має такі властивості:

1) Функція визначена на всій числовій осі.

2) При всіх х функція розподілу приймає лише позитивні значення.

3) Вісь ОХ є горизонтальною асимптотой графіка щільності ймовірності, т. К. При необмеженому зростанні по абсолютній величині аргументу х, Значення функції прагне до нуля.

4) Знайдемо екстремум функції.

Т. к. При y '> 0 при x и y '<0 при x> m , То в точці х = т функція має максимум, рівний .

5) Функція є симетричною відносно прямої х = а, Т. К. Різниця

(х - а) Входить в функцію щільності розподілу в квадраті.

6) Для знаходження точок перегину графіка знайдемо другу похідну функції щільності.

при x = m + S і x = m - S друга похідна дорівнює нулю, а при переході через ці точки змінює знак, т. Е. В цих точках функція має перегин.

У цих точках значення функції дорівнює .

Побудуємо графік функції щільності розподілу.

Побудовано графіки при т = 0 і трьох можливих значеннях середнього квадратичного відхилення s = 1, s = 2 і s = 7. Як видно, при збільшенні значення середнього квадратичного відхилення графік стає більш пологим, а максимальне значення зменшується ..

якщо а > 0, то графік зміститься в позитивному напрямку, якщо а <0 - у негативному.

при а = 0 і s = 1 крива називається нормованої. Рівняння нормованої кривої:

Функція Лапласа.

Знайдемо ймовірність попадання випадкової величини, розподіленої за нормальним законом, в заданий інтервал.

позначимо

тоді

 Т. к. Інтеграл  не виражається за через елементарні функції, то вводиться в розгляд функція

,

яка називається функцією Лапласаабо інтегралом ймовірностей.

Значення цієї функції при різних значеннях х пораховані і наводяться в спеціальних таблицях.

Нижче показаний графік функції Лапласа.

Функція Лапласа має такі властивості:

1) Ф (0) = 0;

2) Ф (-х) = - Ф (х);

3) Ф (?) = 1.

Функцію Лапласа також називають функцією помилок і позначають erf x.

 ще використовується нормованафункція Лапласа, яка пов'язана з функцією Лапласа співвідношенням:

Нижче показаний графік нормованої функції Лапласа.

При розгляді нормального закону розподілу виділяється важливий окремий випадок, відомий як правило трьох сигм.

Запишемо ймовірність того, що відхилення нормально розподіленої випадкової величини від математичного очікування менше заданої величини D:

Якщо прийняти D = 3s, то отримуємо з використанням таблиць значень функції Лапласа:

Т. е. Ймовірність того, що випадкова величина відхилиться від свого математичного очікування на величину, більшу ніж утроенное середнє квадратичне відхилення, практично дорівнює нулю.

Це правило називається правилом трьох сигм.

Чи не практиці вважається, що якщо для будь - якої випадкової величини виконується правило трьох сигм, то ця випадкова величина має нормальний розподіл.

Центральна гранична теорема Ляпунова.

Теорема. Якщо випадкова величина Х являє собою суму дуже великого числа взаємно незалежних випадкових величин, вплив кожної з яких на всю суму мізерно мало, то Х має розподіл, близький до нормального.

На практиці для більшості випадкових величин виконуються умови теореми Ляпунова.

Система випадкових величин.

Розглянуті вище випадкові величини були одновимірними, т. Е. Визначалися одним числом, проте, існують також випадкові величини, які визначаються двома, трьома і т. Д. Числами. Такі випадкові величини називаються двовимірними, тривимірними і т. Д.

Залежно від типу, що входять в систему випадкових величин, системи можуть бути дискретними, безперервними або змішаними, якщо в систему входять різні типи випадкових величин.

Більш детально розглянемо системи двох випадкових величин.

Визначення. законом розподілу системи випадкових величин називається співвідношення, яке встановлює зв'язок між областями можливих значень системи випадкових величин та ймовірності появи системи в цих областях.

Визначення. функцією розподілу системи двох випадкових величин називається функція двох аргументів F (x, y), Що дорівнює ймовірності спільного виконання двох нерівностей X

Відзначимо наступні властивості функції розподілу системи двох випадкових величин:

1) Якщо один з аргументів прагне до плюс нескінченності, то функція розподілу системи прагне до функції розподілу однієї випадкової величини, що відповідає іншому аргументу.

2) Якщо обидва аргументи прагнуть до нескінченності, то функція розподілу системи прагне до одиниці.

3) При прагненні одного або обох аргументів до мінус нескінченності функція розподілу прагне до нуля.

4) Функція розподілу є неубивающей функцією по кожному аргументу.

5) Імовірність попадання випадкової точки (X, Y) в довільний прямокутник зі сторонами, паралельними координатним осях, обчислюється за формулою:

Щільність розподілу системи двох випадкових величин.

Визначення. Щільністю спільного розподілуймовірностей двовимірної випадкової величини (X, Y) називається друга мішана похідна від функції розподілу.

 Якщо відома щільність розподілу, то функція розподілу може бути легко знайдена за формулою:

Двовимірна щільність розподілу неотрицательна і подвійний інтеграл з нескінченними межами від двовимірної щільності дорівнює одиниці.

За відомою щільності спільного розподілу можна знайти щільності розподілу кожної зі складових двовимірної випадкової величини.

; ;

Умовні закони розподілу.

Як було показано вище, знаючи спільний закон розподілу можна легко знайти закони розподілу кожної випадкової величини, що входить в систему.

Однак, на практиці частіше варто зворотна задача - за відомими законами розподілу випадкових величин знайти їх спільний закон розподілу.

У загальному випадку ця задача є нерозв'язною, т. К. Закон розподілу випадкової величини нічого не говорить про зв'язок цієї величини з іншими випадковими величинами.

Крім того, якщо випадкові величини залежні між собою, то закон розподілу не може бути виражений через закони розподілу складових, т. К. Має встановлювати зв'язок між складовими.

Все це призводить до необхідності розгляду умовних законів розподілу.

Визначення. Розподіл однієї випадкової величини, що входить в систему, знайдене за умови, що інша випадкова величина прийняла певне значення, називається умовним законом розподілу.

Умовний закон розподілу можна задавати як функцією розподілу так і щільністю розподілу.

Умовна щільність розподілу обчислюється за формулами:

Умовна щільність розподілу має всі властивості щільності розподілу однієї випадкової величини.

Умовне математичне сподівання.

Визначення. Умовним математичним очікуваннямдискретної випадкової величини Y при X = x (х - певне можливе значення Х) називається твір всіх можливих значень Y на їх умовні ймовірності.

Для безперервних випадкових величин:

,

де f (y / x) - Умовна щільність випадкової величини Y при X = x.

Умовне математичне сподівання M (Y / x) = f (x) є функцією від х і називається функцією регресії Х на Y.

Залежні і незалежні випадкові величини.

Випадкові величини називаються незалежними, якщо закон розподілу однієї з них не залежить від того яке значення приймає інша випадкова величина.

Поняття залежності випадкових величин є дуже важливим в теорії ймовірностей.

Умовні розподілу незалежних випадкових величин рівні їх безумовним розподілом.

Визначимо необхідні і достатні умови незалежності випадкових величин.

Теорема. Для того, щоб випадкові величини Х і Y були незалежні, необхідно і достатньо, щоб функція розподілу системи (X, Y) була дорівнює добутку функцій розподілу складових.

Аналогічну теорему можна сформулювати і для щільності розподілу:

Теорема. Для того, щоб випадкові величини Х і Y були незалежні, необхідно і достатньо, щоб щільність спільного розподілу системи (X, Y) була дорівнює добутку щільності розподілу складових.

Визначення. Кореляційним моментом mxyвипадкових величин Х і Y називається математичне сподівання добутку відхилень цих величин.

Практично використовуються формули:

Для дискретних випадкових величин:

Для безперервних випадкових величин:

Кореляційний момент служить для того, щоб охарактеризувати зв'язок між випадковими величинами. Якщо випадкові величини незалежні, то їх кореляційний момент дорівнює нулю.

Кореляційний момент має розмірність, що дорівнює добутку розмірностей випадкових величин Х і Y. Цей факт є недоліком цієї числової характеристики, т. К. При різних одиницях виміру виходять різні кореляційні моменти, що ускладнює порівняння кореляційних моментів різних випадкових величин.

Для того, щоб усунути цей недолік застосуються інша характеристика - коефіцієнт кореляції.

Визначення. коефіцієнтом кореляції rxy випадкових величин Х і Y називається відношення кореляційного моменту до твору середніх квадратичних відхилень цих величин.

Коефіцієнт кореляції є безрозмірною величиною. Коефіцієнт кореляції незалежних випадкових величин дорівнює нулю.

властивість: Абсолютна величина кореляційного моменту двох випадкових величин Х і Y не перевищує середнього геометричного їх дисперсій.

властивість: Абсолютна величина коефіцієнта кореляції не перевищує одиниці.

Випадкові величини називаються корельованими, Якщо їх кореляційний момент відмінний від нуля, і некоррелірованнимі, Якщо їх кореляційний момент дорівнює нулю.

Якщо випадкові величини незалежні, то вони і некорреліровани, але з некоррелированности можна зробити висновок про їх незалежності.

Якщо дві величини залежні, то вони можуть бути як корельованими, так і некорельованими.

Часто по заданій щільності розподілу системи випадкових величин можна визначити залежність або незалежність цих величин.

Поряд з коефіцієнтом кореляції ступінь залежності випадкових величин можна охарактеризувати і іншою величиною, яка називається коефіцієнтом коваріації. Коефіцієнт коваріації визначається формулою:

Лінійна регресія.

Розглянемо двовимірну випадкову величину (X, Y), де X і Y - залежні випадкові величини.

Уявімо наближено одну випадкову величину як функцію іншого. Точна відповідність неможливо. Будемо вважати, що ця функція лінійна.

Для визначення цієї функції залишається тільки знайти постійні величини a і b.

Визначення. функція g (X) називається найкращим наближенням випадкової величини Y в сенсі методу найменших квадратів, якщо математичне сподівання

 Правила виконання контрольних робіт. |  Ймовірностей.

© 2016-2022  um.co.ua - учбові матеріали та реферати