величин * і * має центром (математичне чекання) нуль і дисперсію, рівну одиниці. Приведемо доказ для випадкової величини *.
Ковариація * і * називається коефіцієнтом кореляції випадкових величин і (позначається ).
Для незалежних і =0, тому що в цьому випадку cov(;)=0
Зворотного висновку зробити не можна. Випадкові величини можуть бути зв'язані навіть функціональною залежністю (кожному значенню однієї випадкової величини відповідає єдине значення іншої випадкової величини), але коефіцієнт їхньої кореляції буде дорівнює нулеві.
Приклади:
1. Нехай випадкова величина симетрично розподілена біля нуля. Тоді М=0. Нехай =2. Тоді М( )=М(3)=0, так 3 теж симетрично розподілена біля нуля. З іншої сторони ММ=0, тому що М=0. У такий спосіб .
2. Нехай закон спільного розподілу випадкових величин ( і ( заданий таблицею |
1 | 2
1 | 1/5 | 0 | 1/5
2 | 0 | 3/5 | 3/5
3 | 1/5 | 0 | 1/5
2/5 | 3/5
Проведемо обчислення:
; ;
; .
Звідси випливає, що =0. При цьому очевидно, що має місце функціональна залежність випадкової величини від випадкової величини .
Коефіцієнт кореляції не змінює своєї величини, якщо замість випадкової величини розглядати випадкову величину 1=+а або 2=k (а і
до-постійні числа, k ), тому що при зміні початку координат або при зміні масштабу величини нормоване відхилення не міняється. Сказане рівною мірою відноситься і до (.
Корисно запам'ятати формулу
D()=D+D+2cov(;)
Звідси випливає властивість дисперсії для незалежних і :
D()=D+D
Властивості коефіцієнта кореляції.–
11
Якщо =1, то =k+b, де k і b-константи, k>0.
Якщо = –1, то = k+b, де k<0.
Якщо =k+b, (k0) або =k1+b1, то
=1 при k>0
= – при k<0.
Коефіцієнт кореляції досягає своїх граничних значень –1 і 1 у тім і тільки в тому випадку, якщо спільний розподіл і усі концентрується на деякій прямій у площині ; , тобто між і мається така лінійна залежність.
Якщо <1, то такої лінійної залежності немає. Усе-таки в міру наближення до одиниці спільний розподіл ; має тенденцію концентруватися поблизу деякої прямої лінії і величину можна вважати мірою близькості до повної лінійної залежності між і .
Приклад. Розрахуємо коефіцієнт кореляції для випадкових величин при заданому законі спільного розподілу |
1 | 2 | 3
10 | 1/36 | 0 | 0 | 1/36
20 | 2/36 | 1/36 | 0 | 3/36
30 | 2/36 | 2/36 | 2/36 | 6/36
40 | 1/36 | 9/36 | 16/36 | 26/36
6/36 | 12/36 | 18/36
7,6
0,746
Уведемо поняття кореляційної залежності між і .
Нехай заданий закон спільного розподілу двох випадкових величин і (як у вищенаведеному прикладі), і умовне математичне чекання міняється в залежності від значення . Тоді прийнято говорити про кореляційну залежність від . Якщо умовне математичне чекання є лінійна функція від , то між і мається лінійний кореляційний зв'язок або залежність.
Як правило, говорячи про кореляційну залежність, мають на увазі лінійну кореляційну залежність. Якщо мається на увазі нелінійна кореляційна залежність, то це особливо обмовляють.
Можна дати визначення кореляційної залежності двох випадкових величин і як зв'язку між тенденціями росту і . Наприклад, між і існує пряма кореляційна залежність, якщо з ростом випадкова величина має тенденцію зростати. (Це означає, що при великих значеннях з більшою імовірністю зустрічаються великі значення ). Якщо великим значенням с більшою імовірністю відповідають менші значення , тобто з ростом випадкова величина має тенденцію убувати, говорять, що між і існує зворотна кореляційна залежність.
Глибина (або тіснота) кореляційної залежності (або зв'язку) характеризується коефіцієнтом . Чим ближче до одиниці, тим тісніше глибина кореляційної залежності.
Чим ближче залежність між умовним математичним чеканням і випадковою величиною до лінійної, і чим тісніше значення групуються біля умовних математичних чекань, тим глибше (тісніше) кореляційний зв'язок.
Можна говорити про спільний розподіл двох безперервних випадкових величин. У більшості випадків можливий перехід від безперервних випадкових величин до спільного розподілу двох дискретних випадкових величин у такий спосіб.
Потрібно розбити відрізок a; b зміни випадкової величини на рівні відрізки c0=a; c1; c1; c2; c2; c3,,cn-1; cn=b. За значення випадкової величини прийняти середину кожного відрізка.
Також треба надійти з випадковою величиною , розбивши її область значень e; f на рівні відрізки g0; g1; g1; ge…gk-1;gk=f,і прийнявши за можливі значення середини відрізків gk-1; gk. У такий спосіб ми одержали дискретні випадкові величини *=x1; x2; …xn і *=y1; y2; …yk, причому кожній парі (xi; yj) ставиться у відповідність імовірність
Pij[ci–1; ci])([gi–1; gi]))
Список літератури
Сиденко А.В., Попов Г.Ю., Матвеева В.М. Статистика: Учебник. – М.: Издательство «Дело и сервис», 2000. – 464с.
Статистика: підручник / С.С. Герасименко та ін. – К.: КНЕУ, 2000.
Практикум по статистике: Учебное пособие для вузов / Под ред. В.М. Симчера / ВЗФЭИ. – М.: ЗАО «Финстатинформ», 1999.