Студопедия

КАТЕГОРИИ:

АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника


Двофакторний комплекс




Структура дисперсійного аналізу у випадку дослідження двох чи більше факторів не змінюється, ускладнюються лише обчислення.

Наприклад, горизонтальні кути вимірюються різними інструментами однієї точності та декількома спостерігачами. Необхідно оцінити розсіювання отриманих результатів за рахунок інструментів та за рахунок спостерігачів, маючи на увазі, що інструменти можуть бути неякісними або погано вивіреними, а виконавці недостатньо підготовленими.

Ідея такого двофакторного дисперсійного аналізу полягає в тому, щоб розкласти загальну дисперсію на складові, які відповідатимуть припущенням щодо двох зазначених факторів. Вихідні дані наведені в таблиці 3.10.

Таблиця 7.10

 

Середні в групах , та загальне середнє обчислюються так:

; .

Сума квадратів зображається у вигляді

(7.87)

= Q1+ Q2+ Q3,

де Q1 – сума квадратів різниць між середніми у рядках та загальним середнім, характеризує зміну дисперсії за фактором А;

Q2 – сума квадратів різниць між середніми у стовпчиках та загальним середнім, характеризує зміну дисперсії за фактором В;

Q3 – залишкова сума квадратів, яка характеризує невраховані фактори;

Q – загальна сума квадратів.

Згідно з цими величинами оцінки дисперсії будуть

– оцінка загальної дисперсії, (7.88)

– оцінка дисперсії за фактором А, (7.89) – оцінка - дисперсії за фактором B, (7.90)

– оцінка (7.91)

залишкової дисперсії.

Всі величини мають c 2 – розподіл з k = (ru – 1), k1= (r – 1), k2= (v – 1), k3= (r – 1)(u – 1) ступенями довільності відповідно.

У двофакторному аналізі для встановлення впливу факторів A та B на досліджувану величину порівнюють оцінки дисперсії та за факторами A і B із оцінкою залишкової дисперсії . F-критерії будуть мати вигляд

,

.

Отримані значення FAта FBпорівнюють із табличним Faза вибраним рівнем значущості a (або q%, тобто a = q / 100).

Якщо FA> Faта FB> Fa, то нульова гіпотеза H0про рівність математичних сподівань відхиляється і вплив факторів не вважається суттєвим.

Приклад 15. У таблиці 3.11 наведено результати вимірювань базису триангуляції трьома мірними стрічками. Отримано по три числових значення довжини базису для кожної стрічки.

Ставиться таке запитання: чи можна вважати, що отримані за допомогою трьох стрічок результати мають однакові систематичні похибки?

В таблиці 3.12 обчислюємо необхідні складові дисперсії.

Знаходимо значення критерія Фішера

.

За таблицею для відповідного критерія F (див. Додаток, табл.5) для k1= 2,
k
2= 6 та q% = 5% знаходимо табличне значення (межу критичної області гіпотези)
Fa
= 5,14. Оскільки F < Fa, то нульова гіпотеза приймається (центри розподілу не мають суттєвого зміщення) і можна зробити висновок про однакові систематичні похибки, які можуть виникати при користуванні всіма трьома стрічками.

Таблиця 7.11

Таблиця 7.12

Приклад 16. Виконано вимірювання горизонтального кута трьома спостерігачами протягом п’яти днів кожним. Потрібно з’ясувати, чи впливає на результати вимірювань зміна дати та місця спостережень. Дані наведено в таблиці 3.13.

Таблиця 7.13

Обчислимо необхідні величини для оцінок дисперсії.

Таблиця 7.14

Знаходимо критерії Фішера

між датами

та між спостерігачами .

За рівнем значущості q% = 5% та ступенями довільності k1 = 8, k2 = 4 із таблиці для F-критерія (див. Додаток, табл.5) для першого випадку маємо Fa(D) = 6,04, а для другого – Fa(C) = 19,37 (k1 = 8, k2 = 2). Оскільки FD< Fa(D) і < Fa(С), то гіпотеза H0приймається в обох випадках.

Це означає, що особисті похибки спостерігачів і різниця дат спостережень не викликають значних систематичних впливів.

Лекція 8. Основи кореляційного аналізу

Кожне явище природи – це єдність частин і властивостей, які його складають. Тому для пізнання явищ необхідно вивчати їх у всій різноманітності взаємовідношень з оточуючими явищами, а також у взаємозв’язках всіх його сторін. Таке всебічне вивчення можна реалізувати, користуючись методами математичної статистики. Але саме поняття взаємозв’язків між явищами в математичній статистиці дещо інше, ніж в природознавстві та техніці взагалі. Тут переважно користуються функціональними залежностями, коли деяка фізична величина визначається як однозначна функція однієї чи декількох інших величин.

Наприклад, теорема синусів в математиці

описує залежність між сторонами і кутами трикутника, а закон Ома у фізиці – залежність між силою струму, напругою і опором в електричній мережі. Тобто, така залежність існуватиме завжди, якщо існує функція

y = f(x, z, ..., u).

Такий функціональний зв’язок може існувати і між випадковими величинами, але може існувати залежність іншого роду, яка полягає в тому, що одна з цих величин реагує на зміну іншої зміною свого закону розподілу. Такий зв’язок між величинами називається стохастичним (ймовірнісним).

Стохастичний зв’язок між двома випадковими величинами проявляється тоді, коли існують загальні випадкові фактори, які впливають на обидві випадкові величини разом з іншими неоднаковими для обох величин випадковими факторами. Наприклад, деяка величина X є функцією випадкових величин Z1, Z2, ..., Zm,
V
1, V2, ..., Vn , а Y – функцією випадкових величин Z1, Z2, ..., Zm, U1, U2, ...,Un

(8.92)

У такому випадку X та Yстохастично зв’язані, тобто можна говорити про закон розподілу випадкових величин, які розглядаються; про ймовірності, з якими зустрічаються ті чи інші комбінації досліджуваних величин.

головне застосування кореляційного аналізу – в розв’язуванні задач наукового прогнозу. Його методами можна вказувати межі, в яких із наперед заданою надійністю (ймовірністю) буде міститися величина, яка цікавить дослідника, якщо інші, зв’язані з нею величини, приймають певні числові значення. наприклад, геодезиста може цікавити зв’язок між нев’язками в приростах координат кінців сторін триангуляції (полігонометрії, трилатерації) в залежності від напрямків сторін відносно осей координат, зв’язки, які виникають при вимірюваннях напрямків та кутів; залежність між виміряними зенітними віддалями і часом спостережень та інше.

Частинним випадком такої залежності є статистична залежність, коли умовне математичне сподівання однієї випадкової величини є функцією значень, які приймає інша

M(Y | X = x) = f (x), (8.93)

тобто значення однієї випадкової величини Y в середньому змінюються від того, які значення прийняла інша випадкова величина X. Для оцінки умовного математичного сподівання необхідно знати аналітичний вигляд закону розподілу системи (X, Y). За статистичними даними це зробити неможливо. Як відомо, в таких випадках можна перейти до оцінок відповідних числових характеристик, у даному випадку до умовного середнього значення

. (8.94)

Така залежність є частинним випадком статистичної залежності і називається кореляційною. Вона характеризується тіснотою і формою.

Характеристикою тісноти кореляційного зв’язку є коефіцієнт кореляції. Статистична оцінка його обчислюється за формулою

, (8.95)

де

– вибірковий кореляційний момент (вибіркова коваріація);

, (8.96)

– незміщені оцінки середніх квадратичних відхилень.

Основна властивість вибіркового коефіцієнта кореляції полягає в тому, що він досягає своїх граничних значень –1 та +1 тоді і тільки тоді, коли двовимірний розподіл (X, Y) концентрується на деякій прямій площини (XOY), тобто між X та Y існує точна лінійна залежність. Якщо || < 1, то такої концентрації точок (xi, yi) не буде, якою б тісною не була залежність між Y та X. У тому випадку, коли = 0, величини X та Y називаютьсянекорельованими, зокрема, так буде завжди, коли X та Y є незалежними. Однак зворотного висновку зробити не можна. Нерівність ¹ 0 не обов’язково означає, що випадкові величини X та Y є незалежними.

Отже, за характеристику залежності випадкових величин приймається вибірковий коефіцієнт кореляції.Якщо ж ¹ 0, то випадкові величини X та Y називаються корельованими.

Оскільки вибірковий коефіцієнт кореляції є також випадковою величиною, то виникає питання про надійність його визначення.

Вибірковий коефіцієнт кореляції приблизно є нормально розподіленим. У такому випадку для великих вибірок (обсягом n > 50) використовують оцінку середнього квадратичного відхилення

. (8.97)

Між величинами X та Y існує залежність, якщо виконується нерівність

, (8.98)

яка називається критерієм В.І. Романовського.

Зі зменшенням обсягу вибірки (n < 50) зменшується і “нормальність” розподілу вибіркового коефіцієнта кореляції. У такому випадку оцінку надійності його виконують методом побудови довірчого інтервалу з використанням функції Фішера

, (8.99)

яка підпорядковується нормальному закону розподілу. Величина Z обчислюється безпосередньо за значеннями вибіркового коефіцієнта кореляції або отримується за цими ж значеннями із відповідно складеної таблиці (див. Додаток, табл.7). Довірчий інтервал для величини Z буде таким:

,

де Z0– обчислене значення функції Фішера або знайдене за таблицею для відповідного значення ; t – параметр нормального розподілу, який отримується із таблиці інтеграла ймовірностей для заданої довірчої ймовірності (див. Додаток, табл.2).

Після знаходження довірчого інтервалу для функції Z, розв’язавши обернену задачу, отримаємо довірчий інтервал для коефіцієнта кореляції.

Найважливіші особливості кореляційного зв’язку виражаються в тих змінах, які зазнає центр умовного розподілу однієї величини за зміною іншої. Геометричне місце центрів величини Y, які відповідають заданим значенням x випадкової величини X, називаютьлінією кореляції аборегресії Y на X (див. Вираз 3.94).

Аналогічно можна побудувати лінію кореляції або регресії X на Y

. (8.100)

Вирази (3.94) та (3.100) і вважаютьформою кореляційного зв’язку. Знаходження форми зв’язку – це вже задачарегресійного аналізу.

Приклад 17. Нехай = 0,75, n = 64. Встановити наявність кореляційного зв’язку між величинами X та Y .

Оскільки n > 50, то для розв’язання задачі використаємо формулу В.Романовського

,

|| ³ 0,16.

Тобто можна стверджувати про наявність лінійного кореляційного зв’язку між випадковими величинами X та Y.

Приклад 18. Нехай = 0,65, n = 39. Встановити наявність кореляційного зв’язку між випадковими величинами X та Y із довірчою ймовірністю g = 0,95.

У нашому випадку n < 50, тому для розв’язання задачі використовуємо функцію Фішера. За таблицею (див. Додаток, табл.7) знайдемо значення функції Фішера Z0для = 0,65

Z0= 0,775.

Для довірчої ймовірності g = 0,95 параметр нормального розподілу t = 1,96. Він отриманий із таблиць інтеграла ймовірностей (див. Додаток, табл.2). Тоді довірчий інтервал для величини Z буде таким:

0,442 < Z < 1,108.

Значення вибіркового коефіцієнта кореляції , які відповідають значенням функції Фішера Z = 0,442 та Z = 1,108, відповідно дорівнюють 0,415 та 0,805 (див. Додаток, табл.7). Звідси довірчий інтервал для коефіцієнта кореляції rxyбуде таким:

0,415 £ rxy£ 0,805.

Отже, з ймовірністю g = 0,95 встановлюємо, що значення коефіцієнта кореляції лежить в межах від 0,415 до 0,805. Довжина довірчого інтервалу для rxyдорівнює 0,805 – 0,415 = 0,39 і є меншою від самого значення . Тому можна стверджувати, що між випадковими величинами X та Y існує лінійний кореляційний зв’язок. У протилежному випадку, тобто коли довжина довірчого інтервалу є більшою від значення вибіркового коефіцієнта кореляції, лінійного кореляційного зв’язку між випадковими величинами X та Y не існує.


Поделиться:

Дата добавления: 2014-12-03; просмотров: 135; Мы поможем в написании вашей работы!; Нарушение авторских прав





lektsii.com - Лекции.Ком - 2014-2024 год. (0.006 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав
Главная страница Случайная страница Контакты