КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
Нелінійна регресіяРівняння регресії (3.101) може описувати різні лінії (не тільки прямі). Наприклад, нехай воно набуває якогось із таких виглядів: а) y = a0+ a1x + a2x2; б) ; в) y = a0+ a1x + a2x2+ ax2 г) y = a0+ a1logx; д) . Невідомі параметри (коефіцієнти) цих рівнянь знаходяться також за методом найменших квадратів. Наприклад, для параболічної кривої y = a0+ a1x + a2x2коефіцієнти a0, a1, a2знаходимо зі системи рівнянь (9.104) Якщо рівняння регресії такого вигляду: y = a0+ a1x1+ a2x2+ ... + anxn, (9.105) то така регресія називається множинною регресією. тоді вектор оцінок коефіцієнтів a = (a0, a1, ..., an) визначається в матричній формі b = (XTX)–1(XTY). (9.106) Третя задача регресійного аналізу означає прогнозування значень досліджуваної змінної y, яка в статистиці носить назву відгуку на відомі значення параметрів xi(i = 1, 2, ...), які в свою чергу називаються регресорами. Вони можуть визначатися дослідником (тоді маємо першу модель регресійного аналізу), або змінюватися довільно і випадково незалежно від дослідника (друга модель регресійного аналізу). Методика обчислень за 1-ою та 2-ою моделями є однаковою, тільки змінюється інтерпретація результатів в умовах кожної моделі.
|