Студопедия

КАТЕГОРИИ:

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника



Линейная регрессия




Читайте также:
  1. Билет 15. Линейная зависимость и независимость решений линейного однородного ОДУ n-го порядка. Теорема об альтернативе для определителя Вронского.
  2. Кинематические характеристики: линейная и угловая скорости и ускорения, связь между ними.
  3. Классическая линейная модель множественной регрессии (КЛММР)
  4. Коэффициенты эластичности в нелинейных регрессиях.
  5. Линейная алгоритмическая структура
  6. Линейная зависимость и независимость.
  7. Линейная и воздушная перспектива.
  8. Линейная и линейно-штабная организационные структуры управления, их преимущества и недостатки
  9. Линейная интерполяция.
  10. Линейная модель множественной регрессии

 

Модели, которые состоят из линейной комбинации определенного набора функций Xk называются, линейными моделями, и для минимизации разности между моделью и данными может использоваться линейная регрессия. Общая форма модели этого вида

 

 

где Xk (x) - функции x, которые называются, функциями базиса, и ak - свободные параметры. Заметьте, что слово "линейный" относится только к зависимости модели от параметров ak; функции Xk (x) могут быть нелинейны.

Минимизация линейной модели выполнется относительно оценочной функции

 

 

Минимум этого выражения достигается при равенстве нулю его производной по параметрам. Заменив линейную модель этой функцией, возьмем первые производные и приравняем их к нулю. В результате получим уравнения, которые могут быть решены относительно параметров ak.

 

Модели линейной регрессии могут быть следующими:

 

· линейной Y = a+bx

· квадратичной Y = a+bx+cx2

· полиномиальной: Y = a+bx+cx2+dx3 + ....

 

 

Обычно при исследовании реальной системы мы имеем набор данных (точек), часто называемых "наблюдениями". Задача состоит в том, чтобы связать эти данные, построив модель в форме параметрического уравнения. Это "модельное уравнение " может, в зависимости от желания исследователя и особенностей конкретной системы, представлять собой различные функции: от простого полинома до чрезвычайно сложной модели с многими параметрами. Желательно, чтобы модель была выбрана так, чтобы параметры в выражении имели реальные интерпретацию и значения.

Моделирование данных может выполняться несколькими методами: интерполяция, регрессия, или сглаживание данных. Интерполяция гарантирует, что аппроксимирующая кривая пройдет через каждую точку. Регрессия просто гарантирует, что "оценочная функция", т.е. некоторая произвольная функция, которая измеряет несоответствие между данными и моделью будет минимизирована. При этом подходе, параметры модели подбираются до тех пор, пока оценочная функция не достигнет минимума.

Стандартная ошибка и коэффициент корреляции.При подборе функции регрессии, погрешность оценивается с помощью стандартной ошибки и коэффициента корреляции. Эти инструментальные средства не совершенны, но они дают полезную оценку деятельности посадки кривой. Стандартная ошибка определена следующим образом:



 

 

где f(xi) - значения, рассчитанные по модели регрессии, yi - точки данных, и n - число параметров в конкретной модели (так, чтобы знаменатель соответствовал числу степеней свободы). Стандартная ошибка определяет разброс точек данных вокруг кривой регрессии. По мере улучшения качества модели стандартная ошибка приближается к нулю.

Другой критерий "согласия" - это коэффициент корреляции. Чтобы объяснить значение этого критерия, мы должны возвратиться точкам данных и определить допустимое отклонение, которое определяет величину разброса данных вокруг среднего:

Где среднее число точек данных y задается как

Величина St рассматривает разброс вокруг постоянной линии (среднее) в отличие от разброса вокруг модели регрессии. Это - неопределенность зависимой переменной от регрессии. Мы также определяем отклонение от сглаживающей кривой как

Это выражение по форме напоминает формулу для стандартной ошибки, приведенной выше; Оно дает нам разброс точек вокруг подобранной функции. Таким образом, уменьшение погрешности может быть определено количественно как разность этих двух чисел. Поскольку эта величина зависит от масштаба данных, разность отнесена к значению St (нормирована).



 

гдеr - коэффициент корреляции. Когда регрессионная зависимость хорошо описывает данные, коэффициент корреляции близок к единице, а стандартная ошибка близка к нулю.


Дата добавления: 2015-07-26; просмотров: 12; Нарушение авторских прав







lektsii.com - Лекции.Ком - 2014-2021 год. (0.013 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав
Главная страница Случайная страница Контакты