КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
Рассмотрим использование коэффициентов взаимной сопряженностиИзмерение тесноты связи между номинальными переменными производят с помощью коэффициентов взаимной сопряженности. Все они основаны на нормировании : погашении зависимости от числа наблюдений и размерности таблицы. Все эти меры связи изменяются в интервале [0,1]. Коэффициент взаимной сопряженности К. Пирсона:
(39) где . Этот коэффициент не принимает во внимание число категорий для переменных х и у. Более совершенным является коэффициент сопряженности А.А. Чупрова
. (40)
Этот коэффициент, если таблица не квадратная, никогда не достигает 1. Модификацией этого коэффициента является коэффициент взаимной сопряженности Г. Крамера
, (41)
т.е. в знаменателе подкоренного выражения берется минимальная из величин: число строк без единицы либо число столбцов без единицы. Для квадратных таблиц Т=С.
По данным табл. 10
, .
Тогда Р=0,147; Т=С=0,147. Если таблица сопряженности не является четырехклеточной, то Р>(Т, С).
Для таблиц 2 2 разработаны специальные меры связи. Основные из них – это коэффициент ассоциации и коэффициент контингенции. Коэффициент ассоциации рассчитывается по формуле . (42)
По данным табл. 10 получаем
. Коэффициент контингенции вычисляется по следующей формуле:
(43)
По данным табл. 10 получаем
Коэффициент ассоциации дал значительно более высокую оценку тесноты связи. Недостаток использования этого коэффициента в том, что если хотя бы одна из клеточных частот равна нулю, то коэффициент ассоциации становится равным единице. Таким образом, коэффициент контингенции – более надежная мера связи, нежели коэффициент ассоциации [3].
РЕЗЮМЕ
Особенность связей в экономике и социальной сфере состоит в том, что их закономерный характер проявляется лишь в массе явлений – в среднем по совокупности. При статистической связи разным значениям одной переменной (фактора, х) соответствуют разные распределения другой переменной (результата, у). Корреляционная связь – частный случай статистической связи, при которой разным значениям переменной соответствуют разные средние значения другой переменной. Возможность измерения связей во многом зависит от уровня измерения переменных. Основные типы шкал: номинальная шкала, порядковая, интервальная. Поле корреляции – это поле точек, на котором каждая точка соответствует единице совокупности; ее координаты определяются значениями признаков х и у. Применяются различные зависимости для вычисления коэффициента корреляции как меры тесноты линейной связи. Он может быть определён на основе ковариации, коэффициента регрессии, правила разложения дисперсии. Коэффициент парной корреляции изменяется от -1 (случай полной обратной связи) до 1 (случай полной прямой связи), по абсолютной величине от 0 до 1. Частная корреляция – это измерение связи между двумя переменными при элиминировании прочих переменных. Различают частные корреляции разных порядков, которые могут быть определены на основе рекуррентной формулы. Множественная корреляция – это измерение связи между несколькими переменными. В этой главе приведено:
v Методики измерения основных параметров, характеризующих корреляционные связи.
|