Главная Случайная страница


Полезное:

Как сделать разговор полезным и приятным Как сделать объемную звезду своими руками Как сделать то, что делать не хочется? Как сделать погремушку Как сделать так чтобы женщины сами знакомились с вами Как сделать идею коммерческой Как сделать хорошую растяжку ног? Как сделать наш разум здоровым? Как сделать, чтобы люди обманывали меньше Вопрос 4. Как сделать так, чтобы вас уважали и ценили? Как сделать лучше себе и другим людям Как сделать свидание интересным?


Категории:

АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника






Предпосылки МНК





1. Математическое ожидание случайного отклонения εi равно 0 для всех наблюдений (M(εi) = 0).

2. Гомоскедастичность (постоянство дисперсий отклонений). Дисперсия случайных отклонений εi постоянна: D(εi) = D(εj) = S2 для любых i и j.

3. отсутствие автокорреляции.

4. Случайное отклонение должно быть независимо от объясняющих переменных: Yeixi = 0.

5. Модель является линейное относительно параметров.

6. отсутствие мультиколлинеарности. Между объясняющими переменными отсутствует строгая (сильная) линейная зависимость.

7. Ошибки εi имеют нормальное распределение. Выполнимость данной предпосылки важна для проверки статистических гипотез и построения доверительных интервалов.

 

Эмпирическое уравнение множественной регрессии представим в виде:

Y = b0 + b1X1 + b1X1 +... + bmXm + e

Здесь b0, b1,..., bm - оценки теоретических значений β0, β1, β2,..., βm коэффициентов регрессии (эмпирические коэффициенты регрессии); e - оценка отклонения ε.

При выполнении предпосылок МНК относительно ошибок εi, оценки b0, b1,..., bm параметров β0, β1, β2,..., βm множественной линейной регрессии по МНК являются несмещенными, эффективными и состоятельными (т.е. BLUE-оценками).

 

Для оценки параметров уравнения множественной регрессии применяют МНК.

1. Оценка уравнения регрессии.

Определим вектор оценок коэффициентов регрессии. Согласно методу наименьших квадратов, вектор s получается из выражения:

s = (XTX)-1XTY

Матрица X

 

 

  19.4   1.59 148.51
      1.38 148.56
  15.8   1.41 148.36
  17.1   1.36 148.46
  20.5   1.3 148.29
  19.1   1.26 148.03
  12.7   1.28 147.8
  17.7   1.21 147.54
  28.3   1.27 146.89
  24.4   1.31 146.3
      1.4 145.17
  28.9   1.48 144.96
  38.3   1.5 144.17
  54.4   1.46 143.47
  65.4   1.48 142.75
  72.7   1.61 142.22
  97.7   1.72 142.01
  61.9   1.76 141.9
  79.6   1.79 142.86
      1.8 142.87

 

 

Матрица Y

 

 

73.69
82.33
80.22
 
 
181.39
130.38
66.85
176.58
 
140.67
23.66
 
 
 
 
 
711.41
 
 

 

 

Матрица XT

 

 

                                       
19.4   15.8 17.1 20.5 19.1 12.7 17.7 28.3 24.4   28.9 38.3 54.4 65.4 72.7 97.7 61.9 79.6  
                                       
1.59 1.38 1.41 1.36 1.3 1.26 1.28 1.21 1.27 1.31 1.4 1.48 1.5 1.46 1.48 1.61 1.72 1.76 1.79 1.8
148.51 148.56 148.36 148.46 148.29 148.03 147.8 147.54 146.89 146.3 145.17 144.96 144.17 143.47 142.75 142.22 142.01 141.9 142.86 142.87

 

 

Умножаем матрицы, (XTX)

 

 

  826.9   29.36 2911.12
826.9 51346.27 6040164.8 1302.77 119079.94
  6040164.8   155527.1 14177497.36
29.36 1302.77 155527.1 43.75 4266.36
2911.12 119079.94 14177497.36 4266.36 423855.56

 

 

В матрице, (XTX) число 20, лежащее на пересечении 1-й строки и 1-го столбца, получено как сумма произведений элементов 1-й строки матрицы XT и 1-го столбца матрицы X

Умножаем матрицы, (XTY)

 

 

5711.18
367414.41
45038867.39
9118.49
821115.06

 

 

Находим обратную матрицу (XTX)-1

 

 

801.82 -0.23 -0.00111 -8.18 -5.32
-0.23 0.000659 -4.0E-6 -0.00951 0.00162
-0.00111 -4.0E-6   -0.000178 9.0E-6
-8.18 -0.00951 -0.000178 5.87 0.00576
-5.32 0.00162 9.0E-6 0.00576 0.0358

 


 

Вектор оценок коэффициентов регрессии равен

Y(X) = (XTX)-1XTY =

 

 

-480.55
-0.44
0.073
-14.22
3.06

 

 

Уравнение регрессии (оценка уравнения регрессии)

Y = -480.55-0.44X1 + 0.073X2-14.22X3 + 3.06X4

2. Матрица парных коэффициентов корреляции.

Число наблюдений n = 20. Число независимых переменных в модели равно 4, а число регрессоров с учетом единичного вектора равно числу неизвестных коэффициентов. С учетом признака Y, размерность матрицы становится равным 6. Матрица, независимых переменных Х имеет размерность (20 х 6).

Матрица, составленная из Y и X

 

 

  73.69 19.4   1.59 148.51
  82.33     1.38 148.56
  80.22 15.8   1.41 148.36
    17.1   1.36 148.46
    20.5   1.3 148.29
  181.39 19.1   1.26 148.03
  130.38 12.7   1.28 147.8
  66.85 17.7   1.21 147.54
  176.58 28.3   1.27 146.89
    24.4   1.31 146.3
  140.67     1.4 145.17
  23.66 28.9   1.48 144.96
    38.3   1.5 144.17
    54.4   1.46 143.47
    65.4   1.48 142.75
    72.7   1.61 142.22
    97.7   1.72 142.01
  711.41 61.9   1.76 141.9
    79.6   1.79 142.86
        1.8 142.87

 

 

Транспонированная матрица.

 

 

                                       
73.69 82.33 80.22     181.39 130.38 66.85 176.58   140.67 23.66           711.41    
19.4   15.8 17.1 20.5 19.1 12.7 17.7 28.3 24.4   28.9 38.3 54.4 65.4 72.7 97.7 61.9 79.6  
                                       
1.59 1.38 1.41 1.36 1.3 1.26 1.28 1.21 1.27 1.31 1.4 1.48 1.5 1.46 1.48 1.61 1.72 1.76 1.79 1.8
148.51 148.56 148.36 148.46 148.29 148.03 147.8 147.54 146.89 146.3 145.17 144.96 144.17 143.47 142.75 142.22 142.01 141.9 142.86 142.87

 

 

Матрица ATA.

 

 

  5711.18 826.9   29.36 2911.12
5711.18 2827718.42 367414.41 45038867.39 9118.49 821115.06
826.9 367414.41 51346.27 6040164.8 1302.77 119079.94
  45038867.39 6040164.8   155527.1 14177497.36
29.36 9118.49 1302.77 155527.1 43.75 4266.36
2911.12 821115.06 119079.94 14177497.36 4266.36 423855.56

 


 

Полученная матрица имеет следующее соответствие:

 

∑n ∑y ∑x1 ∑x2 ∑x3 ∑x4
∑y ∑y2 ∑x1 y ∑x2 y ∑x3 y ∑x4 y
∑x1 ∑yx1 ∑x1 2 ∑x2 x1 ∑x3 x1 ∑x4 x1
∑x2 ∑yx2 ∑x1 x2 ∑x2 2 ∑x3 x2 ∑x4 x2
∑x3 ∑yx3 ∑x1 x3 ∑x2 x3 ∑x3 2 ∑x4 x3
∑x4 ∑yx4 ∑x1 x4 ∑x2 x4 ∑x3 x4 ∑x4 2

Найдем парные коэффициенты корреляции.

 

Признаки x и y ∑xi   ∑yi   ∑xiyi  
Для y и x1 826.9 41.35 5711.18 285.56 367414.41 18370.72
Для y и x2   4922.85 5711.18 285.56 45038867.39 2251943.37
Для y и x3 29.36 1.47 5711.18 285.56 9118.49 455.92
Для y и x4 2911.12 145.56 5711.18 285.56 821115.06 41055.75
Для x1 и x2   4922.85 826.9 41.35 6040164.8 302008.24
Для x1 и x3 29.36 1.47 826.9 41.35 1302.77 65.14
Для x1 и x4 2911.12 145.56 826.9 41.35 119079.94  
Для x2 и x3 29.36 1.47   4922.85 155527.1 7776.35
Для x2 и x4 2911.12 145.56   4922.85 14177497.36 708874.87
Для x3 и x4 2911.12 145.56 29.36 1.47 4266.36 213.32

 

Признаки x и y          
Для y и x1 857.9 59841.98 29.29 244.63 0.92
Для y и x2 12592209.53 59841.98 3548.55 244.63 0.97
Для y и x3 0.0328 59841.98 0.18 244.63 0.83
Для y и x4 6.26 59841.98 2.5 244.63 -0.83
Для x1 и x2 12592209.53 857.9 3548.55 29.29 0.95
Для x1 и x3 0.0328 857.9 0.18 29.29 0.84
Для x1 и x4 6.26 857.9 2.5 29.29 -0.87
Для x2 и x3 0.0328 12592209.53 0.18 3548.55 0.86
Для x2 и x4 6.26 12592209.53 2.5 3548.55 -0.86
Для x3 и x4 6.26 0.0328 2.5 0.18 -0.76

Матрица парных коэффициентов корреляции.

 

- y x1 x2 x3 x4
y   0.92 0.97 0.83 -0.83
x1 0.92   0.95 0.84 -0.87
x2 0.97 0.95   0.86 -0.86
x3 0.83 0.84 0.86   -0.76
x4 -0.83 -0.87 -0.86 -0.76  

Коллинеарность – зависимость между факторами. В качестве критерия мультиколлинеарности может быть принято соблюдение следующих неравенств:

r(xjy) > r(xkxj); r(xky) > r(xkxj).

Если одно из неравенств не соблюдается, то исключается тот параметр xk или xj, связь которого с результативным показателем Y оказывается наименее тесной.


Для отбора наиболее значимых факторов xi учитываются следующие условия:

- связь между результативным признаком и факторным должна быть выше межфакторной связи;

- связь между факторами должна быть не более 0.7. Если в матрице есть межфакторный коэффициент корреляции rxjxi > 0.7, то в данной модели множественной регрессии существует мультиколлинеарность.;

- при высокой межфакторной связи признака отбираются факторы с меньшим коэффициентом корреляции между ними.

Если факторные переменные связаны строгой функциональной зависимостью, то говорят о полной мультиколлинеарности. В этом случае среди столбцов матрицы факторных переменных Х имеются линейно зависимые столбцы, и, по свойству определителей матрицы, det(XTX = 0).

Вид мультиколлинеарности, при котором факторные переменные связаны некоторой стохастической зависимостью, называется частичной. Если между факторными переменными имеется высокая степень корреляции, то матрица (XTX) близка к вырожденной, т. е. det(XTX ≧ 0) (чем ближе к 0 определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии).

Вычисление определителя показано в шаблоне решения Excel

В нашем случае rx1 x2 , rx1 x3 , rx1 x4 , rx2 x3 , rx2 x4 , rx3 x4 имеют |r|>0.7, что говорит о мультиколлинеарности факторов и о необходимости исключения одного из них из дальнейшего анализа.

Анализ первой строки этой матрицы позволяет произвести отбор факторных признаков, которые могут быть включены в модель множественной корреляционной зависимости. Факторные признаки, у которых |ryxi| < 0.5 исключают из модели. Можно дать следующую качественную интерпретацию возможных значений коэффициента корреляции (по шкале Чеддока): если |r|>0.3 – связь практически отсутствует; 0.3 ≤ |r| ≤ 0.7 - связь средняя; 0.7 ≤ |r| ≤ 0.9 – связь сильная; |r| > 0.9 – связь весьма сильная.

Проверим значимость полученных парных коэффициентов корреляции с помощью t-критерия Стьюдента. Коэффициенты, для которых значения t-статистики по модулю больше найденного критического значения, считаются значимыми.

Рассчитаем наблюдаемые значения t-статистики для ryx1 по формуле:

 

где m = 1 - количество факторов в уравнении регрессии.

 

По таблице Стьюдента находим Tтабл

tкрит(n-m-1;α/2) = (18;0.025) = 2.101

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Рассчитаем наблюдаемые значения t-статистики для ryx2 по формуле:

 

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Рассчитаем наблюдаемые значения t-статистики для ryx3 по формуле:

 

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Рассчитаем наблюдаемые значения t-статистики для ryx4 по формуле:

 

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Таким образом, связь между (y и xx1 ), (y и xx2 ), (y и xx3 ), (y и xx4 ) является существенной.

Наибольшее влияние на результативный признак оказывает фактор x2 (r = 0.97), значит, при построении модели он войдет в регрессионное уравнение первым.

Частные коэффициенты корреляции.

Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y и xi) при условии, что влияние на них остальных факторов (xj) устранено.

На основании частных коэффициентов можно сделать вывод об обоснованности включения переменных в регрессионную модель. Если значение коэффициента мало или он незначим, то это означает, что связь между данным фактором и результативной переменной либо очень слаба, либо вовсе отсутствует, поэтому фактор можно исключить из модели.

 

 

Теснота связи низкая.

Определим значимость коэффициента корреляции ryx1 /x2 .

Для этого рассчитаем наблюдаемые значения t-статистики по формуле:

 

где k = 1 - число фиксируемых факторов.

 

По таблице Стьюдента находим Tтабл

tкрит(n-k-2;α/2) = (17;0.025) = 2.11

Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим

Как видим, связь y и x1 при условии, что x2 войдет в модель, снизилась. Отсюда можно сделать вывод, что ввод в регрессионное уравнение x1 остается нецелесообразным.

 

 

Теснота связи сильная

Определим значимость коэффициента корреляции ryx1 /x3 .

Для этого рассчитаем наблюдаемые значения t-статистики по формуле:

 

 

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Как видим, связь y и x1 при условии, что x3 войдет в модель, снизилась. Отсюда можно сделать вывод, что ввод в регрессионное уравнение x1 остается нецелесообразным.

 

 

Теснота связи сильная

Определим значимость коэффициента корреляции ryx1 /x4 .

Для этого рассчитаем наблюдаемые значения t-статистики по формуле:

 

 

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Как видим, связь y и x1 при условии, что x4 войдет в модель, снизилась. Отсюда можно сделать вывод, что ввод в регрессионное уравнение x1 остается нецелесообразным.

 

 

Теснота связи сильная

Определим значимость коэффициента корреляции ryx2 /x1 .

Для этого рассчитаем наблюдаемые значения t-статистики по формуле:

 

 

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Как видим, связь y и x2 при условии, что x1 войдет в модель, снизилась. Отсюда можно сделать вывод, что ввод в регрессионное уравнение x2 остается нецелесообразным.

 

 

Теснота связи сильная

Определим значимость коэффициента корреляции ryx2 /x3 .

Для этого рассчитаем наблюдаемые значения t-статистики по формуле:

 

 

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Как видим, связь y и x2 при условии, что x3 войдет в модель, снизилась. Отсюда можно сделать вывод, что ввод в регрессионное уравнение x2 остается нецелесообразным.

 

 

Теснота связи сильная

Определим значимость коэффициента корреляции ryx2 /x4 .

Для этого рассчитаем наблюдаемые значения t-статистики по формуле:

 

 

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Как видим, связь y и x2 при условии, что x4 войдет в модель, снизилась. Отсюда можно сделать вывод, что ввод в регрессионное уравнение x2 остается нецелесообразным.

 

 

Теснота связи низкая.

Определим значимость коэффициента корреляции ryx3 /x1 .

Для этого рассчитаем наблюдаемые значения t-статистики по формуле:

 

 

Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим

Как видим, связь y и x3 при условии, что x1 войдет в модель, снизилась. Отсюда можно сделать вывод, что ввод в регрессионное уравнение x3 остается нецелесообразным.

 

 

Теснота связи низкая.

Определим значимость коэффициента корреляции ryx3 /x2 .

Для этого рассчитаем наблюдаемые значения t-статистики по формуле:

 

 

Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим

Как видим, связь y и x3 при условии, что x2 войдет в модель, снизилась. Отсюда можно сделать вывод, что ввод в регрессионное уравнение x3 остается нецелесообразным.

 

 

Теснота связи умеренная

Определим значимость коэффициента корреляции ryx3 /x4 .

Для этого рассчитаем наблюдаемые значения t-статистики по формуле:

 

 

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Как видим, связь y и x3 при условии, что x4 войдет в модель, снизилась. Отсюда можно сделать вывод, что ввод в регрессионное уравнение x3 остается нецелесообразным.

 

 

Теснота связи низкая.

Определим значимость коэффициента корреляции ryx4 /x1 .

Для этого рассчитаем наблюдаемые значения t-статистики по формуле:

 

 

Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим

Как видим, связь y и x4 при условии, что x1 войдет в модель, снизилась. Отсюда можно сделать вывод, что ввод в регрессионное уравнение x4 остается нецелесообразным.

 

 

Теснота связи низкая.

Определим значимость коэффициента корреляции ryx4 /x2 .

Для этого рассчитаем наблюдаемые значения t-статистики по формуле:

 

 

Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим

Как видим, связь y и x4 при условии, что x2 войдет в модель, снизилась. Отсюда можно сделать вывод, что ввод в регрессионное уравнение x4 остается нецелесообразным.

 

 

Теснота связи умеренная

Определим значимость коэффициента корреляции ryx4 /x3 .

Для этого рассчитаем наблюдаемые значения t-статистики по формуле:

 

 

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Как видим, связь y и x4 при условии, что x3 войдет в модель, снизилась. Отсюда можно сделать вывод, что ввод в регрессионное уравнение x4 остается нецелесообразным.

Можно сделать вывод, что при построении регрессионного уравнения следует отобрать факторы x1, x2, x3, x4.

Модель регрессии в стандартном масштабе.

Модель регрессии в стандартном масштабе предполагает, что все значения исследуемых признаков переводятся в стандарты (стандартизованные значения) по формулам:

 

где хji - значение переменной хji в i-ом наблюдении.

 

Таким образом, начало отсчета каждой стандартизованной переменной совмещается с ее средним значением, а в качестве единицы изменения принимается ее среднее квадратическое отклонение S.

Если связь между переменными в естественном масштабе линейная, то изменение начала отсчета и единицы измерения этого свойства не нарушат, так что и стандартизованные переменные будут связаны линейным соотношением:

ty = ∑βjtxj

Для оценки β-коэффциентов применим МНК. При этом система нормальных уравнений будет иметь вид:

rx1y1+rx1x2•β2 +... + rx1xm•βm

rx2y=rx2x1•β1 + β2 +... + rx2xm•βm

...

rxmy=rxmx1•β1 + rxmx2•β2 +... + βm

Для наших данных (берем из матрицы парных коэффициентов корреляции):

0.916 = β1 + 0.947β2 + 0.839β3 -0.874β4

0.975 = 0.947β1 + β2 + 0.856β3 -0.865β4

0.83 = 0.839β1 + 0.856β2 + β3 -0.758β4

-0.832 = -0.874β1 -0.865β2 -0.758β3 + β4

Данную систему линейных уравнений решаем методом Гаусса: β1 = -0.0527; β2 = 1.061; β3 = -0.0105; β4 = 0.0313;

Стандартизированная форма уравнения регрессии имеет вид:

y0 = -0.0527x1 + 1.061x2 -0.0105x3 + 0.0313x4

Найденные из данной системы β–коэффициенты позволяют определить значения коэффициентов в регрессии в естественном масштабе по формулам:

 

 

3. Анализ параметров уравнения регрессии.

Перейдем к статистическому анализу полученного уравнения регрессии: проверке значимости уравнения и его коэффициентов, исследованию абсолютных и относительных ошибок аппроксимации

Для несмещенной оценки дисперсии проделаем следующие вычисления:

Несмещенная ошибка ε = Y - Y(x) = Y - X*s (абсолютная ошибка аппроксимации)

 

 

Y Y(x) ε = Y - Y(x) ε2 (Y-Yср)2 |ε: Y|
73.69 39.79 33.9 1149.15 44888.47 0.46
82.33 75.65 6.68 44.61 41302.03 0.0811
80.22 80.18 0.0429 0.00184 42164.1 0.000534
  99.55 15.45 238.59 29090.37 0.13
  118.61 20.39 415.6 21479.54 0.15
181.39 138.71 42.68 1821.16 10851.18 0.24
130.38 143.64 -13.26 175.92 24080.52 0.1
66.85 145.34 -78.49 6161.02 47833.63 1.17
176.58 137.95 38.63 1492.52 11876.42 0.22
  154.32 24.68 608.97 11354.82 0.14
140.67 156.66 -15.99 255.76 20992.82 0.11
23.66 169.47 -145.81 21261.86 68591.09 6.16
  221.27 12.73 161.98 2658.33 0.0544
  301.52 -4.52 20.41 130.9 0.0152
  410.07 -5.07 25.74 14266.15 0.0125
  523.96 134.04 17966.77 138712.3 0.2
  548.98 -19.98 399.04 59263.52 0.0378
711.41 661.46 49.95 2494.53 181349.07 0.0702
  743.34 -52.34 2739.24 164382.4 0.0757
  832.12 -35.12 1233.08 261571.9 0.0441
      58665.94 1196839.57 9.48

 

 

Средняя ошибка аппроксимации

 

Оценка дисперсии равна:

se2 = (Y - X*Y(X))T(Y - X*Y(X)) = 58665.94

Несмещенная оценка дисперсии равна:

 

Оценка среднеквадратичного отклонения равна (стандартная ошибка для оценки Y):

 

Найдем оценку ковариационной матрицы вектора k = S • (XTX)-1

 

 

50144.66 -14.38 -0.0693 -511.44 -332.9
-14.38 0.0412 -0.000235 -0.59 0.1
-0.0693 -0.000235 3.0E-6 -0.0112 0.000557
-511.44 -0.59 -0.0112 366.88 0.36
-332.9 0.1 0.000557 0.36 2.24

 

 

Дисперсии параметров модели определяются соотношением S2i = Kii, т.е. это элементы, лежащие на главной диагонали

Показатели тесноты связи факторов с результатом.

Если факторные признаки различны по своей сущности и (или) имеют различные единицы измерения, то коэффициенты регрессии bj при разных факторах являются несопоставимыми. Поэтому уравнение регрессии дополняют соизмеримыми показателями тесноты связи фактора с результатом, позволяющими ранжировать факторы по силе влияния на результат.

К таким показателям тесноты связи относят: частные коэффициенты эластичности, β–коэффициенты, частные коэффициенты корреляции.

Частные коэффициенты эластичности.

С целью расширения возможностей содержательного анализа модели регрессии используются частные коэффициенты эластичности, которые определяются по формуле:

 

Частный коэффициент эластичности показывает, насколько процентов в среднем изменяется признак-результат у с увеличением признака-фактора хj на 1% от своего среднего уровня при фиксированном положении других факторов модели.

 

Частный коэффициент эластичности |E1| < 1. Следовательно, его влияние на результативный признак Y незначительно.

 

Частные коэффициент эластичности |E2| > 1. Следовательно, он существенно влияет на результативный признак Y.

 

Частный коэффициент эластичности |E3| < 1. Следовательно, его влияние на результативный признак Y незначительно.

 

Частные коэффициент эластичности |E4| > 1. Следовательно, он существенно влияет на результативный признак Y.

Стандартизированные частные коэффициенты регрессии.

Стандартизированные частные коэффициенты регрессии - β-коэффициенты (βj) показывают, на какую часть своего среднего квадратического отклонения S(у) изменится признак-результат y с изменением соответствующего фактора хj на величину своего среднего квадратического отклонения (Sхj) при неизменном влиянии прочих факторов (входящих в уравнение).

По максимальному βj можно судить, какой фактор сильнее влияет на результат Y.

По коэффициентам эластичности и β-коэффициентам могут быть сделаны противоположные выводы. Причины этого: а) вариация одного фактора очень велика; б) разнонаправленное воздействие факторов на результат.

Коэффициент βj может также интерпретироваться как показатель прямого (непосредственного) влияния j -ого фактора (xj) на результат (y). Во множественной регрессии j -ый фактор оказывает не только прямое, но и косвенное (опосредованное) влияние на результат (т.е. влияние через другие факторы модели).

Косвенное влияние измеряется величиной: ∑βirxj,xi, где m - число факторов в модели. Полное влияние j-ого фактора на результат равное сумме прямого и косвенного влияний измеряет коэффициент линейной парной корреляции данного фактора и результата - rxj,y.

Так для нашего примера непосредственное влияние фактора x1 на результат Y в уравнении регрессии измеряется βj и составляет -0.05272757539468; косвенное (опосредованное) влияние данного фактора на результат определяется как:

rx1x2β2 = 0.947429190731 * 1.0607916829853 = 1.005

Сравнительная оценка влияния анализируемых факторов на результативный признак.

5. Сравнительная оценка влияния анализируемых факторов на результативный признак производится:

- средним коэффициентом эластичности, показывающим на сколько процентов среднем по совокупности изменится результат y от своей средней величины при изменении фактора xi на 1% от своего среднего значения;

- β–коэффициенты, показывающие, что, если величина фактора изменится на одно среднеквадратическое отклонение Sxi, то значение результативного признака изменится в среднем на β своего среднеквадратического отклонения;

- долю каждого фактора в общей вариации результативного признака определяют коэффициенты раздельной детерминации (отдельного определения): d2i = ryxiβi.

d21 = 0.92 • (-0.0527) = -0.0483

d22 = 0.97 • 1.061 = 1.03

d23 = 0.83 • (-0.0105) = -0.00873

d24 = -0.83 • 0.0313 = -0.026

При этом должно выполняться равенство:

∑d2i = R2 = 0.95







Date: 2015-07-25; view: 835; Нарушение авторских прав



mydocx.ru - 2015-2024 year. (0.132 sec.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав - Пожаловаться на публикацию