Общий вид парной линейной регрессии. Линейная парная регрессия

22.09.2019

Линейная парная регрессия находит широкое применение в экономет­рике в виде четкой экономической интерпретации ее параметров. Линейная регрессия сводится к нахождению уравнения вида

или . (3.6)

Уравнение вида позволяет по заданным значени­ям фактора х иметь теоретические значения результативного признака, подставляя в него фактические значения фактора x .

Построение парной линейной регрессии сводится к оценке ее пара­метров и . Оценки параметров линейной регрессии могут быть найдены разными методами. Например, методом наименьших квадратов (МНК).

Согласно метода наименьших квадратов оценки параметров и выбираются таким образом, чтобы сумма квадратов отклонений фактических значений ре­зультативного признака (у) от расчетных (теоретических, модельных) была ми­нимальна.Иными словами, из всего множества линий линия регрессии на графике выбирается так, чтобы сумма квадратов расстояний по вертикали между точками и этой линией была бы минимальной (рис. 3.2):

, (3.7)

Рис. 3.2. Линия регрессии с минимальной суммой квадратов расстояний по вертикали между точками и этой линией

Для дальнейших выводов в выражении (3.7) подставим модельное значение, т. е. и получим:

Чтобы найти минимум функции (3.8), надо вычислить част­ные производные по каждому из параметров и и приравнять их к нулю:

Преобразуя эту систему, получим следующую систему нор­мальных уравнений для оценки параметров и :

. (3.9)

Матричная форма записи этой системы имеет вид:

. (3.10)

Решая систему нормальных уравнений (3.10) в матричной форме получим:

Алгебраическая форма решения системы (3.11) можно записать следующим образам:

После несложных преобразовании формулу (3.12) можно записать в удобной форме:

Необходимо заметить, что оценки параметров уравнения регрессии можно получить и по другим формулам, например:

(3.14)

Здесь выборочный парный линейный коэффициент корреляции.

После вычисления параметров регрессии мы можем записать уравнение математической модели регрессии :

Необходим заметить, что параметр показывает среднее изменение результата с изменением фактора на одну единицу. Так, если в функции издержек (у - издержки (тыс. руб.), х - количество единиц продукции). То, следовательно, с увеличением объема продукции (х) на 1 ед. издержки производства возрастают в среднем на 2 тыс. руб., т. е. дополнительный прирост продукции на 1 ед. потребует увеличения затрат в среднем на 2 тыс. руб.

Возможность четкой экономической интерпретации коэф­фициента регрессии сделала линейное уравнение регрессии достаточно распространенным в эконометрических исследова­ниях.

Формально - значение у при х = 0. Если признак-фактор не имеет и не может иметь нулевого значения, то вышеуказанная трактовка свободного члена не имеет смысла. Параметр может не иметь экономического содержания. Попытки экономически интерпретировать параметр могут привести к абсурду, особен­но при < 0.

Пример 3.2 . Предположим по группе предприятий, выпускающих один и тот же вид продукции, рассматривается функция издержек: . Информация, необходимая для расчета оценок параметров и , представлена в табл. 3.1.

Таблица 3.1

Расчетная таблица

№ предприятия

Выпуск продукции, тыс. ед. ()

Затраты на производство, млн руб. ()

Система нормальных уравнений будет иметь вид:

.

Решение этой системы по формуле (4.13) дает результат:

Запишем модель уравнения регрессии (4.16):

Подставив в уравнение значения x , найдем теоретические (модельные) значения у, (см. последнюю графу табл. 3.1).

В данном случае величина параметра не имеет экономичес­кого смысла.

В рассматриваемом примере имеем:

Уравнение регрессии всегда дополняется показателем тесно­ты связи. При использовании линейной регрессии в качестве та­кого показателя выступает линейный коэффициент корреляции . Существуют разные модификации формулы линейного коэф­фициента корреляции. Некоторые из них приведены ниже:

Как известно, линейный коэффициент корреляции находит­ся в границах: .

Если коэффициент регрессии , то, и, наобо­рот, при, .

По данным табл. 4.1 величина линейного коэффициента кор­реляции составила 0,993, что достаточно близко к 1 и означает наличие очень тесной зависимости затрат на производство от ве­личины объема выпущенной продукции.

Следует иметь в виду, что величина линейного коэффициента корреляции оценивает тесноту связи рассматриваемых признаков в ее линейной форме. Поэтому близость абсолютной величины линейного коэффициента корреляции к нулю еще не означает от­сутствие связи между признаками. При иной спецификации мо­дели связь между признаками может оказаться достаточно тесной.

Для оценки качества подбора линейной функции рассчиты­вается квадрат линейного коэффициента корреляции , назы­ваемый коэффициентом детерминации. Коэффициент детермина­ции характеризует долю дисперсии результативного признака у, объяснимуюрегрессией, в общей дисперсии результативного признака.

Соответственно величина характеризует долю дисперсии вызванную влиянием остальных не учтенных в модели факторов.

В нашем примере . Следовательно, уравнением регрессии объясняется 98,6% дисперсии результативного признака,а на долюпрочих факторов приходится лишь 1,4% ее дисперсии (т. е. остаточная дисперсия). Величина коэффициента детерминации служитодним из критериев оценки качества линейной модели. Чем больше доля объясненной вариации, тем соответственно меньшероль прочих факторов, и, следовательно, линейная модельхорошо аппроксимирует исходные данные и ею можно воспользоваться для прогноза значений результативного признака. Так, полагая, что объем продукции предприятия может составить 6 тыс. ед., прогнозное значение для издержек производства ока­жется 221,01 тыс. руб.

И корреляция

1.1. Понятие регрессии

Парной регрессией называется уравнение связи двух переменных у и х

вида y = f (x ),

где у – зависимая переменная (результативный признак); х – независимая, объясняющая переменная (признак-фактор).

Различают линейные и нелинейные регрессии.

Линейная регрессия описывается уравнением: y = a + b × x +e .

Нелинейные регрессии делятся на два класса: регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам, и регрессии, нелинейные по оцениваемым параметрам.

Примеры регрессий, нелинейных по объясняющим переменным, но ли-

нейных по оцениваемым параметрам:

· полиномы разных степеней

· равносторонняя гипербола:

Примеры регрессий, нелинейных по оцениваемым параметрам:

· степенная

· показательная

· экспоненциальная

Наиболее часто применяются следующие модели регрессий:

– прямой

– гиперболы

– параболы

– показательной функции

– степенная функция

1.2. Построение уравнения регрессии

Постановка задачи. По имеющимся данным n наблюдений за совместным

изменением двух параметров x и y {(xi ,yi ), i=1,2,...,n} необходимо определить

аналитическую зависимость ŷ=f(x) , наилучшим образом описывающую данные наблюдений.

Построение уравнения регрессии осуществляется в два этапа (предполагает решение двух задач):

– спецификация модели (определение вида аналитической зависимости

ŷ=f(x) );

– оценка параметров выбранной модели.

1.2.1. Спецификация модели

Парная регрессия применяется, если имеется доминирующий фактор, который и используется в качестве объясняющей переменной.

Применяется три основных метода выбора вида аналитической зависимости:

– графический (на основе анализа поля корреляций);

– аналитический, т. е. исходя из теории изучаемой взаимосвязи;

– экспериментальный, т. е. путем сравнения величины остаточной дисперсии D ост или средней ошибки аппроксимации , рассчитанных для различных

моделей регрессии (метод перебора).

1.2.2. Оценка параметров модели

Для оценки параметров регрессий, линейных по этим параметрам, используется метод наименьших квадратов (МНК). МНК позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результативного признака у от теоретических значений ŷx при тех же значениях фактора x минимальна, т. е.

В случае линейной регрессии параметры а и b находятся из следующей

системы нормальных уравнений метода МНК:

(1.1)

Можно воспользоваться готовыми формулами, которые вытекают из этой

(1.2)

Для нелинейных уравнений регрессии, приводимых к линейным с помощью преобразования (x , y ) → (x’ , y’ ), система нормальных уравнений имеет

вид (1.1) в преобразованных переменных x’ , y’ .

Коэффициент b при факторной переменной x имеет следующую интерпретацию: он показывает, на сколько изменится в среднем величина y при изменении фактора x на 1 единицу измерения .

Гиперболическая регрессия :

x’ = 1/x ; y’ = y .

Уравнения (1.1) и формулы (1.2) принимают вид

Экспоненциальная регрессия:

Линеаризующее преобразование: x’ = x ; y’ = lny .

Модифицированная экспонента : , (0 < a 1 < 1).

Линеаризующее преобразование: x’ = x ; y’ = ln y – К│.

Величина предела роста K выбирается предварительно на основе анализа

поля корреляций либо из качественных соображений. Параметр a 0 берется со

знаком «+», если y х > K и со знаком «–» в противном случае.

Степенная функция:

Линеаризующее преобразование: x’ = ln x ; y’ = ln y .

Показательная функция:

Линеаризующее преобразование: x’ = x ; y’ = lny .

https://pandia.ru/text/78/146/images/image026_7.jpg" width="459" height="64 src=">

Парабола второго порядка :

Парабола второго порядка имеет 3 параметра a 0, a 1, a 2, которые определяются из системы трех уравнений

1.3. Оценка тесноты связи

Тесноту связи изучаемых явлений оценивает линейный коэффициент

парной корреляции rxy для линейной регрессии (–1 ≤ r xy ≤ 1)

и индекс корреляции ρxy для нелинейной регрессии

Имеет место соотношение

Долю дисперсии, объясняемую регрессией , в общей дисперсии результативного признака у характеризует коэффициент детерминации r2xy (для линейной регрессии) или индекс детерминации (для нелинейной регрессии).

Коэффициент детерминации – квадрат коэффициента или индекса корреляции.

Для оценки качества построенной модели регрессии можно использовать

показатель (коэффициент, индекс) детерминации R 2 либо среднюю ошибку аппроксимации.

Чем выше показатель детерминации или чем ниже средняя ошибка аппроксимации, тем лучше модель описывает исходные данные.

Средняя ошибка аппроксимации – среднее относительное отклонение

расчетных значений от фактических

Построенное уравнение регрессии считается удовлетворительным, если

значение не превышает 10–12 %.

1.4. Оценка значимости уравнения регрессии, его коэффициентов,

коэффициента детерминации

Оценка значимости всего уравнения регрессии в целом осуществляется с

помощью F -критерия Фишера.

F- критерий Фишера заключается в проверке гипотезы Но о статистической незначимости уравнения регрессии. Для этого выполняется сравнение

фактического F факт и критического (табличного) F табл значений F- критерия

Фишера.

F факт определяется из соотношения значений факторной и остаточной

дисперсий, рассчитанных на одну степень свободы

где n – число единиц совокупности; m – число параметров при переменных.

Для линейной регрессии m = 1 .

Для нелинейной регрессии вместо r 2 xy используется R 2.

F табл – максимально возможное значение критерия под влиянием случайных факторов при степенях свободы k1 = m , k2 = n – m – 1 (для линейной регрессии m = 1) и уровне значимости α.

Уровень значимости α вероятность отвергнуть правильную гипотезу

при условии, что она верна. Обычно величина α принимается равной 0,05 или

Если F табл < F факт, то Н0 -гипотеза о случайной природе оцениваемых характеристик отклоняется и признается их статистическая значимость и надежность. Если F табл > F факт, то гипотеза Но не отклоняется и признается статистическая незначимость, ненадежность уравнения регрессии.

Для оценки статистической значимости коэффициентов линейной регрессии и линейного коэффициента парной корреляции применяется

t- критерий Стьюдента и рассчитываются доверительные интервалы каждого

из показателей.

Согласно t- критерию выдвигается гипотеза Н0 о случайной природе показателей, т. е. о незначимом их отличии от нуля. Далее рассчитываются фактические значения критерия t факт для оцениваемых коэффициентов регрессии и коэффициента корреляции путем сопоставления их значений с величиной стандартной ошибки

Стандартные ошибки параметров линейной регрессии и коэффициента

корреляции определяются по формулам

Сравнивая фактическое и критическое (табличное) значения t- статистики

t табл и t факт принимают или отвергают гипотезу Но.

t табл – максимально возможное значение критерия под влиянием случайных факторов при данной степени свободы k = n– 2 и уровне значимости α.

Связь между F- критерием Фишера (при k 1 = 1; m =1) и t- критерием Стьюдента выражается равенством

Если t табл < t факт, то Но отклоняется, т. е. a, b и не случайно отличаются

от нуля и сформировались под влиянием систематически действующего фактора х. Если t табл > t факт, то гипотеза Но не отклоняется и признается случайная природа формирования а, b или https://pandia.ru/text/78/146/images/image041_2.jpg" width="574" height="59">

F табл определяется из таблицы при степенях свободы k 1 = 1, k 2 = n –2 и при

заданном уровне значимости α. Если F табл < F факт, то признается статистическая значимость коэффициента детерминации. В формуле (1.6) величина m означает число параметров при переменных в соответствующем уравнении регрессии.

1.5. Расчет доверительных интервалов

Рассчитанные значения показателей (коэффициенты a , b , ) являются

приближенными, полученными на основе имеющихся выборочных данных.

Для оценки того, насколько точные значения показателей могут отличаться от рассчитанных, осуществляется построение доверительных интервалов.

Доверительные интервалы определяют пределы, в которых лежат точные значения определяемых показателей с заданной степенью уверенности, соответствующей заданному уровню значимости α.

Для расчета доверительных интервалов для параметров a и b уравнения линейной регрессии определяем предельную ошибку Δ для каждого показателя:

Величина t табл представляет собой табличное значение t- критерия Стьюдента под влиянием случайных факторов при степени свободы k = n –2 и заданном уровне значимости α.

Формулы для расчета доверительных интервалов имеют следующий вид:

https://pandia.ru/text/78/146/images/image045_3.jpg" width="188" height="62">

где t γ – значение случайной величины, подчиняющейся стандартному нормальному распределению, соответствующее вероятности γ = 1 – α/2 (α – уровень значимости);

z’ = Z (rxy) – значение Z- распределения Фишера, соответствующее полученному значению линейного коэффициента корреляции rxy .

Граничные значения доверительного интервала (r– , r+ ) для rxy получаются

из граничных значений доверительного интервала (z– , z+ ) для z с помощью

функции, обратной Z- распределению Фишера

1.6. Точечный и интервальный прогноз по уравнению линейной

регрессии

Точечный прогноз заключается в получении прогнозного значения уp , которое определяется путем подстановки в уравнение регрессии

соответствующего (прогнозного
) значения x p

Интервальный прогноз заключается в построении доверительного интервала прогноза, т. е. нижней и верхней границ уpmin, уpmax интервала, содержащего точную величину для прогнозного значения https://pandia.ru/text/78/146/images/image050_2.jpg" width="37" height="44 src=">

и затем строится доверительный интервал прогноза , т. е. определяются нижняя и верхняя границы интервала прогноза

Контрольные вопросы:

1. Что понимается под парной регрессией?

2. Какие задачи решаются при построении уравнения регрессии?

3. Какие методы применяются для выбора вида модели регрессии?

4. Какие функции чаще всего используются для построения уравнения парной регрессии?

5. Какой вид имеет система нормальных уравнений метода наименьших квадратов в случае линейной регрессии?

6. Какой вид имеет система нормальных уравнений метода наименьших квадратов в случае гиперболической, показательной регрессии?

7. По какой формуле вычисляется линейный коэффициент парной корреляции r xy ?

8. Как строится доверительный интервал для линейного коэффициента парной корреляции?

9. Как вычисляется индекс корреляции?

10. Как вычисляется и что показывает индекс детерминации?

11. Как проверяется значимость уравнения регрессии и отдельных коэффициентов?

12. Как строится доверительный интервал прогноза в случае линейной регрессии?

Лабораторная работа № 1

Задание.1 На основании данных табл. П1 для соответствующего варианта (табл. 1.1):

1. Вычислить линейный коэффициент парной корреляции.

2. Проверить значимость коэффициента парной корреляции.

3. Построить доверительный интервал для линейного коэффициента парной корреляции.

Задание. 2 На основании данных табл. П1 для соответствующего варианта (табл. 1.1):

1. Построить предложенные уравнения регрессии, включая линейную регрессию.

2. Вычислить индексы парной корреляции для каждого уравнения.

3. Проверить значимость уравнений регрессии и отдельных коэффициентов линейного уравнения.

4. Определить лучшее уравнение регрессии на основе средней ошибки аппроксимации.

5. Построить интервальный прогноз для значения x = x max для линейного

уравнения регрессии.

Требования к оформлению результатов

Отчет о лабораторной работе должен содержать разделы:

1. Описание задания;

2. Описание решения лабораторной работы (по этапам);

3. Изложение полученных результатов.

Таблица П1

Исходные данные к лабораторным работам № 1, 2

Наличие предметов длительного пользования в домашних хозяйствах по регионам Российской Федерации (европейская часть территории без республик Северного Кавказа) (по материалам выборочного обследования бюджетов домашних хозяйств; на 100 домохозяйств; штук)

Уравнение парной регрессии .

На основании поля корреляции можно выдвинуть гипотезу (для генеральной совокупности) о том, что связь между всеми возможными значениями X и Y носит линейный характер.

Линейное уравнение регрессии имеет вид y = bx + a + ε

Система нормальных уравнений.

a n + b∑x = ∑y

a∑x + b∑x 2 = ∑y x

Для наших данных система уравнений имеет вид

12a + 1042 b = 1709

1042 a + 91556 b = 149367

Из первого уравнения выражаем а и подставим во второе уравнение:

Получаем эмпирические коэффициенты регрессии: b = 0.9, a = 64.21

Уравнение регрессии (эмпирическое уравнение регрессии):

y = 0.9 x + 64.21

Эмпирические коэффициенты регрессии a и b являются лишь оценками теоретических коэффициентов β i , а само уравнение отражает лишь общую тенденцию в поведении рассматриваемых переменных.

Для расчета параметров линейной регрессии построим расчетную таблицу (табл. 1)

1. Параметры уравнения регрессии.

Выборочные средние.

Выборочные дисперсии:

Среднеквадратическое отклонение

1.1. Коэффициент корреляции

Ковариация .

Рассчитываем показатель тесноты связи. Таким показателем является выборочный линейный коэффициент корреляции, который рассчитывается по формуле:

1.2. Уравнение регрессии (оценка уравнения регрессии).

Линейное уравнение регрессии имеет вид y = 0.9 x + 64.21

1.3. Коэффициент эластичности .

Коэффициент эластичности находится по формуле:

1.4. Ошибка аппроксимации .

Ошибка аппроксимации в пределах 5%-7% свидетельствует о хорошем подборе уравнения регрессии к исходным данным.

1.5. Эмпирическое корреляционное отношение.

Эмпирическое корреляционное отношение вычисляется для всех форм связи и служит для измерение тесноты зависимости. Изменяется в пределах .

Индекс корреляции .

Для линейной регрессии индекс корреляции равен коэфииценту корреляции r xy = 0.79.

Для любой формы зависимости теснота связи определяется с помощью множественного коэффициента корреляции :

1.6. Коэффициент детерминации.

Чаще всего, давая интерпретацию коэффициента детерминации, его выражают в процентах.

R 2 = 0.79 2 = 0.62

Для оценки качества параметров линейной регрессии построим расчетную таблицу (табл. 2)

2. Оценка параметров уравнения регрессии.

2.1. Значимость коэффициента корреляции .

Для того чтобы при уровне значимости α проверить нулевую гипотезу о равенстве нулю генерального коэффициента корреляции нормальной двумерной случайной величины при конкурирующей гипотезе H 1 ≠ 0, надо вычислить наблюдаемое значение критерия

и по таблице критических точек распределения Стьюдента, по заданному уровню значимости α и числу степеней свободы k = n - 2 найти критическую точку t крит двусторонней критической области. Если t набл < t крит оснований отвергнуть нулевую гипотезу. Если |t набл | > t крит - нулевую гипотезу отвергают.

По таблице Стьюдента с уровнем значимости α=0.05 и степенями свободы k=10 находим t крит:

где m = 1 - количество объясняющих переменных.

2.2. Интервальная оценка для коэффициента корреляции (доверительный интервал).

2.3. Анализ точности определения оценок коэффициентов регрессии.

Несмещенной оценкой дисперсии возмущений является величина:

S 2 y = 53.63 - необъясненная дисперсия (мера разброса зависимой переменной вокруг линии регрессии).

S y = 7.32 - стандартная ошибка оценки (стандартная ошибка регрессии).

S a - стандартное отклонение случайной величины a.

S b - стандартное отклонение случайной величины b.

2.4. Доверительные интервалы для зависимой переменной.

(a + bx p ± ε)

Рассчитаем границы интервала, в котором будет сосредоточено 95% возможных значений Y при неограниченно большом числе наблюдений и X p = 107

Индивидуальные доверительные интервалы для Y при данном значении X.

(a + bx i ± ε)

t крит (n-m-1;α/2) = (10;0.025) = 2.228

2.5. Проверка гипотез относительно коэффициентов линейного уравнения регрессии.

1) t-статистика. Критерий Стьюдента.

t крит (n-m-1;α/2) = (10;0.025) = 2.228

Доверительный интервал для коэффициентов уравнения регрессии .

(b - t крит S b ; b + t крит S b)

(a - t крит S a ; a + t крит S a)

2) F-статистика. Критерий Фишера.

Табличное значение критерия со степенями свободы k 1 =1 и k 2 =10, F табл = 4.96

100 р бонус за первый заказ

Выберите тип работы Дипломная работа Курсовая работа Реферат Магистерская диссертация Отчёт по практике Статья Доклад Рецензия Контрольная работа Монография Решение задач Бизнес-план Ответы на вопросы Творческая работа Эссе Чертёж Сочинения Перевод Презентации Набор текста Другое Повышение уникальности текста Кандидатская диссертация Лабораторная работа Помощь on-line

Узнать цену

Парной регрессией называется уравнение связи двух переменных

у и х Вида y = f (x ),

где у - зависимая переменная (результативный признак);

х - независимая, объясняющая переменная (признак-фактор).

Различают линейные и нелинейные регрессии.

Метод наименьших квадратов МНК

Для оценки параметров регрессий, линейных по этим параметрам, используется метод наименьших квадратов (МНК). МНК позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результативного признака у от теоретических значений ŷx при тех же значениях фактора x минимальна, т. е.

5. Оценка статистической значимости показателей корреляции, параметров уравнения парной линейной регрессии, уравнения регрессии в целом.

6. Оценка степени тесноты связи между количественными переменными. Коэффициент ковариации. Показатели корреляции: линейный коэффициент корреляции, индекс корреляции (= теоретическое корреляционное отношение).

Коэффициент ковариации

Мч(у) - Т.е. получим корреляционную зависимость.

Наличие корреляционной зависимости не может ответить на вопрос о причине связи. Корреляция устанавливает лишь меру этой связи, т.е. меру согласованного варьирования.

Меру взаимосвязи му 2 мя переменными можно найти с помощью ковариации.

, ,

Величина показателя ковариации зависит от единиц в γ измеряется переменная. Поэтому для оценки степени согласованного варьирования используют коэффициент корреляции - безразмерную характеристику имеющую определенный пределы варьирования..

7. Коэффициент детерминации. Стандартная ошибка уравнения регрессии.

Коэффициент детерминации (rxy2) - характеризует долю дисперсии результативного признака y, объясняемую дисперсией, в общей дисперсии результативного признака. Чем ближе rxy2 к 1, тем качественнее регрессионная модель, то есть исходная модель хорошо аппроксимирует исходные данные.

8. Оценка стат значимости показателей корр-ии, параметров уравнения парной линейной регрессии, уравнения регрессии в целом: t -критерий Стьюдента, F -критерий Фишера.

9. Нелинейные модели регрессии и их линеаризация.

Нелинейные регрессии делятся на два класса: регрессии, нелинейные относительно исключенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам, и регрессии, нелинейные по оцениваемым параметрам.

Примеры регрессий, нелинейных по объясняющим переменным , но линейных по оцениваемым параметрам:


Нелинейные модели регрессии и их линеаризация

При нелинейной зависимости признаков, приводимой к линейному виду, параметры множественной регрессии также определяются по МНК с той лишь разницей, что он используется не к исходной информации, а к преобразованным данным. Так, рассматривая степенную функцию

,

мы преобразовываем ее в линейный вид:

где переменные выражены в логарифмах.

Далее обработка МНК та же: строится система нормальных уравнений и определяются неизвестные параметры. Потенцируя значение , находим параметр a и соответственно общий вид уравнения степенной функции.

Вообще говоря, нелинейная регрессия по включенным переменным не таит каких-либо сложностей в оценке ее параметров. Эта оценка определяется, как и в линейной регрессии, МНК. Так, в двухфакторном уравнении нелинейной регрессии

может быть проведена линеаризация, введением в него новых переменных . В результате получается четырехфактороное уравнение линейной регрессии

10.Мультиколлинеарность. Методы устранения мультиколлинеарности.

Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимостью . Наличие мультиколлинеарности факторов может означать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полностью независимой, и нельзя оценить воздействие каждого фактора в отдельности.

Чем сильнее мультиколлинеарность факторов, тем менее надежна оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов (МНК).

Включение в модель мультиколлинеарных факторов нежелательно по следующим причинам:

ü затрудняется интерпретация параметров множественной регрессии; параметры линейной регрессии теряют экономический смысл;

ü оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняются с изменением объема наблюдений, что делает модель непригодной для анализа и прогнозирования

Методы устранения мультиколлинеарности

- исключение переменной (ых) из модели;

Однако нужна определенная осмотрительность при применении данного метода. В этой ситуации возможны ошибки спецификации.

- получение дополнительных данных или построение новой выборки;

Иногда для уменьшения мультиколлинеарности достаточно величить объем выборки. Например, при использовании ежегодных данных можно перейти к поквартальным данным. Увеличение количества данных уменьшает дисперсии коэффициентов регрессии и тем самым увеличивает их статистическую значимость. Однако получение новой выборки или расширение старой не всегда возможно или связано с серъезными издержками. Кроме того, такой подход может увеличить

автокорреляцию.

- изменение спецификации модели;

В ряде случаев проблема мультиколлинеарности может быть решена путем изменения спецификации модели: либо меняется форма модели, либо добавляются новые объясняющие переменные, не учтенные в модели.

- использование предварительной информации о некоторых параметрах;

11.Классическая линейная модель множественной регр-ии (КЛММР). Определение параметров ур-я множественной регр-ии методом наим квадратов.

Назначение сервиса . С помощью сервиса в онлайн режиме можно найти:
  • параметры уравнения линейной регрессии y=a+bx , линейный коэффициент корреляции с проверкой его значимости;
  • тесноту связи с помощью показателей корреляции и детерминации, МНК-оценку, статическую надежность регрессионного моделирования с помощью F-критерия Фишера и с помощью t-критерия Стьюдента , доверительный интервал прогноза для уровня значимости α

Уравнение парной регрессии относится к уравнению регрессии первого порядка . Если эконометрическая модель содержит только одну объясняющую переменную, то она имеет название парной регрессии. Уравнение регрессии второго порядка и уравнение регрессии третьего порядка относятся к нелинейным уравнениям регрессии .

Пример . Осуществите выбор зависимой (объясняемой) и объясняющей переменной для построения парной регрессионной модели. Дайте . Определите теоретическое уравнение парной регрессии. Оцените адекватность построенной модели (интерпретируйте R-квадрат, показатели t-статистики, F-статистики).
Решение будем проводить на основе процесса эконометрического моделирования .
1-й этап (постановочный) – определение конечных целей моделирования, набора участвующих в модели факторов и показателей, их роли.
Спецификация модели - определение цели исследования и выбор экономических переменных модели.
Ситуационная (практическая) задача. По 10 предприятиям региона изучается зависимость выработки продукции на одного работника y (тыс. руб.) от удельного веса рабочих высокой квалификации в общей численности рабочих x (в %).
2-й этап (априорный) – предмодельный анализ экономической сущности изучаемого явления, формирование и формализация априорной информации и исходных допущений, в частности относящейся к природе и генезису исходных статистических данных и случайных остаточных составляющих в виде ряда гипотез.
Уже на этом этапе можно говорить о явной зависимости уровня квалификации рабочего и его выработкой, ведь чем опытней работник, тем выше его производительность. Но как эту зависимость оценить?
Парная регрессия представляет собой регрессию между двумя переменными – y и x , т. е. модель вида:

Где y – зависимая переменная (результативный признак); x – независимая, или объясняющая, переменная (признак-фактор). Знак «^» означает, что между переменными x и y нет строгой функциональной зависимости, поэтому практически в каждом отдельном случае величина y складывается из двух слагаемых:

Где y – фактическое значение результативного признака; y x – теоретическое значение результативного признака, найденное исходя из уравнения регрессии; ε – случайная величина, характеризующая отклонения реального значения результативного признака от теоретического, найденного по уравнению регрессии.
Графически покажем регрессионную зависимость между выработкой продукции на одного работника и удельного веса рабочих высокой квалификации.


3-й этап (параметризация) – собственно моделирование, т.е. выбор общего вида модели, в том числе состава и формы входящих в неё связей между переменными. Выбор вида функциональной зависимости в уравнении регрессии называется параметризацией модели. Выбираем уравнение парной регрессии , т.е. на конечный результат y будет влиять только один фактор.
4-й этап (информационный) – сбор необходимой статистической информации, т.е. регистрация значений участвующих в модели факторов и показателей. Выборка состоит из 10 предприятий отрасли.
5-й этап (идентификация модели) – оценивание неизвестных параметров модели по имеющимся статистическим данным.
Чтобы определить параметры модели, используем МНК - метод наименьших квадратов . Система нормальных уравнений будет выглядеть следующим образом:
a n + b∑x = ∑y
a∑x + b∑x 2 = ∑y x
Для расчета параметров регрессии построим расчетную таблицу (табл. 1).
x y x 2 y 2 x y
10 6 100 36 60
12 6 144 36 72
15 7 225 49 105
17 7 289 49 119
18 7 324 49 126
19 8 361 64 152
19 8 361 64 152
20 9 400 81 180
20 9 400 81 180
21 10 441 100 210
171 77 3045 609 1356

Данные берем из таблицы 1 (последняя строка), в итоге имеем:
10a + 171 b = 77
171 a + 3045 b = 1356
Эту СЛАУ решаем методом Крамера или методом обратной матрицы .
Получаем эмпирические коэффициенты регрессии: b = 0.3251, a = 2.1414
Эмпирическое уравнение регрессии имеет вид:
y = 0.3251 x + 2.1414
6-й этап (верификация модели) – сопоставление реальных и модельных данных, проверка адекватности модели, оценка точности модельных данных.
Анализ проводим с помощью