Построение и тестирование адекватности эконометрических моделей множественной регрессии: выбор функциональной формы модели

Тип работы:
Курсовая
Предмет:
Экономические науки


Узнать стоимость

Детальная информация о работе

Выдержка из работы

Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования

«Тверской государственный технический университет»

(ТвГТУ)

Кафедра «Бухгалтерский учет, анализ и аудит»

Курсовой проект

по дисциплине «Эконометрика»

Тема: «Построение и тестирование адекватности эконометрических моделей множественной регрессии: выбор функциональной формы модели»

Выполнила: студентка 3-го курса

учебной группы РБА 36−11

Антонова Н.В.

Проверила: Коновалова А. С.

2014 г.

Содержание

  • Введение
  • Глава I. Аналитическая часть
  • 1. 1 Основы построения и тестирования адекватности экономических моделей множественной регрессии
  • 1.2 Проблема спецификации экономических моделей множественной регрессии
  • 1.3 Последствия ошибок спецификации экономических моделей множественной регрессии
  • Глава II. Проектная часть
  • 2.1 Методическое обеспечение множественной регрессии
  • 2.2 Информационное обеспечение множественной регрессии
  • 2.3 Числовой пример модели множественной регрессии и выводы множественной регрессии
  • Заключение
  • Список использованных источников

Введение

Эконометрика — это самостоятельная научная дисциплина, объединяющая совокупность теоретических результатов, приемов, методов и моделей, предназначенных для того, чтобы на базе экономической теории, экономической статистики и экономических измерений, математико-статистического инструментария придавать конкретное количественное выражение общим (качественным) закономерностям, обусловленным экономической теорией.

Целью работы является получение практических навыков построения эконометрических моделей.

Эконометрический метод складывался в преодолении следующих трудностей, искажающих результаты применения классических статистических методов (сущность новых терминов будет раскрыта в дальнейшем):

1. асимметричности связей;

2. мультиколлинеарности связей;

3. эффекта гетероскедастичности;

4. автокорреляции;

5. ложной корреляции;

6. наличия лагов.

Для описания сущности эконометрической модели удобно разбить весь процесс моделирования на шесть основных этапов:

1-й этап (постановочный) — определение конечных целей моделирования, набора участвующих в модели факторов и показателей, их роли;

2-й этап (априорный) — предмодельный анализ экономической сущности изучаемого явления, формирование и формализация априорной информации, в частности, относящейся к природе и генезису исходных статистических данных и случайных остаточных составляющих;

3-й этап (параметризация) — собственно моделирование, т. е. выбор общего вида модели, в том числе состава и формы входящих в нее связей;

4-й этап (информационный) — сбор необходимой статистической информации, т. е. регистрация значений участвующих в модели факторов и показателей на различных временных или пространственных тактах функционирования изучаемого явления;

5-й этап (идентификация модели) — статистический анализ модели и в первую очередь статистическое оценивание неизвестных параметров модели;

6-й этап (верификация модели) — сопоставление реальных и модельных данных, проверка адекватности модели, оценка точности модельных данных.

Эконометрическое моделирование реальных социально-экономических процессов и систем обычно преследует два типа конечных прикладных целей (или одну из них):

1) прогноз экономических и социально-экономических показателей, характеризующих состояние и развитие анализируемой системы;

2) имитацию различных возможных сценариев социально-экономического развития анализируемой системы (многовариантные сценарные расчеты, ситуационное моделирование).

При постановке задач эконометрического моделирования следует определить их иерархический уровень и профиль.

Анализируемые задачи могут относиться к макро — (страна, межстрановой анализ), мезо — (регионы внутри страны) и микро — (предприятия, фирмы, семьи) уровням и быть направленными на решение вопросов различного профиля инвестиционной, финансовой или социальной политики, ценообразования, распределительных отношений и т. п.

Глава I. Аналитическая часть

1.1 Основы построения и тестирования адекватности экономических моделей множественной регрессии

В настоящее время множественная регрессия — один из наиболее распространенных методов в эконометрике. Основная цель множественной регрессии — построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также совокупное их воздействие на моделируемый показатель.

Множественная регрессия широко используется в решении проблем спроса, доходности акций, при изучении функции издержек производства, в макроэкономических расчетах и целом ряде других вопросов эконометрики. В настоящее время множественная регрессия — один из наиболее распространенных методов в эконометрике.

Основная цель множественной регрессии — построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также совокупное их воздействие на моделируемый показатель.

Линейная модель множественной регрессии имеет общий вид:

y1= в0+ в1 хi1+ в2 хi2+…+ вm хim+ е

где n — объём выборки, который по крайней мере в 3 раза превосходит количество независимых переменных;

уi - значение результативной переменной в наблюдении I;

хi1, хi2,., хim-значения независимых переменных в наблюдении i;

в0, в1, вm — параметры уравнения регрессии, подлежащие оценке;

е — значение случайной ошибки модели множественной регрессии в наблюдении I,

При построении модели множественной линейной регрессии учитываются следующие пять условий:

1. величины хi1, хi2,., хim — неслучайные и независимые переменные;

2. математическое ожидание случайной ошибки уравнения регрессии равно нулю во всех наблюдениях: М (е) = 0, i= 1,m;

3. дисперсия случайной ошибки уравнения регрессии является постоянной для всех наблюдений: D (е) 2 =const;

4. случайные ошибки модели регрессии не коррелируют между собой (ковариация случайных ошибок любых двух разных наблюдений равна нулю): соv (еi, еj.) = 0, i?j;

5. случайная ошибка модели регрессии — случайная величина, подчиняющаяся нормальному закону распределения с нулевым математическим ожиданием и дисперсией у2.

Функция , описывающая зависимость показателя от параметров, называется уравнением (функцией) регрессии.

Уравнение регрессии показывает ожидаемое значение зависимой переменной при определенных значениях зависимых переменных.

В зависимости от количества включенных в модель факторов Х модели делятся на однофакторные (парная модель регрессии) и многофакторные (модель множественной регрессии).

В зависимости от вида функции модели делятся на линейные и нелинейные.

Модель множественной линейной регрессии имеет вид:

y i = 0 + 1x i 1 +2x i 2 +…+ k x i k + i (1. 1)

- количество наблюдений.

множественная регрессия экономическая модель

Коэффициент регрессии j показывает, на какую величину в среднем изменится результативный признак, если переменную xj увеличить на единицу измерения, т. е. j является нормативным коэффициентом.

Коэффициент может быть отрицательным. Это означает, что область существования показателя не включает нулевых значений параметров. Если же а0> 0, то область существования показателя включает нулевые значения параметров, а сам коэффициент характеризует среднее значение показателя при отсутствии воздействий параметров.

Анализ уравнения (1. 1) и методика определения параметров становятся более наглядными, а расчетные процедуры существенно упрощаются, если воспользоваться матричной формой записи:

(1. 2).

Где — вектор зависимой переменной размерности п 1, представляющий собой п наблюдений значений.

— матрица п наблюдений независимых переменных, размерность матрицы равна п (k+1). Дополнительный фактор, состоящий из единиц, вводится для вычисления свободного члена. В качестве исходных данных могут быть временные ряды или пространственная выборка.

— количество факторов, включенных в модель.

a - подлежащий оцениванию вектор неизвестных параметров размерности (k+1) 1;

— вектор случайных отклонений (возмущений) размерности п 1. отражает тот факт, что изменение будет неточно описываться изменением объясняющих переменных, так как существуют и другие факторы, неучтенные в данной модели.

Таким образом,

Y =, X =, , a =.

Уравнение (1. 2) содержит значения неизвестных параметров 0,1,2,…,k.

Эти величины оцениваются на основе выборочных наблюдений, поэтому полученные расчетные показатели не являются истинными, а представляют собой лишь их статистические оценки.

Модель линейной регрессии, в которой вместо истинных значений параметров подставлены их оценки (а именно такие регрессии и применяются на практике), имеет

, (1. 3)

где A — вектор оценок параметров; е — вектор «оцененных» отклонений регрессии, остатки регрессии е = Y - ХА; -оценка значений Y, равная ХА.

Построение уравнения регрессии осуществляется, как правило, методом наименьших квадратов (МНК), суть которого состоит в минимизации суммы квадратов отклонений фактических значений результатного признака от его расчетных значений, т. е. :

.

Формулу для вычисления параметров регрессионного уравнения по методу наименьших квадратов приведем без вывода

(1. 4).

Для того чтобы регрессионный анализ, основанный на обычном методе наименьших квадратов, давал наилучшие из всех возможных результаты, должны выполняться следующие условия, известные как условия Гаусса — Маркова.

Первое условие. Математическое ожидание случайной составляющей в любом наблюдении должно быть равно нулю. Иногда случайная составляющая будет положительной, иногда отрицательной, но она не должна иметь систематического смещения ни в одном из двух возможных направлений.

Фактически если уравнение регрессии включает постоянный член, то обычно это условие выполняется автоматически, так как роль константы состоит в определении любой систематической тенденции, которую не учитывают объясняющие переменные, включенные в уравнение регрессии.

Второе условие означает, что дисперсия случайной составляющей должна быть постоянна для всех наблюдений. Иногда случайная составляющая будет больше, иногда меньше, однако не должно быть априорной причины для того, чтобы она порождала большую ошибку в одних наблюдениях, чем в других.

Эта постоянная дисперсия обычно обозначается, или часто в более краткой форме, а условие записывается следующим образом:

.

Выполнимость данного условия называется гомоскедастичностью (постоянством дисперсии отклонений). Невыполнимость данной предпосылки называется гетероскедастичностью, (непостоянством дисперсии отклонений).

Третье условие предполагает отсутствие систематической связи между значениями случайной составляющей в любых двух наблюдениях. Например, если случайная составляющая велика и положительна в одном наблюдении, это не должно обусловливать систематическую тенденцию к тому, что она будет большой и положительной в следующем наблюдении. Случайные составляющие должны быть независимы друг от друга.

В силу того, что, данное условие можно записать следующим образом:

Возмущения не коррелированны (условие независимости случайных составляющих в различных наблюдениях).

Это условие означает, что отклонения регрессии (а значит, и сама зависимая переменная) не коррелируют. Условие некоррелируемости ограничительно, например, в случае временного ряда. Тогда третье условие означает отсутствие автокорреляции ряда. Четвертое условие состоит в том, что в модели (1. 1) возмущение (или зависимая переменная ) есть величина случайная, а объясняющая переменная - величина неслучайная.

Если это условие выполнено, то теоретическая ковариация между независимой переменной и случайным членом равна нулю.

Наряду с условиями Гаусса — Маркова обычно также предполагается нормальность распределения случайного члена.

Качество модели регрессии связывают с адекватностью модели наблюдаемым (эмпирическим) данным. Проверка адекватности (или соответствия) модели регрессии наблюдаемым данным проводится на основе анализа остатков —.

Анализ остатков позволяет получить представление, насколько хорошо подобрана сама модель и насколько правильно выбран метод оценки коэффициентов. Согласно общим предположениям регрессионного анализа, остатки должны вести себя как независимые (в действительности, почти независимые) одинаково распределенные случайные величины.

Качество модели регрессии оценивается по следующим направлениям:

проверка качества всего уравнения регрессии;

проверка значимости всего уравнения регрессии;

проверка статистической значимости коэффициентов уравнения регрессии;

проверка выполнения предпосылок МНК.

При анализе качества модели регрессии, в первую очередь, используется коэффициент детерминации, который определяется следующим образом:

, (1. 5)

где — среднее значение зависимой переменной,

— предсказанное (расчетное) значение зависимой переменной.

Коэффициент детерминации показывает долю вариации результативного признака, находящегося под воздействием изучаемых факторов, т. е. определяет, какая доля вариации признака Y учтена в модели и обусловлена влиянием на него факторов.

Чем ближе к 1, тем выше качество модели.

Для оценки качества регрессионных моделей целесообразно также использовать коэффициент множественной корреляции (индекс корреляции) R

R = = (1. 6)

Данный коэффициент является универсальным, так как он отражает тесноту связи и точность модели, а также может использоваться при любой форме связи переменных.

Важным моментом является проверка значимости построенного уравнения в целом и отдельных параметров.

Оценить значимость уравнения регрессии — это означает установить, соответствует ли математическая модель, выражающая зависимость между Y и Х, фактическим данным и достаточно ли включенных в уравнение объясняющих переменных Х для описания зависимой переменной Y

Оценка значимости уравнения регрессии производится для того, чтобы узнать, пригодно уравнение регрессии для практического использования (например, для прогноза) или нет.

Для проверки значимости модели регрессии используется F-критерий Фишера. Если расчетное значение с 1= k и 2 = (n - k - 1) степенями свободы, где k — количество факторов, включенных в модель, больше табличного при заданном уровне значимости, то модель считается значимой.

(1. 7)

В качестве меры точности применяют несмещенную оценку дисперсии остаточной компоненты, которая представляет собой отношение суммы квадратов уровней остаточной компоненты к величине (n — k — 1), где k — количество факторов, включенных в модель. Квадратный корень из этой величины () называется стандартной ошибкой:

(1. 8)

значимость отдельных коэффициентов регрессии проверяется по t-статистике путем проверки гипотезы о равенстве нулю j-го параметра уравнения (кроме свободного члена):

, (1. 9)

где Saj - это стандартное (среднеквадратическое) отклонение коэффициента уравнения регрессии aj. Величина Saj представляет собой квадратный корень из произведения несмещенной оценки дисперсии и j - го диагонального элемента матрицы, обратной матрице системы нормальных уравнений.

где — диагональный элемент матрицы.

Если расчетное значение t-критерия с (n - k — 1) степенями свободы превосходит его табличное значение при заданном уровне значимости, коэффициент регрессии считается значимым. В противном случае фактор, соответствующий этому коэффициенту, следует исключить из модели (при этом ее качество не ухудшится).

1.2 Проблема спецификации экономических моделей множественной регрессии

Построение уравнения множественной регрессии начинается с решения вопроса о спецификации модели, который в свою очередь включает 2 круга вопросов: отбор факторов и выбор уравнения регрессии. Отбор факторов обычно осуществляется в два этапа:

1) теоретический анализ взаимосвязи результата и круга факторов, которые оказывают на него существенное влияние;

2) количественная оценка взаимосвязи факторов с результатом. При линейной форме связи между признаками данный этап сводится к анализу корреляционной матрицы (матрицы парных линейных коэффициентов корреляции): ry, y ry, x1 ryx2. ry, xm rx 1, y rx1, x2 rx2x 2. rx 2, xm. rxm, y rxm, x1 rxm, x2. rxm, xm где ry, xj — линейный парный коэффициент корреляции, измеряющий тесноту связи между признаками y и хj j=1; m, m — число факторов. rxj, xk — линейный парный коэффициент корреляции, измеряющий тесноту связи между признаками хj и хk j, k =1; m. Факторы, включаемые во множественную регрессию, должны отвечать следующим требованиям:

1. Они должны быть количественно измеримы. Если необходимо включить в модель качественный фактор, не имеющий количественного измерения, то ему нужно придать количественную определенность (например, в модели урожайности качество почвы задается в виде баллов).

2. Каждый фактор должен быть достаточно тесно связан с результатом (т.е. коэффициент парной линейной корреляции между фактором и результатом должен быть существенным).

3. Факторы не должны быть сильно коррелированы друг с другом, тем более находиться в строгой функциональной связи (т.е. они не должны быть интеркоррелированы).

Разновидностью интеркоррелированности факторов является мультиколлинеарность — тесная линейная связь между факторами. Мультиколлинеарность может привести к нежелательным последствиям:

1) оценки параметров становятся ненадежными. Они обнаруживают большие стандартные ошибки. С изменением объема наблюдений оценки меняются (не только по величине, но и по знаку), что делает модель непригодной для анализа и прогнозирования.

2) затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы коррелированны; параметры линейной регрессии теряют экономический смысл;

3) становится невозможным определить изолированное влияние факторов на результативный показатель.

Мультиколлинеарность имеет место, если определитель матрицы межфакторной корреляции близок к нулю:

Если же определитель матрицы межфакторной корреляции близок к единице, то мультколлинеарности нет. Существуют различные подходы преодоления сильной межфакторной корреляции. Простейший из них — исключение из модели фактора (или факторов), в наибольшей степени ответственных за мультиколлинеарность при условии, что качество модели при этом пострадает несущественно (а именно, теоретический коэффициент детерминации — R2y (x1. xm) снизится несущественно).

Определение факторов, ответственных за мультиколлинеарность, может быть основано на анализе матрицы межфакторной корреляции. При этом определяют пару признаков-факторов, которые сильнее всего связаны между собой (коэффициент линейной парной корреляции максимален по модулю). Из этой пары в наибольшей степени ответственным за мультиколлинеарность будет тот признак, который теснее связан с другими факторами модели (имеет более высокие по модулю значения коэффициентов парной линейной корреляции).

Еще один способ определения факторов, ответственных за мультиколлинеарность основан на вычислении коэффициентов множественной детерминации (R2xj (x1,., xj-1,xj+1,., xm)), показывающего зависимость фактора xj от других факторов модели x1,., xj-1, x j+1,., xm. Чем ближе значение коэффициента множественной детерминации к единице, тем больше ответственность за мультиколлинеарность фактора, выступающего в роли зависимой переменной. Сравнивая между собой коэффициенты множественной детерминации для различных факторов можно проранжировать переменные по степени ответственности за мультиколлинеарность.

При выборе формы уравнения множественной регрессии предпочтение отдается линейной функции:

yi =a+b1·x1i+ b2·x2i+. + bm·xmi+ui

в виду четкой интерпретации параметров.

Данное уравнение регрессии называют уравнением регрессии в естественном (натуральном) масштабе. Коэффициент регрессии bj при факторе хj называют условно-чистым коэффициентом регрессии. Он измеряет среднее по совокупности отклонение признака-результата от его средней величины при отклонении признака-фактора хj на единицу, при условии, что все прочие факторы модели не изменяются (зафиксированы на своих средних уровнях).

Если не делать предположения о значениях прочих факторов, входящих в модель, то это означало бы, что каждый из них при изменении х j также изменялся бы (так как факторы связаны между собой), и своими изменениями оказывали бы влияние на признак-результат.

Понятие множественной регрессии тесно связано с понятием временного ряда. В зависимости от составляющих уровней временных рядов выделяют: Аддитивную, мультипликативную и смешанную модели

Временным рядом называется ряд наблюдений за значениями некоторого показателя (признака), упорядоченный в хронологической последовательности, т. е. в порядке возрастания переменной t — временного параметра. Отдельные наблюдения временного ряда называются уровнями этого ряда.

Временные ряды делятся на моментные и интервальные. В моментных временных рядах уровни характеризуют значения показателя по состоянию на определенные моменты времени. Например, моментными являются временные ряды цен на определенные виды товаров, временные ряды курсов акций, уровни которых фиксируются для конкретных чисел. Примерами моментных временных рядов могут служить также ряды численности населения или стоимости основных фондов, т.к. значения уровней этих рядов определяются ежегодно на одно и то же число.

В интервальных рядах уровни характеризуют значение показателя за определенные интервалы (периоды) времени. Примерами рядов этого типа могут служить временные ряды производства продукции в натуральном или стоимостном выражении за месяц, квартал, год и т. д.

Иногда уровни ряда представляют собой не непосредственно наблюдаемые значения, а производные величины: средние или относительные. Такие ряды называются производными. Уровни таких временных рядов получаются с помощью некоторых вычислений на основе непосредственно наблюдаемых показателей. Примерами таких рядов могут служить ряды среднесуточного производства основных видов промышленной продукции или ряды индексов цен.

Уровни ряда могут принимать детерминированные или случайные значения. Примером ряда с детерминированными значениями уровней — служит ряд последовательных данных о количестве дней в месяцах. Естественно, анализу, а в дальнейшем и прогнозированию, подвергаются ряды со случайными значениями уровней. В таких рядах каждый уровень может рассматриваться как реализация случайной величины — дискретной или непрерывной. Модели, которые построены по данным, характеризующим один объект за ряд определенных последовательных периодов, называется моделями временных рядов.

Как уже отмечалось, в модели временного ряда принято выделять две основные составляющие: детерминированную и случайную (рис.). Под детерминированной составляющей временного ряда понимают числовую последовательность, элементы которой вычисляются по определенному правилу как функция времени t. Исключив детерминированную составляющую из данных, мы получим колеблющийся вокруг нуля ряд, который может в одном предельном случае представлять чисто случайные скачки, а в другом — плавное колебательное движение. В большинстве случаев будет нечто среднее: некоторая иррегулярность и определенный систематический эффект, обусловленный зависимостью последовательных членов ряда.

Проблема спецификации экономических моделей множественной регрессии по существу решается на первых трех этапах моделирования и включает в себя:

определение конечных целей моделирования (прогноз, имитация различных сценариев социально-экономического развития анализируемой системы, управление);

определение списка экзогенных и эндогенных переменных;

определение состава анализируемой системы уравнений и тождеств, их структуры и соответственно списка предопределенных переменных;

формулировку исходных предпосылок и априорных ограничений относительно: стохастической природы остатков (в классических вариантах моделей постулируются их взаимная статистическая независимость или некоррелированность, нулевые значения их средних величин и, иногда, сохранение постоянными в процессе наблюдения значений их дисперсий — гомоскедастичностъ);

числовых значений отдельных элементов матриц коэффициентов в модели;

поведение некоторых эндогенных переменных.

Итак, спецификация модели — это первый и, быть может, важнейший шаг эконометрического исследования. От того, насколько удачно решена проблема спецификации и, в частности, насколько реалистичны наши решения и предположения относительно состава эндогенных, экзогенных и предопределенных переменных, структуры самой системы уравнений и тождеств, стохастической природы случайных остатков и конкретных числовых значений части элементов матриц коэффициентов, решающим образом зависит успех всего эконометрического моделирования.

Спецификация опирается на имеющиеся экономические теории, специальные знания или на интуитивные представления исследователя об анализируемой экономической системе. Эти априорные сведения определяют, в частности, природу матриц коэффициентов.

Например, информация (или предположение) о том, что определенные переменные непосредственно не участвуют в том или ином уравнении, означает равенство нулю соответствующих элементов в строках матриц коэффициентов. Дополнительные сведения о системе могут иметь вид ограничений на комбинации элементов матриц коэффициентов.

1.3 Последствия ошибок спецификации экономических моделей множественной регрессии

Возможные ошибки спецификации регрессионной модели:

Невключение значимых переменных

Включение незначимых переменных

Невключение значимых переменных

(-) Смещенность оценок коэффициентов регрессии

(-) Смещенность оценки дисперсии ошибок регрессии

(+) Меньшая вариация оценок коэффициентов регрессии

Включение незначимых переменных

(+) Несмещенность оценок коэффициентов регрессии

(+) Несмещенность оценки дисперсии ошибок регрессии

(-) Большая вариация оценок коэффициентов регрессии

Замещающие переменные, причины:

1. Необходимость показателя не была учтена при составлении выборки

2. Переменная трудноизмерима (например, уровень образования)

3. Сбор данных о переменной x1 требует значительных затрат

При оценивании модели без переменной x1 полученные оценки будут смешенными.

Последствия использования замещающих переменных:

1. Оценки коэффициентов при переменных x2,…, xk становятся несмещенными

2. Стандартные ошибки и t-статистики коэффициентов te ze

3. R2 имеет такое же значение, как и при оценивании с переменной x1

4. Коэффициент в1 нельзя оценить (оценивается только в1д1), но его стандартная ошибка и t-статистика позволяет оценить значимость x1

5. Получить оценку свободного члена модели невозможно (но она часто и не особенно важна) последствия справедливы приблизительно

Мультиколлинеарность — это понятие, которое используется для описания проблемы, когда нестрогая линейная зависимость между объясняющими переменными приводит к получению ненадежных оценок регрессии. Оценка любой регрессии будет страдать от нее в определенной степени, если только все независимые переменные не окажутся абсолютно некоррелированными.

Различные методы, которые могут быть использованы для смягчения мультиколлинеарности, делятся на две категории: к первой категории относятся попытки повысить степень выполнения четырех условий, обеспечивающих надежность оценок регрессии; ко второй категории относится использование внешней информации, но можно привнести или усилить автокорреляцию, но она может быть нейтрализована. Кроме того, можно привнести (или усилить) смещение, вызванное ошибками измерения, если поквартальные данные измерены с меньшей точностью, чем соответствующие ежегодные данные.

Глава II. Проектная часть

2.1 Методическое обеспечение множественной регрессии

Суть регрессионного анализа: построение математической модели и определение ее статистической надежности.

Вид множественной линейной модели регрессионного анализа:

Y = b0 + b1xi1 +. + bjxij +. + bkxik + ei

где ei — случайные ошибки наблюдения, независимые между собой, имеют нулевую среднюю и дисперсию s.

Назначение множественной регрессии: анализ связи между несколькими независимыми переменными и зависимой переменной.

Экономический смысл параметров множественной регрессии Коэффициент множественной регрессии bj показывает, на какую величину в среднем изменится результативный признак Y, если переменную Xj увеличить на единицу измерения, т. е. является нормативным коэффициентом.

Матричная запись множественной линейной модели регрессионного анализа:

Y = Xb + e

где Y — случайный вектор — столбец размерности (n x 1) наблюдаемых значений результативного признака (y1, y2,., yn);

X — матрица размерности [n x (k+1)] наблюдаемых значений аргументов;

b — вектор — столбец размерности [ (k+1) x 1] неизвестных, подлежащих оценке параметров (коэффициентов регрессии) модели;

e — случайный вектор — столбец размерности (n x 1) ошибок наблюдений (остатков).

На практике рекомендуется, чтобы n превышало k не менее, чем в три раза.

Задачи регрессионного анализа Основная задача регрессионного анализа заключается в нахождении по выборке объемом n оценки неизвестных коэффициентов регрессии b0, b1,., bk. Задачи регрессионного анализа состоят в том, чтобы по имеющимся статистическим данным для переменных Xi и Y:

· получить наилучшие оценки неизвестных параметров b0, b1,., bk;

· проверить статистические гипотезы о параметрах модели;

· проверить, достаточно ли хорошо модель согласуется со статистическими данными (адекватность модели данным наблюдений).

Построение моделей множественной регрессии состоит из следующих этапов:

1. выбор формы связи (уравнения регрессии);

2. определение параметров выбранного уравнения;

3. анализ качества уравнения и поверка адекватности уравнения эмпирическим данным, совершенствование уравнения.

Множественная регрессия:

· Множественная регрессия с одной переменной

· Множественная регрессия с двумя переменными

· Множественная регрессия с тремя переменными

Пример решения нахождения модели множественной регрессии

Множественная регрессия с двумя переменными

Модель множественной регрессии вида Y = b0 +b1X1 + b2X2;

1) Найти неизвестные b0, b1, b2 можно, решим систему трехлинейных уравнений с тремя неизвестными b0, b1, b2:

Для решения системы можете воспользоваться решение системы методом Крамера или использовав формулы

Для этого строим таблицу вида:

Таблица 1.

Y

x1

x2

(y-yср) 2

(x1-x1ср) 2

(x2-x2ср) 2

(y-yср) (x1-x1ср)

(y-yср)

(x2-x2ср)

(x1-x1ср)

(x2-x2ср)

Выборочные дисперсии эмпирических коэффициентов множественной регрессии можно определить следующим образом:

Здесь z'jj — j-тый диагональный элемент матрицы Z-1 = (XTX) — 1.

При этом:

где m — количество объясняющих переменных модели.

В частности, для уравнения множественной регрессии

Y = b0 + b1X1 + b2X2

с двумя объясняющими переменными используются следующие формулы:

Или

и

,.

Здесь r12 — выборочный коэффициент корреляции между объясняющими переменными X1 и X2; Sbj — стандартная ошибка коэффициента регрессии; S — стандартная ошибка множественной регрессии (несмещенная оценка).

По аналогии с парной регрессией после определения точечных оценок bj коэффициентов вj (j=1,2,…, m) теоретического уравнения множественной регрессии могут быть рассчитаны интервальные оценки указанных коэффициентов.

Доверительный интервал, накрывающий с надежностью (1-б) неизвестное значение параметра вj, определяется как

Множественная регрессия в Excel

Чтобы найти параметры множественной регреcсии средствами Excel, используется функция ЛИНЕЙН (Y; X; 0; 1), где Y — массив для значений Y, где X — массив для значений X (указывается как единый массив для всех значений Хi)

Проверка статистической значимости коэффициентов уравнения множественной регрессии

Как и в случае множественной регрессии, статистическая значимость коэффициентов множественной регрессии с m объясняющими переменными проверяется на основе t-статистики: имеющей в данном случае распределение Стьюдента с числом степеней свободы v = n — m-1. При требуемом уровне значимости наблюдаемое значение t-статистики сравнивается с критической точной распределения Стьюдента.

В случае, если, то статистическая значимость соответствующего коэффициента множественной регрессии подтверждается. Это означает, что фактор Xj линейно связан с зависимой переменной Y. Если же установлен факт незначимости коэффициента bj, то рекомендуется исключить из уравнения переменную Xj. Это не приведет к существенной потере качества модели, но сделает ее более конкретной.

Проверка общего качества уравнения множественной регрессии

Для этой цели, как и в случае множественной регрессии, используется коэффициент детерминации R2:

Справедливо соотношение 0< =R2<=1. Чем ближе этот коэффициент к единице, тем больше уравнение множественной регрессии объясняет поведение Y. Для множественной регрессии коэффициент детерминации является неубывающей функцией числа объясняющих переменных. Добавление новой объясняющей переменной никогда не уменьшает значение R2, так как каждая последующая переменная может лишь дополнить, но никак не сократить информацию, объясняющую поведение зависимой переменной. Иногда при расчете коэффициента детерминации для получения несмещенных оценок в числителе и знаменателе вычитаемой из единицы дроби делается поправка на число степеней свободы, т. е. вводится так называемый скорректированный (исправленный) коэффициент детерминации:

Соотношение может быть представлено вследующем виде: для m>1. С ростом значения m скорректированный коэффициент детерминации растет медленнее, чем обычный. Очевидно, что только при R2 = 1. может принимать отрицательные значения.

Доказано, что увеличивается при добавлении новой объясняющей переменной тогда и только тогда, когда t-статистика для этой переменной по модулю больше единицы. Поэтому добавление в модель новых объясняющих переменных осуществляется до тех пор, пока растет скорректированный коэффициент детерминации.

Рекомендуется после проверки общего качества уравнения регрессии провести анализ его статистической значимости. Для этого используется F-статистика:

Показатели F и R2 равны или не равен нулю одновременно. Если F=0, то R2=0, следовательно, величина Y линейно не зависит от X1, X2,…, Xm. Расчетное значение F сравнивается с критическим Fкр. Fкр, исходя из требуемого уровня значимости б и чисел степеней свободы v1 = m и v2 = n — m — 1, определяется на основе распределения Фишера. Если F> Fкр, то R2 статистически значим.

Проверка выполнимости предпосылок МНК множественной регрессии. Статистика Дарбина-Уотсона для множественной регрессии

Статистическая значимость коэффициентов множественной регрессии и близкое к единице значение коэффициента детерминации R2 не гарантируют высокое качество уравнения множественной регрессии. Поэтому следующим этапом проверки качества уравнения множественной регрессии является проверка выполнимости предпосылок МНК. Причины и последствия невыполнимости этих предпосылок, методы корректировки регрессионных моделей будут рассмотрены в последующих главах. В данном параграфе рассмотрим популярную в регрессионном анализе статистику Дарбина-Уотсона.

При статистическом анализе уравнения регрессии на начальном этапе часто проверяют выполнимость одной предпосылки: условия статистической независимости отклонений между собой.

При этом проверяется некоррелированность соседних величин ei, i=1,2,…n.

Для анализа коррелированности отклонений используют статистику Дарбина-Уотсона:

Критические значения d1 и d2 определяются на основе специальных таблиц для требуемого уровня значимости б, числа наблюдений n и количества объясняющих переменных m.

Автоматический расчет

Полностью произвести подобный расчет можно автоматически, используя популярный сервис Множественная регрессия (с оформлением в Word)

Частные коэффициенты корреляции при множественной регрессии

Частные коэффициенты (или индексы) корреляции, измеряющие влияние на у фактора хi при неизменном уровне других факторов определяются по стандартной формуле линейного коэффициента корреляции, т. е. последовательно берутся пары yx1, yx2,., x1x2, x1x3 и так далее и для каждой пары находится коэффициент корреляции Вычисления в MS Excel. Матрицу парных коэффициентов корреляции переменных можно рассчитать, используя инструмент анализа данных Корреляция.

Для этого:

1) Выполнить команду Сервис / Анализ данных / Корреляция.

2) Указать диапазон данных;

Проверка общего качества уравнения множественной регрессии

Для этой цели, как и в случае множественной регрессии, используется коэффициент детерминации R2:

Справедливо соотношение 0 < =R2 < = 1. Чем ближе этот коэффициент к единице, тем больше уравнение множественной регрессии объясняет поведение Y.

Для множественной регрессии коэффициент детерминации является неубывающей функцией числа объясняющих переменных.

Добавление новой объясняющей переменной никогда не уменьшает значение R2, так как каждая последующая переменная может лишь дополнить, но никак не сократить информацию, объясняющую поведение зависимой переменной.

Иногда при расчете коэффициента детерминации для получения несмещенных оценок в числителе и знаменателе вычитаемой из единицы дроби делается поправка на число степеней свободы, т. е. вводится так называемый скорректированный (исправленный) коэффициент детерминации:

Соотношение может быть представлено в следующем виде:

для m>1.

С ростом значения m скорректированный коэффициент детерминации растет медленнее, чем обычный. Очевидно, что только при R2 = 1. может принимать отрицательные значения.

Доказано, что увеличивается при добавлении новой объясняющей переменной тогда и только тогда, когда t-статистика для этой переменной по модулю больше единицы. Поэтому добавление в модель новых объясняющих переменных осуществляется до тех пор, пока растет скорректированный коэффициент детерминации.

Рекомендуется после проверки общего качества уравнения регрессии провести анализ его статистической значимости. Для этого используется F-статистика:

Показатели F и R2 равны или не равен нулю одновременно. Если F=0, то R2=0, следовательно, величина Y линейно не зависит от X1, X2,…, Xm. Расчетное значение F сравнивается с критическим Fкр. Fкр, исходя из требуемого уровня значимости б и чисел степеней свободы v1 = m и v2 = n — m — 1, определяется на основе распределения Фишера. Если F > Fкр, то R2 статистически значим.

2.2 Информационное обеспечение множественной регрессии

По данным, представленным в таблице 2, изучается зависимость объёма валового национального продукта Y (млрд. долл.) от следующих переменных: Х1 — потребление, млрд. долл., Х2 — инвестиции, млрд. долл.

Таблица 2.

1

2

3

4

5

6

7

8

9

10

Y

8

9,5

11

12

13

14

15

16,5

17

18

Х1

1,65

1,8

2,0

2,1

2,2

2,4

2,65

2,85

3,2

3,55

Х2

14

16

18

20

23

23,5

25

26,5

28,5

30,5

1. Для заданного набора данных постройте линейную модель множественной регрессии. Оцените точность и адекватность построенного уравнения регрессии.

2. Дайте экономическую интерпретацию параметров модели.

3. Для полученной модели проверьте выполнение условия гомоскедастичности остатков, применив тест Голдфельда-Квандта.

4. Проверьте полученную модель на наличие автокорреляции остатков с помощью теста Дарбина-Уотсона.

5. Проверьте, адекватно ли предположение об однородности исходных данных в регрессионном смысле. Можно ли объединить две выборки (по первым 5 и остальным 5 наблюдениям) в одну и рассматривать единую модель регрессии Y по X?

2.3 Числовой пример модели множественной регрессии и выводы множественной регрессии

1. Построим линейную модель множественной регрессии с помощью Microsoft Office Excel. Регрессионный анализ предназначен для исследования зависимости исследуемой переменной Y от различных факторов и отображение их взаимосвязи в форме регрессионной модели.

В зависимости от количества включенных в модель факторов Х модели делятся на:

Однофакторные (парная модель регрессии).

Многофакторные (модель множественной регрессии).

Линейная модель множественной регрессии имеет вид:

=b0+ b 1*x1+ b 2*x2+…+ b n*xn

Для построения линейной модели множественной регрессии на листе Microsoft Office Excel (2007) создадим табличку с нашими данными (Рис. 1) и построим регрессию. Для этого на закладке Данные выберем строку Анализ данных и в качестве инструмента данных — Регрессия — ок. В открывшемся окне Регрессии зададим Входной интервал Yи Х (рис. 2,3).

Рис. 1. Линейная модель множественной регрессии

Рис. 2. Окно Анализ данных

Рис. 3. Окно Регрессия.

Получим результаты регрессионного анализа на новом листе Регрессия (Рис. 4)

Рис. 4. Лист Регрессия.

По данным регрессионной статистики мы получили следующие данные:

Множественный R — это vR2, где R2 — коэффициент детерминации.

R-квадрат — это R2. В нашем примере значение R2=0,9883 свидетельствует о том, что изменения зависимой переменной Y (объём валового национального продукта (ВНП)) в основном (на 98,83%) можно объяснить изменениями включенных в модель объясняющих переменных — Х1, Х2 (потребление и инвестиции). И лишь на 1,17% (100−98,83) объём ВНП зависит от других неучтённых факторов. Такое значение свидетельствует об адекватности модели.

Нормированный R-квадрат — поправленный (скорректированный по числу степеней свободы) коэффициент детерминации.

Стандартная ошибка регрессии S=vS2, где S2=? (еi2/ (n-m)) — необъясненная дисперсия (мера разброса зависимой переменной вокруг линии регрессии); n — число наблюдений (в нашем случае 10), m — число объясняющих переменных (в нашем примере равно 2).

Наблюдения — число наблюдений n (10).

Рассмотрим таблицу с результатами дисперсионного анализа:

df - число степеней свободы связано с числом единиц совокупности n и с числом определяемых по ней констант (m+1).

SS — сумма квадратов (регрессионная RSS, остаточная ESS и общая TSS соответственно).

MS — сумма квадратов на одну степень свободы. MS=SS/df.

F — расчетное значение F-критерия Фишера. Если нет табличного значения, то для проверки значимости уравнения регрессии в целом можно посмотреть Значимость F. На уровне значимости б=0,05 уравнение регрессии признается значимым в целом, если Значимость F< 0,05, и незначимым, если Значимость F?0,05.

Для нашего примера имеем следующие значения:

Таблица 2

df

SS

MS

F

Значимость F

Регрессия

m=2

RSS=97,74

RSS/df=48,87

(RSS/ESS) *

((n-m-1) /m) =295,50

1,73534E-07

Остаток

n-m — =7

ESS=1,15

ESS/df=0,165

Итого

n-1=9

TSS= 98,9

В нашем случае расчетное значение F-критерия Фишера составляет 295,50. Значимость F=1,74E-07, что меньше 0,05. Таким образом, полученное уравнение в целом значимо.

В последней таблице приведены значения параметров (коэффициентов) модели, их стандартные ошибки и расчетные значения t-критериев Стьюдента для оценки значимости отдельных параметров модели.

Таблица 4

Коэффи-циенты

Стандарт-ная ошибка

t-статистика

Р-значение

Нижние 95%

Верхние 95%

Y

b0=-0,26

mb0=0,58

tb0=-0,44

0,67

-1,62? b0? 1,11

X1

b1=0,47

mb1=0,88

tb1=0,53

0,61

-1,62? b1? 2,56

X2

b2=0,56

mb2=0,10

tb2=5,53

0,0008

0,32? b2? 0,79

Анализ данной таблицы позволяет сделать вывод о том, что на уровне значимости б=0,05 значимым оказывается лишь коэффициент при факторе X2, так как лишь для него Р-значение меньше 0,05. Таким образом, фактор Х1 не существенен и его включение в модель не целесообразно. Поскольку коэффициент регрессии в экономических исследованиях имеют четкую экономическую интерпретацию, то границы доверительного интервала для коэффициента регрессии не должны содержать противоречивых результатов, как например, — 1,62? b1? 2,56. Такого рода запись указывает, что истинное значение коэффициента регрессии одновременно содержит положительные и отрицательные величины и даже ноль, чего не может быть. Это также подтверждает вывод о статистической незначимости коэффициентов регрессии при факторе Х1. Таким образом, целесообразно исключить несущественный фактор Х1. Но мы оставим этот фактор, так как у нас всего 2 переменных и в случае его исключения, модель не будет многофакторной. Поэтому мы будем иметь ввиду, что фактор Х1 малозначим и построим уравнение зависимости Y (объёма валового национального продукта) от значимой объясняющей переменной X2 (инвестиции) и незначимой Х1 (потребление).

ПоказатьСвернуть
Заполнить форму текущей работой