Шпаргалка по "Эконометрике"

Автор работы: Пользователь скрыл имя, 26 Апреля 2013 в 19:13, шпаргалка

Краткое описание

Работа содержит ответы на экзаменационные билеты по дисциплине "Эконометрика".

Содержимое работы - 1 файл

реферат.docx

— 103.54 Кб (Скачать файл)

2) ошибки, возникающие при  измерении данных;

3) неправильная функциональная  спецификация модели.

Коэффициент β1, входящий в  модельпарной регрессии, называется коэффициентом  регрессии. Он характеризует, на сколько  в среднем изменится результативная переменная у при условии изменения  факторной переменной х на единицу  своего измерения. Знак коэффициента регрессии  указывает на направление связи  между переменными:

1) если β1›0, то связь  между изучаемыми переменными  (с уменьшением факторной переменной  х уменьшается и результативная  переменная у, и наоборот);

2) если β1‹0, то связь  между изучаемыми переменными  (с увеличением факторной переменной  х результативная переменная  у уменьшается, и наоборот).

Коэффициент β0, входящий в  модель парной регрессии, трактуется как  среднее значение результативной переменной у при условии, что факторная  переменная х равна нулю. Но если факторная переменная не имеет и  не может иметь нулевого значения, то подобная трактовка коэффициента β0 не имеет смысла.

Общий вид модели парной регрессии  в матричном виде:

Y= X* β+ ε,

где

 

– случайный вектор-столбец  значений результативной переменной размерности n x 1;

 

 

– матрица значений факторной  переменной размерности n x 2. Первый столбец  является единичным, потому что в  модели регрессии коэффициент β0 умножается на единицу;

 

– вектор-столбец неизвестных  коэффициентов модели регрессии  размерности 2 x 1;

 

 

– случайный вектор-столбец  ошибок модели регрессии размерности n x 1.

10. Нормальная линейная  модель парной (однофакторной) регрессии

Общий вид нормальной (традиционной или классической) линейной модели парной (однофакторной) регрессии (Classical Normal Regression Model):

yi=β0+β1xi+εi,

где yi– результативные переменные,

 

xi – факторные переменные,

 

β0, β1 – параметры модели регрессии, подлежащие оцениванию;

εi – случайная ошибка модели регрессии.

При построении нормальной линейной модели парной регрессии учитываются  пять условий:

1) факторная переменная xi – неслучайная или детерминированная  величина, которая не зависит  от распределения случайной ошибки  модели регрессии εi;

2) математическое ожидание  случайной ошибки модели регрессии  равно нулю во всех наблюдениях:

 

3) дисперсия случайной  ошибки модели регрессии постоянна  для всех наблюдений:

 

4) между значениями случайных  ошибок модели регрессии в  любых двух наблюдениях отсутствует  систематическая взаимосвязь, т.  е. случайные ошибки модели  регрессии не коррелированны  между собой (ковариация случайных  ошибок любых двух разных наблюдений  равна нулю): Cov(εi,εj)=E(εi,εj)=0 (). Это  условие выполняется в том  случае, если исходные данные  не являются временными рядами;

5) на основании третьего  и четвёртого условий часто  добавляется пятое условие, заключающееся  в том, что случайная ошибка  модели регрессии – это случайная  величина, подчиняющейся нормальному  закону распределения с нулевым  математическим ожиданием и дисперсией G2: εi~N(0, G2).

Общий вид нормальной линейной модели парной регрессии в матричной  форме:

Y= X* β+ ε,

где

 

– случайный вектор-столбец  значений результативной переменной размерности n x 1;

 

– матрица значений факторной  переменной размерности n x 2. Первый столбец  является единичным, потому что в  модели регрессии коэффициент β0 умножается на единицу;

 

– вектор-столбец неизвестных  коэффициентов модели регрессии  размерности 2 x 1;

 

– случайный вектор-столбец  ошибок модели регрессии размерности n x 1.

Условия построения нормальной линейной модели парной регрессии, записанные в матричной форме:

1) факторная переменная xi – неслучайная или детерминированная  величина, которая не зависит  от распределения случайной ошибки  модели регрессии βi;

 

2) математическое ожидание  случайной ошибки модели регрессии  равно нулю во всех наблюдениях:;

3) третье и четвёртое  условия можно записать через  ковариационную матрицы случайных  ошибок нормальной линейной модели  парной регрессии:

 

 

где G2 – дисперсия случайной  ошибки модели регрессии ε;

In – единичная матрица  размерности n x n.

Определение. Ковариацией  называется показатель тесноты связи  между переменными х и у, который  рассчитывается по формуле:

 

где

 

– среднее арифметическое значение произведения факторного и  результативного признаков;

Основными свойствами показателя ковариации являются:

а) ковариация переменной и  константы равна нулю, т. е. cov(x,C)=0 (C=const);

б) ковариация переменной с  самой собой равна дисперсии  переменной, т. е. Cov(ε,ε)=G2(ε). По этой причине  на диагонали ковариационной матрицы  случайных ошибок нормальной линейной модели парной регрессии располагается  дисперсия случайных ошибок;

4) случайная ошибка модели  регрессии подчиняется нормальному  закону распределения: εi~N(0, G2).

11. Критерии оценки неизвестных  коэффициентов модели регрессии

В ходе регрессионного анализа  была подобрана форма связи, которая  наилучшим образом отражает зависимость  результативной переменной у от факторной  переменной х:

y=f(x).

Необходимо оценить неизвестные  коэффициенты модели регрессии β0…βn. Для определения оптимальных  коэффициентов модели регрессии  возможно применение следующих критериев:

1) критерий суммы квадратов  отклонений наблюдаемых значений  результативной переменной у  от теоретических значений β  (рассчитанных на основе функции  регрессии f(x)):

 

Данный критерий определения  оптимальных коэффициентов модели регрессии получил название метода наименьших квадратов или МНК. К  основным преимуществам данного  метода относятся:

а) все расчёты сводятся к механической процедуре нахождения коэффициентов;

б) доступность полученных математических выводов.

Недостаток метода наименьших квадратов заключается в излишней чувствительности оценок к резким выбросам, встречающимся в исходных данных.

Для определения оптимальных  значений коэффициентов β0…βn необходимо минимизировать функционал F по данным параметрам:

 

Суть минимизации функционала  наименьших квадратов F состоит в  определении таких значений коэффициентов  β0…βn, при которых сумма квадратов  отклонений наблюдаемых значений результативной переменной у от теоретических значений β была бы минимальной;

2) критерий суммы модулей  отклонений наблюдаемых значений  результативной переменной у  от теоретических значений β  (рассчитанных на основе функции  регрессии f(x)):

 

Главное преимущество данного  критерия заключается в устойчивости полученных оценок к резким выбросам в исходных данных, в отличие от метода наименьших квадратов.

К недостаткам данного  критерия относятся:

а) сложности, возникающие  в процессе вычислений;

б) зачастую большим отклонениям  в исходных данных следует придавать  больший вес для уравновешивания  их в общей сумме наблюдений;

в) разным значениям оцениваемых  коэффициентов β0…βn могут соответствовать  одинаковые суммы модулей отклонений.

Для определения оптимальных  значений коэффициентов β0…βn необходимо минимизировать функционал Fпо данным параметрам:

 

Суть минимизации функционала F состоит в определении таких  значений коэффициентов β0…βn, при  которых сумма квадратов отклонений наблюдаемых значений результативной переменной у от теоретических значений β была бы минимальной;

3) критерий, имеющий вид:

 

где g – это мера или  вес, с которой отклонение (yi-f|xi,β|) входит в функционал F. В качестве примера веса g можно привести функцию  Хубера, которая при малых значениях  переменной х является квадратичной, а при больших значениях х  – линейной:

 

где с – ограничения  функции.

Данный критерий определения  наилучших оценок коэффициентов  модели регрессии β0…βn является попыткой объединения достоинств двух предыдущих критериев. Основное преимущество данного  критерия заключается в том, что  оценки неизвестных коэффициентов, найденные с его помощью, являются более устойчивыми к случайным  выбросам в исходных данных, чем  оценки, полученные методом наименьших квадратов.

Для определения оптимальных  значений коэффициентов β0…βn необходимо минимизировать функционал F по данным параметрам:

 

Суть минимизации функционала F состоит в определении таких  значений коэффициентов β0…βn, при  которых сумма квадратов отклонений наблюдаемых значений результативной переменной у от теоретических значений ỹ с учётом заданных весов g была бы минимальной.

12. Оценивание неизвестных  коэффициентов модели регрессии  методом наименьших квадратов.  Теорема Гаусса – Маркова

Определение коэффициентов  модели регрессии осуществляется на третьем этапе схемы построения эконометрической модели. В результате этой процедуры рассчитываются оценки (приближенные значения) неизвестных  коэффициентов спецификации модели.

Спецификация линейной эконометрической модели из изолированного уравнения  с гомоскедастичными возмущениями имеет вид:

 

Рассмотрим метод наименьших квадратов на примере оценивания эконометрических моделей в виде моделей парной регрессии (изолированных  уравнений с двумя переменными).

Если уравнение модели содержит две экономические переменные – эндогенную yiи предопределенную xi, то модель имеет вид:

 

Данная модель называется моделью линейной парной регрессии  и содержит три неизвестных параметра:

β0 , β1 , σ. (3)

Предположим, что имеется  выборка: (х1, y1), (х2, y2),… (хn , yn) (4)

Тогда в рамках исследуемой  модели данные величины связаны следующим  образом:

y1 = a0 + a1 * x1 + u1,

y2 = a0 + a1 * x2 + u2, (5)

yn= a0 + a1 * x n + u n.

Данная система называется системой уравнений наблюдения объекта  в рамках исследуемой линейной модели или схемой Гаусса-Маркова.

Компактная запись схемы  Гаусса-Маркова:

 

где

 

– вектор-столбец известных  значений эндогенной переменной yiмодели регрессии;

 

– вектор-столбец неизвестных  значений случайных возмущений εi;

 

– матрица известных значений предопределенной переменной xi модели;

β = (β0  β1 )Т (10) – вектор неизвестных коэффициентов модели регрессии.

Обозначим оценку вектора  неизвестных коэффициентов модели регрессии как

 

Данная оценка вычисляется  на основании выборочных данных (7) и (9) с помощью некоторой процедуры:

 

 

где P (X, ỹ) – символ процедуры.

Процедура (12) называется линейной относительно вектора (7) значений эндогенной переменной yi, если выполняется условие:

 

где

 

(14) – матрица коэффициентов,  зависящих только от выборочных  значений (9) предопределенной переменной  хi.

Теорема Гаусса-Маркова. Пусть  матрица Х коэффициентов уравнений  наблюдений (6) имеет полный ранг, а  случайные возмущения (8) удовлетворяют  четырем условиям:

E(ε1) = E(ε2) = … = E(εn) = 0, (15)

Var(ε1) = Var(ε2) = … = Var(εn) =  σ2(16)

Cov(εi, εj) = 0 при i≠j(17)

Cov(xi,εj) = 0 при всех значениях  i и j (18)

В этом случае справедливы  следующие утверждения:

а) наилучшая линейная процедура (13), приводящая к несмещенной и  эффективной оценке (11), имеет вид:

 

б) линейная несмещенная эффективная  оценка (19) обладает свойством наименьших квадратов:

 

в) ковариационная матрица  оценки (19) вычисляется по правилу:

 

г) несмещенная оценка параметра  σ2 модели (2) находится по формуле:

 

Следствие теоремы Гаусса-Маркова. Оценка

 

доставляемая процедурой (19) метода наименьших квадратов, может  быть вычислена в процессе решения  системы двух линейных алгебраических уравнений:

 

Данная система называется системой нормальных уравнений. Ее коэффициенты и свободные члены определяются по правилам:

[x] = x1 + x2 +…+ xn,

[y] = y1 + y2 +…+ yn, (24)

x2] = x12 + x22 +…+ xn2,

[xy] = x1*y1 + x2*y2 + … + xn*yn.

Явный вид решения системы (23):

 

 

13. Система нормальных  уравнений и явный вид ее  решения при оценивании методом  наименьших квадратов линейной  модели парной регрессии

Предположим, что в ходе регрессионного анализа была установлена  линейная взаимосвязь между исследуемыми переменными х и у, которая  описывается моделью регрессии  вида:

 

 

В результате оценивания данной эконометрической модели определяются оценки неизвестных коэффициентов. Классический подход к оцениванию параметров линейной регрессии основан на методе наименьших квадратов (МНК).

Метод наименьших квадратов  позволяет получить такие оценки параметров β0 и β1, при которых  сумма квадратов отклонений фактических  значений результативного признака y от расчетных (теоретических) ỹ минимальна:

 

В процессе минимизации функции (1) неизвестными являются только значения коэффициентов β0 и β1, потому что  значения результативной и факторной  переменных известны из наблюдений. Для  определения минимума функции двух переменных вычисляются частные  производные этой функции по каждому  из оцениваемых параметров и приравниваются к нулю. Результатом данной процедуры  будет стационарная система уравнений  для функции (2):

 

.

Если разделить обе  части каждого уравнения системы  на (-2), раскрыть скобки и привести подобные члены, то получим систему нормальных уравнений для функции регрессии  вида yi=β0+β1xi:

 

 

Если решить данную систему  нормальных уравнений, то мы получим  искомые оценки неизвестных коэффициентов  модели регрессии β0 и β1:

 

 

где

 

– среднее значение зависимой  переменной;

 

 

– среднее значение независимой  переменной;

Информация о работе Шпаргалка по "Эконометрике"