Автор работы: Пользователь скрыл имя, 16 Мая 2012 в 05:34, шпаргалка
16, 21. Основные понятия и особ-ти эконометрического метода
33. Типы экономических данных, используемых в эконометрических исследованиях.
6. Классификация эконометрических моделей.
Для
проверки значимости
модели регрессии используется
F-критерий Фишера, вычисляемый как
отношение дисперсии исходного ряда и
несмещенной дисперсии остаточной компоненты.
Если расчетное значение с n1= k и n2
= (n - k - 1) степенями свободы, где k – количество
факторов, включенных в модель, больше
табличного при заданном уровне значимости,
то модель считается значимой.
Для модели
парной регрессии:
В качестве
меры точности применяют несмещенную
оценку дисперсии остаточной компоненты,
которая представляет собой отношение
суммы квадратов уровней остаточной компоненты
к величине (n- k -1), где k – количество факторов,
включенных в модель. Квадратный корень
из этой величины (
) называется стандартной
ошибкой:
Для модели парной регрессии:
5. Интервальная оценка параметров модели парной регрессии.
Линейная регрессия сводится к нахождению уравнения вида или .
Уравнение вида позволяет по заданным значениям фактора x иметь теоретические значения результативного признака, подставляя в него фактические значения фактора х.
Построение линейной регрессии сводится к оценке ее параметров а и в.
Оценки параметров линейной регрессии могут быть найдены разными методами.
1.
2.
Параметр b называется коэффициентом регрессии. Его величина показывает среднее изменение результата с изменением фактора на одну единицу.
Формально
а — значение у
при х = 0. Если признак-фактор
не имеет и не может иметь нулевого значения,
то вышеуказанная
трактовка свободного члена, а
не имеет смысла. Параметр, а
может
не иметь экономического содержания. Попытки
экономически
интерпретировать параметр, а
могут привести к абсурду, особенно при
а < 0.
Интерпретировать можно лишь знак при параметре а. Если а > 0, то относительное изменение результата происходит медленнее, чем изменение фактора.
Уравнение регрессии всегда дополняется показателем тесноты связи. При использовании линейной регрессии в качестве такого показателя выступает линейный коэффициент корреляции rxy. Существуют разные модификации формулы линейного коэффициента корреляции.
Линейный коэффициент корреляции находится и границах: -1≤.rxy ≤ 1. При этом чем ближе r к 0 тем слабее корреляция и наоборот чем ближе r к 1 или -1, тем сильнее корреляция, т.е. зависимость х и у близка к линейной. Если r в точности =1или -1 все точки лежат на одной прямой. Если коэф. регрессии b>0 то 0 ≤.rxy ≤ 1 и наоборот при b<0 -1≤.rxy ≤0. Коэф. корреляции отражает степени линейной зависимости м/у величинами при наличии ярко выраженной зависимости др. вида.
Для оценки
качества подбора линейной функции
рассчитывается квадрат линейного
коэффициента корреляции
, называемый коэффициентом
детерминации. Коэффициент детерминации
характеризует долю дисперсии результативного
признака y, объясняемую регрессией. Соответствующая
величина
характеризует долю дисперсии у,
вызванную влиянием остальных не учтенных
в модели факторов.
27. Проверка выполнения предпосылок МНК.
Основную информацию для анализа качества регрессионного уравнения можно получить из ряда остатков. Иногда только по одному графику остатков можно судить о качестве аппроксимации. Остатки модели должны обладать опр. свойствами: несмещенность, состоятельность, эффективность. На практике проверка этих свойств сводится к проверке 5 предпосылок МНК: 1.случайный характер остатков (критерий поворотных точек), 2.независимость уровней в ряде остатков (d-критерий Дарбина-Уотсона), 3.соответствие ряда остатков нормальному закону распределения(RS-критерий), 4.равенство 0 мат. ожидания остатков, 5.гомоскедастичность остатков.
1.Свойство случайности проверяется с помощью критерия поворотных точек или критерия пиков. Уровень в ряде остатков называется поворотной точкой, если он одновременно больше или одновременно меньше 2-ух соседних с ним уровней. Точкам поворота приписывают значения 1, остальным – 0. Свойство случайности выполняется, если количество поворотных точек справа означает, что от выражения внутри них нужно взять целую часть. n – количество уровней в ряде.
2.Для проверки свойства независимости (отсутствие автокорреляции) уровней в ряде остатков используют d-критерий Дарбина-Уотсона. В начале рассчитывают величину d по формуле: . Для этого критерия задаются 2 таблич. границы d1 и d2.
3.Для проверки соответствия ряда остатков нормальному закону распределения используют RS-критерий: RS =(Emax-Emin)/SE. Emax и Emin- соотв. наибольшее и наименьшее значения уровней в ряде остатков. SE- СКО. Если значение RS попадает в табличный интервал, то ряд остатков распределен по норм. закону.
4. Математическое ожидание остатков равно нулю: М (е) = 0. Используют t критерий Стьюдента. , где
Se – среднеквадратическое отклонение
если F расчетное <F критическим, то метемат ожидание остатков равно нулю.
5.Гомоскедастичность
– постоянство дисперсии
29. Интервалы прогноза по лин ур-нию парной регрессии. (Прогнозирование с применением ур-ния регрессии)..
Регрессионные
модели могут быть использованы для
прогнозирования возможных
Прогнозируемое значение переменной получается при подстановке в уравнение регрессии ожидаемой величины фактора .
Данный прогноз называется точечным. Значение независимой переменной не должно значительно отличаться от входящих в исследуемую выборку, по которой вычислено уравнение регрессии.
Вероятность реализации точечного прогноза теоретически равна нулю. Поэтому рассчитывается средняя ошибка прогноза или доверительный интервал прогноза с достаточно большой надежностью.
доверительные интервалы, зависят от следующих параметров:
- стандартной ошибки ,
- удаления от своего среднего значения ,
- количества наблюдений n
- и уровня значимости прогноза α.
В частности,
для прогноза будущие значения
с вероятностью (1 - α) попадут в интервал
Расположение
границ доверительного интервала показывает,
что прогноз значений зависимой
переменной по уравнению регрессии
хорош только в случае, если значение
фактора Х не
выходит за пределы
выборки. Иными словами, экстраполяция
по уравнению регрессии
может привести к значительным
погрешностям.
24. Понятие и причины гетероскедастичности. Последствия гетероскедастичности. Обнаружение гетероскедастичности.
Гомоскедастичность – постоянство дисперсии остатков по отношению к фактическим значениям фактора или показателя. Остатки называются гомоскедастичными, если они сосредоточены в виде горизонтальной полосы около оси xi, в противном случае остатки называют гетероскедастичными. Для исследования гомоскедастичности применяются различные тесты. Один из них называется тест Голдфельда-Квандта: 1) Упорядочение значений показателя у по степени возрастания фактора х. 2) Из упорядоченной совокупности убирают несколько «с» центральных значений: , р – число оцениваемых в модели параметров. В результате, получается 2 совокупности данных, в одной из них значения фактора будет наименьшими, а в другой – наибольшими. 3) Для каждой совокупности строят модель регрессии, по которой находят остатки: . Пусть S1 – большая сумма квадратов ошибок, а S2 – меньшая. 4) Определим отношение . 5) Полученное значение R сравнивают с табличным значением F-критерия Фишера. Если Fтабл<R, то предпосылка о гомоскедастичности нарушена. Чем больше R по отношению к Fтабл, тем более нарушена данная предпосылка. .
15. Нелинейная регрессия. Нелинейная модель и их линеаризация.
y=f(x) – общий вид. Если в качестве f использовать нелинейную математическую зависимость, то получиться нелинейная модель парной регрессии. Различают 2 класса нелинейных моделей:
1.модели нелинейные относительно фактора, но линейные относительно параметров:
*полиномиальные: у=а0+а1х+а2х2+а3х3+…. Для перехода к линейной функции применяют простую замену переменных (х1=х2, х2=х3), у=а0+а1х+а2х1+а3х2…
*гиперболические: у=а0+а1/х, (х1=1/х); у=а0+а1х1.
Модели являются нелинейными как относительно фактора, так и относительно параметра. Для их линеаризации использую процедуру логарифмирования. Таким образом, общая схема оценивания нелинейных моделей следующая:
1,линеаризация функции (простой заменой или логарифмированием);
2,оценка параметров линейной модели МНК;
3,обратный
переход к исходному виду
Различают 2 класса нелинейных регрессий:
-регрессии
нелинейные относительно
-регрессии, нелинейные по включенным параметрам.
Примером
нелинейной регрессии по включаемым
в нее объясняющим переменным
могут служить следующие
Полиномы разных степеней: y=a+bx+cx2+ε, y=a+bx+cx2+dx3+ ε;
Равносторонняя гипербола:
К нелинейным регрессиям по оцениваемым параметрам относятся функции:
Степенная y=axb ε
Показательная y=abx ε
Экспоненциальная у=уa+bx ε
Линеаризация
нелинейной модели представляет собой
преобразование используемой модели в
линейную путем замены переменных на нестепенные.Так,
в параболе второй степени у=а0+а1х+а2х2+
ε заменяя переменные х=х1, х2=х2,
получим двухфакторное уравнение линейной
регрессии: у=а0+а1х1+а2х2+
ε, для оценки параметров Ã используется МНК.
14. Мультиколлинеарность. ЕЕ последствия. Способы обнаружения. Способы избавления.
Под мультиколлинеарностью понимается высокая взаимная коррелированность объясняющих переменных, которая приводит к линейной зависимости нормальных уравнений. Мультиколлинеарность может возникать в силу разных причин. Например, несколько независимых переменных могут иметь общий временной тренд, относительно которого они совершают малые колебания.Существует несколько способов для определения наличия или отсутствия мультиколлинеарности.Один из подходов заключается в анализе матрицы коэффициентов парной корреляции. Считают явление мультиколлинеарности в исходных данных установленным, если коэффициент парной корреляции между двумя переменными больше 0,8. Другой подход состоит в исследовании матрицы Х'Х. Если определитель матрицы Х'Х близок к нулю, то это свидетельствует о наличии мультиколлинеарности.