Автор работы: Пользователь скрыл имя, 19 Января 2011 в 18:12, шпаргалка
Ответы на 40 вопросов.
4. Параболическая Y(X)=A0+A1*X12+A2*X22+…+AK*XK2 (2.10)
5. Гиперболическая
Y(X)=A0+A1*1/X1+A2*1/X2+…+AK*
Основное значение имеют линейные уравнения в силу их простоты и логичности экономической интерпретации.
12.Проблемы построения модели регрессии. Пути их преодоления. Важнейшим этапом построения выбранного уравнения множественной регрессии является отбор и последующее включение факторных признаков. Проблема отбора факторных признаков может быть решена на основе интуитивно-логических или многомерных методов анализа. Наиболее приемлемым способом является ШАГОВАЯ РЕГРЕССИЯ. Сущность этого метода заключается в последовательном включении факторов в уравнение регрессии и последующей их проверке на значимость. Факторы поочерёдно вводятся в уравнение прямым методом. При поверке на значимость определяется на сколько уменьшается сумма квадратов остатков и увеличивается величина множественного коэффициента корреляции.
При построении модели регрессии можно столкнуться с проблемой мультиколлинеарности, под которой понимается тесная зависимость между факторными признаками, включёнными в модель. Данная проблема существенно влияет на результаты исследования. Устранить её можно, исключив из корреляционной модели один или несколько линейно связанных факторов или преобразовав исходные признаки в новые укрупнённые факторы.
13. Оценка существенности корреляционной зависимости. Измерение тесноты и направленности связи является важной задачей корреляционно-регрессионного анализа. Теснота связи при линейной зависимости измеряется с помощью линейного коэффициента корреляции: R= (2.12) Значимость линейного коэффициента корреляции проверяется на основе t-критерия Стьюдента, то есть определяется расчётное значение данного показателя: (2.13) Если tр больше tтаб, то это свидетельствует о наличии зависимости между изучаемыми признаками. Теснота связи при криволинейной зависимости измеряется с помощью эмпирического корреляционного отношения: η= (2.14) где -факторная дисперсия, которая показывает вариацию результативного признака под влиянием факторного признака.
(2.15) -общая дисперсия,
которая показывает вариацию
результативного признака под
влиянием всех факторов. (2.16) Множественный
коэффициент корреляции
где -остаточная дисперсия, которая показывает вариацию результативного признака под влиянием неучтённых факторов. Проверка значимости множественного коэффициента корреляции определяется на основе F-критерия Стьюдента. (2.19) 14. ПРОВЕРКА АДЕКВАТНОСТИ РЕГРЕССИОННЫХ МОДЕЛЕЙ. Проверка адекватности моделей, построенных на основе уравнения регрессии начинается с оценки значимости каждого коэффициента регрессии, т. е. Определяется расчётное значение t-критерия Стьюдента.
(2.20)-дисперсия коэффициента регрессии
Если t расчётное больше t табличного при (α; V=n-k-1), где α - уровень значимости, V=n-k-1 число степеней свободы. (2.21)
где - дисперсия результативного признака,
k — количество объясняющих переменных.
Проверка адекватности этой модели осуществляется с помощью расчёта средней ошибки аппроксимации (2.22)
Величина данной ошибки не должна превышать 15 %.
15. Понятие случайной переменной. Ее математическое ожидание (М.О.).
Случайная переменная - это любая переменная значение которой, не может быть точно предсказано.
М.О-ие случайной
величины- это взвешенное среднее
всех ее возможных значений. При
этом в качестве весового коэффициента
берется вероятность
Пусть случайная величина может принимать некоторые значения (E1,E2, …,En) и вероятность их получения равна (р1,р2,…,рn).Тогда М.О. случайной переменной определяется след.образом:
(3.1)
16. Правила расчета М.О.
Существуют следующие правила расчета М.О.:
Правило1: М.О. суммы нескольких переменных равно сумме их
М.О-ий: (3.2)
Правило2: если случайную величину умножить на константу, то ее М.О-ие увеличится во столько же раз.
Е(а´ε)= а´Е(ε) (3.3)
Правило3: М.О. константы - есть она сама: F(a)=a (3.4)
17. 4-ре условия Гаус Маркова.
Для того чтобы анализ, основанный на методе наименьших квадратов давал лучшие результаты, необходимо выполнение условия Гас- Маркова для случайных составляющих:
1. М.О. случайного члена в любом наблюдении должно быть равно нулю: Е(εi)= 0
В некоторых ситуациях случайный член будет положительным иногда отрицательным, но он не должен иметь систематического смещения не в 1-ом из направлений.
Если уравнение
регрессии включает постоянный член,
то это условие выполняется
определить любую тенденцию, в которой не учитывают объясняющие переменные, включенные в уравнение регрессии.
2. Дисперсия случ. члена должна быть постоянна для всех наблюдений.
pop.var (Ei)- теоретическая вариация. (3.6)
pop.var(Ei) = ^2Ei -одинакова для всех i. (3.6) Если рассматриваемое условие не выполняется, то коэффициенты регрессии будут не эффективны.
3. Это условие предполагает отсутствие системной связи между значениями случайного члена в любых 2-ух наблюдениях.
(3.7) Т.е. если случ. член велик и положителен в олном наблюдении, это не обуславливает тенденцию к тому, что он будет большим и положительным в другом наблюдении. Случ. члены должны быть независемы друг от друга.
4. С.ч-н должен быть независимо распределен от объясняющей переменной. Значение независимой переменной в каждом наблюдении должно считаться полностью определенным внешними причинами, которые не учитываются в уравнении регрессии. Если условие выполняется, то теоретическая вариация между независимой переменной и случ. членом равна 0. Pop var (xi, εi)=0 (3.8)
18.Условия гомо
и гетероскедастич-сти.
Первые два условия Гаус Маркова указывают, что случайные члены появ-ся на основе вероят-тных распреде-й, имеющих нолевое мат-кое ожидание и одну и ту же дисперсию. Их факти-кие знач-я иногда будут полож-ми, иногда отриц-ми, но но они не будут иметь сильных отклонений в любом наблю-ии, т.е вероят-ть того, что величина e примет какое-то значение, будет одинаковой для всех наблюде-й. Здесь имеет место условие гомоскедастич-ти:Ф(3.6)
одинакова для всех i. Вместе с тем возможно, что теори-ское распред-е случайного члена яв-ся разным для различ-х наблюд-й выборки. Это не означает, что слячайный член будет иметь особенно большие отклонения в конце выборки, но вероят-сть их получения будет высокая, т.е имеет место условие гетероскедаст-ти: Ф(3.6) не одинакова для всех.
Рис. 1- Различия м/д гомо и гетероскедас-тью.
На рис.2 показано,
как будет выглядеть
При отсутствии гетероскед-сти коэф-ты регрессии имеют наиболее низкую дисперсию среди несмещенных оценок. Если имеет место гетероскед- сть, то оценки метода наименьших квадратов будут не эфф-ны. Гетероскед-сть становится проблемой, когда значение переменных, входящих в уровни регрессии значительно различается в разных наблюдениях. Если истинная зависимость описывается уравнением прямой, то при нем экон-ие переменные меняют свой масштаб одновременно ,то изменение значений, не включаемых переменных и ошибки измерения, влияя совместно на случайный член делает его сравнительно малым при больших X и Y. Гетероске- сть может также появляться при анализе временных рядов.
19.Обнаружение гетероскедастичности.Тест ранговой корреляции Спирмена, тест Глейзера.
Проявление проблем
гетероскед-сти можно
При его выполнении предполагается, что дисперсия случайного члена будет либо увеличиваться, либо уменьшаться по мере увеличения X и поэтому в регрессии, оцениваемой с помощью метода наименьших квадратов абсолютные величины остатков и значение X будут коррелированны. Данные по X и остатки упорядочиваются, а затем определяется коэффициент ранговой корреляции: Ф(3.9),
Где Дi- разность между рангом X и рангом е, е- остатки(отклонение) фактических значений Y от теоретических значений.
Чтобы использовать данный метод следует оценить регрессионную зависимость y(x) с помощью обычного метода наименьших квадратов, а затем вычислить абсолютные величины остатков еi по модулю, оценив их регрессию.
20.Обнаружение гетероскед-сти. Тест Голдфельда Квандта. Появление проблем гетероскед-сти можно предвидеть основываясь на знаниях характера данных. В этих случаях можно предпринимать действия на этапе спецификации модели регрессии. Это позволит уменьшить или устранить необходимость формальной проверки. В настоящее время используются следующие виды тестов гетероскед-сти, в которых делается предположение о наличие зависимости между дисперсией случайного члена и величиной объясняющей переменной:
1)Тест Голдфельда Квандта.
При проведении проверки по этому критерию предполагается, что дисперсия случайного члена пропорциональна значению X в этом наблюдении. Предполагается, что случайный член распределен нормально и не подвержен автокорреляции. Все наблюдения в выборке упорядочиваются по величине X, после чего оцениваются отдельные регрессии для первых nсо штрихом наблюдений и для последних nсо штрихом наблюдений. Если предположение о наличие гетероскед-сти верна, то дисперсия в последних n наблюдениях будет больше, чем в первых nсо штрихом наблюдениях. Суммы квадратов остатков обозначают для первых nсо штрихом наблюдений обозначают RSS1, для последних nсо штрихом наблюдений RSS2, затем определяют их отношения. Это отношение имеет F-распределения при заданных (n со штрихом-k-1)/(n со штрихом-k-1) степенях свободы. Если n=30, то n со штрихом= min11.
21. Автокорреляция и ее факторы.
Автокорреляция в регрессионном анализе обычно встречается при исследовании временных рядов. Постоянная направленность воздействия не включенных в уравнении переменных является наиболее частой причиной появления положительной автокорреляции.
Пример1: При оценке спроса на мороженное по ежемесячным данным предполагается, что состояние погоды является единственным важным фактором. При этом проводятся ряд наблюдений, когда теплая погода способствует увеличению спроса, а холодная погода наоборот. Если доход возрастает со временем, то схема наблюдений будет выглядеть след. Образом: Рисунок3 — Положения автокорреляции.
Изменения эконом-кой конъюнктуры приводит к положительным результатам и в анализе. Автокорреляция является существенной проблемой, когда интервал между наблюдениями имеет небольшую величину. Чем больше этот интервал, тем меньше вероятность того, что при переходе от одного наблюдения к другому характер влияния неучтенных факторов будет сохраняться.
Автокорреляция может быть отрицательной. Это означает, что корреляция между последовательными значениями случайного члена отрицательна, т.е за положит-ным значением в одном наблюдении следует отриц-ное значение в другом. Тогда диаграмма распределения выглядит след.образом: Рисунок4- Отрицательная автокорреляция.
В экономике отрицательная автокорреляция встречается редко, но иногда она появляется при преобразовании первоначальных моделей в форму, подходящую для регрессионного анализа.
22. ПОНЯТИЕ ВРЕМЕННЫХ РЯДОВ. ОСНОВНЫЕ ЗАДАЧИ ИССЛЕДОВАНИЯ.
Обычно измерения осуществляются через равные промежутки времени. В каждый момент времени значение исследуемой величины формируется под воздействием большого числа факторов, как случайного, так и неслучайного характера.
Изменение условий развития объекта исследования ведет к ослаблению действия одних факторов, усилению других факторов, и, в конечном итоге, к варьированию изучаемого явления.
Характерной чертой временных рядов является то, что время выступает одним из определяющих факторов. Одним из требований к временным рядам является сопоставимость результатов наблюдений.
Для обеспечения сравнимости в случае, когда временными интервалами являются месяцы или дни, необходимо устранить мешающие эффекты.