Автор работы: Дарья *, 05 Сентября 2010 в 19:37, шпаргалка
Пространственные данные – характеризуют ситуацию по конкретной переменной (или набору переменных), относящейся к пространственно разделенным сходным объектам в один и тот же момент времени. Таковы, например, данные по курсам покупки или продажи наличной валюты в конкретный день по разным обменным пунктам г. Москвы. Другим примером является, скажем, набор сведений (объем производства, количество работников, доход и др.) по разным фирмам в один и тот же момент времени или период.
20. Модель множественной регрессии. Построение системы показателей (факторов).
Связь между у и независимыми факторами х1, х2, … хn можно охарактеризовать уравнением (моделью) множественной регрессии.
Y=f (х1, х2, … хn). Эта модель показывает, какие значения в ср принимает результативный показатель У, если переменные Хi примут какие-то свой конкретные значения. В зависимости от функции f будем иметь линейную или не линейную множественную регрессию. Тинтером было доказано, что усложнение формы связи м\у хi и у не принципиально влияет на конечные результаты.
Линейная модель множественной регрессии.
У=а0+а1х1+ а2х2+…+ аmхm+e Параметры определяются с помощью методов наименьших квадратов. Для этого проведем все рассуждения в матричной форме. Введем следующие матричные обозначения:
;
где У вектор n значений результативного показателя.
Х – матрица n значений m независимых переменных; а матрица параметров
У=Х∙а+ε.
Заметим, что а – выборочные оценки совокупности.
Итак, метод наименьших квадратов требует мин-ии суммы квадратов отклонений исходных модели значений ,
Далее:
Из матричной алгебры известно, что , тогда:
S = (YT –
aTXT)(Y - Xa) = YT – YTXa(=1) – aTXTY + a
1 –
это есть матрица размерностью
1Х1, т.е. число-скаляр, а скаляр
при трансформировании не
Согласно условию экстремума S по а =0
;
2ХТY+2aXTX=0
XTY=aXTX
Для погашения а умножим обе части этого уравнения на (ХТХ)-1, тогда
а= (XTХ)-1∙XTY
Решение
задачи нахождения матицы, а возможно
лишь в том случае, если строки и столбцы
матрицы Х линейно независимы.
21. Мультиколлинеарность. Последствия мультиколлинеарности. Способы её обнаружения. Способы избавления от мультиколлинеарности.
Мультиколлинеарность означает наличие в модели линейно зависимых между собой факторов (высокая взаимная коррелированность объясняющих переменных).Она может проявляться в функциональной (явной) и стохастической (скрытой) формах. Вывод о наличии или отсутствии мультиколлинеарности делают, рассматривая коэффициенты корреляции между всеми парами факторных переменных.
Если одна из объясняющих переменных является лин. функц. зависимостью другой, то функциональная мультикол-ть. При этом определитель матрицы =0 и система норм. ур-ий не имеет решения. Det (X'X)=0
Если хотя бы м. двумя объясняющими переменными сущ-ет тесная корреляц. связь, то мы имеем дело с стохастической формой. В этом случае определитель матрицы отличен от 0, но очень мал. → решение матрич. ур-ия будет иметь большие искажения.
Точных количественных критериев по выявлению мультикол-ти не сущ-ет, определены лишь эвристические подходы к её обнаружению:
1. Анализир-ся
корреляционная матрица между
объясняющими переменными Х1, Х2,…Хр
и выявляются те пары
2. Вычисляются
множественные коэф-ты
3. Вычисляется определитель матрицы det (X´X); если он равен 0 или мал (одного порядка с ошибками), то это говорит о наличии мультикол-ти.
Мультикол-т подлежит устранению или уменьшению. Способы устранения:
1. Из 2-х объясняющих переменных, имеющих высокий взаимный коэф-т корреляции, одну из них исключают из дальнейшего исследования. Какую именно – определяют на основе экон. соображений. Если таких предпочтений нет, то в модели оставляют ту переменную, которая тесно связана с зависимой переменной. rxjxk > ryxk, то оставляем xj, т.к. rxjxk ≥0,8.
2. Осущ-ся
переход от исходных
* При
отборе факторов надо
22. Отбор факторов при построении множественной регрессии. Мультикол-сть.
При построении системы факторов необходимо соблюдать следующие условия: 1) должны быть количественно измеримы; 2) теоретически обоснованы; 3) линейно независимы друг от друга; 4) одна модель не должна включать в себя совокупный фактор и факторы его образующие; 5) тесно связаны между собой. Для реализации 5-го требования строят матрицу коэф-в парной корреляции. На основании этой матрицы выбирают те факторы, связь которых с величиной наиболее тесная. Затем проверяют наличие мультиколлинеарности (МК) факторов. Два фактора МК, если . МК факторы нельзя включать в одну модель, нужно выбрать один из них или заменить оба совокупной функцией.
. Эта матрица симметрична относительно
главной диагонали, т.е. состоит из двух
одинаковых треугольников. Она позволяет
выбрать факторы наиболее тесно связанные
с интересующей нас величиной, а также
установить связь между самими факторами.
Как правило, в регрессионной модели нельзя
включать факторы, тесно связанные между
собой.
28. Оценка существенности (значимости) параметров линейной регрессии
Проведем оценку качества построенной моедли:
А) оценим значимость уравнения регрессии, иначе ответим на вопрос, соответствует построенная математическая модель фактическим данным и достаточна ли выкюч в уравнение х-фактроров для объяснения изменения результативного показателя.
Для проверки значимости модели уравнения регрессии используется F-критерий Фишера по γ вычисляется F расчетное.
,
Fрасч сравнивается с F крит с 2-я степенями свободы: υ1 = n-1, υ2 = n-k-1, где k - кол-во оцениваемых параметров. /k=1/
Если Fрасч > с F крит, то уравнение считается значимым, в противном случае ур-ие не значимо.
Надежность получаемых оценок а и b зависит от ошибки ε.
Нужно найти среднюю квадратическую ошибку
,где
Для значимого ур-я регрессии строят интервальные оценки параметров a и b.
Интервальная оценка параметра a, есть:
Замечание:
если интервальные границы в разные
по знаку, то такие уравнения в
прогнозировании использовать нельзя,
т.е. непонятно какое направление.
23. Модель множественной регрессии. Построение системы показателей (факторов).
Связь между у и независимыми факторами х1, х2, … хn можно охарактеризовать уравнением (моделью) множественной регрессии.
Y=f (х1, х2, … хn). Эта модель показывает, какие значения в ср принимает результативный показатель У, если переменные Хi примут какие-то свой конкретные значения. В зависимости от функции f будем иметь линейную или не линейную множественную регрессию. Тинтером было доказано, что усложнение формы связи м\у хi и у не принципиально влияет на конечные результаты.
Линейная модель множественной регрессии.
У=а0+а1х1+ а2х2+…+ аmхm+e Параметры определяются с помощью методов наименьших квадратов. Для этого проведем все рассуждения в матричной форме. Введем следующие матричные обозначения:
;
где У вектор n значений результативного показателя.
Х – матрица n значений m независимых переменных; а матрица параметров
У=Х∙а+ε.
Заметим, что а – выборочные оценки совокупности.
Итак, метод наименьших квадратов требует мин-ии суммы квадратов отклонений исходных модели значений ,
Далее:
Из матричной алгебры известно, что , тогда:
S = (YT –
aTXT)(Y - Xa) = YT – YTXa(=1) – aTXTY + a
1 –
это есть матрица размерностью
1Х1, т.е. число-скаляр, а скаляр
при трансформировании не
Согласно условию экстремума S по а =0
;
2ХТY+2aXTX=0
XTY=aXTX
Для погашения а умножим обе части этого уравнения на (ХТХ)-1, тогда
а= (XTХ)-1∙XTY
Решение
задачи нахождения матицы, а возможно
лишь в том случае, если строки и
столбцы матрицы Х линейно независимы.
Параметры определяются с помощью методов
наименьших квадратов. Но эти параметры
можно найти и в итоге программы Регрессия.
+ БИЛЕТ № 12.
24. Оценка параметров множественной регрессии МНК. Свойства оценок МНК.
Линейная модель множественной регрессии. У=а0+а1х1+ а2х2+…+ аmхm+e
Параметры определяются с помощью методов наименьших квадратов.
Для
этого проведем все
;
где У вектор n значений результативного показателя.
Х – матрица n значений m независимых переменных; а матрица параметров
У=Х∙а+ε.
Заметим, что а – выборочные оценки совокупности.
Итак, метод наименьших квадратов требует мин-ии суммы квадратов отклонений исходных модели значений
,
Далее:
Из матричной алгебры известно, что , тогда:
S = (YT – aTXT)(Y - Xa) = YT – YTXa(=1) – aTXTY + a
1 – это есть матрица размерностью 1Х1, т.е. число-скаляр, а скаляр при трансформировании не меняется, поэтому S = Þ S = YTY – 2aTXTY + aTXTXa → min
Согласно условию экстремума S по а =0
;