Лекции по "Статистике"

Автор работы: Пользователь скрыл имя, 02 Ноября 2011 в 22:56, курс лекций

Краткое описание

Тема 1.: Введение в статистику.
понятия статистики, статистическая закономерность и совокупность.
признаки единиц статистической совокупности, их классификация.
предмет и метод статистики.

Содержимое работы - 1 файл

Лекция.doc

— 579.00 Кб (Скачать файл)

    S=P-Q

    P+Q=1/2n(n-1)

    1. Коэффициент корреляции ранга Фехнера.
    х у
    600 50 + + - C
    700 40 + 0 – C
    300 20 - - - C
    400 50 - + - H

    Коэффициент Фехнера – мера тесноты связи в виде отношения разности числа пар совпадающих и не совпадающих знаков к сумме этих чисел.

    1. расчет средних по х и у
    2. сравниваются индивидуальные значения xi yi  со  средними значениями с обязательным указанием знака «+» или «-». Если знаки совпадают по х и у, то мы относим их числу «С» если, нет, то к «Н».
    3. подсчитываем количество совпадающих и несовпадающих пар.

        Коэффициент Фехнера очень грубый коэффициент  оценки связи, не учитывающий величину отклонений от среднего значения, но он может служить ориентиром для оценки интенсивности связи.

        Часто а Редко в
      Есть  А Аа 5 Ав 10
      Нет В Ва 7 Вв 4

   Задача  измерения связи становится перед  статисткой по отношению к описательным признакам, важным частным случаем  такой задачи, измерения связи  между 2 альтернативными признаками один из которых причина другой последствие.

   Теснота связи между 2 альтернативными признаками может быть измерена с помощью 2х  коэффициентов:

    1. коэффициент ассоциации
    2. коэффициент контингенции

     Коэффициент контингенции имеет недостаток: при равных нулю одного из двух гетерогенных сочетаний Ав или Ва коэффициент обращается в единицу. Очень либерально оценивает тесноту связи – завышает ее.

     Коэффициент Пирсона

При наличии  не двух, а более возможных значений каждого из взаимосвязанных признаков рассчитываются следующие коэффициенты:

  1. Коэффициент Пирсона
  2. Коэффициент Чупрова для описательного признака

    Коэффициент Пирсона рассчитывается по квадратным матрицам

доход Ниже нормы Норма 2 нормы 3 нормы
1-3 ПМ 2 4 - -
3-7 ПМ 5 3 5 -
7-12 ПМ 10 7 6 1
Св. 12 ПМ        
 

к1 и к2 – число группы по признакам 1 и 2 соответственно. Минус коэффициента Пирсона в том, он не достигает 1 даже при увеличении количества групп.

Коэффициент Чупрова (1874 –1926)

 коэффициент Чупрова более строже оценивает тесноту связи.

§6. Множественная корреляция.

Изучение связи  между результативным и двумя  или более факторными признаками называется множественной регрессией. При исследовании зависимостей методами множественной регрессии ставят 2 задачи.

  1. определение аналитического выражения связи между результативным признаком у и фактическими признаками х1, х2, х3, …хк, т.е. найти функцию у=f(х1, х2, …хк)
  2. Оценка тесноты связи между результативным и каждым из факторных признаков.

Корреляционно-регрессионная модель (КРМ) – такое уравнение регрессии, которое включает основные факторы, влияющие на вариацию результативного признака.

     Построение  модели множественной  регрессии включает этапы:

  1. выбор формы  связи
  2. отбор факторных признаков
  3. обеспечение достаточного объема совокупности для получения верных оценок.
  1. все множество связей между  переменными, встречающиеся  на практике достаточно полно описывается функциями 5-ти видов:
  1. линейная:
  2. степенная:
  3. показательная:
  4. парабола:
  5. гипербола:

    хотя все 5 функций присутствуют в практике КРА, наиболее часто используется линейная зависимость, как наиболее простая и легко поддающаяся интерпретации уравнение  линейной зависимости: , к – множество факторов включающихся в уравнение, bj – коэффициент условно-чистой регрессии, который показывает среднее по совокупности отклонение результативного признака от его среднего значения при отклонении фактора  xj от своей средней величины на единицу при условии, что все  остальные факторы, входящие в уравнение сохраняют средние значения.

          Параметры уравнения множественной регрессии  и определение  с помощью МНК.

      Пример: 

       
       
       
       

      0 – т.к. >0,7 следовательно на них обращаем  особое внимание

ЭКО. Шкала тесноты  связи:

Если связь   0 – 0,3 – слабая связь

            0,3 – 0,5 – заметная

            0,3 – 0,5 – тесная

            0,7 – 0,9 – высокая

            более 0,9 – весьма высокая

затем сравниваем два признака (доход и пол) <0,7, то включаем в уравнение множественной регрессии.

Отбор факторов для включения в уравнение  множественной регрессии:

  1. между результативным и фактическим признаками должна быть причинно-следственная зависимость.
  2. результативный и фактический признаки должны быть тесно связаны между собой иначе возникает явление мультиколлинеарности (>06), т.е. включенные в уравнение факторные признаки влияют не только на результативный, но друг на друга, что влечет к неверной интерпретации числовых данных.

    Методы  отбора факторов для  включения в уравнение  множественной регрессии:

    1. экспертный метод – основан на интуитивно логическом анализе который выполняется высококвалифицированными экспертами.
    2. использование матриц парных коэффициентов корреляции осуществляется  параллельно с первым методом, матрица симметрична относительно единичной диагонали.
    3. пошаговый регрессионный анализ – последовательное включение факторных признаков в уравнение регрессии и проверки значимости проводится на основании значений двух показателей на каждом шаге. Показатель корреляции, регрессии.

    Показатель  корреляции: рассчитывают изменение  теоретической корреляции отношения или изменение средней остаточной дисперсии. Показатель регрессии – изменение коэффициента условно чистой регрессии.

    Пример расчета:

      Ниже  среднего Среднее Выше  среднего Итого
    Ниже  среднего 12 7 3 22
    Средний 15 10 9 34
    Выше  среднего 3 15 10 29
    Итого 31 32 22 85

Информация о работе Лекции по "Статистике"