Автор работы: Давыдов Максим, 31 Мая 2010 в 20:57, шпаргалка
лекции
Функция распределения
и плотность связаны
Как правило, для
приложений достаточно двух вышеописанных
типов распределений — дискретного и
непрерывного, точнее, имеющего плотность.
Числовые характеристики распределения вероятностей полезны тем, что помогают составить наглядное представление об этом распределении. Наиболее часто употребляемыми характеристиками случайной величины (и соответствующего распределения вероятностей) служат моменты и квантили. Ниже мы их определим, но надо сделать оговорку: универсальные (пригодные для любых случайных величин) определения этих характеристик требуют весьма сложного математического аппарата (они основаны на теории меры, интеграла Лебега-Стилтьеса и т.д.), поэтому мы приводить их не будем. Вместо этого мы дадим более простые определения для дискретных и для непрерывных случайных величин.
Начнем с так
называемого первого момента случайной
величины x, называемого также математическим
ожиданием, или средним
значением x. Его обозначают через
M(x) или Е(x).
Определение.
Для непрерывной случайной
величины X с плотностью
р(х),
,
причем
интеграл должен сходиться
абсолютно
Свойства математического ожидания. Перечислим без доказательства основные свойства математического ожидания.
М (X+Y) =M(X)+M(Y)
(другими
словами, постоянный множитель
можно выносить за знак математического
ожидания).
Полезно иметь
в виду следующее геометрическое
толкование математического ожидания.
Пусть F(x) — функция распределения
случайной величины X. Тогда М (X)
равно разности площадей, заключенных
между осью ординат, прямой у =
1 и кривой у = F(x)
в интервале (0, +¥) и между осью абсцисс,
кривой у = F(x) и осью ординат в промежутке
(-¥,0).
Это правило позволяет во многих случаях
находить математическое ожидание почти
без вычислений, используя различные свойства
функции распределения.
. Геометрическая
интерпретация математического ожидания
Кроме среднего значения случайной величины, которое в определенном смысле характеризует центр распределения вероятностей, представляет интерес и разброс случайной величины относительно этого центра. Для характеристики (количественного описания) данного разброса в теории вероятностей используют второй центральный момент случайной величины. В русскоязычной литературе его называют дисперсией и обычно обозначают через D(X).
D(X) =M(X-M(X)) 2
, или
D(X)=M(X2)
– M(X)2.
Если необходимо, чтобы показатель
разброса случайной величины выражался
в тех же единицах, что и значение этой
случайной величины, то вместо D(X) используют
величину
, которая называется средним
квадратическим отклонением,
или стандартным отклонением случайной
величины X.
Свойства дисперсии. Из свойств дисперсии отметим следующие:
1. Дисперсия постоянной равна нулю.
2. Для любой неслучайной постоянной a
Моменты. Кроме первого и второго моментов, при описании случайных величин иногда используются и другие моменты: третий, четвертый и т.д. Мы дадим их определения отдельно для дискретных и для непрерывных случайных величин.
Определение. Для дискретной случайной величины X со значениями X1, Х2,…, имеющих вероятности p1,,p2,…, k-ым моментом μk называется величина M(X)k = ∑xkp, а k-ым центральным моментом называется величина ∑i(Х-M(X))kpi. Для непрерывной случайной величины с плотностью р(х), k-ым моментом называется величина ∞∫∞xkp(x)dx, a k-ым центральным моментом называется величина μk= М(X—M(X))k = –∞∫∞ M(X-M(X))kp(x)dx.
Чтобы приведенные формулы имели смысл, требуется, чтобы суммы и интегралы сходились абсолютно. Так же, как математическое ожидание и дисперсия, моменты существуют не для всех случайных величин.
Асимметрия и эксцесс. В отличие от обычных моментов, центральные моменты не меняются при прибавлении к случайной величине постоянного слагаемого, то есть они не зависят от выбора начала отсчета в шкале измерения случайной величины. Но от выбранной единицы измерения зависимость остается: если, скажем, случайную величину начать измерять не в метрах, а в сантиметрах, то значения центральных моментов также изменятся. Иногда это бывает неудобно. В таких случаях, чтобы устранить подобное влияние, моменты тем или иным способом нормируют, например, деля их на соответствующую степень среднего квадратического отклонения. В результате получается безразмерная величина, не зависящая от выбора начала отсчета и единиц измерения исходной случайной величины.
Чаще всего из нормированных моментов используются асимметрия и эксцесс — соответственно третий и четвертый нормированные центральные моменты. Для случайной величины X:
асимметрия = , эксцесс= .
Принято считать, что асимметрия в какой-то степени характеризует несимметричность распределения случайной величины, а эксцесс — степень выраженности «хвостов» распределения, т.е. частоту появления удаленных от среднего значений. Иногда значения асимметрии и эксцесса используют для проверки гипотезы о том, что наблюденные данные (выборка) принадлежат заданному семейству распределений, например нормальному. Так, для любого нормального распределения асимметрия равна нулю, а эксцесс — трем.
Квантили. Для случайных величин, принимающих вещественные значения, часто используются такие характеристики, как квантили.
Определение. Квантилью хр случайной величины, имеющей функцию распределения F(x), называется решение хр уравнения F(x) = р.
Величину Хр часто называется р-квантилью или квантилью уровня р распределения F(x). Среди квантилей чаще всего используются медиана и квартили распределения.
Медианой называется квантиль, соответствующая значению р = 0.5. Верхней квартилью называется квантиль, соответствующая значению р = 0.75. Нижней квартилью называется квантиль, соответствующая значению р = 0.25.
В описательной статистике нередко используют децили, т.е. квантили уровней 0.1,0.2,... ,0.9. Знание децилей позволяет неплохо представлять поведение графика у = F(x) в целом.
Отметим, что уравнение F(x) = р, определяющее р-квантили, для некоторых значений р, 0 < р < 1, может не иметь решений либо иметь неединственное решение. Для соответствующей случайной величины X это означает, что некоторые р-квантили не существуют, а некоторые определены неоднозначно.
Независимые
и зависимые случайные
величины
Введем очень важное понятие независимости случайных величин. Это понятие не менее важно, чем понятие независимости событий, и тесно с ним связано. Говоря описательно, случайные величины X и Y независимы, если независимы любые два события, которые выражаются по отдельности через X и Y.
Для случайных величин, принимающих вещественные значения, мы можем дать следующее определение.
Определение. Случайные величины X и Y независимы, если Р(АВ) = Р(А)Р(В),
для любых событий А = (а1 < X < а2) и В = (b1 < Y < b2), где числа a1, а2, b1 и Ь2 могут быть произвольными.
Нам незачем стремиться к большей математической аккуратности в определении независимости случайных величин, поскольку на практике
им пользоваться приходится редко. Дело в том, что независимость случайных величин обеспечивается скорее схемой постановки опытов, нежели проверкой математических соотношений. В этом вновь проглядывает аналогия с независимостью событий.
Для независимых
случайных величин можно
M(XY)=M(X)M(Y),
D (X+Y)=D(X)+D(Y).
если случайные величины X и Y независимы и указанные моменты существуют.
Ковариация. Для зависимых случайных величин часто желательно знать степень их зависимости, связи друг с другом. Таких характеристик можно придумать много, но наиболее употребительны из них ковариация и корреляция.
Определение. Ковариацией cov(X, Y) случайных величин X и Y называют
cov(X,Y) = М(X – М(X))(Y –M(Y)),
если указанное математическое ожидание существует. Легко видеть, что верна и другая формула:
cov(X,Y)=M(XY)-M(X)M(Y).
Поэтому для независимых случайных величин ковариация равна нулю. Обратное, естественно, неверно: равенство нулю ковариации не означает независимости случайных величин (придумайте пример!). Кроме того, ковариация вообще может не существовать (так же как и математические ожидания). Так что обращение в нуль ковариации признаков не является достаточным для их независимости, а только необходимым (и то лишь если ковариация существует).
Из других свойств ковариации отметим, что
соv(AX + а, ВY+b) = AB cov(X,Y), если А, В, а, b — постоянные (неслучайные) величины.
Корреляция. Использование ковариации в качестве меры связи случайных переменных неудобно, так как величина ковариации зависит от единиц измерения, в которых измерены случайные величины. При переходе к другим единицам измерения (например, от метров к сантиметрам) ковариация тоже изменяется, хотя степень связи случайных переменных, естественно, остается прежней. Поэтому в качестве меры связи признаков обычно используют статистическую характеристику, называемую коэффициентом корреляции.
Определение. Коэффициентом корреляции случайных величин X и Y называют
.
Определение. Выборкой называют последовательность независимых одинаково распределенных случайных величин.
Перечисленные выше характеристики случайной величины существенно опираются на знание закона ее распределения F(x). Для практических задач такое знание — редкость. Здесь закон распределения обычно неизвестен, в лучшем случае он известен с точностью до некоторых неизвестных параметров. Как же тогда получить сведения о распределении случайной величины и его характеристиках? Это становится возможным, когда имеются независимые многократные повторения опыта, в котором мы измеряем значения интересующей нас случайной величины.
Предположим, что наблюдения над случайной величиной X можно повторять независимо и в неизменных условиях, получая ее независимые реализации x1, x2,…,xn Тогда x1, x2,…,xn будут независимыми одинаково распределенными случайными величинами, то есть выборкой. Зная величины x1,x2, ... ,хn, мы можем построить приблизительные значения для функции распределения и других характеристик случайной величины X. Это и позволяет нам изучать свойства случайных величин, не зная их законов распределения.
Замечание. Мы уже встречались с идеей независимых повторений случайного опыта в неизменных условиях, когда обсуждали измерения вероятностей событий. Возвращение к этой идее не удивительно, поскольку для описания распределения случайной величины X мы как раз и должны уметь указывать вероятности всех событий, выражаемых через X.
Расскажем о том, как по имеющейся выборке можно получить приближенные значения для характеристик случайных величин. Начнем с функции распределения случайной величины.