Автор работы: Пользователь скрыл имя, 09 Апреля 2012 в 18:29, реферат
Событие – всякий факт, который в результате опыта может произойти или не произойти.
Если в результате опыта непременно должно появиться хотя бы одно из нескольких событий, то эти события образуют полную группу событий.
Математические основы теории надёжности информационных систем
3.1. Основные понятия, аксиомы и теоремы из теории вероятностей
Событие – всякий факт, который в результате опыта может произойти или не произойти.
Если в результате опыта непременно должно появиться хотя бы одно из нескольких событий, то эти события образуют полную группу событий.
Суммой нескольких
событий А1, А2, А3,…, Аn назыв
B=А1+А2+А3+…+Аn. (3.1)
Произведением нескольких
событий А1, А2, А3,…, Аn назыв
С=А1×А2×А3×…×Аn , (3.2)
Каждому случайному событию А поставлено в соответствие неотрицательное число Р(А), называемое его вероятностью.
Вероятность события
представляет собой численную меру
степени объективной
В качестве единицы
измерения принимают
Вероятность события А, вычисленная при условии, что имело место другое событие В, называется условной вероятностью события А и обозначается как
Русл(А)=Р(А/В)=РВ(А). (3.3)
Теорема сложения вероятностей: для произвольных событий А и В вероятность суммы этих событий выражается формулой
Р(А+В)=Р(А)+Р(В)–Р(А×В). (3.4)
Теорема умножения вероятностей: вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную при условии, что первое имело место:
Р(А×В)=Р(А)Р(В/А)=Р(В)Р(А/В). (3.5)
Из этой теоремы вытекают два следствия:
если событие А не зависит от события В, то событие В не зависит от события А;
вероятность произведения двух независимых событий равна произведению вероятностей этих событий.
Формула полной вероятности: если событие В может осуществляться с одним из n несовместимых событий А1, А2, А3,…Аn, образующих полную группу и обычно называемых гипотезами, то полная вероятность события В определяется формулой
. (3.6)
Формула Бернулли: если произошло последовательно n независимых опытов, в каждом из которых событие А может произойти с одной и той же вероятностью q, то вероятность того, что событие А произойдет ровно m раз, определяется по формуле Бернулли или по биноминальному распределению:
, (3.7)
где
. (3.8)
Случайной величиной Х называется величина, которая в результате опыта может принять то или иное значение, причем неизвестно заранее, какое именно.
Дискретная случайная величина – величина, принимающая только отделенные друг от друга значения, которые можно заранее перечислить.
Непрерывная случайная величина – величина, возможные значения которой непрерывно заполняют некоторый промежуток.
Если дискретная
случайная величина Х принимает значения х1, х2, х3,…, хm с
заданными вероятностями Р1, Р2, Р3,…, Рm
Непрерывная случайная величина имеет бесчисленное множество возможных значений, сплошь заполняющих некоторый промежуток. А так как сумма вероятностей отдельных значений случайной величины равна единице, то вероятность каждого значения должна стремиться к нулю. Поэтому вводится другая количественная характеристика – функция распределения, показывающая невероятность события Х=хi как закон распределения, а вероятность события Х < х, где х – некоторая текущая переменная.
. (3.9)
Функция F(x) существует как для прерывных, так и непрерывных случайных величин. Она является неубывающей, т.е.
, (3.10)
, (3.11)
, (3.12)
. (3.13)
Плотность распределения:
. (3.14)
Элемент вероятности dP – вероятность того, что случайная величина Х попадает на интервал dx около значения х:
dP = f(x)dx. (3.15)
Наибольшее применение в практических задачах надежности находят показательные (экспоненциальные) и нормальные теоретические функции распределения для непрерывных случайных величин и закон Пуассона для дискретных случайных величин.
Показательное (экспоненциальное) распределение имеет следующий вид:
(3.16)
.
Нормальное распределение:
;
(3.17)
.
Закон Пуассона позволяет определить вероятность того, что случайная величина, значениями которой могут быть только целые неотрицательные числа, примет определенное значение
. (3.18)
Математическое
ожидание (среднее значение) случайной
величины Х, принимающей дискретные значения х1, х2, х3,…, xn,
с вероятностями Р1, Р2, Р3,…, Рn
. (3.19)
Для непрерывной случайной величины математическое ожидание определяется как
. (3.20)
Так, имеем
для экспоненциального распределения:
; (3.21)
для нормального:
, (3.22)
для закона Пуассона:
. (3.23)
Основные свойства математического ожидания:
–математическое ожидание постоянной С равно этой же постоянной:
М[С] = С; (3.24)
–постоянный множитель выносится за знак математического ожидания:
М[СХ] = СМ[Х]; (3.25)
–математическое ожидание суммы любых случайных величин (как угодно связанных) равно сумме их математических ожиданий:
М[Х+Y] = M[X]+M[Y]; (3.26)
–математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий:
М[ХY] = M[X]M[Y]. (3.27)
Дисперсия определяется как математическое ожидание квадрата уклонения случайной величины от ее математического ожидания:
; (3.28)
дисперсия экспоненциального распределения:
; (3.29)
нормального распределения:
; (3.30)
закона Пуассона:
Dx = a. (3.31)
Основные свойства дисперсии:
1) дисперсия постоянной С равна нулю:
; (3.32)
2) постоянный множитель выходит за знак дисперсии в квадрате:
; (3.33)
3) дисперсия суммы попарно независимых случайных величин равна сумме дисперсии слагаемых:
. (3.34)
Среднеквадратичное отклонение случайной величины определяется как
. (3.35)
Если произведена серия из n независимых опытов, в каждом из которых могло появиться или не появиться некоторое событие A, то отношение числа опытов m, в которых появилось событие A, к общему числу произведенных опытов называется частотой события А или статистической вероятностью события А:
. (3.36)
Оценку математического
ожидания, удовлетворяющую условию
состоятельности и
. (3.37)
Дисперсия, удовлетворяющая этим же условиям, оценивается по формуле
. (3.38)
Центральная предельная
теорема позволяет определить закон
распределения случайной
Практически центральной
предельной теоремой можно пользоваться
и тогда, когда имеет место
сумма сравнительно небольшого числа
случайных величин. Опыт показывает,
что когда число слагаемых
порядка десяти (а часто и меньше),
закон распределения суммы
тема 5
5.1. Аналитические
методы расчета надежности
Рассмотрим классификацию
и дадим краткую характеристику
аналитических методов
Решение задачи оценки надежности системы при использовании любого аналитического метода включает три этапа:
1) составление формальной модели исследуемой системы;
2) анализ модели
и составление расчетных
3) выполнение вычислений,
приводящих к искомому
Аналитические методы
оценки надежности систем отличаются
главным образом видом
1) наличие или
отсутствие методической
2) применяемый математический аппарат.
По первому признаку аналитические методы подразделяются на два класса:
1) точные методы;
2) приближенные методы.
В свою очередь точные методы разделены на две группы:
- методы, использующие
математический аппарат
- методы, использующий математический аппарат теории случайных процессов.
В первую группу входят два метода на основе аппарата случайных событий (классический и логико-вероятностный методы) и два метода, использующие аппарат случайных величин (W-метод и l-метод).
В основе классического метода заложен вероятностный аппарат теории случайных событий. Искомая характеристика надежности (вероятность отказа P(t) или безотказной работыQ(t) за время (0, t). Затем, применяя основные теоремы теории вероятностей, мы делаем переход к вероятностной мере.
Основу логико-вероятностного метода составляет объединение аппарата теории случайных величин с элементами алгебры логики. Искомая характеристика записывается в виде логического выражения, над которым по правилам алгебры логики проводятся логические преобразования. Затем, как и в классическом методе, осуществляется переход к вероятностному выражению.
В отличие от классического и логико-вероятностного методов, W-метод основан на аппарате теории случайных величин и теории функций случайных аргументов.
Искомая характеристика
надежности представляется в виде распределения
некоторой случайной величины, имеющей
размерность времени, как функция
некоторого набора других случайных
величин. После этого осуществляется
переход к выражению для
1) существуют последействия отказов;
2) элементы в
системе могут находиться
3) в определении состояний системы играют роль временные соотношения;
4) в системе имеются комбинации видов технического обслуживания;
5) число состояний в системе велико.
Вторую группу образуют два метода, использующие аппарат теории марковских процессов (МП-метод и топологический метод), и два метода, основанные на аппарате полумарковских процессов.
МП-метод и топологический метод просты в обращении и позволяют получать надежностные характеристики и показатели в явном виде как на начальном (длящемся от момента включения системы до первого отказа), так и на стационарном (потоки отказов и восстановлений системы считаются установившимися) участках функционирования системы. Различие этих методов заключается в том, что топологический метод в ряде случаев позволяет вычислять показатели надежности системы, не прибегая к составлению дифференциальных уравнений, а непосредственно по графу состояний.
Основными недостатками методов, основанных на этом математическом аппарате, является то, что:
1) существуют жесткие
ограничения на законы
2) решение на
начальном участке
ПМП-метод основан на математическом аппарате теории полумарковских процессов с конечным множеством состояний и является обобщением МП-метода.
Анализ надежностных свойств системы этим методом проводится в предположении произвольности одного из законов распределения: времени безотказной работы или времени восстановления. В этом состоит основное отличие ПМП-метода от МП-метода.
Информация о работе Математические основы теории надёжности информационных систем