Математические модели в системном анализе

Автор работы: Пользователь скрыл имя, 27 Ноября 2011 в 17:28, курсовая работа

Краткое описание

Одной из проблем, с которой сталкиваются почти всегда при проведении системного анализа, является проблема эксперимента в системе или над системой. Очень редко это разрешено моральными законами или законами безопасности, но сплошь и рядом связано с материальными затратами и (или) значительными потерями информации.

Содержание работы

Введение 3
Глава1.Основные понятия математической статистики 5
1.1Случайные события и величины, их основные характеристики 5
1.2Взаимосвязи случайных событий 8
1.3Схемы случайных событий и законы распределений случайных величин 10
1.4Методы непараметрической статистики 12
1.5Корреляция случайных величин 13
1.6 Линейная регрессия 15
1.7 Элементы теории статистических решений 16
Глава 2. Математическое описание объектов 17
2.1. Аналитический подход к построению моделей 17
2.2. Экспериментальное определение статических и динамических характеристик объектов. 18
Заключение 24
Список использованной литературы

Содержимое работы - 1 файл

Курсовая по ТСиСА.doc

— 183.00 Кб (Скачать файл)

     В самом деле, пусть нам дано т. н. выборочное распределение  случайной величины X  (например —  ежедневной выручки в $) в виде  100  наблюдений за этой величиной. Пусть мы рассчитали среднее Mx и оно составило $125 при колебаниях от $50 до $200.  Попутно мы нашли SX, равное  $5. Теперь уместен вопрос:  а насколько правдоподобным  будет  утверждение о том, что в последующие дни выручка составит точно $125?  Или  будет лежать  в   интервале $120..$130?  Или окажется более некоторой суммы  — например,  $90?

     Вопросы такого типа чрезвычайно остры - если это  всего  лишь  элемент некоторой экономической системы (один из многих), то выводы на  финише системного анализа, их достоверность,  конечно же,  зависят от  ответов на такие вопросы.

     Что же говорит теория, отвечая на  эти  вопросы?  С одной стороны очень много, но в некоторых случаях —  почти ничего.  Так, если у вас есть уверенность в том,  что  "теоретическое" распределение данной случайной величины относится к  некоторому  классическому (т. е. полностью описанному в теории)  типу,  то  можно  получить достаточно много полезного.

     · С помощью теории можно найти  доверительные интервалы  для  данной случайной величины. Если, например, уже доказано (точнее — принята гипотеза) о  нормальном распределении, то зная среднеквадратичное отклонение можно с уверенностью в 5% считать,  что    окажется вне диапазона  (Mx - 3 x)......(Mx  3 x)   или в нашем  примере выручка с вероятностью 0.05 будет  <$90 или  >$140. Надо смириться со своеобразностью теоретического вывода — утверждается не тот факт, что выручка составит от 90 до  140  (с  вероятностью 95%), а только то, что сказано выше.

     · Если у нас нет теоретических оснований принять какое либо  классическое распределение в качестве подходящего для нашей СВ, то и  здесь теория окажет нам услугу —  позволит проверить  гипотезу  о  таком распределении   на основании имеющихся у нас данных.  Правда - исчерпывающего ответа "Да" или "Нет" ждать нечего. Можно  лишь получить вероятность ошибиться,  отбросив верную гипотезу (ошибка 1 рода) или вероятность ошибиться приняв ложную (ошибка 2 рода).  

     · Даже такие "обтекаемые" теоретические  выводы в  сильной  степени зависят от  объема выборки  (количества наблюдений), а также от "чистоты эксперимента" —   условий его проведения.

     1.4Методы непараметрической статистики

 

 Использование классических распределений случайных  величин  обычно называют "параметрической статистикой" - мы делаем предположение о  том, что интересующая нас СВ (дискретная или непрерывная) имеет  вероятности, вычисляемые по некоторым формулам или алгоритмам. Однако не всегда у нас имеются основания для этого.         Причин тому чаще всего две:   

     ·  некоторые случайные величины просто не имеют количественного описания, обоснованных единиц измерения (уровень знаний, качество  продукции и т. п.);

     ·  наблюдения над величинами возможны, но их количество слишком  мало  для проверки предположения (гипотезы) о типе распределения.

     В настоящее время в прикладной статистике все  большей  популярностью пользуются методы т. н. непараметрической статистики —  когда вопрос о принадлежности распределения вероятностей данной  величины  к  тому  или иному классу вообще не подымается, но конечно же — задача  оценки  самой СВ, получения информации о ней, остается.

     Одним из основных понятий непараметрической  статистики является понятие ШКАЛЫ  или процедуры шкалирования значений СВ. По своему смыслу процедура шкалирования суть решение вопроса о "единицах измерения" СВ. Принято использовать четыре вида шкал.

     Nom. Первой из них рассмотрим НОМИНАЛЬНУЮ  шкалу —  применяемую к тем величинам, которые не имеют природной единицы измерения. Если  некоторая  величина может принимать на своей номинальной шкале значения X, Y или Z, то справедливыми считаются только выражения типа: (X#Y), (X#Z), (X=Z), а выражения  типа (X>Y),  (X  (X+Z)  не имеют никакого смысла. Примеры СВ, к которым применимы только номинальные шкалы —  пол, цвет, марка автомобиля и т. п.

     Ord. Второй способ шкалирования - использование  ПОРЯД-КОВЫХ шкал. Они незаменимы  для СВ, не имеющих природных  единиц измерения,  но  позволяющих применять понятия предпочтения одного значения другому. Типичный  пример: оценки знаний (даже при нечисловом описании), служебные уровни и т. п.; для таких величин разрешены не только отношения равенства (= или #), но и знаки предпочтения (> или <). Иногда говорят о рангах значений  таких величин.  

     Int & Rel. Еще два способа шкалирования используются  для  СВ,  имеющих  натуральные размерности —  это ИНТЕРВАЛЬНАЯ и ОТНОСИТЕЛЬНАЯ шкала. Для таких величин, кроме отношений равенства и предпочтения, допустимы операции сравнения - т. е. все четыре действия арифметики. Главная особенность таких шкал заключается в том, что разность двух значений на шкале (36 и 12) имеет один смысл для любого места шкалы  (28 и 4). Различие между интервальной шкалой и относительной —  только в понятии нуля —  на интервальной шкале 0 Кг веса означает отсутствие  веса,  а на относительной шкале температур 0 градусов не означает отсутствие теплоты —  поскольку возможны температуры ниже 0 градусов (Цельсия).

     Можно теперь заметить еще одно преимущество,  которое  мы  получаем при использовании методов непараметрической статистики — если мы сталкиваемся со случайной величиной непрерывной природы, то использование  интервальной или относительной шкалы позволит нам иметь дело не со  случайными величинами, а со случайными событиями —  типа "вероятность того, что вес продукции находится в интервале 17 Кг". Поэтому можно предложить единый подход к описанию всех показателей функционирования сложной системы —  описание на уровне простых  случайных событий (с вероятностью P(X) может произойти событие X). При том под событием придется понимать то, что  случайная  величина  займет одно из допустимых для нее положений на шкале Nom, Ord, Int или Rel.

     Конечно  — такой, “микроскопический” подход резко увеличивает объем информации, необходимой для системного анализа. Частично этот недостаток смягчается при  использовании  компьютерных методов системного анализа, но более важно другое —  преимущество  на  начальных этапах анализа, когда  решаются  вопросы  дезинтеграции  большой системы (выделение отдельных ее элементов) и последующей  ее  интеграции для разработки стратегии управления системой.

     Не  будет большим преувеличением считать, что методы непараметрической статистики - наиболее мощное средство для решения  задач  системного анализа во многих областях деятельности человека и, в частности, в  экономике.

     1.5Корреляция случайных величин

     Прямое  токование термина  корреляция  —  стохастическая,  вероятная, возможная связь между двумя  (парная)  или  несколькими  (множественная) случайными величинами.

     Выше  говорилось о том, что если для  двух СВ (X и Y) имеет место равенство  P(XY) =P(X) ,   то величины X и Y считаются независимыми. Ну, а если это не так!?

     Ведь  всегда важен вопрос —  а как сильно  зависит одна СВ от другой? И дело в не присущем людям стремлении  анализировать что-либо обязательно в числовом измерении.  Уже понятно, что системный анализ означает непрерывные выЧИСЛения, что использование  компьютера вынуждает нас работать с числами, а не понятиями.

     Для числовой оценки возможной связи между двумя случайными  величинами: Y(со средним  My и среднеквадратичным  отклонением  Sy) и —  X (со средним Mx   и среднеквадратичным  отклонением  Sx)   принято использовать так называемый  коэффициент корреляции Rxy

     Этот  коэффициент может принимать значения  от -1 до +1  —  в зависимости от тесноты связи между данными случайными величинами.

     Если  коэффициент корреляции  равен нулю, то X и Y называют некоррелированными.  Считать их независимыми обычно нет оснований —  оказывается,  что  существуют  такие,  как  правило —  нелинейные  связи   величин, при  которых  Rxy = 0, хотя величины зависят друг от друга. Обратное всегда верно —  если  величины независимы, то Rxy = 0.  Но, если  модуль Rxy = 1, то есть все основания предполагать наличие линейной связи между  Y и X. Именно поэтому часто говорят о линейной корреляции при  использовании такого способа оценки связи между СВ.

     Отметим еще один способ оценки корреляционной связи двух случайных величин  — если просуммировать произведения отклонений каждой из них от своего среднего значения, то полученную величину —

     Сxy= S (X - Mx)·(Y - My)

     или ковариацию величин X и Y отличает от коэффициента корреляции два показателя:  во-первых, усреднение (деление на число наблюдений или пар X, Y) и, во-вторых, нормирование путем деления на соответствующие среднеквадратичные отклонения.

     Такая оценка связей между случайными величинами в сложной системе является одним  из начальных этапов системного анализа, поэтому  уже  здесь  во всей остроте встает вопрос о доверии к выводу о наличии  или  отсутствии связей между двумя СВ.

     В современных методах системного анализа обычно поступают так. По найденному значению R вычисляют вспомогательную  величину:

     W = 0.5 Ln[(1 + R)/(1-R)]                                                    

     и вопрос о доверии к коэффициенту корреляции сводят к доверительным  интервалам для случайной величины W, которые определяются стандартными таблицами или формулами.

     В отдельных случаях системного анализа  приходится решать  вопрос  о  связях нескольких (более 2) случайных величин или вопрос  о  множественной корреляции.

     Пусть X, Y и Z - случайные величины, по наблюдениям  над которыми  мы установили их средние Mx, My,Mz и среднеквадратичные отклонения Sx, Sy, Sz.

     Тогда можно найти парные коэффициенты корреляции Rxy, Rxz, Ryz по приведенной выше формуле. Но этого явно недостаточно - ведь мы  на  каждом из трех этапов попросту забывали о наличии третьей случайной  величины! Поэтому в  случаях  множественного  корреляционного  анализа иногда требуется отыскивать т. н. частные коэффициенты корреляции —  например,  оценка виляния Z  на связь между X и  Y производится с помощью коэффициента Rxy

     И, наконец, можно поставить вопрос — а какова связь между данной СВ и совокупностью остальных? Ответ  на такие вопросы дают коэффициенты множественной корреляции   Rx.yz, Ry.zx, Rz.xy,  формулы для вычисления которых построены по тем же принципам  —  учету связи одной из величин со всеми  остальными в совокупности.     

       На сложности вычислений всех  описанных  показателей  корреляционных связей можно не обращать особого внимания -  программы  для  их  расчета достаточно просты и имеются в готовом виде  во  многих  ППП  современных компьютеров.    

       Достаточно понять главное —  если при формальном  описании  элемента сложной системы, совокупности таких элементов в виде подсистемы или, наконец, системы в целом, мы рассматриваем связи между отдельными ее  частями, —  то степень тесноты этой связи в виде влияния одной СВ на другую  можно и нужно оценивать на уровне корреляции.

     В заключение заметим еще одно —  во всех случаях системного  анализа на корреляционном уровне обе случайные величины при парной корреляции или все при множественной считаются "равноправными" —  т. е. речь идет  о  взаимном влиянии СВ друг на друга.

     Так бывает далеко не всегда - очень часто вопрос о связях Y и X ставится в иной плоскости —  одна из  величин  является  зависимой  (функцией) от другой (аргумента).

     1.6  Линейная регрессия

     В тех случаях, когда из природы  процессов в системе или  из  данных наблюдений над ней следует вывод о нормальном законе распределения  двух СВ - Y и X, из которых одна является независимой, т. е. Y  является  функцией X, то возникает соблазн определить  такую  зависимость  “формульно”, аналитически.

     В случае успеха нам будет намного  проще  вести  системный анализ —  особенно для элементов системы типа "вход-выход”. Конечно, наиболее заманчивой является перспектива линейной  зависимости типа Y = a + b·X .

     Подобная  задача носит  название  задачи регрессионного анализа и предполагает следующий способ решения.

     Выдвигается следующая гипотеза:

     H0:  случайная величина Y при  фиксированном значении  величины X  распределена нормально  с математическим ожиданием 

     My = a + b·X   и дисперсией Dy, не зависящей от X.         

Информация о работе Математические модели в системном анализе