Искусственный интелект

Автор работы: Пользователь скрыл имя, 20 Мая 2013 в 20:04, курсовая работа

Краткое описание

В рамках бакалаврской работы был рассмотрен метод распознавания графических образов с шумами, основанный на применении нейронной сети Хемминга. Было рассмотрено влияние шумов в данных на результат работы сети.
Также в рамках работы был построен программный комплекс, реализующий данный метод и позволяющий анализировать сгенерированные последовательности данных с внесённым в них шумом. Шум является случайной величиной и имеет заданный закон распределения. Были проведены исследования и на основе их результатов были сформулированы выводы.

Содержимое работы - 1 файл

Доклад ИИ.docx

— 1.85 Мб (Скачать файл)

 

1.1.2 Структурные (лингвистические) методы распознавания

 

Для распознавания  может оказаться недостаточно простых  численных или символьных признаков объекта. Сведения о взаимосвязи между примитивными признаками можно использовать на более высоком уровне обработки. Таким образом, формируются более мощные признаки для распознавания. На основе подобных соображений были разработаны методы структурного распознавания образов.

Если описание образов производится с помощью  непроизводных элементов (подобразов) и их отношений, то для построения   автоматических   систем распознавания применяется лингвистический подход с использованием принципа общности свойств.

В структурном  распознавании символов сущность представляется в виде совокупности элементарных частей, их атрибутов и отношений наряду с глобальными признаками сущности.

Ключевыми моментами  данного подхода являются выбор  непроизводных элементов образа, объединение этих элементов и  связывающих их отношений в грамматики образов и, наконец, реализация в  соответствующем языке процессов  анализа и распознавания [3]. Такой подход особенно полезен при работе с образами, которые либо не могут быть описаны числовыми измерениями, либо столь сложны, что их локальные признаки идентифицировать не удается и приходится обращаться к глобальным свойствам объектов.

В случае бинарных отношений между примитивами  структурное описание сущности можно  представить в виде графа.

Однако отношение  между двумя примитивами само может рассматриваться как элементарный признак, входить в вектор признаков и учитываться в процедуре статистического принятия решения. Один из простейших подобных способов состоит в том, что для данного образа можно подсчитать количество заданных отношений между двумя признаками разных типов (например, заливка внизу горизонтального штриха). Затем целочисленное значение счетчика используется в качестве признака для распознавания образа.

Структурные методы полезны для распознавания  сложных образов, состоящих из многих образов более низкого уровня. Они также имеют преимущества при наличии нескольких объектов.

1)Деревья решений

В сложных  задачах распознавания образов, в которых требуется учитывать большое количество различных возможных признаков, полное сравнение неизвестного вектора признаков со многими векторами признаков эталонных образцов может занимать слишком много времени. Иногда это недопустимо, например, в случае медицинской диагностики, когда измерение признаков часто требует дорогих и, возможно, болезненных лабораторных анализов. Использование дерева решений позволяет чередовать этапы выделения признаков и классификации. Дерево решений — это компактная структура, использующая один признак (или несколько) в каждый момент времени для разбиения пространства поиска всех возможных образов. Простая процедура принятия решения представляет собой поток управления для реализации дерева решения согласно рисунку 2. Узлы этого дерева представляют различные составляющие вектора признаков. Каждый узел с ветвями имеет по одному дочернему узлу на каждое возможное значение своего признака. Процедура принятия решения предполагает выбор дочернего узла на основе значения заданного признака в неизвестном векторе признаков. Дочерний узел может указывать на проверку другого признака или может оказаться листовым узлом, содержащим результат классификации, соответствующий пройденному пути на дереве решений.

Рисунок 2. Дерево решений.

 

Бинарное  дерево решений — это структура  данных в виде бинарного дерева, с каждым узлом которого связана  функция выбора решения. Функция  выбора решения применяется к  неизвестному вектору признаков  и определяет, какой дочерний узел текущего узла следует обрабатывать далее — левый или правый.

В простейшем случае, когда значения признаков  являются числами, функция выбора решения в узле просто сравнивает значение конкретного признака неизвестного вектора признаков с порогом и выбирает левый дочерний узел, если это значение признака меньше порога, или правый дочерний узел в противном случае. При этом в каждом ветвящемся узле дерева надо хранить только тип учитываемого признака и пороговое значение. В каждом листовом узле хранится метка класса образов. Если процедура обхода дерева решения достигает листового узла, то неизвестный вектор признаков классифицируется как элемент соответствующего класса образов.

Для любого данного множества эталонных  образцов может существовать более одного классифицирующего дерева решений. Поэтому важно выбрать признаки, которые дают наилучшее, согласно некоторому критерию, дерево решений. Обычно предпочтительнее дерево, которое является наиболее простым или с наименьшим количеством уровней, т. е. с меньшим количеством выполняемых проверок[3].

1.1.2.2 Байесовский подход к принятию решений

 

Байесовский классификатор на основе наблюдаемых признаков относит объект к классу, к которому этот объект принадлежит с наибольшей вероятностью.

Для вычисления вероятностей по данному измеренному  значению х необходимо знать следующие распределения.

Распределение условной вероятности р(х|wi) для каждого класса wi.  

Априорная вероятность Р(wi) для каждого класса wi .           

Распределение безусловной вероятности р(х). 

Если все  классы wi характеризуются собственными несовместными вероятностями, охватывающими все возможные случаи, то можно применить правило Байеса для вычисления апостериорных вероятностей каждого класса по априорным вероятностям этих классов и распределениям условной вероятности для х.

 

Для проектирования байесовского классификатора необходимы сведения об априорной вероятности  каждого класса Р(wi) и распределение условной вероятности класса р(х|wi). Знание этих характеристик позволяет принимать решения в процессе распознавания. Часто бывает трудно оценить эти априорные вероятности[3].

 

1.1.3 Нейросетевые методы распознавания

 

 

Нейроны живых  организмов благодаря своей способности  к обучению исследовались применительно к задачам машинного обучения. Введено множество моделей, различающихся вычислительной сложностью и сходством с реальным нейроном. Одна из важнейших — формальный нейрон, представленный на рисунке 3[5].

Искусственные нейронные сети – математические модели, построенные по принципу организации и функционирования биологических нейронных сетей – сетей нервных клеток живого организма [5]. Это понятие возникло при изучении процессов, протекающих в мозге, и при попытке смоделировать эти процессы. Модели искусственных НС могут быть программного и аппаратного исполнения. В дальнейшем речь пойдет о первом типе.

Каждый искусственный нейрон (см. рисунок 3) характеризуется своим текущим состоянием по аналогии с нервными клетками головного мозга, которые могут быть возбуждены или заторможены. Нейрон состоит из группы синапсов – однонаправленных входных связей, соединяющих входы нейрона с ядром, ядра нейрона, которое осуществляет обработку входных сигналов и аксона – выходной связи данного нейрона, с которой сигнал поступает на синапсы следующих нейронов. На вход нейрона поступает некоторое множество сигналов, обозначенных x1, x2,…, xn, каждый из которых является выходом другого нейрона. Каждый сигнал умножается на соответствующий вес w1, w2,…, wn,, аналогичный синаптической силе, и поступает на суммирующий блок, обозначенный S. Суммирующий блок, соответствующий телу биологического элемента, складывает взвешенные входы алгебраически, определяя уровень активации нейрона [5]. Хотя нейросетевые модели весьма разнообразны, в основе почти всех их лежит эта конфигурация.

Рисунок 3. Искусственный нейрон

 

Выход нейрона  является функцией его состояния, т.е. Y = F(S). Функция F(S) называется активационной, сжимающей функцией или функцией возбуждения нейрона. Активационная функция F(S) определяет зависимость сигнала на выходе нейрона от взвешенной суммы сигналов на его входах и ограничивает амплитуду выходного сигнала нейрона.

Хотя формальный нейрон является лишь приближением к  биологической модели, он приобрел большую важность в качестве модели для вычислений. Сети из подобных формальных нейронов, называемые искусственными нейронными сетями, были успешно применены во многих задачах распознавания образов, особенно благодаря своей способности к обучению. Нейронные сети допускают реализацию в форме параллельных алгоритмов.

Нейронные сети являются перспективной альтернативой  традиционным методам решения задач  распознавания образов.

Выбор структуры  НС осуществляется в соответствии с  особенностями и сложностью задачи. Для решения отдельных типов  задач уже существуют конфигурации, описанные в [6]. Если же задача не может быть сведена ни к одному из известных типов, приходится решать  проблему синтеза новой конфигурации. Рекомендовано в задачах распознавания использовать такие типы ИНС, как многослойные персептроны. Рекомендации по структуре НС  общеизвестны [5].

Различные алгоритмы  обучения НС подробно описаны в литературе [1,2,5,6].

 

 

 

 

 

1.1.3.1 Преимущества нейронных сетей

 

1)Решение задач при неизвестных закономерностях

Используя способность обучения на множестве  примеров, нейронная сеть способна решать задачи, в которых неизвестны закономерности развития ситуации и зависимости между входными и выходными данными. Традиционные математические методы и экспертные системы в таких случаях неприменимы.

2)Устойчивость к шумам во входных данных

Возможность работы при наличии большого числа  неинформативных, шумовых входных  сигналов. Нет необходимости делать их предварительный отсев, нейронная  сеть сама определит их малопригодность  для решения задачи и отбросит их.

3)Адаптация к изменениям окружающей среды

Нейронные сети обладают способностью адаптироваться к изменениям окружающей среды. В  частности, нейронные сети, обученные  действовать в определенной среде, могут быть легко переучены для  работы в условиях незначительных колебаний  параметров среды. Более того, для  работы в нестационарной среде (где  статистика изменяется с течением времени) могут быть созданы нейронные  сети, переучивающиеся в реальном времени. Чем выше адаптивные способности  системы, тем более устойчивой будет  ее работа в нестационарной среде. При  этом следует заметить, что адаптивность не всегда ведет к устойчивости; иногда она приводит к совершенно противоположному результату. Например, адаптивная система с параметрами, быстро изменяющимися во времени, может  также быстро реагировать и на посторонние возбуждения, что вызовет  потерю производительности. Для того чтобы использовать все достоинства  адаптивности, основные параметры системы  должны быть достаточно стабильными, чтобы  можно было не учитывать внешние  помехи, и достаточно гибкими, чтобы  обеспечить реакцию на существенные изменения среды.

4)Потенциальное сверхвысокое быстродействие

Нейронные сети обладают потенциальным сверхвысоким быстродействием за счет использования  массового параллелизма обработки  информации;

5) Отказоустойчивость при аппаратной реализации нейронной сети

Нейронные сети потенциально отказоустойчивы. Это  значит, что при неблагоприятных  условиях их производительность падает незначительно. Например, если поврежден  какой-то нейрон или его связи, извлечение запомненной информации затрудняется. Однако, принимая в расчет распределенный характер хранения информации в нейронной  сети, можно утверждать, что только серьезные повреждения структуры  нейронной сети существенно повлияют на ее работоспособность. Поэтому снижение качества работы нейронной сети происходит медленно.

1.1.4 Вывод по результатам анализа рассмотренных методов

 

Использование статистических методов классификации в распознавании образов возможно, когда для распознавания данных достаточно простых численных и символических признаков для описания объекта, таких как  площадь символа, высота и ширина описывающего прямоугольника, чтобы установить меры сходства образов.

Критерий  разбиения на классы объекты может  либо воспроизводить некоторые эвристические соображения, либо основываться на минимизации (или максимизации) заданного показателя качества.

При эвристическом  подходе решающую роль играют интуиция и опыт. Он предусматривает задание набора правил, которые обеспечивают использование выбранной меры сходства для отнесения образов к одному из классов. Евклидово расстояние хорошо приспособлено для подобного подхода, что связано с естественностью его интерпретации как меры близости.

Методы структурного анализы применимы в тех задачах, в которых важна информация, описывающая структуру каждого объекта, а от процедуры распознавания требуется, чтобы она давала возможность не только отнести объект к определенному классу (классифицировать его), но и описать те стороны объекта, которые исключают его отнесение к другому классу. Типичным примером таких задач служит распознавание изображений. В случае, когда объекты сложны и число требуемых признаков часто велико, описание сложного объекта в виде иерархической  структуры  более простых подобразов становится обоснованным.

Одно из преимуществ  ИНС это то, что все элементы могут функционировать параллельно, тем самым существенно повышая  эффективность решения задачи, особенно в обработке изображений. ИНС  предоставляют мощные гибкие и универсальные  механизмы обучения, что является их главным преимуществом перед  другими методами, указанными выше. Обучение избавляет от необходимости  выбирать ключевые признаки, их значимость и отношения между признаками. Но, тем не менее, выбор исходного  представления входных данных существенно влияет на качество решения. НС обладают хорошей обобщающей способностью, то есть могут успешно распространять опыт, полученный на конечном обучающем наборе, на множество образов.

Информация о работе Искусственный интелект