Нейронные сети

Автор работы: Пользователь скрыл имя, 16 Марта 2011 в 16:26, реферат

Краткое описание

Цель моей работы – разбор базовых понятий, связанных с изучением нейронных сетей, а также выявление перспектив развития

Содержание работы

Введение

1. Базовые понятия искусственного нейрона

1.1 Структура искусственного нейрона

1.2 Активационные функции

1.3 Классификация

2. Преимущества нейронных сетей

3. Использование нейронных сетей

3.1 Требования к компетенции пользователя

3.2 Области применения нейронных сетей

Заключение

Список использованной литературы

Содержимое работы - 1 файл

Нейронные сети.doc

— 87.50 Кб (Скачать файл)
 
 
 
 
 
 
 
 
 

Реферат по информационным технологиям

на тему «Нейронные сети» 
 
 

 

     Оглавление 

Введение

1. Базовые понятия искусственного нейрона

1.1 Структура  искусственного нейрона

1.2 Активационные функции

1.3 Классификация

2. Преимущества нейронных сетей

3. Использование нейронных сетей

3.1 Требования  к компетенции пользователя

3.2 Области  применения нейронных сетей

Заключение

Список  использованной литературы 

 

     Введение 

     В последние десятилетия в мире бурно развивается новая прикладная область математики, специализирующаяся на искусственных нейронных сетях. Актуальность исследований в этом направлении подтверждается массой различных применений нейросетей. Это автоматизация процессов распознавания образов, адаптивное управление, аппроксимация функционалов, прогнозирование, создание экспертных систем, организация ассоциативной памяти и многие другие приложения. С помощью нейросетей можно, например, предсказывать показатели биржевого рынка, выполнять распознавание оптических или звуковых сигналов, создавать самообучающиеся системы, способные управлять автомашиной при парковке или синтезировать речь по тексту. В то время как на западе применение НС уже достаточно обширно, у нас это еще в некоторой степени экзотика – российские фирмы, использующие НС в практических целях, наперечет.

     Широкий круг задач, решаемый нейронными сетями, не позволяет в настоящее время  создавать универсальные, мощные сети, вынуждая разрабатывать специализированные сети, функционирующие по различным  алгоритмам. Тем не менее, тенденции  развития нейросетей растут с каждым годом.

     Цель  моей работы – разбор базовых понятий, связанных с изучением нейронных  сетей, а также выявление перспектив развития. 

 

     1. Базовые понятия искусственного  нейрона 

     1.1 Структура искусственного нейрона 

     Искусственный нейрон имитирует в первом приближении свойства биологического нейрона. На вход искусственного нейрона поступает некоторое множество сигналов, каждый из которых является выходом другого нейрона. Каждый вход умножается на соответствующий вес, аналогичный синоптической силе, и все произведения суммируются, определяя уровень активации нейрона. На рис.1 представлена модель, реализующая эту идею.  

     

     рис.1.Искусственный  нейрон 

     Хотя  сетевые парадигмы весьма разнообразны, в основе почти всех их лежит эта  конфигурация. Здесь множество входных сигналов, обозначенных x1, x2, x3...xn, поступает на искусственный нейрон. Эти входные сигналы, в совокупности обозначаемые вектором X, соответствуют сигналам, приходящим в синапсы биологического нейрона. Каждый сигнал умножается на соответствующий вес w1, w2, w3...wn, и поступает на суммирующий блок, обозначенный СУМ. Каждый вес соответствует "силе" одной биологической синоптической связи. (Множество весов в совокупности обозначается вектором W). Суммирующий блок, соответствующий телу биологического элемента, складывает взвешенные входы алгебраически, создавая выход, который мы будем называть NET. 

     1.2 Активационные функции 

     Сигнал  NET далее, как правило, преобразуется активационной функцией F и дает выходной нейронный сигнал OUT . Активационная функция может быть обычной линейной функцией: 

     OUT=K(NET) 

     где К –постоянная, пороговой функцией 

     OUT=1 ,если NET>T 

     OUT=0 в остальных случаях,

     где T – некоторая постоянная пороговая величина, или же функцией более точно моделирующей нелинейную передаточную характеристику биологического нейрона и представляющей нейронной сети большие возможности. На рис 2 блок, обозначенный F, принимает сигнал NET и выдает сигнал OUT.  

     

     рис.2. Нейрон с активационной функцией 

     Если  блок F сужает диапазон изменения величины NET так, что при любых значениях NET значения OUT принадлежат некоторому конечному интервалу, то F называется сжимающей функцией. В качестве сжимающей функции часто используется логистическая или сигмоидальная (S-образная) функции. Эта функция математически выражается как F(x)=1/(1+e-x) . Таким образом, 

     OUT=1/(1+e-NET) 

     По  аналогии с электронными системами  активационную функцию можно  считать нелинейной усилительной характеристикой  искусственного нейрона. Коэффициент  усиления вычисляется как отношение приращения величины OUT к вызвавшему его небольшому приращению величины NET.

     
      
      

     Он  выражается наклоном кривой при определенном уровне возбуждения и изменяется от малых значений при больших  отрицательных возбуждениях (кривая почти горизонтальна) до максимального значения при нулевом возбуждении и снова уменьшается, когда возбуждение становится большим положительным. Гроссберг (1973) обнаружил, что подобная нелинейная характеристика решает поставленную им дилемму шумового насыщения. Каким образом одна и та же сеть может обрабатывать как слабые, так и сильные сигналы? Слабые сигналы нуждаются в большом сетевом усилении, чтобы дать пригодный к использованию выходной сигнал. Однако усилительные каскады с большими коэффициентами усиления могут привести к насыщению выхода шумами усилителей (случайными флуктуациями), которые присутствуют в любой физически реализованной сети. Сильные входные сигналы в свою очередь также будут приводить к насыщению усилительных каскадов, исключая возможность полезного использования выхода. Центральная область логистической функции, имеющая большой коэффициент усиления, решает проблему обработки слабых сигналов, в то время как в области с падающим усилением на положительном и отрицательном концах подходят для больших возбуждений. Таким образом, нейрон функционирует с большим усилением в широком диапазоне уровня входного сигнала.

     Рассмотренная простая модель искусственного нейрона  игнорирует многие свойства своего биологического двойника. Например, она не принимает  во внимание задержки во времени, которые воздействуют на динамику системы. Входные сигналы сразу же порождают выходной сигнал. И что более важно, она не учитывает воздействий функции частотной модуляции или синхронизирующей функции биологического нейрона, которые ряд исследователей считают решающими. Несмотря на эти ограничения, сети, построенные из этих нейронов, обнаруживают свойства, сильно напоминающие биологическую систему. Только время и исследования смогут ответить на вопрос, являются ли подобные совпадения случайными или следствием того, что в модели верно схвачены важнейшие черты биологического нейрона. [1] 

     1.3 Классификация 

     
  • по типу входной информации: Аналоговые нейронные  сети (используют информацию в форме  действительных чисел); Двоичные нейронные  сети (оперируют с информацией, представленной в двоичном виде).
  • по характеру обучения: С учителем (выходное пространство решений нейронной сети известно); Без учителя (нейронная сеть формирует выходное пространство решений только на основе входных воздействий). Такие сети называют самоорганизующимися; С критиком (система назначения штрафов и поощрений).
  • по характеру настройки синапсов: Сети с фиксированными связями (весовые коэффициенты нейронной сети выбираются сразу, исходя из условий задачи, при этом: dW/dt = 0 , где W — весовые коэффициенты сети); сети с динамическими связями (для них в процессе обучения происходит настройка синаптических связей, то есть dW/dt ≠ 0, где W — весовые коэффициенты сети).
  • по характеру связей: Сети прямого распространения (Feedforward). Все связи направлены строго от входных нейронов к выходным; Рекуррентные сети. Сигнал с выходных нейронов или нейронов скрытого слоя частично передается обратно на входы нейронов входного слоя. Как любая система, имеющая обратную связь, рекуррентная сеть стремится к устойчивому состоянию. Как известно, наиболее устойчивое состояние обеспечивается минимизацией энергии системы. Рекуррентная сеть «фильтрует» входные данные, возвращаясь к устойчивому состоянию и, таким образом, позволяет решать задачи компрессии данных и построения ассоциативной памяти; Двунаправленные сети. В таких сетях между слоями существуют связи как в направлении от входного слоя к выходному, так и в обратном; Самоорганизующиеся карты. Такие сети представляют собой, как правило, двумерную структуру нейронов. Перед обучением структура случайна, нейроны распределены примерно равномерно. При обучении, для каждой обучающей записи рассчитывается точка, которая соответствует ей в структуре сети. Нейрон, находящийся ближе всего к искомой точке, называется нейроном победителем. Веса связей, соединяющих этот нейрон с другими, увеличивается, тем самым несколько упорядочивая структуру. Веса от нейронов, являющихся «соседями» нейрона победителя, к другим нейронам также увеличиваются, но слабее и т. д. Таким образом, чем чаще нейрон «побеждает» при сравнении с признаком, тем «плотнее» к нему находятся другие нейроны. В конце обучения сеть представляет из себя несколько зон сосредоточения нейронов, называемых кластерами. [2]
 

 

     2. Преимущества нейронных сетей 

     Круг  задач, для решения которых используются нейронные сети, во многом совпадает  с задачами, решаемыми традиционными  статистическими методами. Поэтому  укажем преимущества нейросетей перед  несколькими классическими методами статистики.

     По  сравнению с линейными методами статистики (линейная регрессия, авторегрессия, линейный дискриминант), нейронные сети позволяют эффективно строить нелинейные зависимости, более точно описывающие наборы данных. Из нелинейных методов классической статистики распространен, пожалуй, только байесовский классификатор, строящий квадратичную разделяющую поверхность − нейронная сеть же может построить поверхность более высокого порядка. Высокая нелинейность разделяющей поверхности наивного байесовского классификатора (он не использует ковариационные матрицы классов, как классический байес, а анализирует локальные плотности вероятности) требует значительного суммарного числа примеров для возможности оценивания вероятностей при каждом сочетании интервалов значений переменных − нейронная сеть же обучается на всей выборке данных, не фрагментируя её, что повышает адекватность настройки нейронной сети.

     При построении нелинейных моделей (например, полиномиальных) в статистических программах обычно требуется ручное введение-описание модели в символьном виде с точностью  до значений параметров: при N=10 независимых  переменных полином второй степени будет содержать N*(N-1)/2=45 коэффициентов при попарных произведениях переменных, 10 при самих переменных, 10 при квадратах значений переменных, т.е. 65 (66 с учетом неоднородного слагаемого) коэффициентов. При двадцати переменных в выражение войдет уже 231 слагаемое. Вводить такие длинные формулы долго, велик риск опечатки. Нейронная сеть же создается путем указания вида структуры, числа слоев и числа нейронов в каждом слое, что гораздо быстрее. А алгоритмы построения растущих нейросетей и вовсе не требуют первоначального задания размера нейронной сети. Альтернативой нейронной сети при построении сложных нелинейных моделей является только метод группового учета аргументов.

     Для сжатия и визуализации данных в статистике разработан метод линейных главных компонент. Нейросети-автоассоциаторы позволяют эффективнее сжимать данные за счет построения нелинейных отображений и визуализировать данные в пространстве меньшего числа нелинейных главных компонент.

Информация о работе Нейронные сети