Автор работы: Пользователь скрыл имя, 16 Марта 2011 в 16:26, реферат
Цель моей работы – разбор базовых понятий, связанных с изучением нейронных сетей, а также выявление перспектив развития
Введение
1. Базовые понятия искусственного нейрона
1.1 Структура искусственного нейрона
1.2 Активационные функции
1.3 Классификация
2. Преимущества нейронных сетей
3. Использование нейронных сетей
3.1 Требования к компетенции пользователя
3.2 Области применения нейронных сетей
Заключение
Список использованной литературы
Реферат по информационным технологиям
на тему
«Нейронные сети»
Оглавление
Введение
1. Базовые понятия искусственного нейрона
1.1 Структура искусственного нейрона
1.2 Активационные функции
1.3 Классификация
2. Преимущества нейронных сетей
3. Использование нейронных сетей
3.1 Требования к компетенции пользователя
3.2 Области применения нейронных сетей
Заключение
Список
использованной литературы
Введение
В
последние десятилетия в мире
бурно развивается новая
Широкий
круг задач, решаемый нейронными сетями,
не позволяет в настоящее время
создавать универсальные, мощные сети,
вынуждая разрабатывать
Цель
моей работы – разбор базовых понятий,
связанных с изучением
1.
Базовые понятия
1.1
Структура искусственного
Искусственный
нейрон имитирует в первом приближении
свойства биологического нейрона. На вход
искусственного нейрона поступает некоторое
множество сигналов, каждый из которых
является выходом другого нейрона. Каждый
вход умножается на соответствующий вес,
аналогичный синоптической силе, и все
произведения суммируются, определяя
уровень активации нейрона. На рис.1 представлена
модель, реализующая эту идею.
рис.1.Искусственный
нейрон
Хотя
сетевые парадигмы весьма разнообразны,
в основе почти всех их лежит эта
конфигурация. Здесь множество входных
сигналов, обозначенных x1, x2, x3...xn, поступает
на искусственный нейрон. Эти входные
сигналы, в совокупности обозначаемые
вектором X, соответствуют сигналам, приходящим
в синапсы биологического нейрона. Каждый
сигнал умножается на соответствующий
вес w1, w2, w3...wn,
и поступает на суммирующий блок, обозначенный
СУМ. Каждый вес соответствует "силе"
одной биологической синоптической связи.
(Множество весов в совокупности обозначается
вектором W). Суммирующий блок, соответствующий
телу биологического элемента, складывает
взвешенные входы алгебраически, создавая
выход, который мы будем называть NET.
1.2
Активационные функции
Сигнал
NET далее, как правило, преобразуется активационной
функцией F и дает выходной нейронный сигнал
OUT . Активационная функция может быть
обычной линейной функцией:
OUT=K(NET)
где
К –постоянная, пороговой функцией
OUT=1
,если NET>T
OUT=0 в остальных случаях,
где
T – некоторая постоянная пороговая величина,
или же функцией более точно моделирующей
нелинейную передаточную характеристику
биологического нейрона и представляющей
нейронной сети большие возможности. На
рис 2 блок, обозначенный F, принимает сигнал
NET и выдает сигнал OUT.
рис.2.
Нейрон с активационной функцией
Если
блок F сужает диапазон изменения величины
NET так, что при любых значениях NET значения
OUT принадлежат некоторому конечному интервалу,
то F называется сжимающей функцией. В
качестве сжимающей функции часто используется
логистическая или сигмоидальная (S-образная)
функции. Эта функция математически выражается
как F(x)=1/(1+e-x) . Таким образом,
OUT=1/(1+e-NET)
По аналогии с электронными системами активационную функцию можно считать нелинейной усилительной характеристикой искусственного нейрона. Коэффициент усиления вычисляется как отношение приращения величины OUT к вызвавшему его небольшому приращению величины NET.
Он выражается наклоном кривой при определенном уровне возбуждения и изменяется от малых значений при больших отрицательных возбуждениях (кривая почти горизонтальна) до максимального значения при нулевом возбуждении и снова уменьшается, когда возбуждение становится большим положительным. Гроссберг (1973) обнаружил, что подобная нелинейная характеристика решает поставленную им дилемму шумового насыщения. Каким образом одна и та же сеть может обрабатывать как слабые, так и сильные сигналы? Слабые сигналы нуждаются в большом сетевом усилении, чтобы дать пригодный к использованию выходной сигнал. Однако усилительные каскады с большими коэффициентами усиления могут привести к насыщению выхода шумами усилителей (случайными флуктуациями), которые присутствуют в любой физически реализованной сети. Сильные входные сигналы в свою очередь также будут приводить к насыщению усилительных каскадов, исключая возможность полезного использования выхода. Центральная область логистической функции, имеющая большой коэффициент усиления, решает проблему обработки слабых сигналов, в то время как в области с падающим усилением на положительном и отрицательном концах подходят для больших возбуждений. Таким образом, нейрон функционирует с большим усилением в широком диапазоне уровня входного сигнала.
Рассмотренная
простая модель искусственного нейрона
игнорирует многие свойства своего биологического
двойника. Например, она не принимает
во внимание задержки во времени, которые
воздействуют на динамику системы. Входные
сигналы сразу же порождают выходной сигнал.
И что более важно, она не учитывает воздействий
функции частотной модуляции или синхронизирующей
функции биологического нейрона, которые
ряд исследователей считают решающими.
Несмотря на эти ограничения, сети, построенные
из этих нейронов, обнаруживают свойства,
сильно напоминающие биологическую систему.
Только время и исследования смогут ответить
на вопрос, являются ли подобные совпадения
случайными или следствием того, что в
модели верно схвачены важнейшие черты
биологического нейрона. [1]
1.3
Классификация
2.
Преимущества нейронных сетей
Круг
задач, для решения которых
По сравнению с линейными методами статистики (линейная регрессия, авторегрессия, линейный дискриминант), нейронные сети позволяют эффективно строить нелинейные зависимости, более точно описывающие наборы данных. Из нелинейных методов классической статистики распространен, пожалуй, только байесовский классификатор, строящий квадратичную разделяющую поверхность − нейронная сеть же может построить поверхность более высокого порядка. Высокая нелинейность разделяющей поверхности наивного байесовского классификатора (он не использует ковариационные матрицы классов, как классический байес, а анализирует локальные плотности вероятности) требует значительного суммарного числа примеров для возможности оценивания вероятностей при каждом сочетании интервалов значений переменных − нейронная сеть же обучается на всей выборке данных, не фрагментируя её, что повышает адекватность настройки нейронной сети.
При построении нелинейных моделей (например, полиномиальных) в статистических программах обычно требуется ручное введение-описание модели в символьном виде с точностью до значений параметров: при N=10 независимых переменных полином второй степени будет содержать N*(N-1)/2=45 коэффициентов при попарных произведениях переменных, 10 при самих переменных, 10 при квадратах значений переменных, т.е. 65 (66 с учетом неоднородного слагаемого) коэффициентов. При двадцати переменных в выражение войдет уже 231 слагаемое. Вводить такие длинные формулы долго, велик риск опечатки. Нейронная сеть же создается путем указания вида структуры, числа слоев и числа нейронов в каждом слое, что гораздо быстрее. А алгоритмы построения растущих нейросетей и вовсе не требуют первоначального задания размера нейронной сети. Альтернативой нейронной сети при построении сложных нелинейных моделей является только метод группового учета аргументов.
Для сжатия и визуализации данных в статистике разработан метод линейных главных компонент. Нейросети-автоассоциаторы позволяют эффективнее сжимать данные за счет построения нелинейных отображений и визуализировать данные в пространстве меньшего числа нелинейных главных компонент.