logo
МИРЭА / Методичка_2010 / Методичка_2010

Нейросетевое распознавание

Нейросетевые технологии имеют следующие отличительные особенности по сравнению с традиционнми технологиями цифровой микроэлектроники:

· Большое число параллельно работающих простых элементов - нейронов (от нескольких десятков до 106-108), что обеспечивает колоссальный скачок в быстродействии.

· Место программирования занимает обучение - нейронная сеть учится решать задачи, изменяя параметры нейронов и связей между ними.

Нейрокомпьютеры создаются из определенного набора элементов. Их совокупность неоднородна - одни надстраиваются над другими.

В качестве базовых элементов рассматриваются: нейрон, синапс - связь между нейронами - и сумматор, складывающий сигналы, приходящие к данному нейрону. Иногда сумматор включают в состав нейрона. Это, конечно, не особенно важно. В наиболее распространенных моделях функционирования единственным нелинейным элементом является нейрон, сумматор осуществляет обычное линейное сложение, синапс - умножение передаваемого сигнала на число - вес синапса.

Процесс обучения определяется набором обучающих примеров и методикой обучения.

Обучающий пример задается парой наборов значений: вход - соответствующий выход и целевой функцией, штрафующей за отклонение выходов от предписанных значений (при данных входах).

Процесс обучения распадается на шаги или циклы алгоритма. Соединяя такие шаги в цепочки, получаем методику обучения.

Нейрон обычно принимают как преобразователь типа "один вход - один выход", действующий в дискретные моменты времени с некоторым шагом . На входной сигнал A такой нейрон отвечает выходным f(A,), где  - характеристика нейрона или набор характеристик.

Примеры:

1. пороговый нейрон A0,>0

2.

3.

Знаки абсолютной величины расставлены так, чтобы f(A)1 при A, а знаменатель был всегда положителен.

Сумматор - линейный элемент, связанный с каждым нейроном и суммирующий поступающие к нему по синаптическим связям сигналы от других нейронов, а также внешние входные сигналы. При технической реализации суммирование может быть объединено с хранением синаптических весов входящих связей и умножением на эти веса выходных сигналов других нейронов, однако при теоретическом рассмотрении функция сумматора выделена.

Синапс осуществляет связь между нейронами. Он передает выходной сигнал i-го нейрона на входной сумматор j-го и преобразует сигнал при передаче. Простейшее преобразование - умножение выходного сигнала на вес синапса -число Xij.

Синаптический вес Xij может принимать различные значения. Выделены два случая, самый простой: {0,1} (связи нет, связь есть: положительная или отрицательная). Другой вариант: для Xij устанавливается рабочий диапазон [-1,+1].

Типовая нейронная сеть (НС) состоит из нейронов, сумматоров и связей. Нейроны могут быть разными. Каждый нейрон имеет один вход и один выход.

Сигнал на вход нейрона подается либо от одного (другого) нейрона, либо от какого-нибудь сумматора, либо от внешнего входа. Выходной сигнал от любого нейрона может подаваться сразу на несколько разных входов как другим нейронам, так и сумматорам или выходным устройствам. Сумматор имеет произвольное число входов и один выход, на который он передает сумму входных сигналов. Выходной сигнал сумматора может передаваться сразу нескольким нейронам. Последовательность функционирования такой сети можно представлять так: функционирование нейронов - передача сигналов от нейронов - передача сигналов от сумматоров - функционирование нейронов.

В настоящее время распространенной точкой зрения на обучение нейрокомпьютеров является коннекционизм: обучение состоит в настройке значений Xij - весов синапсов. Согласно коннекционизму все навыки хранятся в синаптической карте - совокупности весов Xij. Свойства нейрона при этом считаются второстепенными характеристиками сети.

Настройка синаптической карты может производиться различными способами, ограничимся пока рассмотрением двух предельных случаев:

1. Внешнее формирование.

2. Обучение.

При внешнем формировании синаптическая карта формируется сразу и запоминается. Типичным примером НС с внешним формированием являются НС ассоциативной памяти, например - сеть Хопфилда.

В ходе обучения происходит минимизация целевой функции, оценивающей соответствие выходных сигналов входным. Специфические трудности здесь связаны с очень большой размерностью при ограничениях на память и быстродействие. Поэтому преимущество должно отдаваться алгоритмам оптимизации, допускающим параллельное выполнение на структурах, аналогичных нейронным сетям.