1.3 Математическое описание нейронной сети
Рассмотрим совокупность N взаимосвязанных нейронов (рис. 7). Выход i-го нейрона обозначим ni(t), потенциал – hi(t), i=1,2, ..., N. Введем векторы-строки n(t)= (n1(t), n2(t), ... nN(t)), h(t)=(h1(t), h2(t), ... hN(t)). Нейронная сеть, состоящая из Nуказанных нейронов, подвергается воздействию внешних сигналов. Это воздействие представлено вектором-строкой z(t)=(z1(t), z2(t), ... zM(t)) размерности M. Кроме внешнего воздействия z(t), i-й нейрон может получать возбуждение со стороны других нейронов. Допускается обратная связь с собственного выхода, так что совокупность всех возможных входов i-го нейрона образует вектор y(t)=(z(t), n(t)) размерности M+N=Q. По аналогии с выражением (3.1) потенциал hi i-го нейрона может быть представлен в форме:
где wij, j=1,2, ..., N, и vij, j=1,2, ..., M, синаптические коэффициенты передачи соответствующих сигналов на i-ый нейрон, (-b) – смещение i-го нейрона. Введение матриц W={wij, i,j=1,2, ..., N}, V={vij, i=1,2, ..., N, j=1,2, ..., M} и вектора b=(b1,b2, ..., bV) позволяет записать выражение (4.1) в краткой векторно-матричной форме:
(4.3)
в векторной форме
(4.5)
Рис. 1.8. Схема преобразования данных i-м нейроном в нейронной сети
Если активационные характеристики всех нейронов сети одинаковы, нейронная сеть называется однородной.
Выходы нейронной сети q1(t), q2(t), ... qL(t) образуют вектор-строку q(t) размерности L и представляет собой некоторое подмножество выходов нейронов n1(t), n2(t), ... nN(t). Математически это представляется формулой:
где R - матрица размерности N*L.В качестве примера можно рассмотреть следующее матричное преобразование:
которое реализует формирование выходов q1=n2, q2=n4, q3=n5, нейронной сети, содержащей 5 нейронов.
Совокупность выражений (4.2), (4.5) и (4.6) представляет собой математическую модель нейронной сети, которая эволюционирует во времени t=0,1,2, ..., отталкиваясь от начального состояния
где n0 - вектор-строка размерности N.
Конфигурация связей в нейронной сети (ненулевые значения матриц W и V) определяет ее архитектуру. В общем случае полный набор значений n1(t), n2(t), nN(t) необходим для формирования состояния сети n1(t+1), n2(t+1), ... nN(t+1) в следующий такт дискретного времени. Такая сеть содержит внутренние обратные связи и называется рекуррентной. Она может эволюционировать бесконечно долго. В связи с описанными в п.3 особенностями активационных характеристик нейронов их выходы ограничены, и нейронная сеть является устойчивой (дает на произвольное входное воздействие ограниченную реакцию в любой момент времени t).
Частным случаем архитектуры нейронной сети является «сеть прямого распространения». В подобной сети сигнал на каждом такте дискретного времени продвигается от места приложения входного сигнала к выходу. Если воздействие на нейронную сеть является импульсным, т.е. присутствует на входе только на одном временном такте, то динамические процессы в сети развиваются в течение конечного интервала времени, пока входной сигнал недостигнет выходных нейронов. Наиболее часто используется частный вариант сети прямого распространения сигнала, который носит специальное название многослойной, или слоистой, нейронной сети. Пример многослойной нейронной сети приведен на рис.1.9. Эта сеть имеет М=3 входов, N=9 нейронов и L=1 выход. Связь между нейронами, принадлежащими одному слою, отсутствует. Также отсутствуют связи, «перепрыгивающие» один или несколько слоев. Многослойная нейронная сеть характеризуется матрицами W и V блочной структуры. В приведенном на рис1.9 примере матрицы W и V в формуле (4.1) имеют следующую структуру:
Рис. 1. 9. Пример многослойной нейронной сети
Смещения нейронов в сети, представленной на рис. 1.9 полагаются равными нулю: b = 0. I
Матрица Q в формуле (4.6) для рассматриваемого примера имеет размерность 9*1 (N=9, L=1) и вырождается в вектор:
Сеть, представленная на рис.1.9, имеет 3 слоя. За три такта дискретного времени приложенный ко входу сети сигнал достигает выхода.
- Оглавление
- Введение
- 1.Математические модели искусственных нейронных сетей [9]
- 1.1Общие сведения о структуре биологического нейрона
- 1.2 Математическая модель искусственного нейрона
- 1.3 Математическое описание нейронной сети
- 1.4 Стохастический нейрон
- 1.5 Сравнение характеристик машины фон Неймана и нейронной сети
- 2.Разработка структуры и функций нейроимитатора как элемента интеллектуальной информационной системы
- 2.1 Концепции применения нейросетевых компонентов в информационных системах
- 2.2 Предварительная обработка информации на этапе проектирования нейросетевых компонентов
- 2.3 Формирование задачника для нейросети
- 2.4 Особенности формирования нейронной сети
- 2.5 Интерпретация сигналов нейронной сети
- 2.6Управляющая программа (исполнитель)
- 2.7 Компонент учитель
- 2.8Настройка параметров нейросети.
- 2.9Оценка и коррекция нейросетевой модели
- 2.10 Конструктор нейронной сети
- 2.11 Контрастер нейросети.
- 2.12 Логически прозрачные сети, получение явных знаний
- 2.13 Решение дополнительных задач с помощью нейросетевых компонентов
- 2.14Разработка языка описания нейроимитатора для обмена данными
- 3.Разновидности нейронных сетей [31]
- 3.1Персептрон Розенблатта.
- 3.1.1Персептрон Розенблатта.
- 3.1.2Теорема об обучении персептрона.
- 3.1.3Линейная разделимость и персептронная представляемость
- 3.2Свойства процессов обучения в нейронных сетях.
- 3.2.1Задача обучения нейронной сети на примерах.
- 3.2.2Классификация и категоризация.
- 3.2.3Обучение нейронной сети с учителем, как задача многофакторной оптимизации.
- 3.3Многослойный персептрон.
- 3.3.1Необходимость иерархической организации нейросетевых архитектур.
- 3.3.2Многослойный персептрон.
- 3.3.3Обучение методом обратного распространения ошибок.
- 3.4Другие иерархические архитектуры.
- 3.4.1Звезды Гроссберга
- 3.4.2Принцип Winner Take All (wta) - Победитель Забирает Все - в модели Липпмана-Хемминга.
- 3.4.3Карта самоорганизации Кохонена.
- 3.4.4Нейронная сеть встречного распространения.
- 3.5Модель Хопфилда.
- 3.5.1Сети с обратными связями
- 3.5.2Нейродинамика в модели Хопфилда
- 3.5.3Правило обучения Хебба
- 3.5.4Ассоциативность памяти и задача распознавания образов
- 3.6Обобщения и применения модели Хопфилда.
- 3.6.1Модификации правила Хебба.
- 3.6.2Матрица Хебба с ортогонализацией образов.
- 3.6.3Отказ от симметрии синапсов.
- 3.6.4Алгоритмы разобучения (забывания).
- 3.6.5Двунаправленная ассоциативная память.
- 3.6.6Детерминированная и вероятностная нейродинамика.
- 3.6.7Применения сети Хопфилда к задачам комбинаторной оптимизации.
- 3.7Неокогнитрон Фукушимы.
- 3.7.1Когнитрон: самоорганизующаяся многослойная нейросеть.
- 3.7.2Неокогнитрон и инвариантное распознавание образов.
- 3.8Теория адаптивного резонанса.
- 3.8.1Дилемма стабильности-пластичности восприятия.
- 3.8.2Принцип адаптивного резонанса.
- 3.8.3Нейронная сеть aрt-1.
- 3.8.4Начальное состояние сети.
- 3.8.5Фаза сравнения.
- 3.8.6Фаза поиска.
- 3.8.7Обучение сети арт.
- 3.8.8Теоремы арт.
- 3.8.9Дальнейшее развитие арт: архитектуры арт-2 и арт-3.
- 3.8.10Сети арт-2 и арт-3.
- 3.9Черты современных архитектур.
- 3.9.1Черты современных архитектур.
- 3.9.2Сегодняшний день нейронауки.
- 3.9.3Программное и аппаратное обеспечение. Нейро-эвм.
- 4.Литература и учебно-методические материалы