1.4 Стохастический нейрон
В математической модели нейрона, описанной в п.3, его выход n(t+1) однозначно определяется значением потенциала h(t) в соответствии с формулой (3.3). Можно построить иную модель нейрона, у которой выходной сигнал n(t+1) является случайным. Далее предлагается одна из возможных моделей стохастического нейрона.
Рассмотрим нейрон с двумя возможными состояниями +1 и -1. Если потенциал нейрона в момент времени t равен h(t), то на следующем такте дискретного времени вероятность события [n(t+1)=1] равна p+(h), а события [n(t+1)=-1] – p-(h). Согласно формуле полной вероятности
(5.2)
Тогда на основании формулы (5.1) вычисляется выражение для p-(h):
Рис. 1.10. Зависимость вероятности значения n(t+1)=1 от потенциала h(t)
На рис.1.10 дана графическая иллюстрация к формулам (5.2), (5.3). Если потенциал нейрона h(t) = 0, то с равными вероятностями реализуются значения [n(t+1)=1] и [n(t+1)= -1]. Смещение потенциала нейрона в область положительных значений приводит к увеличению вероятности принять положительное значение [n(t+1)=1]. Отрицательный потенциал нейрона ведет к увеличению вероятности [n(t+1)= -1]. На рис.1.10 в качестве примера рассмотрено положительное значение потенциала h(t) = h.
Рассчитаем математическое ожидание случайного значения выхода n(t+1) нейрона, если его потенциал равен h(t) (далее в расчетной формуле временной аргумент опускается для краткости записи):
(5.5)
Функция гиперболического тангенса th(x) является сигмоидальной, ее возможные значения лежат в диапазоне (-1, +1). Построим детерминированный нейрон, у которого потенциал совпадает с потенциалом стохастического нейрона, а активационная характеристика определяется формулой:
Обозначим выход детерминированного нейрона n:
(5.7)
Сравнение формул (5.5) и (5.7) показывает, что выход детерминированного нейрона отслеживает среднее значение случайного выхода биполярного стохастического нейрона с состояниями +1 и -1. Здесь имеется в виду осреднение по множеству возможных реализаций биполярных последовательностей на выходе стохастического нейрона.
Если анализируется работа нейронной сети, построенной на стохастических нейронах, то соответствующая сеть, имеющая в своем составе детерминированные нейроны с активационными характеристиками - функциями гиперболического тангенса, отражает динамику работы стохастической нейронной сети в среднем по совокупности реализаций. Следует отметить, что сформулированное выше утверждение является приближенным, так как выражение (5.5) для математического ожидания выхода нейрона вычислялось при условии известного значения потенциала, в то время как в стохастической нейронной сети потенциалы нейронов также являются случайными. Фактически вычислялось значение M[n(t+1)|h(t)=h], а анализ замкнутой сети предполагает вычисление безусловного математического ожидания M[n(t+1)]. Несовпадение указанных характеристик связано с нелинейностью преобразования сигнала нейроном.
- Оглавление
- Введение
- 1.Математические модели искусственных нейронных сетей [9]
- 1.1Общие сведения о структуре биологического нейрона
- 1.2 Математическая модель искусственного нейрона
- 1.3 Математическое описание нейронной сети
- 1.4 Стохастический нейрон
- 1.5 Сравнение характеристик машины фон Неймана и нейронной сети
- 2.Разработка структуры и функций нейроимитатора как элемента интеллектуальной информационной системы
- 2.1 Концепции применения нейросетевых компонентов в информационных системах
- 2.2 Предварительная обработка информации на этапе проектирования нейросетевых компонентов
- 2.3 Формирование задачника для нейросети
- 2.4 Особенности формирования нейронной сети
- 2.5 Интерпретация сигналов нейронной сети
- 2.6Управляющая программа (исполнитель)
- 2.7 Компонент учитель
- 2.8Настройка параметров нейросети.
- 2.9Оценка и коррекция нейросетевой модели
- 2.10 Конструктор нейронной сети
- 2.11 Контрастер нейросети.
- 2.12 Логически прозрачные сети, получение явных знаний
- 2.13 Решение дополнительных задач с помощью нейросетевых компонентов
- 2.14Разработка языка описания нейроимитатора для обмена данными
- 3.Разновидности нейронных сетей [31]
- 3.1Персептрон Розенблатта.
- 3.1.1Персептрон Розенблатта.
- 3.1.2Теорема об обучении персептрона.
- 3.1.3Линейная разделимость и персептронная представляемость
- 3.2Свойства процессов обучения в нейронных сетях.
- 3.2.1Задача обучения нейронной сети на примерах.
- 3.2.2Классификация и категоризация.
- 3.2.3Обучение нейронной сети с учителем, как задача многофакторной оптимизации.
- 3.3Многослойный персептрон.
- 3.3.1Необходимость иерархической организации нейросетевых архитектур.
- 3.3.2Многослойный персептрон.
- 3.3.3Обучение методом обратного распространения ошибок.
- 3.4Другие иерархические архитектуры.
- 3.4.1Звезды Гроссберга
- 3.4.2Принцип Winner Take All (wta) - Победитель Забирает Все - в модели Липпмана-Хемминга.
- 3.4.3Карта самоорганизации Кохонена.
- 3.4.4Нейронная сеть встречного распространения.
- 3.5Модель Хопфилда.
- 3.5.1Сети с обратными связями
- 3.5.2Нейродинамика в модели Хопфилда
- 3.5.3Правило обучения Хебба
- 3.5.4Ассоциативность памяти и задача распознавания образов
- 3.6Обобщения и применения модели Хопфилда.
- 3.6.1Модификации правила Хебба.
- 3.6.2Матрица Хебба с ортогонализацией образов.
- 3.6.3Отказ от симметрии синапсов.
- 3.6.4Алгоритмы разобучения (забывания).
- 3.6.5Двунаправленная ассоциативная память.
- 3.6.6Детерминированная и вероятностная нейродинамика.
- 3.6.7Применения сети Хопфилда к задачам комбинаторной оптимизации.
- 3.7Неокогнитрон Фукушимы.
- 3.7.1Когнитрон: самоорганизующаяся многослойная нейросеть.
- 3.7.2Неокогнитрон и инвариантное распознавание образов.
- 3.8Теория адаптивного резонанса.
- 3.8.1Дилемма стабильности-пластичности восприятия.
- 3.8.2Принцип адаптивного резонанса.
- 3.8.3Нейронная сеть aрt-1.
- 3.8.4Начальное состояние сети.
- 3.8.5Фаза сравнения.
- 3.8.6Фаза поиска.
- 3.8.7Обучение сети арт.
- 3.8.8Теоремы арт.
- 3.8.9Дальнейшее развитие арт: архитектуры арт-2 и арт-3.
- 3.8.10Сети арт-2 и арт-3.
- 3.9Черты современных архитектур.
- 3.9.1Черты современных архитектур.
- 3.9.2Сегодняшний день нейронауки.
- 3.9.3Программное и аппаратное обеспечение. Нейро-эвм.
- 4.Литература и учебно-методические материалы