6.6. Алгоритм настройки нейронной сети
Приведен алгоритм настройки многослойной нейронной сети с использованием backpropagation-правила обучения (рис. 6.1. - 6.8.). Для его применения необходимо, чтобы нейроны имели непрерывно дифференцируемую нелинейную пороговую функцию активации. Пусть это будет сигмоидная функция поскольку она имеет простую производную.
Алгоритм обучения, в общем виде, состоит в следующем:
Задать начальные значения весов и порогов каждого нейрона.
Всем весам и порогам присваиваются малые случайные значения.
Представить входной и выходной образы из обучающей выборки.
Пусть текущий входной образ,- текущий выходной образ из обучающей выборки, гдечисло нейронов входного слоя,
число нейронов выходного слоя. При этом (смещение) и.
При решении задач классификации образ может состоять из нулей, кроме одного элемента, равного 1, который и будет определять класс текущего выходного образа.
Рассчитать действительные значения выходов.
Значения выходов нейронов каждого слоя рассчитываются как
(6.19)
и передаются на входы нейронов следующего слоя. Выходные значения нейронов выходного слоя равны .
Провести модификацию весов связей.
Начиная от выходного слоя и, двигаясь в обратном направлении, необходимо изменять веса связей следующим образом:
(6.20)
где вес связи междум им нейронами нам шаге;
скорость обучения;
скорость изменения ошибки для нейронапри предъявлении образа.
Для нейронов выходного слоя
(6.21)
для нейронов внутренних слоев
(6.22)
где под знаком суммы стоят величины, относящиеся к нейронам последующего слоя.
Рис. 6.6. Локализация возбуждения нейронов выходного слоя.
в г
Рис. 6.7. Матрица следования при обучении первому эталону:
а – общий вид; б – первый шаг преобразования матрицы следования;
в –вид после исключения нейронов В1, А1 и 6; г – после исключения
«невозбужденных» входов.
Рис. 6.8. Нейросеть, обученная первому эталону.
В результате имеем сеть (ее трассировку), обученную реакции на эталон одной комбинации событий, где единичные веса соответствуют жирным стрелкам.
Контрольные вопросы и задания для самостоятельной работы по главе 6
6.1. Понятие нейронных сетей. Однослойные искусственные нейронные сети?
6.2. Многослойные искусственные нейронные сети?
6.3. Архитектура сетей?
6.4. Обучение искусственных нейронных сетей?
6.5. Персептроны?
6.6. Нейронные сети Хопфилда и Хэмминга?
6.7. Нейронные сети и алгоритмы их обучения?
6.8. Гибридные нейронные сети, введение?
- Предисловие
- Список использованных сокращений
- Часть 1.
- Глава 1. Математические основы формализации и методов описания
- Часть 2.
- Глава 2. Методы представления знаний с использованием
- Часть 3.
- Глава 3. Интеллектуальные технологии создания информационных систем. Способы получения информации и ее реализации для оценивания состояния агрегатов
- Часть 4.
- Глава 4. Источники информации и причины возникновения ее неопределенности
- 4.1. Переработка и использование информации в реальных условиях функционирования агрегатов
- Часть 5.
- Список использованных сокращений и обозначений
- Введение:
- Часть 1.
- Глава 1. Математические основы формализации и методов описания
- Формализация объекта и парадигмы
- 1.3. Множества и перечень базовых операций над множествами
- Перечень базовых операций над множествами
- Области определения функций
- Обратная функция
- Теорема
- Мера и нечеткая мера
- Задача построения нечетких мер
- Нечеткие множества: определение и формы записи в операциях и
- 1.7.Функции доверия и правило Демпстера а.Р.,[23]
- 1.8. Нормировка функций в теории нечётких множеств
- 1.9. Нечёткие отношения: прямая и обратная задачи
- Глава 2. Методы представления знаний с использованием приближенных и нечетких множеств
- 2.1.Нечеткие вычислительные технологии
- 2.2.Семантика объекта: определение и типизация
- 2.3.Создание Базы знаний: постановка, семантика, прагматика
- 2.4. Сопоставление объектов: постановка, семантика, прагматика
- 2.5.Распознавание объектов: постановка, семантика, прагматика
- 2.6. Управление процессом представления знаний
- Нечёткие множества: субъективность и неточность
- 2.8.Нечеткая алгебра
- 2.9.Нечеткие иерархические отношения
- 2.10.Естественность операций max и min
- 2.11.Нечеткая статистика
- 2.12. Совместимость и нечеткое ожидание
- Глава 3. Нечеткие технологии создания информационных систем. Способы получения информации и ее реализации для оценивания состояния агрегатов
- 3.2. Обработка нечетких данных как неопределенных чисел
- Методология представления агрегата в виде комплексного механизма
- 3.2.2. Описание исходной информации на языке размытых множеств
- Размытость интервалов, ограничений, критериев и целей управления в эксплуатации и диагностике
- 3.3.3. Размытые ограничения, цели и оптимизация работы агрегата в условиях нечеткой информации о состоянии
- Анализ информации для диагностики и оценивания состояния механизмов
- 3.5. Оценки погрешностей измерений и наблюдений за состоянием агрегатов
- Влияние погрешностей исходных данных на погрешности диагноза
- Глава 4. Источники информации и причины возникновения ее неопределенности
- 4. 2. Управление и идентификация на объекте в условиях неопределенности информации на основе знаний, получаемых при функциональной диагностике
- Тогда множество диагностических признаков g также будет нечетким
- 4.3.Представление и использование чётких и «размытых» знаний в математических моделях оценивания состояния агрегатов, на основе функциональной диагностики
- 4.3.1.Формализация решения задачи оценивания состояния
- 4.3.2. Особенности решения задач контроля и функционирования агрегата
- Глава 5. Введение в генетическое программирование
- 5.1. Введение в генетические и эволюционные алгоритмы
- 5.2. Сравнительный анализ эволюционных алгоритмов
- 5.3. Генетическое программирование
- 5.4. Перспективные направления развития гп
- Глава 6. Введение в нейронные сети
- 6.1. Алгоритмы их обучение и эластичные нейро-нечеткие системы
- 6.2. Имитация нервных клеток
- 6.3. Математическая модель нейрона
- 6.4. Обучение нейронных сетей
- 6.5. Метод обратного распространения ошибки
- 6.6. Алгоритм настройки нейронной сети
- Глава 7. Другие методы нечетких технологий для построения
- 7.1. Введение в теорию возможностей и смысла
- 7.1.1. Неопределенность и неточность
- 7.1.2. Традиционные модели неточности и неопределенности
- 7.1.3. Меры неопределенности
- 7.1.4. Меры возможности и необходимости
- 7.1.5. Возможность и вероятность
- 7.2. Языки и технологии логического программирования prolog, lisp
- Глава 8. Послесловие
- 8.1. Эволюция искусственного интеллекта для развития интеллектуальных
- 8.2.Экспертные системы нового уровня
- 8.3. Роботика
- 8.4. Преобразование речи искусственного языка
- 8.5. Интеллект муравьёв и его использование
- 8.6. Искусственная жизнь, мозг, познание, разум, память и мышление
- 8.7. Боты
- Optimizator подсистемы диагностики состояния энергоустановок, skais, для решения задач технического обслуживания
- Заключение
- Заключение
- Литература