Преодоление ограничения линейной разделимости
К концу 60-х годов проблема линейной разделимости была хорошо понята. К тому же было известно, что это серьезное ограничение представляемости однослойными сетями можно преодолеть, добавив дополнительные слои. Например, двухслойные сети можно получить каскадным соединением двух однослойных сетей. Они способны выполнять более общие классификации, отделяя те точки, которые содержатся в выпуклых ограниченных или неограниченных областях. Область называется выпуклой, если для любых двух ее точек соединяющий их отрезок целиком лежит в области. Область называется ограниченной, если ее можно заключить в некоторый круг. Неограниченную область невозможно заключить внутрь круга (например, область между двумя параллельными линиями). Примеры выпуклых ограниченных и неограниченных областей представлены на рис. 2.7.
Рис. 1.7. Выпуклые ограниченные и неограниченные области
Чтобы уточнить требование выпуклости, рассмотрим простую двухслойную сеть с двумя входами, подведенными к двум нейронам первого слоя, соединенными с единственным нейроном в слое 2 (см. рис. 2.8). Пусть порог выходного нейрона равен 0,75, а оба его веса равны 0,5. В этом случае для того, чтобы порог был превышен и на выходе появилась единица, требуется, чтобы оба нейрона первого уровня на выходе имели единицу. Таким образом, выходной нейрон реализует логическую функцию И. На рис. 2.8 каждый нейрон слоя 1 разбивает плоскость х-у на две полуплоскости, один обеспечивает единичный выход для входов ниже верхней линии, другой – для входов выше нижней линии. На рис. 2.8 показан результат такого двойного разбиения, где выходной сигнал нейрона второго слоя равен единице только внутри V-образной области. Аналогично во втором слое может быть использовано три нейрона с дальнейшим разбиением плоскости и созданием области треугольной формы. Включением достаточного числа нейронов во входной слой может быть образован выпуклый многоугольник любой желаемой формы. Так как они образованы с помощью операции И над областями, задаваемыми линиями, то все такие многогранники выпуклы, следовательно, только выпуклые области и возникают. Точки, не составляющие выпуклой области, не могут быть отделены от других точек плоскости двухслойной сетью.
Рис. 1.8. Выпуклая область решений, задаваемая двухслойной сетью
Нейрон второго слоя не ограничен функцией И. Он может реализовывать многие другие функции при подходящем выборе весов и порога. Например, можно сделать так, чтобы единичный выход любого из нейронов первого слоя приводил к появлению единицы на выходе нейрона второго слоя, реализовав тем самым логическое ИЛИ. Имеется 16 двоичных функций от двух переменных. Если выбирать подходящим образом веса и порог, то можно воспроизвести 14 из них (все, кроме ИСКЛЮЧАЮЩЕЕ ИЛИ и ИСКЛЮЧАЮЩЕЕ НЕТ).
В Рис. 1.9. “Вогнутая” область решений, задаваемая трехслойной сетью
Рис. 2.9. «Вогнутая» область решений, задаваемая трехслойной сетью
Трехслойная сеть, однако, является более общей. Ее классифицирующие возможности ограничены лишь числом искусственных нейронов и весов. Ограничения на выпуклость отсутствуют. Теперь нейрон третьего слоя принимает в качестве входа набор выпуклых многоугольников, и их логическая комбинация может быть невыпуклой. На рис. 2.9 иллюстрируется случай, когда два треугольника A и B, скомбинированные с помощью функций «A и не B», задают невыпуклую область. При добавлении нейронов и весов число сторон многоугольников может неограниченно возрастать. Это позволяет аппроксимировать область любой формы с любой точностью. Вдобавок не все выходные области второго слоя должны пересекаться. Возможно, следовательно, объединять различные области, выпуклые и невыпуклые, выдавая на выходе единицу всякий раз, когда входной вектор принадлежит одной из них.
Несмотря на то что возможности многослойных сетей были известны давно, в течение многих лет не было теоретически обоснованного алгоритма для настройки их весов. В последующих главах мы детально изучим многослойные обучающие алгоритмы, но сейчас достаточно понимать проблему и знать, что исследования привели к определенным результатом.
- Нейрокомпьютерная техника: Теория и практика
- Предисловие
- Благодарности
- Введение почему именно искусственные нейронные сети?
- Свойства искусственных нейронных сетей
- Обучение
- Обобщение
- Абстрагирование
- Применимость
- Исторический аспект
- Искусственные нейронные сети сегодня
- Перспективы на будущее
- Искусственные нейронные сети и экспертные системы
- Соображения надежности
- Литература
- Глава 1. Основы искусственных нейронных сетей
- Биологический прототип
- Искусственный нейрон
- Активационные функции
- Однослойные искусственные нейронные сети
- Многослойные искусственные нейронные сети
- Нелинейная активационная функция
- Сети с обратными связями
- Терминология, обозначения и схематическое изображение искусственных нейронных сетей
- Терминология
- Дифференциальные уравнения или разностные уравнения
- Графическое представление
- Обучение искусственных нейронных сетей
- Цель обучения
- Обучение с учителем
- Обучение без учителя
- Алгоритмы обучения
- Литература
- Глава 2. Персептроны персептроны и зарождение искусственных нейронных сетей
- Персептронная представляемость
- Проблема функции исключающее или
- Линейная разделимость
- Преодоление ограничения линейной разделимости
- Эффективность запоминания
- Обучение персептрона
- Алгоритм обучения персептрона
- Дельта-правило
- Трудности с алгоритмом обучения персептрона
- Литература
- Глава 3. Процедура обратного распространения введение в процедуру обратного распространения
- Обучающий алгоритм обратного распространения Сетевые конфигурации
- Многослойная сеть.
- Обзор обучения
- Дальнейшие алгоритмические разработки
- Применения
- Предостережение
- Паралич сети
- Локальные минимумы
- Размер шага
- Временная неустойчивость
- Литература
- Глава 4. Сети встречного распространения введение в сети встречного распространения
- Структура сети
- Нормальное функционирование Слои Кохоненна
- Слой Гроссберга
- Обучение слоя кохонена
- Предварительная обработка входных векторов
- Выбор начальных значений весовых векторов
- Режим интерполяции
- Статистические свойства обученной сети
- Обучение слоя гроссберга
- Сеть встречного распространения полностью
- Приложение: сжатие данных
- Обсуждение
- Литература
- Глава 5. Стохастические методы
- Использование обучения
- Больцмановское обучение
- Обучение Коши
- Метод искусственной теплоемкости
- Приложения к общим нелинейным задачам оптимизации
- Обратное распространение и обучение коши
- Трудности, связанные с обратным распространением
- Трудности с алгоритмом обучения Коши
- Комбинирование обратного распространения с обучением Коши
- Обсуждение
- Литература
- Глава 6. Сети Хопфилда
- Конфигурации сетей с обратными связями
- Бинарные системы
- Устойчивость
- Ассоциативная память
- Непрерывные системы
- Сети Хопфилда и машина Больцмана
- Термодинамические системы
- Статистичекие сети Хопфилда
- Обобщенные сети
- Приложения Аналого-цифровой преобразователь
- Задача коммивояжера
- Обсуждение Локальные минимумы
- Скорость
- Функция энергии
- Емкость сети
- Литература
- Глава 7. Двунаправленная ассоциативная память
- Структура дап
- Восстановление запомненных ассоциаций
- Кодирование ассоциаций
- Емкость памяти
- Непрерывная дап
- Адаптивная дап
- Конкурирующая дап
- Заключение
- Литература
- Глава 8. Адаптивная резонансная теория
- Архитектура apt
- Описание apt
- Упрощенная архитектура apt
- Функционирование сети apt в процессе классификации
- Реализация apt Обзор
- Функционирование сетей apt
- Пример обучения сети apt
- Характеристики apt
- Инициализация весовых векторов т
- Настройка весовых векторов Вj
- Инициализация весов bij
- Теоремы apt
- Заключение
- Литература
- Глава 9. Оптические нейронные сети
- Векторно-матричные умножители
- Электронно-оптические матричные умножители
- Сети Хопфилда на базе электронно-оптических матричных умножителей
- Голографические корреляторы
- Объемные голограммы
- Оптическая сеть Хопфилда, использующая объемные голограммы
- Заключение
- Литература
- Глава 10. Когнитрон и неокогнитрон
- Когнитрон
- Структура
- Обучение
- Неокогнитрон
- Структура
- Обобщение
- Вычисления
- Обучение
- Заключение
- Литература
- Приложение а. Биологические нейронные сети человеческий мозг: биологическая модель для искусственных нейронных сетей
- Организация человеческого мозга
- Мембрана клетки
- Компьютеры и человеческий мозг
- Приложение б. Алгоритмы обучения
- Обучение с учителем и без учителя
- Метод обучения хэбба
- Алгоритм обучения Хэбба
- Метод сигнального обучения Хэбба
- Метод дифференциального обучения Хэбба
- Входные и выходные звезды
- Обучение входной звезды
- Обучение выходной звезды
- Обучение персептрона
- Метод обучения уидроу-хоффа
- Методы статистического обучения
- Самоорганизация
- Литература