Обучение нейронной сети с учителем, как задача многофакторной оптимизации. Понятие о задаче оптимизации.
Возможность применени теории оптимизации и обучению нейронных сетей крайне привлекательна, так как имеется множество хорошо опробованных методов оптимизации, доведенных до стандартных компьютерных программ. Сопоставление процесса обучения с процессом поиска некоторого оптимума также не лишено и биологических оснований, если рассматривать элементы адаптации организма к окружающим условиям в виде оптимального количества пищи, оптимального расходования энергии и т.п. Подробное рассмотрение методов оптимизации выходит за рамки данных лекций, поэтому здесь мы органичимся лишь основными понятиями. Для более подробного знакомства можно порекомендовать книгу Б.Банди.
Функция одной действительной переменной f(x) достигает локального минимума в некоторой точке x0, если существует такая-окрестность этой точки, что для всех x из этой окрестности, т.е. таких, что | x - x0| <, имеет место f(x) > f(x0).
Без дополнительных предположений о свойствах гладкости функции выяснить, является ли некоторая точка достоверной точкой минимума, используя данное определение невозможно, поскольку любая окрестность содержит континуум точек. При примененнии численных методов для приближенногопоиска минимума исследователь может столкнуться с несколькими проблемами. Во-первых, минимум функции может быть не единственным. Во-вторых, на практике часто необходимо найтиглобальный, а не локальный минимум, однако обычно не ясно, нет ли у функции еще одного, более глубокого, чем найденный, минимума.
Математическое определение локального минимума функции в многомерном пространстве имеет тот же вид, если заменить точки x и x0на вектора, а вместо модуля использовать норму. Поиск минимума для функции многих переменных (многихфакторов) является существенно более сложной задачей, чем для одной переменной. Это связано прежде всего с тем, чтолокальноенаправление уменьшения значения функции может не соотвествовать нарпавлению движения к точке минимума. Кроме того, с ростом размерности быстро возрастают затраты на вычисление функции.
Решение задачи оптимизации во многом является искусством, общих, заведомо работающих и эффективных в любой ситуации методов нет. Среди часто использемых методов можно рекомендовать симплекс-метод Нелдера, некоторые градиентные методы, а также методы случайного поиска. В Приложении 2 для решения задачи оптимизации рассматриваются методы имитации отжига и генетического поиска, относящиеся к семеству методов случайного поиска.
В случае, если независимые переменные являются дискретными и могут принимать одно значение из некоторого фиксированного набора, задача многомерной оптимизации несколько упрощается. При этом множество точек поиска становится конечным, а следовательно задача может быть, хотя бы в принципе, решена методом полного перебора. Будем называть оптимизационные задачи с конечным множеством поиска задачамикомбинаторной оптимизации.
Для комбинаторных задач также существуют методы поиска приближенного решения, предлагающие некоторую стратегию перебора точек, сокращающую объем вычислительной работы. Отметим, что имитация отжига и генетический алгоритм также применимы и к комбинаторной оптимизации.
- Лекция 3. Биологический нейрон и его кибернетическая модель.
- Метод нейробиологии.
- Биологический нейрон.
- Нейронные сети.
- Биологическая изменчивость и обучение нейронных сетей.
- Формальный нейрон.
- Обучение нейрона детектированию границы "черное-белое"
- Лекция 4. Персептрон Розенблатта.
- Персептрон Розенблатта.
- Теорема об обучении персептрона.
- Линейная разделимость и персептронная представляемость
- Лекция 5. Свойства процессов обучения в нейронных сетях.
- Задача обучения нейронной сети на примерах.
- Классификация и категоризация.
- Обучение нейронной сети с учителем, как задача многофакторной оптимизации. Понятие о задаче оптимизации.
- Постановка задачи оптимизации при обучении нейронной сети
- Лекция 6. Многослойный персептрон.
- Необходимость иерархической организации нейросетевых архитектур.
- Многослойный персептрон.
- Обучение методом обратного распространения ошибок.
- Лекция 7. Другие иерархические архитектуры.
- Звезды Гроссберга
- Принцип Winner Take All (wta) - Победитель Забирает Все - в модели Липпмана-Хемминга.
- Карта самоорганизации Кохонена.
- Нейронная сеть встречного распространения.
- Лекция 8. Модель Хопфилда.
- Сети с обратными связями
- Нейродинамика в модели Хопфилда
- Правило обучения Хебба
- Ассоциативность памяти и задача распознавания образов
- Лекция 9. Обобщения и применения модели Хопфилда.
- Модификации правила Хебба.
- Матрица Хебба с ортогонализацией образов.
- Отказ от симметрии синапсов.
- Алгоритмы разобучения (забывания).
- Двунаправленная ассоциативная память.
- Детерминированная и вероятностная нейродинамика.
- Применения сети Хопфилда к задачам комбинаторной оптимизации.
- Лекция 10. Неокогнитрон Фукушимы.
- Когнитрон: самоорганизующаяся многослойная нейросеть.
- Неокогнитрон и инвариантное распознавание образов.
- Лекция 11. Теория адаптивного резонанса.
- Дилемма стабильности-пластичности восприятия.
- Принцип адаптивного резонанса.
- Нейронная сеть aрt-1.
- Начальное состояние сети.
- Фаза сравнения.
- Фаза поиска.
- Обучение сети арт.
- Теоремы арт.
- Дальнейшее развитие арт: архитектуры арт-2 и арт-3. Нерешенные проблемы и недостатки арт-1.
- Сети арт-2 и арт-3.
- Лекция 12. Черты современных архитектур.
- Черты современных архитектур.
- Сегодняшний день нейронауки.
- Программное и аппаратное обеспечение. Нейро-эвм.