2.3 Формирование задачника для нейросети
Для информационных систем важным является вопрос формирования задачника. Это связано с тем, что для любого интеллектуального блока, которых в информационных системах довольно много, на входе формируется обучающая выборка, которая находится в постоянном динамическом изменении. Как правило, обучение производится не по всему задачнику, а по некоторой его части. Ту часть задачника, по которой в данный момент производится обучение, будем называть обучающей выборкой. Важность этого компонента определяется тем, что при обучении сетей всех видов с использованием любых алгоритмов обучения необходимо предъявлять примеры, на которых она обучается решению задачи. Кроме того, задачник содержит правильные ответы для сетей, обучаемых с учителем.
Настройка параметров функции (4.2) производится на основе обучающей выборки, которая содержит примеры, описывающие состояние объекта исследования, и значения целевого параметра, соответствующие каждому состоянию. Например, для задач оценки деятельности конкретного ВУЗа наиболее характерно применение временных отсчетов в качестве базового параметра измерения, т.е. примеры значений параметров объекта отличаются тем, что измерены в различные моменты времени. Соответствующая обучающая выборка представляется в виде матрицы M:
;
,
где и – границы временного интервала, определяемые экспертным путем.
Важным вопросом является разделение всех доступных данных на обучающую и тестовую выборки таким образом, чтобы обеспечить их независимость и представительность. Эта проблема решается для каждой конкретной задачи отдельно. Задачник формируется в результате функционирования информационной системы в ритме процессов производства и управления. Формирование происходит непосредственно в базах данных, причем даже для одного АРМа их может быть несколько.
Для рассматриваемых информационных систем основной структурой задачника является база данных реляционного типа. Каждому примеру соответствует одна запись базы данных. Каждому данному - одно поле. Поля базы данных могут быть числовыми и текстовыми. В зависимости от решаемой задачи содержимое задачника может меняться. Так, например, для решения задачи классификации без учителя используют нейросети, основанные на методе динамических ядер [207] (наиболее известным частным случаем таких сетей являются сети Кохонена [233,234]). Задачник для такой сети должен содержать только векторы входных данных. При использовании обучаемых сетей, основанных на принципе двойственности, к задачнику необходимо добавить вектор ответов сети. Кроме того, некоторые исследователи хотят иметь возможность просмотреть ответы, выданные сетью, вектор оценок примера, показатели значимости входных сигналов и, возможно, некоторые другие величины. Поэтому, стандартный задачник должен иметь возможность предоставить пользователю всю необходимую информацию. При формировании задачника должны активно использоваться возможности графики и цвета. [148].
Задачники формируются в результате функционирования информационной системы в базах данных в ритме процессов производства и управления в соответствии с разработанными технологиями. При этом выполняются процедуры погружения данных, описанные выше. Например, для задач прогнозирования возможны следующие варианты погружения информации: без пересечения, с пересечением, с дообучением, без дообучения, по совокупности временных рядов, в том числе возможны варианты с учетом сезонных колебаний, с учетом других качественных признаков (рис. 4.14). При организации задачников важными являются вопросы создания и обновления архивов, технологии формирования обучающих выборок по этапам технологического процесса обработки информации в автоматизированной системе.
На рисунке (4.14) представлены методы формирования выходных (целевых) параметров задачника нейросети. Наиболее качественные данные задачника получаются на основе фактической выборочной, экспериментальной информации, в том числе по данным происшедших событий, выполненных опытов и экспериментов. При решении неформализованных задач, таких ,например, как оценка состояния объекта управления, получение значения целевого параметра экспериментальным путем бывает невозможно. В этом случае используется экспертная информация, формируемая опытным специалистом в соответствующей области знаний или группой экспертов при помощи методов экспертной оценки [54].
При функционировании информационной системы, при постоянно изменяющемся состоянии предметной области, существенном обновлении данных задачника часто не представляется возможным своевременно привлечь опытных специалистов для выработки значений целевых параметров и последующего дообучения нейронной сети. Для этого в работе разработаны методы автоматического самообучения нейросетевых компонентов(рис.4.15). Они реализуются при помощи специально разработанных экспертных систем, содержащих знания опытных специалистов, по аналитическим методикам и зависимостям, с использованием фиксированных констант и множеств, определяющих значения целевых параметров "по умолчанию". На рисунке 4.15 представлен процесс функционирования нейросетевого решателя в режиме автоматического обучения. В данной схеме показано подключение экспертной системы для формирования значений целевого параметра перед дообучением нейронной сети. Однако следует отметить, что данный режим не должен быть
основным. В реально работающих информационных системах режим самообучения не должен иметь регулярного характера, так как при этом качество обучения нейросетевых элементов ухудшается. При эксплуатации информационных систем периодически должны подключаться группы экспертов для обновления целевых параметров обучающих выборок и последующего дообучения нейросетевых компонентов.
- Оглавление
- Введение
- 1.Математические модели искусственных нейронных сетей [9]
- 1.1Общие сведения о структуре биологического нейрона
- 1.2 Математическая модель искусственного нейрона
- 1.3 Математическое описание нейронной сети
- 1.4 Стохастический нейрон
- 1.5 Сравнение характеристик машины фон Неймана и нейронной сети
- 2.Разработка структуры и функций нейроимитатора как элемента интеллектуальной информационной системы
- 2.1 Концепции применения нейросетевых компонентов в информационных системах
- 2.2 Предварительная обработка информации на этапе проектирования нейросетевых компонентов
- 2.3 Формирование задачника для нейросети
- 2.4 Особенности формирования нейронной сети
- 2.5 Интерпретация сигналов нейронной сети
- 2.6Управляющая программа (исполнитель)
- 2.7 Компонент учитель
- 2.8Настройка параметров нейросети.
- 2.9Оценка и коррекция нейросетевой модели
- 2.10 Конструктор нейронной сети
- 2.11 Контрастер нейросети.
- 2.12 Логически прозрачные сети, получение явных знаний
- 2.13 Решение дополнительных задач с помощью нейросетевых компонентов
- 2.14Разработка языка описания нейроимитатора для обмена данными
- 3.Разновидности нейронных сетей [31]
- 3.1Персептрон Розенблатта.
- 3.1.1Персептрон Розенблатта.
- 3.1.2Теорема об обучении персептрона.
- 3.1.3Линейная разделимость и персептронная представляемость
- 3.2Свойства процессов обучения в нейронных сетях.
- 3.2.1Задача обучения нейронной сети на примерах.
- 3.2.2Классификация и категоризация.
- 3.2.3Обучение нейронной сети с учителем, как задача многофакторной оптимизации.
- 3.3Многослойный персептрон.
- 3.3.1Необходимость иерархической организации нейросетевых архитектур.
- 3.3.2Многослойный персептрон.
- 3.3.3Обучение методом обратного распространения ошибок.
- 3.4Другие иерархические архитектуры.
- 3.4.1Звезды Гроссберга
- 3.4.2Принцип Winner Take All (wta) - Победитель Забирает Все - в модели Липпмана-Хемминга.
- 3.4.3Карта самоорганизации Кохонена.
- 3.4.4Нейронная сеть встречного распространения.
- 3.5Модель Хопфилда.
- 3.5.1Сети с обратными связями
- 3.5.2Нейродинамика в модели Хопфилда
- 3.5.3Правило обучения Хебба
- 3.5.4Ассоциативность памяти и задача распознавания образов
- 3.6Обобщения и применения модели Хопфилда.
- 3.6.1Модификации правила Хебба.
- 3.6.2Матрица Хебба с ортогонализацией образов.
- 3.6.3Отказ от симметрии синапсов.
- 3.6.4Алгоритмы разобучения (забывания).
- 3.6.5Двунаправленная ассоциативная память.
- 3.6.6Детерминированная и вероятностная нейродинамика.
- 3.6.7Применения сети Хопфилда к задачам комбинаторной оптимизации.
- 3.7Неокогнитрон Фукушимы.
- 3.7.1Когнитрон: самоорганизующаяся многослойная нейросеть.
- 3.7.2Неокогнитрон и инвариантное распознавание образов.
- 3.8Теория адаптивного резонанса.
- 3.8.1Дилемма стабильности-пластичности восприятия.
- 3.8.2Принцип адаптивного резонанса.
- 3.8.3Нейронная сеть aрt-1.
- 3.8.4Начальное состояние сети.
- 3.8.5Фаза сравнения.
- 3.8.6Фаза поиска.
- 3.8.7Обучение сети арт.
- 3.8.8Теоремы арт.
- 3.8.9Дальнейшее развитие арт: архитектуры арт-2 и арт-3.
- 3.8.10Сети арт-2 и арт-3.
- 3.9Черты современных архитектур.
- 3.9.1Черты современных архитектур.
- 3.9.2Сегодняшний день нейронауки.
- 3.9.3Программное и аппаратное обеспечение. Нейро-эвм.
- 4.Литература и учебно-методические материалы