Нейросетевое распознавание
Нейросетевые технологии имеют следующие отличительные особенности по сравнению с традиционнми технологиями цифровой микроэлектроники:
· Большое число параллельно работающих простых элементов - нейронов (от нескольких десятков до 106-108), что обеспечивает колоссальный скачок в быстродействии.
· Место программирования занимает обучение - нейронная сеть учится решать задачи, изменяя параметры нейронов и связей между ними.
Нейрокомпьютеры создаются из определенного набора элементов. Их совокупность неоднородна - одни надстраиваются над другими.
В качестве базовых элементов рассматриваются: нейрон, синапс - связь между нейронами - и сумматор, складывающий сигналы, приходящие к данному нейрону. Иногда сумматор включают в состав нейрона. Это, конечно, не особенно важно. В наиболее распространенных моделях функционирования единственным нелинейным элементом является нейрон, сумматор осуществляет обычное линейное сложение, синапс - умножение передаваемого сигнала на число - вес синапса.
Процесс обучения определяется набором обучающих примеров и методикой обучения.
Обучающий пример задается парой наборов значений: вход - соответствующий выход и целевой функцией, штрафующей за отклонение выходов от предписанных значений (при данных входах).
Процесс обучения распадается на шаги или циклы алгоритма. Соединяя такие шаги в цепочки, получаем методику обучения.
Нейрон обычно принимают как преобразователь типа "один вход - один выход", действующий в дискретные моменты времени с некоторым шагом . На входной сигнал A такой нейрон отвечает выходным f(A,), где - характеристика нейрона или набор характеристик.
Примеры:
1. пороговый нейрон A0,>0
2.
3.
Знаки абсолютной величины расставлены так, чтобы f(A)1 при A, а знаменатель был всегда положителен.
Сумматор - линейный элемент, связанный с каждым нейроном и суммирующий поступающие к нему по синаптическим связям сигналы от других нейронов, а также внешние входные сигналы. При технической реализации суммирование может быть объединено с хранением синаптических весов входящих связей и умножением на эти веса выходных сигналов других нейронов, однако при теоретическом рассмотрении функция сумматора выделена.
Синапс осуществляет связь между нейронами. Он передает выходной сигнал i-го нейрона на входной сумматор j-го и преобразует сигнал при передаче. Простейшее преобразование - умножение выходного сигнала на вес синапса -число Xij.
Синаптический вес Xij может принимать различные значения. Выделены два случая, самый простой: {0,1} (связи нет, связь есть: положительная или отрицательная). Другой вариант: для Xij устанавливается рабочий диапазон [-1,+1].
Типовая нейронная сеть (НС) состоит из нейронов, сумматоров и связей. Нейроны могут быть разными. Каждый нейрон имеет один вход и один выход.
Сигнал на вход нейрона подается либо от одного (другого) нейрона, либо от какого-нибудь сумматора, либо от внешнего входа. Выходной сигнал от любого нейрона может подаваться сразу на несколько разных входов как другим нейронам, так и сумматорам или выходным устройствам. Сумматор имеет произвольное число входов и один выход, на который он передает сумму входных сигналов. Выходной сигнал сумматора может передаваться сразу нескольким нейронам. Последовательность функционирования такой сети можно представлять так: функционирование нейронов - передача сигналов от нейронов - передача сигналов от сумматоров - функционирование нейронов.
В настоящее время распространенной точкой зрения на обучение нейрокомпьютеров является коннекционизм: обучение состоит в настройке значений Xij - весов синапсов. Согласно коннекционизму все навыки хранятся в синаптической карте - совокупности весов Xij. Свойства нейрона при этом считаются второстепенными характеристиками сети.
Настройка синаптической карты может производиться различными способами, ограничимся пока рассмотрением двух предельных случаев:
1. Внешнее формирование.
2. Обучение.
При внешнем формировании синаптическая карта формируется сразу и запоминается. Типичным примером НС с внешним формированием являются НС ассоциативной памяти, например - сеть Хопфилда.
В ходе обучения происходит минимизация целевой функции, оценивающей соответствие выходных сигналов входным. Специфические трудности здесь связаны с очень большой размерностью при ограничениях на память и быстродействие. Поэтому преимущество должно отдаваться алгоритмам оптимизации, допускающим параллельное выполнение на структурах, аналогичных нейронным сетям.
- «Обработка изображений и распознавание образов» Визильтер Юрий Валентинович Методическое пособие-2010
- Раздел 2. Распознавание образов. 165
- 1.1. Задачи и приложения машинного зрения. Примеры практических приложений.
- Уровни и методы машинного зрения
- Растровое изображение Изображение как двумерный массив данных
- Алгебраические операции над изображениями
- Физическая природа изображений
- Изображения различных диапазонов длин волн
- Изображения различной физической природы
- Тип пикселя
- Возможности и особенности системыPisoft
- Базовые средства просмотра и анализа изображений и видеопоследовательностей
- Алгебра изображений
- Геометрические преобразования изображений
- Устройства оцифровки и ввода изображений
- Линейки и матрицы, сканеры и камеры
- Геометрия изображения
- Цифровые и аналоговые устройства
- Пространственное разрешение
- Программное обеспечение
- Обработка цветных изображений
- Цветовая модельRgb
- Цветовая модель hsv
- Цветовая модель yuv
- Цветовая сегментация изображения
- Гистограмма и гистограммная обработка изображений
- Профиль вдоль линии и анализ профиля
- Проекция и анализ проекции
- Бинаризация полутоновых изображений
- Сегментация многомодальных изображений
- Выделение и описание областей
- Выделение связных областей на бинарных изображениях
- 1. Отслеживающие алгоритмы на примере алгоритма обхода контура.
- 2. Сканируюющие алгоритмы.
- 1.3. Фильтрация. Выделение объектов при помощи фильтров
- Оконная фильтрация изображений в пространственной области
- Фильтрация бинарных изображений Модель шума «соль и перец»
- Структура оконного фильтра
- Логическая фильтрация помех
- Бинарная медианная фильтрация
- Бинарная ранговая фильтрация
- Взвешенные ранговые фильтры
- Анизотропная фильтрация
- Расширение-сжатие (простая морфология)
- Стирание бахромы
- Нелинейная фильтрация полутоновых изображений
- Ранговая оконная фильтрация
- Минимаксная фильтрация
- Задача выделения объектов интереса
- Бинарные фильтры для выделения объектов
- Метод нормализации фона
- Скользящее среднее в окне
- Гауссовская фильтрация
- Преобразование Фурье. Линейная фильтрация в частотной области
- Преобразование Фурье
- Комплексное представление преобразования Фурье
- Быстрое преобразование Фурье
- Двумерное преобразование Фурье
- Свертка с использованием преобразования Фурье
- Фильтрация изображений в частотной области
- Вейвлет-анализ
- Пирамида изображений
- Вейвлет-преобразование
- Операторы вычисления производных
- Операторы вычисления векторов градиентов
- Операторы Марра и Лапласа
- Постобработка контурного изображения Локализация края
- Утончение контура
- Сегментация полутоновых изображений
- Пороговая и мультипороговая сегментация
- Методы слияния, разбиения и слияния/разбиения областей
- Способы описания выделенных областей
- Текстурные признаки
- 1.6.Морфологические методы анализа сцен (по ю.П. Пытьеву) Методы обнаружения объектов, заданных эталонами
- Согласованная фильтрация.
- Корреляционное обнаружение.
- Морфологический подход ю.П. Пытьева.
- Форма изображения как инвариант преобразований изображений, отвечающих вариациям условий регистрации
- Сравнение изображений по форме
- Выделение отличий изображений по форме
- Обнаружение объекта по его изображению и оценка его координат
- *Морфология на базе кусочно-линейной интерполяции
- Преобразование Хафа для поиска прямых
- *Различные способы параметризации прямых
- Преобразование Хафа для поиска окружностей
- Анализ аккумулятора при поиске геометрических примитивов
- Обобщенное преобразование Хафа
- *Специализированная процедура голосования для поиска эллипсов
- *Рекуррентное преобразование Хафа в скользящем окне
- 1.8.Математическая морфология (по ж. Серра)
- Морфологические операции на бинарных изображениях
- Морфологические операции на полутоновых изображениях
- Морфологическое выделение «черт» и объектов
- Морфологический спектр
- Морфологические скелеты. Непрерывная бинарная морфология Непрерывная бинарная морфология
- Непрерывное гранично-скелетное представление изображения
- Обработка и использование скелета
- *Обобщенные скелетные представления бинарных фигур
- Алгоритмы утончения дискретного бинарного изображения
- *Регуляризация скелетов
- Типы нерегулярностей скелета
- Устранение нерегулярностей
- Регуляризация скелета по Тихонову
- *Селективные морфологии
- 1.9. Анализ движения. Выделение движущихся объектов. Разность кадров. Вычитание фона. Анализ оптических потоков. Слежение за движущимися объектами. Корреляционное слежение.
- Обучение с учителем. Детерминированные методы, основанные на «близости». Линейные решающие правила. Метод построения эталонов. Метод ближайшего соседа. Методkближайших соседей.
- Линейные решающие правила
- Метод построения эталонов
- Методы ближайших соседей
- Параметрические и непараметрические методы
- Дискриминантные и моделирующие методы обучения
- Способность распознавателя к обобщению. Регуляризация.
- Байесовская теория решений. Случай двух классов. Классификаторы, разделяющие функции и поверхности решений. Вероятности ошибок. Разделяющие функции для случая нормальной плотности.
- Дискриминантный анализ. Линейный дискриминант Фишера. Персептронная функция критерия. Линейный дискриминантный анализ (lda,дискриминант Фишера)
- Персептрон Розенблатта
- Анализ свидетельств
- Байесовское объединение свидетельств
- Структурное распознавание
- Автоматизированное конструирование алгоритмов обнаружения объектов на основе преобразований модельных описаний объектов.
- Нейросетевое распознавание
- Нейронные сети ассоциативной памяти. Сети Хопфилда.
- Многослойные персептроны. Оптимизационное обучение. Метод обратного распространения ошибки.
- Многослойные персептроны. Правило Хебба.
- *Связь с байесовским распознаванием
- Сети встречного распространения. Самоорганизующиеся сети.