Анализ свидетельств
Пусть дан набор попарно независимых гипотез A, составляющих полную группу событий, и наблюдается некоторое событие B. Как известно, в этом случае формула Байеса имеет вид:
P(Ai/B)=[P(Ai)P(B/Ai)]/[{P(Ai)P(B/Ai)}].
Пусть теперь наблюдается изображение Im, и необходимо определить апостериорную вероятность некоторой гипотезы H относительно видимой сцены. Тогда формула Байеса принимает вид
P(H/Im)=[P(H)P(Im/H)]/[P(H)P(Im/H)+P(HС)P(Im/HС)], (*.7)
где HС - гипотеза "не H"; под событием (event) E(H) подразумевается событие "H - истинно".
Изображение Im здесь также рассматривается как событие или, точнее, должно рассматриваться событие E(Im), связанное с данным изображением. Далее будем считать, что в процессе анализа изображения Im происходит ряд событий, совокупность которых и составляет E(Im). Иными словами, если каждый существенный факт, установленный в ходе анализа изображения Im, есть событие ek, то
E(Im)=e1e2..eK, (*.8)
где K - общее число таких событий. Таким образом, для проверки любой гипотезы H относительно изображения Im необходимо вычислить выражение (7) с учетом (8).
Если предположить, что события {ek} независимы в совокупности, то из (.7) и (.8) следует
P(H/Im)=[P(H){P(ek/H)}]/[P(H){P(ek/H)}+P(HС){P(ek/HС)}], (.7’)
где {xk}=x1x2...xK.
Выражение (7’) дает возможность определить важное понятие "влияющего события" или "свидетельства". Пусть даны некоторое событие e и некотрая гипотеза H, причем P(e/H)=P(e/HC). Тогда из (.7’) следует, что
(P(e/H)=P(e/HC))(P(H/{Im\e})=P(H/{Ime})),
иными словами, наличие или отсутствие события e никак не влияет на апостериорную вероятность гипотезы H. Таким образом
Определение.1. Любое событие e, такое что P(e/H)(P(e/HC) является влияющим событием для гипотезы H.
В дальнейшем без потери общности будем считать, что произведение в формуле (.7’) берется не по всем событиям вообще, а только по совокупности влияющих событий для каждой исследуемой гипотезы.
Определение.2. Событийной вероятностной моделью изображения объекта называется набор PE(H)={{p(ek/H),p(ek/HC),ekE(Im)}, p(H)}, где Im - изображение, H - гипотеза о присутствии некоторого объекта на изображении, HC - ее дополнение; E(Im)={ek} - множество влияющих событий относительно гипотезы H, регистрируемых на данном изображении Im.
Вообще говоря, переход от изображения, представленного в виде дискретного двумерного числового поля Im={Imxy}, x=1..DimX, y=1..DimY, Imxy[0..2N-1] к представлению в виде множества событий E(Im)={ek} не является ни очевидным ни даже обоснованным. Попробуем его обосновать.
Пусть известна вероятностная модель изображения объекта PM(H)={p(Im/H), p(Im/HC), p(H)}. И пусть решение об обнаружении объекта принимается на основании значения апостериорной вероятности P(H/Im) в соответствии с выражением (.7). Пусть дан также набор событий E(Im)={ek}=func(Im), характеризуемый соответственно событийной моделью PE(H)={p(E(Im)/H), p(E(Im)/HC), p(H)}. При каких условиях решения, принятые на основании модели PE(H), будут в точности равны решениям, принятым на основании модели PM(H)? Очевидно, в том случае, когда
P(H/Im)=P(H/E(Im)), (.9)
то есть выражения (.7) и (.7’) дают одинаковый результат.
Определение.3. Пусть u и v - два описания изображения, причем u=u(v) - некоторая функция от v. Пусть также некоторый параметр x принимает свои значения на соответствующем множестве. Тогда u называется достаточной статистикой для v относительно параметра x или семейства распределений {p(v/x): xX}, если условная плотность p(v/u,x) не зависит от х.
В работе [1] доказано следующее достаточное условие достаточности статистики при проверке альтернативных гипотез:
Утверждение 1. Пусть u и v - два описания изображения, причем u=u(v). Пусть также дан некоторый набор альтернативных гипотез H={Hi:HiHj=}, составляющих полную группу событий. Тогда u будет достаточной статистикой для v относительно гипотез из H или семейства распределений {p(v/Hi): HiH}, если справедливо равенство P(Hi/v)=P(Hi/u) для всех HiH.
Определение.4. Пусть u и v - два описания изображения, причем u=u(v). Пусть H={H,HC} - набор альтернативных гипотез, составляющих полную группу событий. Тогда вероятностные модели P(v,H)={p(v/H),p(v/HC),p(H)} и P(u,H)={p(u/H),p(u/HC),p(H)}, связанные условием
P(H/v)=P(H/u)
будем называть адекватными относительно H.
Таким образом из введенных определений, утверждения 1 и условия (.9) следует, что переход от описания Im к описанию E(Im) является обоснованным только в том случе, когда E(Im) является достаточной статистикой для Im относительно гипотезы H. Только при этом условии вероятностные модели PE(H) и PM(H) будут адекватными.
Дадим следующую семантическую интерпретацию условию достаточности статистики вида “p(v/u,x) не зависит от х”. Пусть под множеством событий E(Im) понимается совокупность контурных точек вместе с их координатами, и гипотеза Hi состоит в том, что на изображении находится объект некоторой i-й формы. Конкретные значения пикселов зависят, очевидно, от условий регистрации (освещенность + параметры камеры), между тем, контурный препарат является инвариантным к этим условиям носителем искомой информации. В этом случае действительно при любом объекте Hi справедливо равенство p(Im/E(Im),Hi) =p(Im/E(Im)), где p(Im/E(Im)) - вероятность некоторой полутоновой “раскраски” контурного изображения, описывающая условия регистрации изображения, никак не зависящие от характера наблюдаемого объекта.
Полезным с практической точки зрения представляется также ввести следующее понятие:
Определение.5. Пусть u и v - два описания изображения, причем u=u(v). Пусть H={H,HC} - набор альтернативных гипотез, составляющих полную группу событий. Тогда вероятностная модель P(u,H)={p(u/H),p(u/HC),p(H)} называется загрублением модели P(v,H)={p(v/H),p(v/HC),p(H)}, если P(H/v)(P(H/u).
Использование загрубленных моделей может быть полезно на предварительном этапе тестирования гипотез, когда необходимо обеспечить только отсутствие ошибок второго рода (т.е. пропусков), и предполагается что ошибки первого рода (ложные обнаружения) будут отбракованы в дальнейшем.
Так или иначе, далее под обозначением P(H/Im) мы будем всегда понимать P(H/E(Im)), где E(Im) - событийное описание изображения.
- «Обработка изображений и распознавание образов» Визильтер Юрий Валентинович Методическое пособие-2010
- Раздел 2. Распознавание образов. 165
- 1.1. Задачи и приложения машинного зрения. Примеры практических приложений.
- Уровни и методы машинного зрения
- Растровое изображение Изображение как двумерный массив данных
- Алгебраические операции над изображениями
- Физическая природа изображений
- Изображения различных диапазонов длин волн
- Изображения различной физической природы
- Тип пикселя
- Возможности и особенности системыPisoft
- Базовые средства просмотра и анализа изображений и видеопоследовательностей
- Алгебра изображений
- Геометрические преобразования изображений
- Устройства оцифровки и ввода изображений
- Линейки и матрицы, сканеры и камеры
- Геометрия изображения
- Цифровые и аналоговые устройства
- Пространственное разрешение
- Программное обеспечение
- Обработка цветных изображений
- Цветовая модельRgb
- Цветовая модель hsv
- Цветовая модель yuv
- Цветовая сегментация изображения
- Гистограмма и гистограммная обработка изображений
- Профиль вдоль линии и анализ профиля
- Проекция и анализ проекции
- Бинаризация полутоновых изображений
- Сегментация многомодальных изображений
- Выделение и описание областей
- Выделение связных областей на бинарных изображениях
- 1. Отслеживающие алгоритмы на примере алгоритма обхода контура.
- 2. Сканируюющие алгоритмы.
- 1.3. Фильтрация. Выделение объектов при помощи фильтров
- Оконная фильтрация изображений в пространственной области
- Фильтрация бинарных изображений Модель шума «соль и перец»
- Структура оконного фильтра
- Логическая фильтрация помех
- Бинарная медианная фильтрация
- Бинарная ранговая фильтрация
- Взвешенные ранговые фильтры
- Анизотропная фильтрация
- Расширение-сжатие (простая морфология)
- Стирание бахромы
- Нелинейная фильтрация полутоновых изображений
- Ранговая оконная фильтрация
- Минимаксная фильтрация
- Задача выделения объектов интереса
- Бинарные фильтры для выделения объектов
- Метод нормализации фона
- Скользящее среднее в окне
- Гауссовская фильтрация
- Преобразование Фурье. Линейная фильтрация в частотной области
- Преобразование Фурье
- Комплексное представление преобразования Фурье
- Быстрое преобразование Фурье
- Двумерное преобразование Фурье
- Свертка с использованием преобразования Фурье
- Фильтрация изображений в частотной области
- Вейвлет-анализ
- Пирамида изображений
- Вейвлет-преобразование
- Операторы вычисления производных
- Операторы вычисления векторов градиентов
- Операторы Марра и Лапласа
- Постобработка контурного изображения Локализация края
- Утончение контура
- Сегментация полутоновых изображений
- Пороговая и мультипороговая сегментация
- Методы слияния, разбиения и слияния/разбиения областей
- Способы описания выделенных областей
- Текстурные признаки
- 1.6.Морфологические методы анализа сцен (по ю.П. Пытьеву) Методы обнаружения объектов, заданных эталонами
- Согласованная фильтрация.
- Корреляционное обнаружение.
- Морфологический подход ю.П. Пытьева.
- Форма изображения как инвариант преобразований изображений, отвечающих вариациям условий регистрации
- Сравнение изображений по форме
- Выделение отличий изображений по форме
- Обнаружение объекта по его изображению и оценка его координат
- *Морфология на базе кусочно-линейной интерполяции
- Преобразование Хафа для поиска прямых
- *Различные способы параметризации прямых
- Преобразование Хафа для поиска окружностей
- Анализ аккумулятора при поиске геометрических примитивов
- Обобщенное преобразование Хафа
- *Специализированная процедура голосования для поиска эллипсов
- *Рекуррентное преобразование Хафа в скользящем окне
- 1.8.Математическая морфология (по ж. Серра)
- Морфологические операции на бинарных изображениях
- Морфологические операции на полутоновых изображениях
- Морфологическое выделение «черт» и объектов
- Морфологический спектр
- Морфологические скелеты. Непрерывная бинарная морфология Непрерывная бинарная морфология
- Непрерывное гранично-скелетное представление изображения
- Обработка и использование скелета
- *Обобщенные скелетные представления бинарных фигур
- Алгоритмы утончения дискретного бинарного изображения
- *Регуляризация скелетов
- Типы нерегулярностей скелета
- Устранение нерегулярностей
- Регуляризация скелета по Тихонову
- *Селективные морфологии
- 1.9. Анализ движения. Выделение движущихся объектов. Разность кадров. Вычитание фона. Анализ оптических потоков. Слежение за движущимися объектами. Корреляционное слежение.
- Обучение с учителем. Детерминированные методы, основанные на «близости». Линейные решающие правила. Метод построения эталонов. Метод ближайшего соседа. Методkближайших соседей.
- Линейные решающие правила
- Метод построения эталонов
- Методы ближайших соседей
- Параметрические и непараметрические методы
- Дискриминантные и моделирующие методы обучения
- Способность распознавателя к обобщению. Регуляризация.
- Байесовская теория решений. Случай двух классов. Классификаторы, разделяющие функции и поверхности решений. Вероятности ошибок. Разделяющие функции для случая нормальной плотности.
- Дискриминантный анализ. Линейный дискриминант Фишера. Персептронная функция критерия. Линейный дискриминантный анализ (lda,дискриминант Фишера)
- Персептрон Розенблатта
- Анализ свидетельств
- Байесовское объединение свидетельств
- Структурное распознавание
- Автоматизированное конструирование алгоритмов обнаружения объектов на основе преобразований модельных описаний объектов.
- Нейросетевое распознавание
- Нейронные сети ассоциативной памяти. Сети Хопфилда.
- Многослойные персептроны. Оптимизационное обучение. Метод обратного распространения ошибки.
- Многослойные персептроны. Правило Хебба.
- *Связь с байесовским распознаванием
- Сети встречного распространения. Самоорганизующиеся сети.