Классифика торы образов
Априорную плотность вероятности можно оценить различными способами. В параметрических методах предполагается, что плотность вероятности (PDF) является функцией определенного вида с неизвестными параметрами. Например, можно попробовать приблизить PDF при помощи гауссовой функции. Для того чтобы произвести классификацию, нужно предварительно получить оценочные значения для вектора среднего и матрицы ковариаций по каждому из классов данных и затем использовать их в решающем правиле. В результате получится полиномиальное решающее правило, содержащее только квадраты и попарные произведения переменных. Вся описанная процедура называется квадратичным дискриминантным анализом (QDA). В предположении, что матрицы ковариаций у всех классов одинаковы, QDA сводится к линейному дискриминантному анализу (LDA).
В методах другого типа - непараметрических - никаких предварительных предположений о плотности вероятности не требуется. В методе «k ближайших соседей» (kNN) вычисляется расстояние между вновь поступившим образцом и векторами обучающего множества, после чего образец относится к тому классу, к которому принадлежит большинство из k его ближайших соседей. В результате этого границы, разделяющие классы, получаются кусочно-линейными. В различных модификациях этого метода используются различные меры расстояния и специальные приемы нахождения соседей. Иногда вместо самого множества образцов берется совокупность центроидов, соответствующих кластерам в методе адаптивного векторного квантования (L VQ).
В других методах классификатор разбивает данные на группы по схеме дерева. На каждом шаге подгруппа разбивается надвое, и в результате получается иерархическая структура бинарного дерева. Разделяющие границы получаются, как правило, кусочно-линейными и соответствуют классам, состоящим из одного или нескольких листьев дерева. Этот метод хорош тем, что он порождает метод классификации, основанный на логических решающих правилах. Идеи древовидных классификаторов применяются в методах построения самонаращивающихся нейронных классификаторов.
- Глава 13. Нейронные сети
- 13.1. Архитектура нейронных сетей
- Различные виды искусственных нейронов
- Различные виды функции активации
- Нейронные сети с прямой связью
- 13.2. Алгоритмы обучения нейронных сетей
- Критерии ошибок
- Обратное распространение ошибки
- Импульс
- Другие алгоритмы обучения
- Перекрестное подтверждение
- 13.3. Динамические сети
- Нейронные сети с временной задержкой
- 13.4. Самоорганизующиеся сети
- Практическое применение нейронных сетей для задач классификации (кластеризации)
- Цель классификации
- Использование нейронНblХ сетей в качестве классификатора
- Подготовка исходных данных
- Кодирование выходных значений
- Вероятностная классификация
- Классифика торы образов
- Нейронная сеть с прямой связью как классификатор
- 13.6. Применение нейронных сетей для анализа временных рядов задача анализа временных рядов
- Статистический анализ временных рядов
- Сбор данных
- Нейронные сети как средство добычи данных
- Очистка и преобразование базы данных
- Построение модели
- Программное обеспечение
- Финансовый анализ на рынке ценных бумаг
- Литература