7.1.2. Традиционные модели неточности и неопределенности
Традиционно используются два средства представления неполноты данных: теория вероятностей и теория ошибок [98-100].
Сегодня теория вероятностей – вполне разработанная математическая теория с ясными и общепринятыми аксиомами. Основная из них – аксиома аддитивности вероятностей совместных событий. Споры вокруг теории вероятностей касаются ее интерпретации: какого рода действительность хотят выразить с помощью этой математической модели? Исторически ею пользовались в основном для «подсчета шансов» в азартных играх, причем вероятность события определялась отношением числа благоприятных исходов к числу возможныхисходов. Недостаточная строгость этого определения породила школу частотной интерпретации вероятности, в которой вероятность рассматривается как предел частот наблюдаемых событий. Третья, так называемая субъективистская школа, попыталась избежать трудностей приложений теории, с которыми сталкиваются «частотники» (требований достаточного числа наблюдений, повторяемости экспериментов и т.д.), предложив интерпретацию вероятности как меры неуверенности. Значение вероятности при этом понимается как число, пропорциональное сумме, которую субъект согласится заплатить в том случае, если высказывание, являющееся по его утверждению истинным, в действительности окажется ложным. Было показано, что подобным образом определенная мера неуверенности подчиняется аксиомам теории вероятностей, если только поведение субъекта удовлетворяет условиям «рациональности» (Сэвидж) [98]. Исходя из этого «субъективисты» стали утверждать, что аксиомы Колмогорова – единственные рациональные условия для оценки чувства неуверенности. Субъективные вероятности не позволяют проводить различия между этими двумя уровнями информированности и представляются малопригодными в ситуациях, когда информации мало. В вероятностной модели особенно плохо учитывается предельный случай полного незнания, поскольку в ней всегда предполагается заданным множество взаимно независимых событий, которым в силу принципа максимума энтропии приписываются равные вероятности (в конечном случае). Тогда идентификация всех этих событий исключена и кажется спорным, что значения неопределенности, связанные с этими событиями, зависят от числа рассматриваемых альтернатив, как в случае вероятностей.
С практической точки зрения очевидно, что числа, назначаемые субъектами для вероятностного описания уровня их информированности, должны рассматриваться как приближенные оценки. Теория субъективных вероятностей не затрагивает этот тип неточности и полагает, что «рациональный индивидуум» должен в результате процедур оценивания задавать точные числа.
Отметим также, что теория вероятностей представляется слишком нормативной для выражения всех аспектов субъективного суждения. Теория же ошибок [99, 101], часто используемая в физике, отражает лишь неточность средств измерения, выраженную в интервальной форме, в величинах, оцениваемых с помощью этих средств. То есть, в математическом плане определяется образ отображения, аргументы которого суть подмножества. Теория ошибок не признает вариантов: если неизвестно точное значение параметра, то точно известны пределы его изменения. Заметим, что когда задана мера неточности величины, то предложения типа: «принадлежит интервалу-будут естественным образом характеризоваться с помощью модальностей «возможно» и «необходимо», так как:
если пересечение непусто, то «», возможно, истинно;
если , то «» с необходимостью истинно.
Здесь выявляются связи между этими модальностями и теорией множеств: возможность оценивается с помощью теоретико-множественногопересечения содержаний идвух высказываний: «» и «», а необходимость вычисляется, исходя из отношений вложенности.
Принцип «все или ничего» - характерная черта теории ошибок[98], тогда как в теории вероятностей учитываются оттенки, градации неопределенности. Это вводит определенные различия между ними. Теория вероятностей не обобщает теорию ошибок, поскольку распределение вероятностей для функции равномерно распределенных случайных переменных (вероятностный аналог интервала ошибки) в общем случае не является равномерным, поэтому здесь предлагается вариант канонического обобщения теории ошибок, позволяющий учитывать оттенки неопределенности.
Часто оказывается, что неточность типа ошибки измерения присутствует в самой серии испытаний, проводимых для определенияслучайного явления. В этом случае без введения дополнительных гипотез не удается представить полученную информацию в чисто вероятностнойформе, так как основная гипотеза, обеспечивающая применимость теории вероятностей в математической статистике, состоит в том, что пространство испытаний необходимо поставить во взаимно однозначное соответствие с пространством событий [46]. С каждым событием связывается множество его реализаций (непустое, если только данное событие не является невозможным), и для любой пары различных событий существует, по крайней мере, одно испытание, в котором одно событие исключает другое. Эта гипотеза позволяет разбить достоверное событие на элементарные события, каждое из которых соответствует какой-то реализации. При обработке статистических данных это приводит к предположению о существовании такого разбиения множества реализаций, что результат всякого эксперимента можно будет сопоставить с одним, и только одним элементом этого разбиения, т.е., результат- есть элементарное событие.
Можно отыскать такие ситуации, в которых гипотеза о разбиении испытаний не справедлива. Например, если измерения дают интервалы ошибок, то вообще мало шансов сопоставить их с непересекающимися классами реализаций. Физик часто оказывается в противоположной ситуации: ему требуется получить пересекающиеся интервалы, порожденныенезависимыми измерениями, чтобы иметь возможность с помощью проверки уменьшить ошибку измерения. Отсюда видно, что даже в случае «объективных» повторяющихся явлений не всегда можно напрямую применять теорию вероятностей. Вероятностная модель приспособлена к обработке точной, но распределенной по реализациям информации. Как только возникает неточность в отдельной реализации, модель становится неприменимой.
В то время как вероятности были приспособлены к обработке точных, но противоречивых результатов испытаний, меры возможности станут естественным средством для построения баз знаний, хотя и неточных, но согласованных.
- Предисловие
- Список использованных сокращений
- Часть 1.
- Глава 1. Математические основы формализации и методов описания
- Часть 2.
- Глава 2. Методы представления знаний с использованием
- Часть 3.
- Глава 3. Интеллектуальные технологии создания информационных систем. Способы получения информации и ее реализации для оценивания состояния агрегатов
- Часть 4.
- Глава 4. Источники информации и причины возникновения ее неопределенности
- 4.1. Переработка и использование информации в реальных условиях функционирования агрегатов
- Часть 5.
- Список использованных сокращений и обозначений
- Введение:
- Часть 1.
- Глава 1. Математические основы формализации и методов описания
- Формализация объекта и парадигмы
- 1.3. Множества и перечень базовых операций над множествами
- Перечень базовых операций над множествами
- Области определения функций
- Обратная функция
- Теорема
- Мера и нечеткая мера
- Задача построения нечетких мер
- Нечеткие множества: определение и формы записи в операциях и
- 1.7.Функции доверия и правило Демпстера а.Р.,[23]
- 1.8. Нормировка функций в теории нечётких множеств
- 1.9. Нечёткие отношения: прямая и обратная задачи
- Глава 2. Методы представления знаний с использованием приближенных и нечетких множеств
- 2.1.Нечеткие вычислительные технологии
- 2.2.Семантика объекта: определение и типизация
- 2.3.Создание Базы знаний: постановка, семантика, прагматика
- 2.4. Сопоставление объектов: постановка, семантика, прагматика
- 2.5.Распознавание объектов: постановка, семантика, прагматика
- 2.6. Управление процессом представления знаний
- Нечёткие множества: субъективность и неточность
- 2.8.Нечеткая алгебра
- 2.9.Нечеткие иерархические отношения
- 2.10.Естественность операций max и min
- 2.11.Нечеткая статистика
- 2.12. Совместимость и нечеткое ожидание
- Глава 3. Нечеткие технологии создания информационных систем. Способы получения информации и ее реализации для оценивания состояния агрегатов
- 3.2. Обработка нечетких данных как неопределенных чисел
- Методология представления агрегата в виде комплексного механизма
- 3.2.2. Описание исходной информации на языке размытых множеств
- Размытость интервалов, ограничений, критериев и целей управления в эксплуатации и диагностике
- 3.3.3. Размытые ограничения, цели и оптимизация работы агрегата в условиях нечеткой информации о состоянии
- Анализ информации для диагностики и оценивания состояния механизмов
- 3.5. Оценки погрешностей измерений и наблюдений за состоянием агрегатов
- Влияние погрешностей исходных данных на погрешности диагноза
- Глава 4. Источники информации и причины возникновения ее неопределенности
- 4. 2. Управление и идентификация на объекте в условиях неопределенности информации на основе знаний, получаемых при функциональной диагностике
- Тогда множество диагностических признаков g также будет нечетким
- 4.3.Представление и использование чётких и «размытых» знаний в математических моделях оценивания состояния агрегатов, на основе функциональной диагностики
- 4.3.1.Формализация решения задачи оценивания состояния
- 4.3.2. Особенности решения задач контроля и функционирования агрегата
- Глава 5. Введение в генетическое программирование
- 5.1. Введение в генетические и эволюционные алгоритмы
- 5.2. Сравнительный анализ эволюционных алгоритмов
- 5.3. Генетическое программирование
- 5.4. Перспективные направления развития гп
- Глава 6. Введение в нейронные сети
- 6.1. Алгоритмы их обучение и эластичные нейро-нечеткие системы
- 6.2. Имитация нервных клеток
- 6.3. Математическая модель нейрона
- 6.4. Обучение нейронных сетей
- 6.5. Метод обратного распространения ошибки
- 6.6. Алгоритм настройки нейронной сети
- Глава 7. Другие методы нечетких технологий для построения
- 7.1. Введение в теорию возможностей и смысла
- 7.1.1. Неопределенность и неточность
- 7.1.2. Традиционные модели неточности и неопределенности
- 7.1.3. Меры неопределенности
- 7.1.4. Меры возможности и необходимости
- 7.1.5. Возможность и вероятность
- 7.2. Языки и технологии логического программирования prolog, lisp
- Глава 8. Послесловие
- 8.1. Эволюция искусственного интеллекта для развития интеллектуальных
- 8.2.Экспертные системы нового уровня
- 8.3. Роботика
- 8.4. Преобразование речи искусственного языка
- 8.5. Интеллект муравьёв и его использование
- 8.6. Искусственная жизнь, мозг, познание, разум, память и мышление
- 8.7. Боты
- Optimizator подсистемы диагностики состояния энергоустановок, skais, для решения задач технического обслуживания
- Заключение
- Заключение
- Литература