7.1.5. Возможность и вероятность
Когда имеется информация о появлении событий в форме измеренных частот элементарных событий, полученная мера неопределенности естественным образом удовлетворяет аксиоме аддитивности
(7.19)
т.е. становится вероятностной мерой, [97] которая, конечно, является монотонной в смысле условия (7.2). Формула (7.19) – вероятностный эквивалент аксиом (7.6) и (7.11).
Условие, эквивалентное условиям (7.9) и (7.14), для конечного случая записывается в виде
(7.20)
где
Условие нормировки является аналогом условия (7.10). Общая черта вероятностных мер, мер возможности и необходимости заключается в том, что все они могут характеризоваться некоторыми распределениями на элементах универсального множества.
Здесь аналогом соотношений (7.8) и (7.15) является хорошо известное соотношение
(7.21)
в то время, как из (7.8) и (7.15), следуют лишь неравенства
(7.22)
(7.23)
Из этих соотношений видно одно из главных различий между возможностью и вероятностью. Вероятность некоторого события полностью определяет вероятность противоположного события. Возможность (или необходимость) некоторого события и возможность (необходимость) противоположного ему события связаны слабее; в частности, для того, чтобы охарактеризовать неопределенность по отношению к событию , требуется два числаи, удовлетворяющие условию (7.17) или (7.18).
Когда моделируется субъективное суждение, кажется естественным стремление не устанавливатьжесткой связи между показателями, свидетельствующими в пользу некоторого события (степень необходимости), и показателями, свидетельствующими против него (степень возможности). В этой ситуации понятие вероятности оказывается менее гибким, чем понятие меры возможности.
Даже когда сохраняется требование аддитивности, можно построить меры возможности и необходимости, если не требовать дополнительно, чтобы значения вероятностей (распределение p) относились к элементарным событиям. Точнее, пусть непустые, попарно различные подмножества(предполагаемого конечным), с соответствующими значениями вероятноститакими, что
(7.24)
и (7.25)
Величина понимается как значение вероятности совокупности элементарных событий, составляющих, причем здесь не оговаривается распределение величины
по элементарным событиям. Подмножества называются «фокальными элементами» и могут отражать неточность наблюдений. В этой ситуации вероятность события можно охарактеризовать лишь неточно как величину, содержащуюся в интервале с границами
(7.26)
(7.27)
Значение вычисляется по всем фокальным элементам, которые делают необходимым появление события(или влекут за собой событие). Значениеполучается при рассмотрении всех фокальных элементов, которые делают возможным появление события. Отметим, что имеется отношение двойственности междуи:
(7.28)
Доказано (Шейфер [24]), что функция (соответственно) удовлетворяют аксиоме (7.6) (соответственно (7.11)), т.е. является мерой возможности (соответственно необходимости) тогда и только тогда, когда фокальные элементы образуют последовательность вложенных множеств. А именно еслито функция распределения возможностей, связанная си, определяется в виде
(7.29)
Ясно, что если, наоборот, фокальные элементы являются элементарными (а значит, несовместными) событиями, тот.е. снова возвращаемся к вероятностной мере.
Если схематично представить базу знаний с помощью множества фокальных элементов, которые являются составляющими «значение» в наборе, описывающем информационную единицу, то легко понять, что вероятностные меры [17], естественным образом синтезируют базу точных и дифференцированных знаний, тогда как меры возможности [97], суть отражение неточных, но связных (т.е. подтверждающих друг друга) знаний. Отметим, что функции возможности в этом смысле более естественны для представления чувства неуверенности: от субъекта не ждут слишком точной информации, но желают услышать по возможности наиболее связную речь. Зато точные, но флуктуирующие, данные чаще всего получают из наблюдений физического явления.
Несомненно, в базе знаний будет содержаться информация, которая в общем случае не сведется ни к точной, ни к полностью согласованной информации. Вероятность, с одной стороны, и пара «возможность-необходимость» - с другой соответствуют двум крайним, а значит, идеальным ситуациям.
Формулы (7.26) и (7.27) позволяют считать, что функция распределения возможностей определяет класс вероятностных мер Р, такой, что
(7.30)
Это позволяет строго определить понятие математического ожидания в рамках мер возможности. Если f- функция, определенная на и принимающая значения из множества действительных чисел, то верхние и нижние математические ожиданияf, обозначаемые соответственно, определяются с помощью интегралов Лебега-Стилтьеса (Демпстер [23]):
(7.31)
(7.32)
Названия верхних и нижних математических ожиданий оправдываются тождествами
(7.33)
Эти соотношения были получены Демпстером для случая, когда множество
конечно; более общий случай описан в данной работе.
- Предисловие
- Список использованных сокращений
- Часть 1.
- Глава 1. Математические основы формализации и методов описания
- Часть 2.
- Глава 2. Методы представления знаний с использованием
- Часть 3.
- Глава 3. Интеллектуальные технологии создания информационных систем. Способы получения информации и ее реализации для оценивания состояния агрегатов
- Часть 4.
- Глава 4. Источники информации и причины возникновения ее неопределенности
- 4.1. Переработка и использование информации в реальных условиях функционирования агрегатов
- Часть 5.
- Список использованных сокращений и обозначений
- Введение:
- Часть 1.
- Глава 1. Математические основы формализации и методов описания
- Формализация объекта и парадигмы
- 1.3. Множества и перечень базовых операций над множествами
- Перечень базовых операций над множествами
- Области определения функций
- Обратная функция
- Теорема
- Мера и нечеткая мера
- Задача построения нечетких мер
- Нечеткие множества: определение и формы записи в операциях и
- 1.7.Функции доверия и правило Демпстера а.Р.,[23]
- 1.8. Нормировка функций в теории нечётких множеств
- 1.9. Нечёткие отношения: прямая и обратная задачи
- Глава 2. Методы представления знаний с использованием приближенных и нечетких множеств
- 2.1.Нечеткие вычислительные технологии
- 2.2.Семантика объекта: определение и типизация
- 2.3.Создание Базы знаний: постановка, семантика, прагматика
- 2.4. Сопоставление объектов: постановка, семантика, прагматика
- 2.5.Распознавание объектов: постановка, семантика, прагматика
- 2.6. Управление процессом представления знаний
- Нечёткие множества: субъективность и неточность
- 2.8.Нечеткая алгебра
- 2.9.Нечеткие иерархические отношения
- 2.10.Естественность операций max и min
- 2.11.Нечеткая статистика
- 2.12. Совместимость и нечеткое ожидание
- Глава 3. Нечеткие технологии создания информационных систем. Способы получения информации и ее реализации для оценивания состояния агрегатов
- 3.2. Обработка нечетких данных как неопределенных чисел
- Методология представления агрегата в виде комплексного механизма
- 3.2.2. Описание исходной информации на языке размытых множеств
- Размытость интервалов, ограничений, критериев и целей управления в эксплуатации и диагностике
- 3.3.3. Размытые ограничения, цели и оптимизация работы агрегата в условиях нечеткой информации о состоянии
- Анализ информации для диагностики и оценивания состояния механизмов
- 3.5. Оценки погрешностей измерений и наблюдений за состоянием агрегатов
- Влияние погрешностей исходных данных на погрешности диагноза
- Глава 4. Источники информации и причины возникновения ее неопределенности
- 4. 2. Управление и идентификация на объекте в условиях неопределенности информации на основе знаний, получаемых при функциональной диагностике
- Тогда множество диагностических признаков g также будет нечетким
- 4.3.Представление и использование чётких и «размытых» знаний в математических моделях оценивания состояния агрегатов, на основе функциональной диагностики
- 4.3.1.Формализация решения задачи оценивания состояния
- 4.3.2. Особенности решения задач контроля и функционирования агрегата
- Глава 5. Введение в генетическое программирование
- 5.1. Введение в генетические и эволюционные алгоритмы
- 5.2. Сравнительный анализ эволюционных алгоритмов
- 5.3. Генетическое программирование
- 5.4. Перспективные направления развития гп
- Глава 6. Введение в нейронные сети
- 6.1. Алгоритмы их обучение и эластичные нейро-нечеткие системы
- 6.2. Имитация нервных клеток
- 6.3. Математическая модель нейрона
- 6.4. Обучение нейронных сетей
- 6.5. Метод обратного распространения ошибки
- 6.6. Алгоритм настройки нейронной сети
- Глава 7. Другие методы нечетких технологий для построения
- 7.1. Введение в теорию возможностей и смысла
- 7.1.1. Неопределенность и неточность
- 7.1.2. Традиционные модели неточности и неопределенности
- 7.1.3. Меры неопределенности
- 7.1.4. Меры возможности и необходимости
- 7.1.5. Возможность и вероятность
- 7.2. Языки и технологии логического программирования prolog, lisp
- Глава 8. Послесловие
- 8.1. Эволюция искусственного интеллекта для развития интеллектуальных
- 8.2.Экспертные системы нового уровня
- 8.3. Роботика
- 8.4. Преобразование речи искусственного языка
- 8.5. Интеллект муравьёв и его использование
- 8.6. Искусственная жизнь, мозг, познание, разум, память и мышление
- 8.7. Боты
- Optimizator подсистемы диагностики состояния энергоустановок, skais, для решения задач технического обслуживания
- Заключение
- Заключение
- Литература