Тема 2. Основные понятия теории Марковских процессов.
Функция Х(t) называется случайной, если ее значение при любом аргументе t является случайной.
Случайная функция Х(t) , аргументом которой является время, называется случайным процессом.
Марковские процессы являются частным видом случайных процессов. Особое место Марковских процессов среди других классов случайных процессов обусловлено следующими обстоятельствами: для Марковских процессов хорошо разработан математический аппарат, позволяющий решать многие практические задачи; с помощью Марковских процессов можно описать поведение достаточно сложных систем.
Определение. Случайный процесс, протекающий в какой либо системе S, называется Марковским, если он обладает следующим свойством: для любого момента времени вероятность любого состояния системы в будущем (при ) и не зависит от того, когда и каким образом система S пришла в это состояние.
Классификация Марковских процессов. Классификация Марковских случайных процессов производится в зависимости от непрерывности и дискретности множества значений функций Х(t) и параметра t. Различают следующие основные виды Марковских случайных процессов:
- с дискретными состояниями и дискретным временем (цепь Маркова);
- с непрерывными состояниями и дискретным временем (марковские последовательности);
- с дискретными состояниями и непрерывным временем (непрерывная цепь Маркова);
- с непрерывным состоянием и непрерывным временем.
Граф состояний. Марковские процессы с дискретными состояниями удобно иллюстрировать с помощью так называемого графа состояний , где кружками обозначены состояния S1,S2,….,Sn системы S, а стрелками- возможные переходы из состояния в состояние. На графе отмечаются только непосредственные переходы, а не переходы через другие состояния . Возможные задержки в прежнем состоянии изображают «петлей», т.е. стрелкой, направленной из данного состояния в него же. Число состояний системы может быть как конечным, так и бесконечным (но счетным ).
Рисунок 1 - Граф состояния системы S.
Марковские цепи
Марковский случайные процесс с дискретными состояниями и дискретным временем называют Марковской цепью. Для такого процесса моменты , когда система S может менять свое состояние, рассматривают как последовательные шаги процесса, а в качестве аргумента, от которого зависит процесс, выступает не время t, номер шага 1, 2, ….., k, … Случайный процесс в этом случае характеризуется последовательностью состояний S(0), S(1), S(2),…..,S(k),…, где S(0)- начальное состояние системы (перед первым шагом); S(1)- состояние системы после первого шага; S(k)- состояние системы после k-го шага…
Событие {S(k)=Si}, состояние в том, что сразу после k-го шага система находится в состоянии Si(i=1,2,…), является случайным событием. Последовательность сосотояний S(0), S(1), S(2),…..,S(k),… можно рассматривать как последовательность случайных событий. Такая случайная последовательность событий называется Марковской цепью, если для каждого шага вероятность перехода из любого состояния Si в любом Sj не зависит от того, когда и как система пришла в состояние Si. Начальное состояние S(0) может быть заданием заранее или случайным.
Вероятностями состояний цепи Маркова называются вероятности того, что после k-го шага (и до (k+1)-го ) система S будет находиться в состоянии Si(i=1,2,…,n) . Очевидно, для любого k
Начальным распределением вероятностей Марковской цепи называется распределение вероятностей состояний в начале процесса:
P1(0),P2(0),…..,Pi(0),…,Pn(0).
В частном случае, если первоначальное состояние системы S в точности известно S(0)= Si, то начальная вероятность Pi(0)=1, а все остальные равны нулю. Вероятность перехода на k-м шаге из состояния Si в состояние Sj при условии , что непосредственно перед этим она находится в состоянии Si. Поскольку система может пребывать в одном из n состояний, то для каждого момента времени t необходимо задать вероятностей перехода Pij, которое удобно представить в виде следующей матрицы:
где Pij- вероятность перехода за один шаг из состояния Si в состояние Sj, Pii- вероятность задержки системы в состояние Si .
Матрица называется переходной или матрицей переходных вероятностей. Если переходные вероятности не зависят от номера шага, а зависят только от того, из какого состояния в какое осуществляется переход, то соответствующая цепь Маркова называется однородной. Переходные вероятности однородной Марковской цепи Pij образуют квадратную матрицу размера n*n. Отметим некоторые ее особенности:
-
Каждая строка характеризует выбранное состояние системы, а ее элементы представляют собой вероятности всех возможных переходов за один шаг из выбранного состояния, в том числе и переход в самое себя.
-
Элементы столбцов показывают вероятности всех возможных переходов системы за один шаг в заданное состояние (иначе говоря, строка характеризует вероятность перехода системы из состояния, столбец -в состояние).
-
Сумма вероятностей каждой строки равна единице, так как переходы образуют полную группу несовместных событий:
-
По главной диагонали матрицы переходных вероятностей стоят вероятности Pii того, что система не выйдет из состояния Si, а останется в нем.
Если для однородной Марковской цепи заданы начальное распределение вероятностей и матрица перехода вероятностей ||Pij|| , то вероятности состояний системы Pi(k) ().
- Тема 1. Классификация моделей.
- Тема 1. Классификация моделей.
- Основные признаки классификации моделей.
- Область использования.
- Учет в модели временного фактора.
- Способ представления модели.
- Тема 2. Классификация языков компьютерного моделирования.
- Тема 3. Этапы и цели компьютерного математического моделирования.
- Раздел 1. Задачи линейного программирования.
- Тема 1. Математическое программирование. Общий вид задач линейного программирования.
- Формулировка задачи.
- Геометрическая интерпретация задачи линейного программирования.
- Найти минимальное значение линейной функции
- Тема 2. Графический метод решения задач линейного программирования.
- Примеры задач, решаемых графическим методом.
- Обобщение графического метода решения задач линейного программирования.
- Тема 3. Симплекс - метод.
- Каноническая задача лп на максимум.
- Вспомогательная задача лп.
- Алгоритм метода искусственного базиса
- Вспомогательная задача лп.
- Алгоритм метода искусственного базиса.
- Тема 4. Транспортная задача.
- 4.2 Составление опорного плана.
- 4.3 Метод потенциалов.
- Раздел 2. Теория графов.
- Тема 1. Основные понятия теории графов.
- Элементы множества V называются вершинами графа g (или узлами), элементы множества u-его ребрами. Вершины и ребра графа называют также его элементами и вместо VV и u u пишут Vg и ug.
- 1.2 Операции над графами.
- 1.3.Связность графов.
- 1.4 Эйлеровы графы.
- 1.5 Гамильтоновы графы.
- Тема 2. Поиск пути в графе.
- 2.2 Путь минимальной суммарной длины во взвешенном графе с неотрицательными весами (алгоритм Дейкстры).
- 2.3 .Путь минимальной суммарной длины во взвешенном графе с произвольными весами для всех пар вершин (алгоритм Флойда).
- 2.4 Путь с минимальным количеством промежуточных вершин (волновой алгоритм).
- 2.5 Нахождение k путей минимальной суммарной длины во взвешенном графе с неотрицательными весами (алгоритм Йена).
- Тема 3. Задачи о минимальном остове.
- 3.1 Деревья.
- 3.1 Построение минимального остовного дерева (алгоритм Краскала).
- 3.1 Деревья.
- 3.1 .Построение минимального остовного дерева (алгоритм Краскала).
- Раздел 3. Динамическое программирование.
- Тема 1. Метод динамического программирования.
- 1.2 Идеи метода динамического программирования
- 1.3 Выбор состава оборудования для технологической линии.
- Исходные данные для примера
- Тема 2. Задача инвестирования.
- Тема 3. Замена оборудования.
- Тема 4. Задача о загрузке.
- 4.2 Рекуррентные соотношения для процедур прямой и обратной прогонки.
- 4.3 Решение задачи о загрузке.
- Раздел 4. Системы массового обслуживания (смо). (8 часов).
- Тема 1. Основные понятия теории массового обслуживания.
- Тема 2. Простейшие смо и нахождение их параметров.
- Перечень характеристик систем массового обслуживания можно представить следующим образом:
- 2. Одноканальная смо с неограниченной очередью
- 3. Одноканальная смо с неограниченной очередью, простейшим потоком заявок и произвольным распределением времени обслуживания
- 4. Одноканальная смо с произвольным потоком заявок и произвольным распределением времени обслуживания
- Раздел 5. Имитационное моделирование.
- Тема 1. Простейшие задачи, решаемые методом имитационного моделирования.
- Тема 2. Основные понятия теории Марковских процессов.
- Тема 3. Метод Монте – Карло.
- Раздел 6. Прогнозирование.
- Тема 1. Основная идея прогнозирования. Методы прогнозирования
- Тема 2.Теории экспертных оценок.
- Раздел 7. Теория игр.
- Тема 1. Основные понятия теории игр.
- 1. 1 Понятие об играх и стратегиях
- Тема 2. Простейшие методы решения задач теории игр.
- Раздел 8. Элементы теории принятия решений. (2 часа).
- Основные понятия.
- Принятие решений в условиях полной неопределенности
- Принятие решений при проведении эксперимента.
- 2. Принятие решений в условиях полной неопределенности
- 2.1 Максиминный критерий Вальда.
- Критерий равновозможных состояний.
- 3. Принятие решений при проведении эксперимента.
- 3.1. Принятие решений в условиях неопределенности.
- 3.2. Использование смешанной стратегии
- 3.3. Принятие решений в условиях риска