Optimizator подсистемы диагностики состояния энергоустановок, skais, для решения задач технического обслуживания
Диагностический контроль энергоустановок тепловой электростанции (ТЭС) осуществляется с помощью экспертной диагностической системы функционально-гибридного типа с именем SKAIS. SKAIS - «Система контроля, анализа и слежения за изменением состояния энергоустановки» - управляемый в диалоговом режиме программный комплекс, ориентированный на диагностирование и экспертизу энергоустановок любых типов. SKAIS позволяет на ранней стадии (с использованием экспресс - испытаний) диагностировать снижение экономичности, определять величину, причины и опасность происходящих изменений, прогнозировать состояние, оценивать надежность, остаточный ресурс, долговечность, степень риска и ущерб от продолжения дальнейшей эксплуатации энергоустановки. Система SKAIS осуществляет принятие решений на выход из создавшейся конфликтной ситуации (вывод в ремонт или введение ограничения) с представлением подготовленных в базе знаний рекомендаций (в виде готовых продукций - решающих правил) оперативному и ремонтному персоналу тепловой электростанции. Для этого создается база данных и знаний (БД и З) обо всех вынужденных остановах и дефектах оборудования, отклонениях от правил его нормальной эксплуатации.
Ключевые слова: Комбинационная оптимизация, четкая и нечеткая постановки решения, глобальный минимум функции цели, диагностика и экспертиза.
Введение
В интеллектуальном центре подсистемы контроля и диагностики энергоустановок ТЭС – , (рис.1, 2) работает программный модульпо схеме, (рис.3- 6, см. Приложение). Основное назначение модуля – программное решение задач минимизации функций цели, имеющих несколько минимумов, но достаточно гладких в окрестностях каждого из них. Вдали от минимумов допускаются неустранимые разрывы первого рода. Для нахождения окрестности глобального минимума используется изметод случайного поиска (его комбинация). Методом сопряженных градиентов минимум уточняется. При появлении «оврагов» градиентные методы отказываются работать. В этом случае подключается ковражный метод Гельфанда И.М., который позволяет осуществить многомерный поиск минимума, [7, 8]. Из точкипо двум направлениям выполняется наискорейший спуск на дно оврага, (рис.5-6, см. Приложение). Но срабатывает помеха! Для этого, при вычислении градиента, вначале берем шаг, а потом шаг, получаем точки, определяющие прямую линию – «дно оврага». По «дну оврага» выполняем еще один многомерный поиск минимума. Получим точку. При необходимости этот элемент поиска можно повторить. Последовательностьзадает убывающую последовательность целевой функции. После срабатывания правила остановки, когда реализуется заданный порог похожести, (рис. 5. и ПП с именемSIM), последняя полученная точка и значение функции в этой точке будут точкой глобального минимума.
Результаты анализа сравниваемых состояний представляются визуально, в виде их Порог похожести задается разработчиком -а. Точкиисчитаются лежащими на дне оврага (рис.6). Эти две точки определяют прямую линию, по которой осуществляется одномерный поиск минимума. Одно из направлений в точкеявляется градиентным. Второе направление будет случайным. Эта комбинация, детерминированного и случайного поиска, приводит к желаемому результату. Регулирующими параметрами элемента поиска является пара (), где- первоначальный шаг. В качестве правила остановки, при наискорейшем спуске на дно оврага и принятом механизме случайного выбора решения из полученного набора эвристик, используется принцип «похожести» точек [4,9]. Одной из эвристик алгоритма является предварительное знание об областии примерной зоне поиска, в которой находится минимум функции, а также знание об изменении параметров технологического процесса по их «похожести» (значениядолжны быть одинаковыми, или близкими). Эта информация позволит оценить первоначальный шаги значения функциив выбранных точках. функциональных значенийна экране монитора (рис.5, табл. П.1).
Похожесть диагностируемых состояний определяется с помощью программы РОХ из. . В геометрической интерпретации значенияотображают (представляют) собой колебательную линию, построенную по параметрам оцениваемого состояния относительно его эталонного значения, (рис.5).
Регулирование этими параметрами с использованием «меры похожести» позволяет эффективно (и визуально на экране монитора) применять диалоговый подход при оптимизации задач тепловой электростанции (ТЭС). В этом случае лицу принимающему решение (ЛПР) желательно иметь не одно, а группу хороших решений и возможности принятия решения по временидля последующего выбора окончательного оптимального решения (например, при базовом и переходном режимах работы энергоустановки). Для реализации этого в используемые эвристические правила вводится неопределенность исходной информации, благодаря чему и будет порождаться класс субоптимальных решений. Эвристические правила, обладающие ограниченной неопределенностью, назовем «размытыми» эвристиками [4,5]. Результатом поиска будет единственное решение, близость которого к оптимальному решению определяется величиной максимальной похожести, если мы имеем дело с тестовой задачей.
Тестовые задачи сконструированы авторами работы так, чтобы выделить особенности теплоэнергетического процесса, [4,5,9]. При опробовании а по схемена тестовых примерах (использованы функции Розенброка Х.Х. -и РастригинаЛ.А.-) алгоритм сходится, т.е. минимум осуществляется из любой начальной точки. Использование механизма случайного выбора решений позволяет расширять область возможных реализаций или сужать ее, в зависимости от ситуации и готовности энергоустановки по состоянию к выполнению режима.
Задачи математического программирования при четкой постановке, в приложении к задачам технической диагностики энергоустановок ТЭС, решаем следующим образом.
Пусть в области , определяемой ограничениями
,
(1)
задана целевая, в общем случае, нелинейная функция . Требуется найти такой, для которого справедливо
. (2)
Здесь условие (1) означает, что каждая компонента вектора (матрицы)изменяется в пределах от соответствующего наименьшего допустимого значениядо наибольшего допустимого значения. Количество компонент -. Любой векторназывается допустимым. Векторназовем оптимальным, если для любого другого векторавыполняется условие:
. (3)
Как известно из теории исследования операций, [2, 3], использование градиентных методов для решения многоэкстремальных задач затруднительно и малоэффективно, так как необходимы полные исследования целевой функции (определение, можно приближенное, вида поверхности, начальные приближения). Поэтому, как это подтверждает практика, наиболее результативными методами поиска минимума могут быть различные модификации случайного поиска. С этой целью в модуль включена модификация метода случайного поиска – метод “Монте-Карло”, [3, 9].
Формула изменения координат вектора имеет следующий вид:
(4)
где - случайное число,;
–нижние и верхние ограничения на переменные.
Из (4) следует, что точка при любомвсегда находится в области(в ограничителях). Для определения случайного числаиспользуется процедура RAND, вырабатывающая случайные числа, необходимые при поиске окрестности глобального минимума функции цели. Попадание в окрестность глобального минимума происходит с некоторой вероятностью:
(5)
где - объем зоны критерия глобального минимума;
- объем зоны поиска;
–количество случайных бросков.
Работа метода прекращается, если количество случайных бросков превышает заданное целое число . Из совокупности точек, полученных в результате случайных бросков, выбирается точка, которая соответствует наименьшему значению функции цели. Однако метод Монте-Карло нецелесообразно использовать для нахождения, так как вероятность случайного попадания в- окрестность на одном шаге поиска, определяемая отношением объемов– мерных гиперсфер с радиусамии(начальным расстоянием до цели), равна:
(6)
Среднее число шагов, необходимое для случайного попадания в - окрестность цели
(7)
имеет экспоненциальный характер и, следовательно, с ростом быстро растет и. В схемеэтот метод используется для двух целей:
1) проведение статистических испытаний и расчетных экспериментов на ЭВМ;
2) оценки окрестности глобального экстремума функции цели.
В последнем случае точка , найденная методом “Монте–Карло”, улучшается постепенным приближением к цели путем ограничения поиска зоной, стягивающейся к наилучшей случайной пробе. Это значит, что случайные пробы производятся в объеме, центром которого является точка с наименьшим значением функции цели. По мере производства случайных испытаний этот объем стягивается к своему центру.
Если в процессе испытаний была найдена точка с меньшим значением функции цели, то объем испытаний устанавливается вокруг этой новой точки. Таким образом, зона испытаний перемещается в район цели, причем на каждом шаге вероятность случайного нахождения наилучшей точки становится все большей. Этот принцип лежит в основе второй модификации случайного поиска – методе случайного направленного поиска, [3, 9, 10]. Из точки делается случайный шаг
, (8)
где . (9)
Величина на начальном шаге принимается равной. Затем определяется координата новой точки
, (10)
и сравниваются значения
.(11)
При этом считается неудачной ситуацией, а припроверяется условие
, (12)
при выполнении которого ситуацию также считают неудачной и удачной – в противном случае. При неудаче предусмотрен возврат в точку , из которой делается шаг в диаметрально противоположном направлении с последующей проверкой условия (12). В случае неудачи вновь происходит возвращение в точку, из которой делается столько случайных шагов, сколько потребуется для нахождения удачной ситуации. Если такая точка найдена, то через нее ипроводится вектор, в направлении которого начинается движение с постоянным шагом.
При движении по выбранному направлению проверяется относительное изменение функции цели
. (13)
В случае предусмотрено возвращение в точкус последующим выбором (с помощью случайных испытаний) нового направления.
Значение меняется, в процессе минимизации, следующим образом.
Как только число неудачных шагов фиксированной точки окажется равным заданному целому числу , тоувеличивается на единицу.
Эта операция позволяет осуществлять поиск и движение в выбранном направлении с все более и более уменьшающимися шагами.
Метод случайного направленного поиска прекращает свою работу, если выполняется условие (заданное целое число >>1). Если координаты точки вдруг оказываются вне ограничений, то функции присваивается число 1010 (или любое другое, определяемое на основе расчетных экспериментов).
Предполагая, что окрестность глобального минимума найдена, продолжается дальнейшее улучшение точки минимума. Для этого в схеме используется метод сопряженных градиентов с преобразованием координат, [4, 9, 10], (рис.3).
Задачи математического программирования в нечетких условиях, в приложении к задачам технической диагностики энергоустановок, решаются следующим образом, [3, 4, 9].
Под ситуацией принятия решений, при выборе диагноза состояния энергоустановки, условимся понимать:
- множество альтернатив, из которых лицо, принимающее решение (ЛПР), производит выбор;
- множество ограничений, накладываемых на этот выбор;
- целевую функцию, которая позволяет ЛПР ранжировать имеющиеся у него альтернативы.
В результате, каждое ЛПР, имея множество сформулированных целей, способно определить свои предпочтения.
Но на практике, особенно при диагностике в реальном масштабе времени, картина принятия решений резко меняется, так как ЛПР вынуждено применять следующее утверждение: ''должно быть в окрестности''! А это уже подчеркивает появление нечеткости в формулировании цели, согласно [4, 6, 8, 11].
Выражение « в окрестности…», представим нечетким подмножеством , определяемым функцией (точнее, ее отображением):
, (14)
где - полная дистрибутивная решетка;– множество альтернатив.
В результате принятия решения по одному из предлагаемых диагнозов, представим возникшую нечеткую обстановку как множество – альтернатив вместе с его нечеткими подмножествами. Эти подмножества представляют собой также нечетко сформулированные критерии (цели и ограничения), т.е. систему:
. (15)
Здесь – целевые функции.
Перебирая, по возможности, все критерии при выборе наиболее предположительного диагноза, можно построить функцию
. (16)
Оптимум, в этом случае, будет соответствовать той области , элементы которой максимизируют диагноз. В результате проведенных рассуждений можно определить нечеткую обстановку такой задачи тройкой. Предположим при этом, что решение задачи диагноза в нечеткой постановке будет определяться в виде нечеткого подмножества универсального множества альтернатив. Под оптимальным решением при этом будем понимать элемент(если такой существует), для которого, согласно [7, 8]:
, (17)
где - нечеткое решение;означает,означает. Таким образом, задача минимизации решений при выборе предположительного диагноза сведена к задаче нечеткого математического программирования (НМП), т.е. к задаче многокритериальной оптимизации.
Итак, под задачей НМП будем понимать задачу нахождения , или. (18)
Результат решения задачи минимизации функции цели
В данной работе было уделено внимание на реализацию комплексного решения оптимального нахождения минимума различных функций цели с помощью среды MathCAD 14. Рассмотрены , при участии магистранта института прикладной информатики НГУЭУ А.Е. Некипелова, в комплексе метод «Монте-Карло» и градиентный метод наискорейшего спуска, позволяющие уточнить минимум функции, начальное приближение которого получается из случайного поиска методом Монте-Карло.
Метод «Монте-Карло»
Для минимизации функции многих переменных разработано множество численных методов, но большинство из них связано с подсчётом градиента функции, что со своей стороны может дать эффективные алгоритмы вычисления лишь, если удаётся аналитически подсчитать частные производные. Между тем, более универсальным методом минимизации функции многих переменных является метод перебора, при котором произвольным образом разбивается область определения функций на симплексы и в каждом узле симплекса вычисляется значение функции цели, причём происходит сравнение – перебор значений и на печать выводится точка минимума и значение функции в этой точке.
В методе «Монте-Карло» зададим функцию . Выбираем область поиска решения задачи:
;
а) Производим случайные броски, т.е. выбираем значения для каждой переменнойпо формуле:
;
б) Сравниваем значения функции:
,
если это неравенство выполняется, то
,
если не выполняется, то
;
в) Количество случайных бросков либо фиксировано, либо уточняется при достижении необходимой определенной погрешности.
Метод градиентного спуска
Строгий аналитический метод не всегда приводит к цели (случай, когда в критической точке). В подобных, и в более сложных случаях применяют различные приближённые аналитические методы, которые в математическом смысле иногда менее строго обоснованы, но, тем не менее, порой приводят к желаемому результату. К таким методам относятся и градиентные методы наискорейшего спуска.
Пусть, нам нужно найти . Рассмотрим некоторую точку
и вычислим в этой точке градиент функции :
,
где - ортонормированный базис в пространстве.
Если , то полагаем:
,
где , авыбирается из условия сходимости итерационного процесса:
,
где , авыбирается из условия сходимости.
Формулу можно расписать в виде:
…………………………………………………………………
Здесь m – число итераций. Процесс итерации останавливается, когда достигается требуемая предельная погрешность, т.е. когда выполнены условия остановки итерации:
.
Данный метод хорош лишь в том случае, когда имеется некое первое оптимальное приближение, в противном случае результат может быть совсем иной, не удовлетворяющий критериям. Поэтому в данной работе мы используем его в комплексе с методом «Монте-Карло», в дальнейшем, получив начальное приближение, уточним его до некоторой погрешности градиентным методом наискорейшего спуска.
ПРИМЕРЫ РЕАЛИЗАЦИИ И РЕШЕНИЯ ЗАДАЧИ определЕНИЯ МИНИМУМА ФУНКЦИИ ЦЕЛИ В СРЕДЕ MATHCAD
Пусть задана многоэкстремальная функция:
.
Рассмотрим ее графики при различных изменениях . Из первого графика видим, что глобальный экстремум находится в районахи равен примерно 75.
Если смотреть другую область изменения, то глобальный экстремум находится в районе . Рассмотрим область изменения.
Используем метод «Монте-Карло» для нахождения глобального минимума функции. Сформируем два вектора и, присвоив их нулевым элементам значение нуль:
Зададим количеством случайных чисел , которое мы будем использовать для вычисления минимума. Чем больше это количество, тем точнее будет результат вычисления:
.
С помощью функции создадим вектор случайных значений элементов. Функциягенерирует равномерно распределенные случайные числа в интервале 0….
Из графика видно, что нам достаточен интервал .
.
Теперь в векторе помещено 100000 случайных чисел. Вычислим значения функции от них и поместим их в вектор.
.
Величину минимального элемента этого вектора найдем, используя функцию.
Величину минимального элемента вектора найдем, используя небольшую программу и вычислим по ней ответ:
,
,
.
Получили первое приближенное значение минимума функции цели. Для уточнения значения используем градиентный метод. Поиск минимума ведется по следующим формулам:
,
выбирается из условия .
–параметр, определяющий погрешность поиска минимума.
- отношение золотого сечения.
- формула Бине
для вычисления чисел Фибоначчи, где – номер числа.
Сделаем подпрограмму для вычисления частной производной функции в точке заданной векторомпо переменной.
Подпрограмма выглядит следующим образом:
Сделаем подпрограмму для вычисления значений проекций градиента на оси координат. Подпрограмма возвращает вектор значений проекций и использует подпрограмму вычисления частной производной:
.
Функция , используемая для выбора:
.
Далее сделаем подпрограмму поиска минимума функции одной переменной по методу Фибоначчи (одномерной оптимизации функции цели).
Подпрограмма поиска минимума с помощью метода градиентного спуска:
Сформулируем еще раз нашу многоэкстремальную функцию: ,
.
Находим, в какой точке достигается минимум функции цели по нашей программе:
.
Находим значение минимума функции цели:
.
Отсюда можно сказать, что метод градиентного спуска подтвердил сходимость решения методом «Монте-Карло», [9, 10] .
- Предисловие
- Список использованных сокращений
- Часть 1.
- Глава 1. Математические основы формализации и методов описания
- Часть 2.
- Глава 2. Методы представления знаний с использованием
- Часть 3.
- Глава 3. Интеллектуальные технологии создания информационных систем. Способы получения информации и ее реализации для оценивания состояния агрегатов
- Часть 4.
- Глава 4. Источники информации и причины возникновения ее неопределенности
- 4.1. Переработка и использование информации в реальных условиях функционирования агрегатов
- Часть 5.
- Список использованных сокращений и обозначений
- Введение:
- Часть 1.
- Глава 1. Математические основы формализации и методов описания
- Формализация объекта и парадигмы
- 1.3. Множества и перечень базовых операций над множествами
- Перечень базовых операций над множествами
- Области определения функций
- Обратная функция
- Теорема
- Мера и нечеткая мера
- Задача построения нечетких мер
- Нечеткие множества: определение и формы записи в операциях и
- 1.7.Функции доверия и правило Демпстера а.Р.,[23]
- 1.8. Нормировка функций в теории нечётких множеств
- 1.9. Нечёткие отношения: прямая и обратная задачи
- Глава 2. Методы представления знаний с использованием приближенных и нечетких множеств
- 2.1.Нечеткие вычислительные технологии
- 2.2.Семантика объекта: определение и типизация
- 2.3.Создание Базы знаний: постановка, семантика, прагматика
- 2.4. Сопоставление объектов: постановка, семантика, прагматика
- 2.5.Распознавание объектов: постановка, семантика, прагматика
- 2.6. Управление процессом представления знаний
- Нечёткие множества: субъективность и неточность
- 2.8.Нечеткая алгебра
- 2.9.Нечеткие иерархические отношения
- 2.10.Естественность операций max и min
- 2.11.Нечеткая статистика
- 2.12. Совместимость и нечеткое ожидание
- Глава 3. Нечеткие технологии создания информационных систем. Способы получения информации и ее реализации для оценивания состояния агрегатов
- 3.2. Обработка нечетких данных как неопределенных чисел
- Методология представления агрегата в виде комплексного механизма
- 3.2.2. Описание исходной информации на языке размытых множеств
- Размытость интервалов, ограничений, критериев и целей управления в эксплуатации и диагностике
- 3.3.3. Размытые ограничения, цели и оптимизация работы агрегата в условиях нечеткой информации о состоянии
- Анализ информации для диагностики и оценивания состояния механизмов
- 3.5. Оценки погрешностей измерений и наблюдений за состоянием агрегатов
- Влияние погрешностей исходных данных на погрешности диагноза
- Глава 4. Источники информации и причины возникновения ее неопределенности
- 4. 2. Управление и идентификация на объекте в условиях неопределенности информации на основе знаний, получаемых при функциональной диагностике
- Тогда множество диагностических признаков g также будет нечетким
- 4.3.Представление и использование чётких и «размытых» знаний в математических моделях оценивания состояния агрегатов, на основе функциональной диагностики
- 4.3.1.Формализация решения задачи оценивания состояния
- 4.3.2. Особенности решения задач контроля и функционирования агрегата
- Глава 5. Введение в генетическое программирование
- 5.1. Введение в генетические и эволюционные алгоритмы
- 5.2. Сравнительный анализ эволюционных алгоритмов
- 5.3. Генетическое программирование
- 5.4. Перспективные направления развития гп
- Глава 6. Введение в нейронные сети
- 6.1. Алгоритмы их обучение и эластичные нейро-нечеткие системы
- 6.2. Имитация нервных клеток
- 6.3. Математическая модель нейрона
- 6.4. Обучение нейронных сетей
- 6.5. Метод обратного распространения ошибки
- 6.6. Алгоритм настройки нейронной сети
- Глава 7. Другие методы нечетких технологий для построения
- 7.1. Введение в теорию возможностей и смысла
- 7.1.1. Неопределенность и неточность
- 7.1.2. Традиционные модели неточности и неопределенности
- 7.1.3. Меры неопределенности
- 7.1.4. Меры возможности и необходимости
- 7.1.5. Возможность и вероятность
- 7.2. Языки и технологии логического программирования prolog, lisp
- Глава 8. Послесловие
- 8.1. Эволюция искусственного интеллекта для развития интеллектуальных
- 8.2.Экспертные системы нового уровня
- 8.3. Роботика
- 8.4. Преобразование речи искусственного языка
- 8.5. Интеллект муравьёв и его использование
- 8.6. Искусственная жизнь, мозг, познание, разум, память и мышление
- 8.7. Боты
- Optimizator подсистемы диагностики состояния энергоустановок, skais, для решения задач технического обслуживания
- Заключение
- Заключение
- Литература