Основные способы построения алгоритмов поиска неисправностей

При построении алгоритма способом последовательного функционального анализа предварительно определяются, исходя из назначения информационной системы, основные параметры, характеризующие исправность системы. Последовательно контролируя сигналы на выходе каждого элемента системы, можно определить неисправный элемент.

Способ последовательного функционального анализа прост, нагляден. Полученный с использованием этого способа алгоритм поиска неисправностей не оптимален ни во времени, ни по средним затратам.

Способ половинного разбиения используется при разработке алгоритмов поиска неисправностей в информационных системах с последовательно соединенными элементами.

Диагностируемая информационная система, состоящая из N последовательно включенных элементов, неработоспособна из-за отказа i-го элемента (i = 1, 2, … , N). Целесообразно контролировать такой выходной сигнал, который разбивает объект диагностики пополам. Каждый последующий параметр для контроля выбирается аналогично, т. е. делят пополам образующуюся систему после выполнения предыдущей проверки, в зависимости от результатов её исхода.

 

Способ построения алгоритма поиска неисправностей на основе информационного критерия позволяет выбрать минимальное количество контролируемых параметров и определить последовательность их контроля.

Исходные данные для этого способа задаются в виде функциональной модели диагностируемой системы и таблицы неисправностей. Таблицы составляются в виде транспонированной матрицы состояний, где столбцы соответствуют всем возможным состояниям диагностируемого объекта, а строки – выходным сигналам функциональных элементов. Контроль может иметь два исхода: параметр в допуске – 1, или параметр не в допуске – 0.

Диагностируемый объект разделяется на N элементов, вероятности состояний которых одинаковы.

P(S1) = P(S2) = … = P(SN) = 1/N.

Энтропия системы с равновозможными состояниями:

Результат контроля k-го параметра диагностируемого объекта даёт некоторое количество информации о нем.

Количество информации измеряют уменьшением энтропии исследуемой системы,

Ik = H0 – Hk,

где Hk – средняя условная энтропия диагностируемого объекта при условии контроля k-го выходного сигнала; Ik – количество информации.

Поскольку, в результате контроля принимаются лишь два решения, то средняя энтропия:

где и – вероятности положительного и отрицательного решений; и – энтропии, соответствующие диагностируемому объекту после выполнения контроля выходного сигнала Zk.

Вероятности и находятся по матрице состояний, как отношение числа единиц M и нулей N M к общему числу состояний N в k-й строке.

; .

Тогда

 

Контроль k-го выходного сигнала дает следующее количество информации:

Последовательно вычисляем значения Ik (где k = 1, 2, …, N) и по убывающей определяем значимость выходного сигнала Zk.

Первым контролируется сигнал Zk, дающий наибольшее количество информации.

После контроля 1-го параметра определяем количество информации, получаемое при контроле каждого оставшегося параметра относительно состояния, характеризующегося энтропией Условная энтропия

где – вероятность положительного решения при контроле параметра Zn; m1 – количество единиц в n-й строке таблицы состояний относительно m единиц в k-й строке, m2 – количество единиц в n-й строке относительно N m нулей k-й строки.

;

Выражение для вычисления количества условной информации имеет вид:

По максимуму условной информации выбирается второй контролируемый параметр. По такой же схеме выбираются остальные параметры.