Информационное обеспечение АСУТП

 

2.1. Понятие и количественная оценка информации

С точки зрения информационных процессов будем рассматривать техпроцесс и управляющие им сигналы как последовательность запланированных (предусмотренных) событий. События – это факты реализуемого производственного процесса. Реализованное событие будем называть исходом. Описание происходящих событий будем называть сообщениями. Все рассматриваемые сообщения будем считать дискретными величинами, начиная с сигналов на включение и отключение какого-либо оборудования и вплоть до показаний стрелочных измерительных приборов, дискретность которых определяется ценой деления шкалы. Соответственно информацией будем называть процесс формирования, пересылки и регистрации (запоминания) сообщений, а также зарегистрированную совокупность сообщений.

Смысл сообщений, содержательная сторона информации, определяется известными закономерностями хода событий. Здесь, однако, нас будет интересовать не смысл, а количественная оценка информации, объем записей, которые необходимо сделать для регистрации сообщений. Последний будет существенно зависеть от совокупности символов, применяемых для записи информации. Такая совокупность обычно имеет вид основания системы исчисления или алфавита. Если в качестве основания используется совокупность n различных символов, а каждое сообщение состоит из H элементов, то с ее помощью можно сформировать не более чем nH различных сообщений об интересующих нас событиях. Тогда величину H можно определить из соотношения

H=logn M, (2.1)

где M – количество возможных вариантов события, сообщения о котором нам необходимо сформировать в зависимости от того, какой вариант состоится. Величину H, равную количеству элементов сообщения и характеризующую минимальный объем сообщения о том, что один из интересующих нас M вариантов изучаемого процесса действительно имел место, принято называть энтропией.

Если при планировании техпроцесса предполагается, что его результат однозначно предопределен, что исход будет однозначным, то в формуле (2.1) полагаем М=1 и получим Н=0. Однако однозначный результат гарантировать невозможно. Исход техпроцесса и даже его простейших операций зависит от множества случайных факторов, действие которых оценивают методами теории вероятностей. Так, если все предполагаемые события равновероятны и образуют полную группу (т.е. при каждом повторении изучаемого процесса происходит хотя бы одно из их), то вероятность каждого из этих событий равна

,

и соотношение (2.1) может быть записано в виде

H= - logn P. (2.2)

Здесь величина Н выступает как мера априорной неопределенности любого из исходов изучаемого процесса. Чем меньше вероятность P(чем больше вариантов равновероятных исходов), тем больше энтропия процесса. Таким образом, энтропия может быть использована для оценки степени случайности техпроцесса или какой-либо из технологических операций, как мера неупорядоченности процесса. Обычно изучаемые события не равновероятны, характеризуются вероятностями Pj, и их энтропия рассчитывается по формуле Шеннона:

, (2.3)

– причем необходимо чтобы изучаемые события составляли полную группу, когда .

Величина Н, рассчитанная по формуле (2.3), является математическим ожиданием, т.е. средним значением минимального объема записей; которые необходимо сделать для фиксирования факта реализации одного из М интересующих нас событий. Поскольку фактическое распределение вероятностей исходов чаще всего неизвестно, то при определении объема запоминающих устройств и пропускной способности каналов связи обычно руководствуются формулой (2.1).

При введении понятия энтропии мы исходили из количества событий, о которых нам необходимо получить информацию. Таким образом, энтропия характеризует количество информации, получаемой путем исследования интересующего нас процесса, если мы можем получить в свое распоряжение сведения о любом из М интересующих нас событий. Возможен, однако, такой исход исследования (или измерений), когда о некоторых событиях из рассматриваемых М событий сведения фактически не будут получены. Допустим, что до проведения исследований предусматривалась реализация одного из M1 событий, а после проведения исследований выяснилось, что в данном случае могут быть реализованы лишь M2 из предусмотренных ранее M1 событий, но осталось невыясненным, какое именно из этих M2 событий реализовано в действительности. Энтропия исследуемого процесса до проведения исследований могла достигать значения

,

а после проведения исследований уменьшилась до значения, не превышающего

.

В таком случае количество I полученной информации определяется разностью между исходной и конечной энтропиями:

I=H1 – H2 .(2.4)

Формула (2.4) дает обобщенную количественную оценку информации и соответствует формулировке: количество информации равно убыли энтропии. Величина исчерпывающей информации соответствует H2=0и равна исходной энтропии.

Для практических расчетов количества информации по формулам (2.1-2.4) введем понятие единицы измерения информации. Примем во внимание, что в устройствах хранения, передачи или переработки информации обычно применяются элементы, в которых для записи информации используется только два символа, такие как высокий и низкий потенциалы (в электронных устройствах) или намагниченный и не намагниченный участки магнитных носителей информации. Эти символы обычно обозначают знаками 1 и 0. Использование только двух символов для записи информации соответствует n=2 в формулах (2.1-2.3), и в дальнейших рассуждениях мы так и будем полагать. Тогда окажется, что при исследовании процесса с двумя равновероятными исходами мы получим, в соответствии с формулой (2.1), H1=1(M1=2) и H2=0(M2=1), что дает, в соответствии с формулой (2.4), информацию I=1.

Информацию, которую получают из опыта с двумя равновероятными исходами, используют в качестве эталона (единицы) количества информации в устройствах, в которых запись информации производится с помощью только двух символов. Эту информацию называют битом, или двоичной единицей информации. Согласно формуле (2.3), количество информации, равное одному биту, можно получить и иным путем, из опыта со многими, но не равновероятными исходами. Опыт с двумя равновероятными исходами, (к которому приближается, например, подбрасывание монеты) является лишь эталоном бита. Из определения бита следует, что максимальное количество информации, которая может храниться в электронном триггере или на элементарном намагниченном участке магнитной дискеты, равно одному биту. По тем же причинам номинальная емкость запоминающих устройств (ЗУ), указанная в битах, есть максимальное количество информации, которое может храниться в этих ЗУ при условии, что все события, сообщения о которых зафиксированы в ЗУ, являются равновероятными. Обычно, в ЗУ зафиксированы сообщения о событиях, которые не равновероятны. Ярким примером такого рода сообщений являются сообщения об отсутствии аварийной ситуации. Их вероятность при нормальном ходе технологического процесса значительно выше вероятности поступления сигнала аварии. По указанным причинам фактический объем информации, хранящейся в ЗУ, значительно меньше номинального. Широко используются производные от бита единицы информации: 1 байт = 8 бит, 1 Кбайт =210 байт, 1 Мбайт = 220 байт и др.

Особой единицей информации является слово. Слово – это количество информации, обрабатываемой в данном управляющем устройстве за один цикл работы устройства. Величина слова обычно кратна по отношению к байту: 1 байт, 2 байт, 4 байт. Если необходимо оценить лишь объем записи информации на электронных или магнитных носителях, то битом называют минимальный объем записи, соответствующий двоичной единице или двоичному нулю (элементарная ячейка памяти).

 

2.2. Кодирование информации

Кодированием мы будем называть процесс формирования сообщений о событиях, составляющих управляемый техпроцесс. Процесс кодирования состоит из двух этапов:

– представление информации в дискретной форме (аналогово-цифровое преобразование);

– представление дискретных сигналов в наиболее подходящем для решения задач управления техпроцессом виде (преобразование кодов).

Конкретный способ представления информации как системы соответствия между элементами сообщений и сигналами, их отображающими, называетсякодом. Информация всегда представлена в каком-либо коде.

Первоначальный код, в котором информация поступает в управляющее устройство, определяется свойствами источника информации. Последний может быть либо датчиком какого-либо технологического параметра, либо некоторым ЗУ. В ЗУ информация уже представлена в дискретной форме, а сигналы датчика преобразуются в дискретную форму первичным преобразователем, свойства которого могут быть не согласованы с требованиями, предъявляемыми к информации, поступающей в управляющее устройство. Необходимое согласование производится соответствующим преобразователем кода, установленным на выходе первичного преобразователя.

Информация, поступающая в УВМ, должна быть преобразована и представлена в двоичном формате, т.е. в виде того или иного двоичного кода.

Двоичным кодом называется любая система кодирования, в которой используются только два символа: 0 и 1. Обработка информации процессором УВМ производится только в двоичных кодах. Это объясняется экономичностью построения управляющих устройств на элементах, имеющих при нормальной эксплуатации только два различных состояния (да-нет, открыто-закрыто, включено-выключено, намагничено - не намагничено, высокий потенциал - низкий потенциал и т.п.). В обобщенном виде одно из указанных состояний обозначается цифрой 0, а другое – цифрой 1.

Для представления чисел обычно используются арифметические коды, в которых любое действительное число может быть представлено в виде

, (2.5)

где: n > 1- целое число, основание системы исчисления;

m и l – произвольные числа, причем m l;

aj- целое число, причем

Произведение называют разрядом закодированного числа, причем называют весом разряда, aj - цифрой или цифровым значением разряда, a j – номером разряда. Если m=l, то закодированное число одноразрядное, состоит из одного разряда, а если все aj равны нулю, то Q=0. Все разряды, у которых j < 0 входят в дробную часть закодированного числа, а остальные разряды составляют его целую часть. При записи чисел обычно опускают веса разрядов, а также нули перед первой значащей цифрой целой части числа и после последней значащей цифры дробной части числа, причем дробную часть числа отделяют от целой части запятой или точкой. После этого запись числа принимает более компактный вид:

. (2.6)

В управляющих устройствах систем автоматизации наиболее распространена двоичная система исчисления и соответственно для записи числовой информации применяется двоичный арифметический код (n=2). При записи числа в двоичном арифметическом коде используют только две цифры: 0 и 1, так что закодированное число приобретает вид набора нулей и единиц, в котором дробная часть числа отделяется от целой части запятой. В качестве примера рассмотрим запись двоичного числа, у которого m=2, l=-2, по формуле (2.5) получим:

.

Опустив обозначения весов разрядов, получим, в соответствии с формулой (2.6), запись данного числа в традиционном виде: Q=100,01.

Широкое применение при проектировании микропроцессорных управляющих устройств нашел шестнадцатеричный (Hexadecimal) арифметический код (n=16, HEXCODE). Для записи числовой информации в этом коде необходимо иметь 16 цифр. Для обозначения первых 10 из них используются арабские цифры, а остальные 6 цифр имеют следующие обозначения: 10-A, 11-B, 12-C, 13-D, 14-E и 15-F. Запись чисел в 16-ричном коде производится, как и в системах исчисления с другими основаниями, в соответствии с формулами (2.5) и (2.6). В качестве примера рассмотрим 16-ричное число, у которого m=2, l=0, и . По формуле (2.5) получим:

.

Запись в 16-ричной форме дает, согласно формуле (2.6), Q=4EA.

От 16-ричного кода нетрудно перейти к двоичному коду. Для этого каждую цифру 16-ричного числа заменяют кодовой комбинацией из 4 двоичных символов, записанной в двоичном арифметическом коде и численно равной заменяемой цифре. Из цифр 16-ричного кода предыдущего примера получим: 4=0100, E=14=1110, A=10=1010. Число Q в целом, записанное в двоичном коде, с учетом отбрасывания нуля, стоящего перед первой значащей цифрой, будет выглядеть как:

Q=10011101010.

Для перехода от двоичной формы записи числа к 16-ричной достаточно разбить двоичное число на группы по 4 символа в каждой, начиная с младшего разряда двоичного числа, с последующей заменой каждых четырех двоичных символов на один 16-ричный, и дополняя при необходимости нулями группу старших разрядов. Так, разбивка предыдущего числа, с последующей заменой четырехсимвольных групп 16-ричными цифрами, дает: Q=0100 1110 1010=4EA.

 

2.3. Неарифметические двоичные коды

Наряду с арифметическими кодами в системах автоматизации применяются и неарифметические двоичные коды. В частности, в устройствах индикации и связи с оператором применяются двоично-десятичные коды, предназначенные для отображения арабских цифр. Обычно для отображения цифр используются кодовые комбинации, состоящие из четырех двоичных символов. Наибольшее применение нашел двоично-десятичный код 8–4–2–1, в котором каждая десятичная цифра записывается в арифметическом двоичном коде таким образом, что численное значение записанной четырехсимвольной комбинации равно отображаемой цифре, а именно:

0=0000, 1=0001, 2=0010, 3=0011, 4=0100, 5=0101, 6=0110, 7=0111, 8=1000, 9=1001.

Запись чисел в двоично-десятичном коде производится в десятичной системе исчисления, но вместо обычных цифр используются вышеприведенные комбинации нулей и единиц.

Из других неарифметических двоичных кодов, применяющихся для записи чисел, наиболее интересны циклические коды Грея, нашедшие применение в кодовых датчиках положения.

Кодами Грея называются двоичные коды, у которых соседние кодовые комбинации отличаются лишь одним кодовым символом. Соседними кодовыми комбинациями мы здесь называем кодовые комбинации, предназначенные для отображения чисел, которые, будучи записанными в каком-либо арифметическом коде, отличаются друг от друга на единицу младшего разряда, принятую в данной системе кодирования. Чтобы код Грея был циклическим, кодовая комбинация, отображающая максимальное число данного кода, выполняется соседней с кодовой комбинацией, отображающей минимальное число. Понятие соседней кодовой комбинации становится совершенно ясным, если мы представим круговой датчик положения, позиции которого последовательно отображены в каком-либо коде Грея. Тогда соседние кодовые комбинации будут отображать соседние позиции датчика положения, причем последняя позиция окажется соседней с первой. Количество двоичных символов m, отображающих код Грея, определяется количеством положений Q проектируемого датчика положения из соотношения

.

Очевидно, что если, например, Q=1000, то m≥10.

В таблице 2.1 приведен пример четырехсимвольного кода Грея, способного отобразить не более 16 позиций кодового датчика, и одновременно приведен четырехразрядный арифметический двоичный код, отображающий те же позиции. Видно, что в коде Грея при переходе от позиции к позиции изменяется только один символ, а в арифметическом коде в некоторых позициях изменяются сразу несколько символов, причем при переходе от позиции 7 к позиции 8 и от последней позиции к первой изменяются все символы сразу.

 

Таблица 2.1

Неточности в нанесении кодовой маски и установке считывающих элементов приводят, при использовании арифметического кода, к появлению ложных сигналов на границах между соседними позициями, если при переходе от позиции к позиции меняются сразу несколько символов. Так, если при переходе от позиции 7 к позиции 8 первым произойдет переход от нуля семерки к единице восьмерки, возникнет кратковременный сигнал о нахождении датчика в позиции 15. При применении кода Грея появление ложных сигналов такого рода невозможно. Использование кодов Грея повышает надежность аналого-цифрового преобразования в датчиках положения.

Важнейшую роль в организации взаимодействия между человеком-оператором и УВМ играют двоичные коды обмена информацией (см. приложение 1). Из них наиболее распространенным является код ASCII (American Standard Code for Information Interchange, табл. П1.1), играющий роль международного стандарта. Это семибитовый код, т.е. код, в котором каждая кодовая комбинация состоит из семи двоичных символов, что позволяет получить всего 128 (27) различных кодовых комбинаций. С помощью кода ASCII (произносится аски) кодируются 26 букв (заглавных и строчных) современного латинского (английского) алфавита, 10 арабских цифр, знаки математических операций, знаки препинания, различные специальные символы (например, %) и управляющие символы.

Обработка кодовых комбинаций ASCII производится байтами. Благодаря этому в составе каждой кодовой комбинации ASCII появляется дополнительный бит, который может быть использован либо для расширения кода (“расширенный ASCII”), либо для контроля правильности кодовых комбинаций. В байте кода ASCII дополнительный бит занимает место старшего бита. При расширении кода ASCII его основная часть, т.е. символы, отображенные в таблице П.1.1, кодируется нулевым значением старшего бита (b7=0), а дополнительные символы, полученные при расширении ASCII, кодируются единичным значением старшего бита. Именно таким путем сформированы символы отечественного кода обмена информацией КОИ-8 (см. табл. П1.2), применение которого нормировано по ГОСТ Р34.303-92, построенным в соответствии с международным стандартом ISO4873-86. В коде КОИ-8 представлены, кроме символов базового ASCII, буквы русского алфавита и дополнительные управляющие символы.

Символы кодов обмена информацией составляют основу алфавитов всех современных систем кодирования. По этой причине большинство символов кода ASCII отображено на клавишах стандартной клавиатуры любого компьютера.

 

Лекция 3