Вычисление информации, единицы измерения информации.

Кибернетический подход к исследованию биологических систем.

Для понимания и изучения закономерностей, вследствие которых развитие жизни на земле не остановилось на уровне первобытной протоплазмы, особенно эффективным представляется кибернетический подход (КП) к изучению эволюции живых существ. Биологическая кибернетика является составной частью биофизики сложных систем. Кибернетический подход к изучению функционирования органов, физиологических систем, организма в целом и сообществ организмов позволяет изучить особенности управления и саморегуляции био-х объектов в норме и патологии. Одной из особенностей КП к эволюции биологических систем является то, что он позволяет рассматривать живой организм, как некую систему, состоящую из нескольких функциональных подсистем, каждая из которых выполняет определенный набор задач. Такое рассмотрение биологического организма (БО) дает возможность по-новому взглянуть на процесс его выживания в ходе естественного отбора. У любого БО можно выделить несколько общих типов функциональных подсистем. В наиболее общем виде эти подсистемы можно разделить на два класса - подсистему управления и подсистему исполнения. Подсистема исполнения по сути представляет собой набор устройств, осуществляющих сбор и переработку необходимой для существования БО энергии, а также используемых для его жизнедеятельности веществ и поддержания нужных состояний. Кроме подсистемы исполнения у БО имеется подсистема управления внутренним состоянием. БО, способные перемещаться в пространстве, помимо того, могут осуществлять ряд действий - поиск пищи, отдых, поиск партнеров для спаривания, бегство от опасности и т.д. Стратегию последовательности выполнения и комбинации этих действий можно назвать поведением БО. Для построения оптимального поведения необходимо иметь подсистему управления им. Две подсистемы управления организма состоянием и поведением образуют систему управления (СУ) БО.

Рассмотрение различных объектов живой природы как преобразователей информации или как систем, состоящих из элементарных преобразователей информации, составляет сущность кибернетического подхода к изучению этих объектов. Этот подход требует определенного уровня абстракции. Так, при кибернетическом подходе к изучению мозга как системы нейронов обычно отвлекаются от их размеров, формы, химического строения и др. Предметом изучения становятся состояния нейронов (возбужденное или нет), вырабатываемые ими сигналы, связи между нейронами и законы изменения их состояний.

Основные понятия теории связи и теории информации.

К основным понятиям теории информации относятся: сообщение, сигнал, количество информации, энтропия, кодирование, пропускная способность канала связи. Информацию передают в виде сообщений. Сообщение-это некоторая информация о событиях, закодированная в форме определенного сигнала. Сообщения передают с помощью сигналов, которые являются носителями информации. Сигнал - физический носитель информации. Сигналом может быть звук, свет, буква, механический удар и др. В теории информации и передачи сигналов под информацией понимают совокупность сведений о каких-либо событиях, процессах, явлениях и т.п., рассматриваемых в аспекте их передачи в пространстве и во времени.

В теории информации изучают свойства процессов, которые имеют место при передаче информации на расстояние при помощи сигналов. При этом важное значение имеют понятия качества и скорости передачи информации.

Качество передачи информации тем выше, чем меньше искажения информации на приёмной стороне. С увеличением скорости передачи информации требуется принимать специальные меры, препятствующие потерям информации и снижению качества передачи информации.

Вычисление информации, единицы измерения информации.

Количество информации I(хi), содержащееся в сообщении хi, равно логарифму величины, обратной вероятности Р(хi) этого события:

За единицу информации принято количество информации, содержащееся в сообщении о том, что произошло одно из двух равновероятных событий, то есть если Р(А)=Р(В)=0,5, то

Это количество информации называют бит.

В теории информации источник информации задается в виде множества сообщений X1, Х2,...,Хn, с вероятностями соответ­ственно P1, Р2,...,Рn. В этом случае среднее количество инфор­мации, приходящееся на одно сообщение, определяется по фор­муле Шеннона:

где i=1,2, … n.

Величина I рассматривается как мера неопределенности све­дений об источнике информации, которая имела место до при­ема сообщений и была устранена после их получения. Эту меру неопределенности называют энтропией (Н) источ­ника информации, приходящейся на одно сообщение. Таким образом:

Среднее количество информации и энтропия Н численно рав­ны, но имеют противоположный смысл. Чем из большего числа сообщений получатель информации должен сделать выбор, тем большее значение имеет информа­ционная энтропия. Для источника с единственно возможным сообщением, веро­ятность которого стремится в 1 (Р—>1), энтропия стремится к нулю (Н—>0). Если все k возможных сообщений источника равновероятны (Р(хi)=1/к), то его энтропия Н максимальна: Предполагается, что каждому сообщению соответствует толь­ко одно из возможных состояний источника. В этом случае ве­личина Н может служить мерой неорганизованности системы, являющейся источником информации. Чем менее организова­на система, тем больше число ее возможных состояний и вели­чина максимальной энтропии;

Для примера рассмотрим три источника информации А, В и С, характеризуемые тремя сообщениями каждый: I, II и III с вероятностями, указанными ниже:

Вычислим энтропии источников А, В и С на одно сообщение:

Как видим, источник информаций С, который характеризу­ется сообщениями с одинаковыми вероятностями (Р=0,33), имеет самую большую Н=Нmах, то есть самую большую степень неопределенности.

Уровень определенности (детерминированности) источника информации характеризуется величиной где Н-энтропия на одно состояние источника информации, Нmах-максимальная энтропия на одно сообщение, когда все со­общения равновероятны. В нашем примере RC=0, RB=0,02, RA=0,4. Если R=1,0-0,3, источник информации считается детер­минированным, R=0,3-0,1 - вероятностно детерминирован­ным, R<0,1 вероятностным (стохастическим). Таким образом, источники В и С - стохастические, а источник А - детермини­рованный.

4. Передача информации. Среднее количество информации, которое может получить объект, зависит от характеристик канала связи. Каналом свя­зи может быть провод, световой луч, волновод, нервные волокна, кровеносные сосуды и др. Основной характеристикой ка­нала связи является его пропускная способность. Она будет оп­ределяться предельной скоростью передачи информации, из­меряемой в бит/с. Для передачи сообщения по каналу информация кодирует­ся. На приемной стороне необходим декодер, который осу­ществляет обратное кодеру преобразование: код сигнала пре­образуется в содержание сообщения. При передаче информации по каналу связи могут происхо­дить ее искажения за счет помех из внешней среды и наруше­ний в самой линии. Эффективными способами борьбы с искажениями информа­ции является создание ее избыточности и передача сигналов по большому числу параллельных каналов. Оба эти способа ши­роко используются в организме человека. В нервных сетях все­гда обеспечивается дублирование основного сообщения боль­шим числом параллельных сигналов, поэтому количество рецепторов значительно превышает количество нейронов, к ко­торым от них поступают сигналы. Пропускная способность любых рецепторных аппаратов су­щественно выше возможностей осознания сенсорной информа­ции. Человеческое сознание пользуется очень малой долей ин­формации, поставляемой в мозг периферическими отделами анализаторов - сенсорными входами. Так например, макси­мальный поток информации в процессе зрительного восприя­тия, осознаваемого человеком, составляет всего 40 бит/с, тогда как информационная емкость потока нервных импульсов в зри­тельных нервах оценивается величиной 107 бит/с. За счет столь огромной избыточности достигается высокая надежность про­цессов в организме.

5. Кодирование наследственной информации происходит с помощью генетического кода. Генетический код универсален для всех организмов и отличается лишь чередованием нуклеотидов, образующих гены, и кодирующих белки конкретных организмов. Генетический код изначально состоит из триплетов нуклеотидов ДНК, комбинирующихся в разной последовательности. Каждый триплет нуклеотидов кодирует определенную аминокислоту, которая будет встроена в полипептидную цепь. Аминокислот 20, а возможностей для комбинаций четырех нуклеотидов в группы по три – 64. Следовательно, четырех нуклеотидов вполне достаточно, чтобы кодировать 20 аминокислот. Часть триплетов вовсе не кодирует аминокислоты, а запускает или останавливает биосинтез белка. Собственно кодом считается последовательность нуклеотидов в молекуле и-РНК, ибо она снимает информацию с ДНК (процесс транскрипции) и переводит ее в последовательность аминокислот в молекулах синтезируемых белков (процесс трансляции). В состав и-РНК входят нуклеотиды АЦГУ. Триплеты нуклеотидов и-РНК называются кодонами. Уже приведенные примеры триплетов ДНК на и-РНК будут выглядеть следующим образом – триплет ЦГТ на и-РНК станет триплетом ГЦА, а триплет ДНК – ААГ – станет триплетом УУЦ. Именно кодонами и-РНК отражается генетический код в записи. Итак, генетический код триплетен, универсален для всех организмов на земле, вырожден (каждая аминокислота шифруется более чем одним кодоном). Между генами имеются знаки препинания – это триплеты, которые называются стоп-кодонами. Они сигнализируют об окончании синтеза одной полипептидной цепи.