Понятие и основы теории информации

1) Понятие «информации»

Слово «информация» происходит от латинского и означает сведение, разъяснение, ознакомление.

Понятие информации является базовым, т. е. должно быть пояснено на примерах или выявлено путем их сопоставления с содержанием других понятий.

Понятие «информация»является общенаучным, так как используется в различных науках и при этом в каждой науке это понятие связано с различными системами понятий.

1. Философское понятие информации: «информация есть отражение реального мира». Человек получает информацию с помощью органов чувств: 80-90% с помощью зрения, 10-15% с помощью слуха, 1-2% с помощью других органов чувств (обоняние, осязание и вкус).

Информация– это сведения, изменяющие наши знания об окружающем мире и понимание его.

 

2.Информация в физике.В физике мерой беспорядка, хаоса для термодинамической системы является энтропия системы, тогда как информация (анти энтропия)является мерой упорядоченности и сложности системы. По мере увеличения сложности системы величина энтропии уменьшается, а величина информации увеличивается. Таким образом, в физике информация рассматривается как анти энтропия или энтропия с обратным знаком.

 

3. Математическая теория информации (американский ученый Клод Шеннон): информативность сообщения характеризуется содержащейся в нем полезной информацией – той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации, т. е. информация – это уменьшение неопределенности наших знаний. Такой подход к информации позволяет ее количественно измерять.

Количественная оценка информации

Количество информации

Существует формула, которая связывает между собой количество возможных информационных сообщений и количество информации, которое несет полученное сообщение:

N=2H

 

Где: N-количество возможных информационных сообщений;

H-количество информации, которое несет полученное сообщение;

 

Отсюда следует формула Хартли (для равновероятностных сообщений), которая позволяет определить количество информации.

H=log2N

 

 

В случае, когда вероятность событий неодинакова, для определения количества информации достаточно для выявления сообщения использовать формулу Шеннона:

 

 

Где: -вероятность того, что система находится в состоянии i ;

N-количество возможных состояний;

 

В случае равновероятностных сообщений =1/N, тогда формула Шеннона переходит в формулу Хартли.

В случае равновероятностных сообщений Pi = 1/N, тогда формула Шеннона переходит в формулу Хартли:

 

(22.09.2015) Для количественного выражения любой величины необходимо определить единицу измерения. За единицу измерения количества информации принимается такое количество информации, которое содержится в сообщении, уменьшающем неопределенность знания в два раза. Такая единица называется битом. В примере с монетой сообщение несет 1 бит информации (N= )

 

Рассмотрим информационное сообщение, как последовательность знаков определенной знаковой системы (алфавита).

Ограничений на максимальный размер алфавита теоретически не существует, но есть достаточный алфавит, который содержит практически все необходимые символы (латинские и русские буквы, цифры, знаки препинания, знаки арифметики и т.д.). Этот алфавит содержит 256 символов, т.к. 256 = , то 1 символ содержит 8 бит информации, т.е. 1 байт.

Кратные единицы измерения:

1 килобайт (Кбайт) =

1 мегабайт (Мбайт) =

1 гигабайт (Гбайт) =

1 терабайт (Тбайт) =

 

Математическая теория информации не охватывает всего богатства содержания понятия «информация», поскольку отвлекается от содержательной (смысловой) стороны сообщения.