Автор работы: Пользователь скрыл имя, 26 Июня 2013 в 18:14, лекция
Для измерения информации вводятся два параметра: количество информации I и объём данных Vg . Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности.
Рассмотрим подробнее меры информации.
Лекция "Измерение и представление информации"
С позиций материалистической философии информация есть отражение реального мира с помощью сведений (сообщений). Сообщение – это форма представления информации (речь, текст, изображение, цифровые данные, графики, таблицы и так далее).
При работе с информацией всегда имеется её источник и потребитель. Пути и процессы, обеспечивающие передачу сообщений от источника информации к её потребителю, называется информационными коммуникациями.
Для потребителя информации очень важной характеристикой является её адекватность.
Адекватность информации – это определённый уровень соответствия создаваемого с помощью полученной информации образа реальному объекту, процессу, явлению и тому подобное.
В реальной жизни нельзя рассчитывать на полную адекватность информации, так как всегда присутствует некоторая степень неопределённости. От степени адекватности информации реальному состоянию объекта или процесса зависит правильность принятия решения.
Адекватность информации может выражаться в трёх формах: семантической, синтаксической, и прагматической.
Для измерения информации вводятся два параметра: количество информации I и объём данных Vg . Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности.
Рассмотрим подробнее меры информации.
Синтаксическая мера информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.
Объём данных Vg в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных.
Например: одно и тоже число может быть записано различными способами
“двадцать один”
21
XXI
11001
Таким образом, объёмная мера информации чувствительна к форме представления информации. В вычислительной технике вся обрабатываемая и хранимая информация (вне зависимости от природы) представлена в двоичной форме (с использованием алфавита, состоящего из 2-х символов: 0 и 1). Такая стандартизация позволила ввести две единицы измерения – бит и байт.
Количество информации I на синтаксическом уровне измеряется с помощью энтропийного подхода. Такой способ измерения исходит из следующей модели. Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе или объекте α. Эти сведения в общем случае недостоверны и выражаются вероятностями наступления того или иного события. Общая мера неопределённости (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей H(α). После получения некоторого сообщения β потребитель приобрёл некоторую дополнительную информацию Iβ (α), уменьшившую его априорную неосведомлённость. Следовательно, апостериорная неопределённость состояния системы выражается мерой H(β). Тогда количество информации о системе может быть найдено по формуле:
Iβ (α) = H (α) – H (β)
то есть количество информации в сообщении определятся тем, насколько уменьшится мера неопределённости после получения сообщения.
Например: имеется колода 32 карт. Возможность выбора одной карты из колоды – 32. Априори полагаем, что шансы выбрать конкретную карту одинаковы для всех карт колоды. Произведя выбор, мы устраняем эту априорную неопределённость.
Нашу априорную
H = log2 32 = log2 52 = 5
Полученная оценка имеет интересную интерпретацию: она характеризует число двоичных вопросов, которые нужно задать для выбора конкретной карты.
К. Шеннону принадлежит обобщение энтропии H на случай, когда мера неопределённости зависит не только от числа m возможных состояний, но и от вероятностей возможных выборов этих состояний (в частности, для сообщения – вероятности выбора символов).
Для количества собственной (индивидуальной) информации он предложил соотношение:
hi = log = - log Pi
где Pi - вероятность того, что система находится в i – м состоянии.
Более удобно пользоваться средним значением количества информации, приходящимся на i – ое состояние:
При равновероятных событиях и мы получим
H (α) = log m
Часто информация кодируется числовыми кодами в той или иной системе счисления (особенно это актуально для персональных компьютеров). Одно и то же количество разрядов в разных системах счисления может передать разное количество состояний отображаемого объекта:
N = mn
где N – число возможных состояний
m – основание системы счисления (количество символов)
n – число символов в сообщении
Например: по каналу связи передаётся n – разрядное сообщение, использующее m символов. Тогда количество информации, получаемой потребителем, будет (в случае равновероятности) I = log N = log mn = n log m – формула Хартли. Если в качестве основания log взять m, то I = n, то есть количество информации (при условии полного незнания получателем содержания сообщения) будет равно объёму данных I = Vg , полученных по каналу связи. Для неравновероятных состояний системы всегда I<Vg = n
Можно ввести ещё одну характеристику коэффициент (степень) информативности (лаконичность).
, 0<y<1
С увеличением Y уменьшаются объёмы работы по преобразованию
информации в системе, поэтому стремятся
к повышению информативности, для чего
разрабатывают специальные методы оптимального
кодирования.
Семантическая мера информации.
Для измерения смыслового содержания информации, то есть его количества на семантическом уровне, наибольшее признание получила тезаурусная мера.
Тезаурус – это полный систематизированный набор данных, о какой – либо области знаний, позволяющий человеку или вычислительной машине в ней ориентироваться.
В зависимости от соотношения между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Ic , воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус
Ic
Sp
Sp опт.
при Sp - пользователь не понимает
Sp - уже всё знает
Максимальное количество семантической информации Ic потребитель приобретает при согласовании её смыслового содержания S со своим тезаурусом Sp = Sp опт., то есть когда поступающая информация понятна пользователю и несёт ему новые сведения. Следовательно, количество семантической информации в сообщении – величина относительная. Относительной мерой количества семантической информации может служить коэффициент содержательности
Прагматическая мера информации.
Эта мера определяется полезностью информации для достижения поставленной цели. Эта мера также является величиной относительной, зависящей от особенностей использования информации в той или иной системе.
Например, в экономической системе ценность информации можно определить приростом экономического эффекта функционирования системы
Iβ (γ) = П (γ / β) – П (γ)
где Iβ (γ) – ценность сообщения β для системы управления γ
П (γ) – ожидаемый эффект функционирования системы управления γ.
П (β / γ) – ожидаемый эффект при условии, что для управления будет использована информация, содержащаяся в сообщении β.
Качество информации.
Возможность и эффективность использования информации обуславливаются следующими потребительскими показателями качества: