Способы измерения информации

Автор работы: Пользователь скрыл имя, 23 Февраля 2011 в 16:19, реферат

Краткое описание

Решая различные задачи, человек вынужден использовать информацию об окружающем нас мире. И чем более полно и подробно человеком изучены те или иные явления, тем подчас проще найти ответ на поставленный вопрос. Так, например, знание законов физики позволяет создавать сложные приборы, а для того, чтобы перевести текст на иностранный язык, нужно знать грамматические правила и помнить много слов.

Содержание работы

Введение 6
Глава 1. Объемный способ измерения информации 7
Таб. 1 пример объемного измерения 7
Таб. 2 Единицы измерения информации в вычислительной технике 8
Глава 2. Алфавитный подход 9
Глава 3. Вероятностный подход к измерению информации 10
Таб. 3 Частотный словарь русского языка 12
Глава 4. Теория разнообразия Р. Эшби 13
Глава 5. Алгоритмический подход А. Н. Колмогорова 16
Глава 6. Другие подходы к измерению информации 20
Глава 7. Единицы измерения информации. 26
Таб. 4 Таблица логарифмов 29
Заключение 31
Список использованной литературы: 33
Приложение

Содержимое работы - 1 файл

рЭферат.doc

— 429.50 Кб (Скачать файл)

     Обозначив соответствующие  логарифмы разнообразия как информационные содержания систем, получим Iв = Iр + Iс. Из формулы следует, что сумма информационных содержаний системы и регулятора равна информационному содержанию внешних возмущений.

 

Глава 5. Алгоритмический подход А. Н. Колмогорова

     Отличный от взглядов Хартли, Шеннона, Винера и Бриллюэна  подход к определению понятия "количество информации", был предложен в 1965 году академиком А.Н. Колмогоровым, который  он назвал алгоритмическим.

     Исходя из того, что "по существу наиболее содержательным является представление о количестве информации "в чем-либо" (Х) и "о чем-либо" (Y)", А.Н. Колмогоров для оценки информации в одном конечном объекте относительно другого конечного объекта предложил использовать теорию алгоритмов. За количество информации при этом, принимается значение некоторой функции от сложности каждого из объектов и длины программы (алгоритма) преобразования одного объекта в другой.

     Решение задачи определения  количества информации в алгоритмическом подходе имеет общий вид и схематично выглядит следующим образом.

     "Относительной  сложностью" объекта Y при заданном Х будем считать минимальную длину "программы" Р получения Y из Х. Сформулированное так определение зависит от "метода программирования". Метод программирования есть не что иное, как функция , ставящая в соответствие программе Р и объекту Х объект Y".

     Так как каждый из объектов может быть бесконечно сложным, то доказывается теорема, согласно которой  относительной сложности  объекта Y, при заданном методе программирования, может быть поставлена в соответствие иная относительная сложность, полученная при другом методе программирования , такая, что выполняется неравенство:

,

где - некоторая постоянная программирования, не зависящая от X и Y.

Учитывая, что при любых Х и Y относительная сложность является конечной величиной, а можно считать просто сложностью объекта Y, А.Н. Колмогоров для оценки алгоритмического количества информации в объекте X относительно объекта Y предложил использовать формулу:

, ................................................... (22 )

причем  и, соответственно, .

     Алгоритмическая информация (22) может принимать как  положительные, так и отрицательные  значения. В связи с этим А.Н. Колмогоров делает два замечания. Во-первых, " не меньше некоторой отрицательной константы C, зависящей лишь от условностей избранного метода программирования". Во-вторых, "вся теория рассчитана на применение к большим количествам информации, по сравнению с которыми будет пренебрежимо мал".

     Алгоритмический подход к измерению количества информации, в силу ряда объективных причин, не нашел широкого практического применения. Во-первых, как писал сам А.Н. Колмогоров, "на пути его формализации встает очевидная трудность: то, что просто описывается на одном языке, может не иметь простого описания на другом, и непонятно, какой способ описания выбрать". То есть алгоритмическая оценка информации зависит от выбранного метода программирования, а такой выбор, в свою очередь, по сути дела всегда имеет субъективный характер. Во-вторых, практическое использование формулы (22) возможно лишь применительно к весьма простым объектам, имеющим математическое описание, в то время как отсутствие последнего является характерной и обязательной чертой сложных объектов. Кроме того, понятие "сложность" само по себе является относительным и зависит от уровня рассмотрения объектов. И, наконец, в-третьих, в соответствии с теоремой Геделя о неполноте формальных систем, нельзя доказать, что минимальная длина программы преобразования X в Y, составленная на каком-либо языке программирования, действительно является объективно минимальной.

     В своих комментариях относительно алгоритмического подхода А.Н. Колмогоров писал, что  он "основан на применении теории алгоритмов для определения понятия энтропии, или сложности, конечного объекта и понятия информации в одном конечном объекте о другом". В соответствии с этим, переходя к рассмотрению алгоритмического подхода с позиций количественного определения негэнтропии отражения, предварительно отметим следующее. – В рассматриваемой нами ситуации (рис. 1) каждый из объектов может быть закодирован с помощью двоичного языка, символами которого являются "0" и "1". Кодируя каждый элемент символом "1", мы получим для отражаемого и отражающего объектов соответствующий код длины и .

     Также очевидно, что алгоритм получения  одного объекта из другого в рассматриваемой  ситуации сводится к добавлению или  обнулению (ликвидации) определенного  числа единиц в соответствующем  коде. То есть длина "программы" получения  одного объекта из другого равна двоичных единиц и соответственно относительная сложность каждого из объектов имеет вид:

............................................... (24)

Подставляя  выражения (23) и (24) в формулу (22), получаем, что алгоритмическое количество информации, которое содержит отражающий объект B относительно отражаемого объекта A, равно:

............................... (25)

     Алгоритмическая информация (25) наиболее близка к определению  негэнтропии отражения системных объектов в сравнении с ранее рассмотренными информационными мерами и даже, на принципиальном уровне суждений (в рамках изложенного материала), может быть принята за ее количественную характеристику. Но, этим ее положительные свойства в негэнтропийном отношении ограничиваются, так как она не применима к открытым системным объектам. Дело в том, что, когда отражаемый объект является открытым, мы опять будем иметь отрицательные значения (при ), негативизм которых, помимо отмеченного выше, может быть дополнен тем, что, как нетрудно видеть, возможны ситуации, когда аддитивная негэнтропия отражения совокупности отражающих объектов будет равна нулю. То есть, например, проведя наблюдения и выявив совокупность объектов, имеющих непосредственную взаимосвязь с отражаемым (исследуемым) объектом, в итоге мы будем иметь, что общее количество информации, полученное нами в процессе исследований равно нулю, а это уже нонсенс. Таким образом, мы видим, что алгоритмический подход, также как комбинаторный и вероятностный, не позволяет получить расчетную формулу для негэнтропии отражения системных объектов .

 

Глава 6. Другие подходы к  измерению информации

     Попытки оценить не только количественную, но и содержательную сторону информации дали толчок к развитию семантической (смысловой) теории информации. Исследования в этой области теснее всего связаны с семиотикой – теорией знаковых систем. Одним из важнейших свойств информации, которое мы можем наблюдать, является ее неотделимость от носителя: во всех случаях, когда мы сталкиваемся с любыми сообщениями, эти сообщения выражены некоторыми знаками, словами, языками Семиотика исследует знаки как особый вид носителей информации. При этом знаком является условное изображение элемента сообщения, словом – совокупность знаков, имеющих смысловое значение, языком – словарь и правила пользования им. Таким образом, рассуждая о количестве, содержании и ценности информации, содержащейся в сообщении, можно исходить из возможностей соответствующего анализа знаковых структур.

     В качестве знаковых систем используются естественные и искусственные языки, в том числе информационные и  языки программирования, различные  системы сигнализации, логические, математические и химические символы. Они служат средством обмена информацией между высокоорганизованными системами (способными к обучению и самоорганизации). Примером могут быть живые организмы, машины с определенными свойствами.

     Рассматривая знаковые системы, выделяют три основных аспекта их изучения: синтактику, семантику и прагматику.

     Синтактика  изучает синтаксис знаковых структур, т.е. способы сочетаний знаков, правила  образования этих сочетаний и  их преобразований безотносительно  к их значениям. Отметим в связи с этим, что рассматриваемые ранее способы определения количества информации можно отнести к синтаксическим способам.

     Семантика изучает знаковые системы как  средства выражения смысла, определенного  содержания, т.е. правила интерпретации знаков и их сочетаний, смысловую сторону языка.

     Прагматика  рассматривает соотношение между  знаковыми системами и их пользователями, или приемниками-интерпретаторами сообщений. Иными словами, к прагматике относится изучение практической полезности знаков, слов и, следовательно, сообщений, т.е. потребительской стороны языка.

     Основная  идея семантической концепции информации заключается в возможности измерения  содержания (предметного значения) суждений. Но содержание всегда связано  с формой, поэтому синтаксические и семантические свойства информации взаимосвязаны, хотя и различны. Получается, что содержание все-таки можно измерить через форму, т.е. семантические свойства информации выразить через синтаксические. Поэтому и исследования семантики базировались на понятии информации как уменьшении или устранении неопределенности, с которым мы уже знакомы.

     Сразу же заметим, что методы точного количественного  определения смыслового содержания информации в настоящее время  еще не разработаны, поэтому мы ограничимся только кратким описанием подходов к решению этой проблемы.

     Первую  попытку построения теории семантической  информации предприняли Р. Карнап и И. Бар-Хиллел. Они положили начало применению идей и методов символической логики и логической семантики к анализу информационного содержания языка науки. Р. Карнап и И. Бар-Хиллел предложили определять величину семантической информации посредством так называемой логической вероятности, которая представляет собой степень подтверждения той или иной гипотезы. При этом количество семантической информации, содержащейся в сообщении, возрастает по мере уменьшения степени подтверждения априорной гипотезы. Если вся гипотеза построена на эмпирических данных, полностью подтверждаемых сообщением, то такое сообщение не приносит получателю никаких новых сведений. Логическая вероятность гипотезы при этом равна единице, а семантическая информация оказывается равной нулю. Гипотеза здесь полностью вытекает из данных опыта. И наоборот, по мере уменьшения степени подтверждения гипотезы, или запаса знаний, количество семантической информации, доставляемой сообщением, возрастает. Чем больше логическая вероятность высказывания, тем меньше должна быть мера его содержания, т.е. чем больше описаний состояния «разрешает» то или иное высказывание, тем меньше должна быть его семантическая информативность и, наоборот, чем больше описаний состояния им исключается, тем больше должна быть его информативность. Таким образом, семантико-информационное содержание высказывания определяется не тем, что содержит данное высказывание, а тем, что оно исключает.

     Концепция Карнапа – Бар-Хиллела, получившая впоследствии развитие в трудах Кемени, является только началом исследований в области измерения содержания передаваемой информации. Эта концепция  позволяет, например, выявить связь гипотезы с начальным достоверным значением, в частности, сделать заключение о степени подтверждения гипотезы.

     Финский ученый Я. Хинтикка распространил основные идеи семантической теории информации Карнапа и Бар-Хиллела на логику высказываний. Для многих ситуаций (наблюдения, измерения, подтверждения гипотезы, научного предсказания, объяснения) он предложил метод определения уменьшения неопределенности, которое, например, претерпевает гипотеза g после получения того или иного эмпирического факта h или вообще изменения информационного содержания высказывания g при получении высказывания h.

     Однако, несмотря на определенные достижения, концепция Карнапа – Бар-Хиллела  оказалась малопригодной для  анализа содержания естественного  языка. Эта теория, основанная на вероятностной логике, неприменима к анализу основного массива научного знания – достоверного знания. С точки зрения указанной теории, например, высказывание «На Луне есть нефть» содержит информацию, а высказывание «На Земле есть нефть» лишено информации, поскольку это достоверное знание. Такая ситуация представлялась довольно парадоксальной!

     Подчеркнем  еще раз в связи с этим, что  семантическая теория информации еще  молода и делает лишь первые шаги. Некоторые  исследователи, например, советский ученый Е.К. Войшвилло, становятся на путь синтеза статистического (Шеннон) и логико-семантического (Карнап, Бар-Хиллел) подходов к информации.

     Об  одной очень интересной модели семантической  информации мы расскажем ниже, а  сейчас рассмотрим прагматические концепции информации.

     Изучение  отношений между знаками и  их потребителями с точки зрения использования получаемой информации и влияния знаков на поведение  систем составляет основу прагматической теории информации. Для всех подходов здесь характерно стремление связать понятие прагматической информации с целью, целенаправленным поведением и выдвинуть те или иные количественные меры ценности информации.

     Исходя  из этих соображений, А.А. Харкевич предложил связать меру ценности информации с изменением вероятности достижения цели при получении этой информации:

Информация о работе Способы измерения информации