Автор работы: Пользователь скрыл имя, 23 Марта 2012 в 18:54, доклад
Основным объектом изучения многих наук, и информатики в том числе, является информация. С развитием нашего представления о мире, с развитием науки расширяется и углубляется содержание понятия "информация". Первоисточником данного термина является латинское слово informatio (изложение, истолкование, разъяснение), а вошло оно в русский язык, в эпоху Петра I.
Основным объектом изучения многих наук, и информатики в том числе, является информация. С развитием нашего представления о мире, с развитием науки расширяется и углубляется содержание понятия "информация". Первоисточником данного термина является латинское слово informatio (изложение, истолкование, разъяснение), а вошло оно в русский язык, в эпоху Петра I. На бытовом уровне понятие "информация" чаще всего толкуется как сведения, сообщения, передаваемые от человека человеку и осведомляющие о каких-то явлениях, событиях, процессах и т.д. Однако это не исчерпывает всего содержания понятия "информация".
Норберт Винер в своей работе "Кибернетика или управление и связь в животном и машине" определяет информацию как "обозначение содержания, черпаемого нами из внешнего мира в процессе приспособления к нему и приведения в соответствие с ним нашего мышления".
Информация определяется через категорию "содержание внешнего мира" и напрямую увязана с человеком, его мышлением и процессом приспособления человека к явлениям и событиям внешнего мира. Иными словами, Винер утверждает, что информация вне человеческого сознания не существует.
Многие современные представления о содержании понятия "информация" связаны с человеком и его способностью мыслить.
"Информация - это сообщение, осведомляющее о положении дел, о состоянии чего-нибудь" (Толковый словарь Ожегова) .
Во всех случаях, когда идет речь о сведениях, следует понимать, что говорится об информации осмысленной, преобразованной человеческим сознанием.
Отождествление информации со сведениями или фактами, которые теоретически могут быть получены и усвоены, то есть преобразованы в знания, составляет суть антропоцентрического подхода к определению понятия "информация". Этот подход в настоящее время применяется наиболее широко и, в частности, в российском законодательстве.
Под информацией понимаются "сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления" (Законом «Об информации, информатизации и защите информации» ст 609) Во-первых, подход к информации только как к сведениям не позволяет адекватно интерпретировать информационные процессы в таких объектах, как компьютерные программы, компьютерные сети, системы искусственного интеллекта, системы, ориентирующиеся в состоянии неопределенности. Здесь процессы получения, преобразования, передачи информации могут проходить без этапа осмысления их человеком. Во-вторых, в рамках антропоцентрического подхода невозможно найти адекватного объяснения генетической информации живой природы. В связи с этим возникла потребность в изменении трактовки понятия информации. Оно было расширено и включило обмен сведениями не только между человеком и человеком, но также между человеком и автоматом, автоматом и автоматом и др. Наиболее бурное и весьма плодотворное развитие проблема проникновения в сущность понятия "информация" получила в рамках теории информации и кибернетики. Теория информации начинается с работ К. Шеннона, опубликованных в конце 40-х годов XX в., в которых под информацией понимались не любые сообщения, а лишь те, которые уменьшают неопределенность у получателя этого сообщения. Неопределенность же, по воззрениям К. Шеннона, существует тогда, когда происходит выбор одной из нескольких возможностей. В теории Шеннона на первый план выдвигалась идея кода и канала передачи информации, а количество информации, характеризующее данное сообщение, определялось множеством всех возможных сообщений и их вероятностей независимо от их смыслового содержания. В начале 60-х годов Ю.А. Шрейдер предпринял попытку разработать методы определения того, как богатство состава и структурность информации, накопленной в объекте, влияют на ее прием и эффективность обработки для использования. Это было связано с задачами оптимизации управления. Так появилась семантическая теория информации, развитая Ю.А. Шрейдером, которая отличается от теории информации К. Шеннона по своим исходным положениям. В теории Шрейдера акцент делается на свойствах приемника, воспринимающего и накапливающего информацию, и на оценке ее семантического (смыслового) значения, а вопрос о канале передачи информации уходит на второй план. Основная идея семантической теории информации заключается в том, что семантическую информацию, воспринимаемую данной системой, можно оценивать по степени изменения содержащейся в системе собственной семантической информации за счет накопления внешней информации. Чтобы вообще воспринять какую-либо информацию от внешних источников, система-приемник должна обладать неким минимальным "запасом знаний", который обозначается термином "тезаурус", или, иначе говоря, система должна содержать некую начальную, пороговую внутреннюю информацию. Если позволяет эта пороговая информация, система способна расширять свой тезаурус, извлекая извне все более обширную информацию, вплоть до максимально для нее доступной, когда ее внутренняя информация (тезаурус) обогащается до оптимального уровня. Дальнейшее восприятие информации становится для системы все более избыточным (все менее значимым) и, наконец, она уже "знает все, что ей доступно", - ее внутренняя информация (тезаурус) становится насыщенной. Описанную схему Шрейдер поясняет на примере восприятия информации человеком: если, например, источник внешней информации - учебник по теории вероятности, то школьник младших классов не извлечет из него никакой информации (его начальный тезаурус для этого недостаточен), школьник старших классов уже извлечет некоторую информацию, а студент, изучающий этот курс, - максимальную.
В связи с этим можно выделить следующие виды информации, ее свойства и особенности их взаимодействия.
Внутренняя информация - информация как характеристика организованности любой системы, которую называют "структурной информацией" .
Структурная (или связанная) информация присуща всем объектам живой и неживой природы естественного и искусственного происхождения и возникает как результат отбора, фиксации и закрепления в системе в форме определенных структурных изменений ее положительного опыта взаимодействия с внешней средой.
Внешняя информация - информация как средство организации любой системы, то, что определяют как "относительную информацию", "оперативную (или рабочую) информацию", тесно связанную с отражением (если в одном объекте происходят изменения, отражающие воздействия другого объекта, то первый объект становится носителем информации о втором объекте).
За истекшие с того времени полвека появилось множество работ, в которых с позиций разных наук, различных научных школ и даже различных идеологических установок исследуются всевозможные подходы к определению этого понятия.
Информация - это передача разнообразия (Эшби).
Информация - это оригинальность, новизна (Моль).
Информация - это вероятность выбора (Яглом).
Информация - это отраженное разнообразие (Урсул).
Информация - это мера сложности структур (Моль). Действительно, чем сложнее объект или процесс, тем больше информации в нем содержится и тем больше информации необходимо для его описания.
В.М. Глушков: "Информация в самом общем ее понимании представляет собой меру неоднородности распределения материи и энергии в пространстве и во времени, меру изменений, которыми сопровождаются все протекающие в мире процессы". Энциклопедический словарь под редакцией А.М. Прохорова дает такое определение: "Информация (от латинского informatio - разъяснение, изложение) с середины ХХ века общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом, обмен сигналами в животном и растительном мире, передачу признаков от клетки к клетке, от организма к организму; одно из основных понятий кибернетики". Информация, по мнению И.И. Юзвишина, - это "генерализационно-