Автор работы: Пользователь скрыл имя, 05 Ноября 2012 в 22:20, реферат
Отдельно нужно измерять количество информации, причём количество информации – строгая оценка, относительно которой можно развивать единую строгую теорию. Кроме количества информации, следует измерять ещё и ценность. А вот с ценностью информации происходит то же самое, что и с понятием семантической информации. С одной стороны, вроде её можно вычислить, а с другой стороны, все эти вычисления справедливы лишь в ограниченном числе случаев. И вообще, кто может точно вычислить, скажем, ценность крупного научного открытия?
Введение
1. Понятие информации
2. Представление информации
3. Передача информации
4. Измерение информации
5. Использование информации
6. Свойства информации
7. Обработка информации
8. Информационные ресурсы и информационные технологии
9. Информатизация общества
Литература
Рис. 1. − Общая схема передачи информации
4. Измерение информации
информация сведение сообщение технология
Какое количество информации содержится, к примеру, в тексте романа "Война и мир", в фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро.
А возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является вывод:
В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.
В настоящее время получили распространение подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.
Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N. Формула Хартли:
I = log2N.
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 ” 6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.
Приведем другие примеры равновероятных сообщений:
- при бросании монеты: "выпала решка", "выпал орел";
- на странице книги: "количество букв чётное", "количество букв нечётное".
Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.
Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.
Формула Шеннона:
I = – (p1 log2 p1 + p2 log2 p2 +... + pN log2 pN),
где pi – вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.
Легко заметить, что если вероятности p1,..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.
Помимо двух рассмотренных подходов
к определению количества информации,
существуют и другие. Важно помнить,
что любые теоретические
В качестве единицы информации условились принять один бит (англ. bit – binary, digit – двоичная цифра).
Бит в теории информации – количество информации, необходимое для различения двух равновероятных сообщений.
А в вычислительной технике битом
называют наименьшую "порцию" памяти,
необходимую для хранения одного
из двух знаков "0" и "1", используемых
для внутримашинного
Бит – слишком мелкая единица измерения. На практике чаще применяется более крупная единица – байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).
Широко используются также ещё
более крупные производные
В последнее время в связи
с увеличением объёмов
За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.
5. Использование информации
Информацию можно:
- создавать,
- передавать,
- воспринимать,
- использовать,
- запоминать,
- принимать,
- копировать,
- формализовать,
- распространять,
- преобразовывать,
- комбинировать,
- обрабатывать,
- делить на части,
- упрощать,
- собирать,
- хранить,
- искать,
- измерять,
- разрушать, и др.
Все эти процессы, связанные с определенными операциями над информацией, называются информационными процессами.
6. Свойства информации
Информация обладает следующими свойствами, характеризующими ее качественные признаки:
- достоверность,
- полнота,
- ценность,
- своевременность,
- понятность,
- доступность,
- краткость и др.
Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.
Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел. Информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.
Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.
Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдёт применение в каких-либо видах деятельности человека.
Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она ещё не может быть усвоена), так и её задержка.
Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.
Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.
Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по разному излагаются в школьных учебниках и научных изданиях.
Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях.
7. Обработка информации
Обработка информации – получение одних информационных объектов из других информационных объектов путем выполнения некоторых алгоритмов.
Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации.
Средства обработки информации – это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер – универсальная машина для обработки информации.
Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.
Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.
8. Информационные ресурсы и информационные технологии
Информационные ресурсы – это идеи человечества и указания по их реализации, накопленные в форме, позволяющей их воспроизводство.
Это книги, статьи, патенты, диссертации,
научно-исследовательская и
Информационные ресурсы (в отличие от всех других видов ресурсов – трудовых, энергетических, минеральных и т.д.) тем быстрее растут, чем больше их расходуют.
Информационная технология – это совокупность методов и устройств, используемых людьми для обработки информации.
Человечество занималось обработкой информации тысячи лет. Первые информационные технологии основывались на использовании счётов и письменности. Около пятидесяти лет назад началось исключительно быстрое развитие этих технологий, что в первую очередь связано с появлением компьютеров.
В настоящее время термин "информационная технология" употребляется в связи с использованием компьютеров для обработки информации. Информационные технологии охватывают всю вычислительную технику и технику связи и, отчасти, – бытовую электронику, телевидение и радиовещание.
Они находят применение в промышленности,
торговле, управлении, банковской системе,
образовании, здравоохранении, медицине
и науке, транспорте и связи, сельском
хозяйстве, системе социального
обеспечения, служат подспорьем людям
различных профессий и
Народы развитых стран осознают,
что совершенствование
В настоящее время создание крупномасштабных
информационно-технологических
9. Информатизация общества
Информатизация общества – организованный социально-экономический и научно-технический процесс создания оптимальных условий для удовлетворения информационных потребностей и реализации прав граждан, органов государственной власти, органов местного самоуправления организаций, общественных объединений на основе формирования и использования информационных ресурсов.
Цель информатизации – улучшение качества жизни людей за счет увеличения производительности и облегчения условий их труда.
Информатизация – это сложный социальный процесс, связанный со значительными изменениями в образе жизни населения. Он требует серьёзных усилий на многих направлениях, включая ликвидацию компьютерной неграмотности, формирование культуры использования новых информационных технологий и др.
Литература
1. Пекелис В. Кибернетика от А до Я. − М., 1990.
2.
Дмитриев В.К. Прикладная
3. Брюшинкин В.Н. Логика, мышление, информация. − Л.: ЛГУ, 1988.
Размещено на Allbest.ru