Понятие и виды информации. Единицы измерения информации

Автор работы: Пользователь скрыл имя, 09 Января 2012 в 12:51, реферат

Краткое описание

Термин информация происходит от латинского слова informatio, что означает «сведения, разъяснения, изложение». Информация - это настолько общее и глубокое понятие, что его нельзя объяснить одной фразой. В это слово вкладывается различный смысл в технике, науке и в житейских ситуациях. В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют, например сообщение о каких-либо событиях, о чьей-либо деятельности и т. п. «Информировать» в этом смысле означает «сообщить нечто, неизвестное раньше».

Содержание работы

1. Понятие и виды информации. Единицы измерения информации………3
2. Классификация копировальных аппаратов. Устройство и основные характеристики……………………………………………………………………7
3. Количество информации. Способы вычисления………………………..10
4. Литература………………………………………………………………...13

Содержимое работы - 1 файл

РЕФЕРАТ.doc

— 104.50 Кб (Скачать файл)

- тефлоновый вал, термовал, нагревательный вал, hot roller - нагревающий вал термоблока;

- резиновый вал, пресс роллер - прижимает бумагу к нагревающему валу;

- пальцы отделения, отбойники - отделяют бумагу от нагревательного вала.

- озоновый фильтр - задерживает избыточный озон, образующийся при работе аппарата;

- лоток подачи бумаги;

- ролики подачи бумаги - как правило резиновые ролики, захватывают и протягивают бумагу внутри механизма;

- блок  сканирования документов;

- бункер  обработки порошка.

2. Дополнительные устройства:

- автоподатчик - устройство автоматической подачи документов;

- дуплекс (duplex) - устройство автоматической двусторонней печати; - устройство сортировки, sorter, либо  финишер, Finisher  - служит для подборки и скрепления комплектов копий;

- контроллер принтера – обеспечивает контроль за работой принтера с вашего компьютера;

- контроллер сканера – ускоряет процесс сканирования;

- контроллер факса - превращает копировальный аппарат в мощный факс;

- тандем - объединяет два копировальных аппарата в один мощный скоростной центр печати. 

 

3. Количество информации. Способы вычисления.

     Компьютер работает не с содержанием информации, которое способен воспринимать только человек, а с данными, представляющими  информацию. Поэтому важнейшей задачей  для компьютерных технологий является представление информации в форме данных, пригодных для их обработки. Данные и программы кодируются в двоичном виде. Обработка любого типа данных сводится в компьютере к вычислениям с двоичными числами. Именно поэтому компьютерные технологии еще называют цифровыми. Понятие о системах счисления, о представлении чисел в компьютере относятся к базовым понятиям информатики. Для измерения количества информации используется два подхода: алфавитный и содержательный.

     Алфавитный  подход используется для измерения количества информации в тексте, представленном в виде последовательности символов некоторого алфавита. Такой подход не связан с содержанием текста. Количество информации в этом случае называется информационным объемом текста, который пропорционален размеру текста — количеству символов, составляющих текст. Иногда данный подход к измерению информации называют объемным подходом.

     Каждый  символ текста несет определенное количество информации. Его называют информационным весом символа. Поэтому информационный объем текста равен сумме информационных весов всех символов, составляющих текст.

     Здесь предполагается, что текст — это  последовательная цепочка пронумерованных символов. В формуле  iобозначает информационный вес первого символа текста, i2— информационный вес второго символа текста и т.д.; K — размер текста, т.е. полное число символов в тексте.

     Все множество различных символов, используемых для записи текстов, называется алфавитом. Размер алфавита — целое число, которое называется мощностью алфавита. Следует иметь в виду, что в алфавит входят не только буквы определенного языка, но все другие символы, которые могут использоваться в тексте: цифры, знаки препинания, различные скобки, пробел и пр.

     Определение информационных весов символов может происходить в двух приближениях:

     1) в предположении равной вероятности  (одинаковой частоты встречаемости)  любого символа в тексте;

     2) с учетом разной вероятности  (разной частоты встречаемости)  различных символов в тексте.

     С позиции содержательного подхода к измерению информации решается вопрос о количестве информации в сообщении, получаемом человеком. Рассматривается следующая ситуация:

     1) человек получает сообщение о  некотором событии; при этом  заранее известна неопределенность знания человека об ожидаемом событии. Неопределенность знания может быть выражена либо числом возможных вариантов события, либо вероятностью ожидаемых вариантов события;

     2) в результате получения сообщения  неопределенность знания снимается:  из некоторого возможного количества вариантов оказался выбранным один;

     3) по формуле вычисляется количество  информации в полученном сообщении,  выраженное в битах.

     Формула, используемая для вычисления количества информации, зависит от ситуаций, которых  может быть две:

     1. Все возможные варианты события равновероятны. Их число конечно и равно N.

     2. Вероятности (p) возможных вариантов события разные и они заранее известны:

{pi}, i = 1..N. Здесь по-прежнему N — число возможных вариантов события.

Равновероятные  события. Если обозначить буквой i количество информации в сообщении о том, что произошло одно из N равновероятных событий, то величины i иN связаны между собой формулой Хартли:

2= N    (1)

     Величина i измеряется в битах. Отсюда следует вывод:

     1 бит — это количество информации  в сообщении об одном из двух равновероятных событий.

     Формула Хартли — это показательное уравнение. Если i — неизвестная величина, то решением уравнения (1) будет:

i = log2N   (2)

     Формулы (1) и (2) тождественны друг другу. Иногда в литературе формулой Хартли называют (2).

 

    4. Литература

  1. Фридланд А.Я. Информатика: процессы, системы, ресурсы. - М.: БИНОМ. Лаборатория знаний, 2003.
  2. Платонов Ю.М. Современные копировальные аппараты - Солон-Пресс. – 2007. С 296
  3. Семакин И. Энциклопедия учителя информатики И.Семакин. Теоретические основы информатики // журнал "Информатика" издательского дома "Первое сентября". - № 12/2007
  4. Интерент-сайт / Википедия – свободная энциклопедия / http://ru.wikipedia.org

Информация о работе Понятие и виды информации. Единицы измерения информации