Автор работы: Пользователь скрыл имя, 08 Января 2011 в 22:37, реферат
Сигнал является материальным носителем информации (кодированной определённым способом), которая передается от источника к потребителю. Он может быть дискретным и непрерывным (аналоговым).
Сигнал является материальным носителем информации (кодированной определённым способом), которая передается от источника к потребителю. Он может быть дискретным и непрерывным (аналоговым).
Аналоговый
сигнал — сигнал данных, у которого
каждый из представляющих параметров
описывается функцией времени и непрерывным
множеством возможных значений.
Большинство сигналов
имеют аналоговую природу, то есть изменяются
непрерывно во времени и могут
принимать любые значения на некотором
интервале. Аналоговые сигналы описываются
некоторой математической функцией времени.
Пример АС —
гармонический сигнал — s(t) = A·cos(ω·t
+ φ).
Аналоговые сигналы
используются в телефонии, радиовещании,
телевидении. Ввести такой сигнал в
компьютер и обработать его невозможно,
так как на любом интервале времени
он имеет бесконечное множество значений,
а для точного (без погрешности) представления
его значения требуются числа бесконечной
разрядности. Поэтому необходимо преобразовать
аналоговый сигнал так, чтобы можно было
представить его последовательностью
чисел заданной разрядности.
Дискретизация
аналогового сигнала состоит в том,
что сигнал представляется в виде последовательности
значений, взятых в дискретные моменты
времени. Эти значения называются отсчётами.
Δt называется интервалом
дискретизации.
Цифровой
сигнал --- сигнал данных, у которого
каждый из представляющих параметров
описывается функцией дискретного времени
и исчисляемым (конечным) множеством возможных
значений.
Информация
- сведения об объектах живой или неживой
природы, их свойствах и взаимном влиянии
друг на друга.
Информацио́нная
энтропи́я — мера хаотичности информации,
неопределённость появления какого-либо
символа первичного алфавита. При отсутствии
информационных потерь численно равна
количеству информации на символ передаваемого
сообщения.
Энтропия —
это количество информации, приходящейся
на одно элементарное сообщение источника,
вырабатывающего статистически независимые
сообщения.
Количество энтропии не всегда выражается целым числом бит.
Математические свойства
Неотрицательность: I>=0
Ограниченность:
I=<Log₂lXlРавенство, если все
элементы из X равновероятны.
Количество информации.
Формулы Хартли и Шеннона
Р. Хартли предложил
научный подход к оценке сообщений.
Предложенная им формула имела следующий
вид:
I = log2 K ,
Где К - количество равновероятных событий; I - количество бит в сообщении, такое, что любое из К событий произошло. Тогда K=2I.
Иногда формулу
Хартли записывают так:
I = log2 K = log2 (1 / р) = - log2 р,
т. к. каждое из К
событий имеет равновероятный исход р
= 1 / К, то К = 1 / р.
Задача.
Шарик
находится в одной из трех
урн: А, В или С. Определить
сколько бит информации
Решение.
Такое
сообщение содержит I = log2 3 = 1,585 бита
информации.
Но не
все ситуации имеют одинаковые
вероятности реализации. Существует
много таких ситуаций, у которых
вероятности реализации
К Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.
Если I - количество информации,
К - количество возможных событий,
рi - вероятности отдельных событий,
то количество
информации для событий с различными
вероятностями можно определить по формуле:
I = - Sum рi log2 рi,
где i принимает
значения от 1 до К.
Формулу
Хартли теперь можно
I = - Sum 1 / К log2 (1 / К) = I = log2 К.
При равновероятных
событиях получаемое количество информации
максимально.
Задачи.
1. Определить
количество информации, получаемое
при реализации одного из
а) несимметричную четырехгранную пирамидку;
б) симметричную
и однородную четырехгранную пирамидку.
Решение.
а) Будем бросать несимметричную четырехгранную пирамидку.
Вероятность отдельных событий будет такова:
р1 = 1 / 2,
р2 = 1 / 4,
р3 = 1 / 8,
р4 = 1 / 8,
тогда количество информации, получаемой после реализации одного из этих событий, рассчитывается по формуле:
I = -(1 / 2 log2 1/2 + 1 / 4 log2 1/4 + 1 / 8 log2 1/8 + 1 / 8 log2 1/8) = 1 / 2 + 2 / 4 + + 3 / 8 + 3 / 8 = 14/8 = 1,75 (бит).
б) Теперь рассчитаем количество информации, которое получится при бросании симметричной и однородной четырехгранной пирамидки:
I = log2 4 = 2 (бит).
2. Вероятность
перового события составляет 0,5,
а второго и третьего 0,25. Какое
количество информации мы
3. Какое количество информации будет получено при игре в рулетку с 32-мя секторами?
4. Сколько различных чисел можно закодировать с помощью 8 бит?
Решение: I=8 бит,
K=2I=28=256 различных чисел.
Физиологи
и психологи научились
При передаче
и хранении информации с
Считая,
что алфавит (набор символов
знаковой системы) - это событие,
то появление одного из
Молекулы
ДНК (дезоксирибонуклеиновой
4 = 2I, т.е. I = 2 бит.
Каждая
буква русского алфавита (если
считать, что е=е) несет
При таком
подходе в результате
Количество
информации, которое содержит сообщение,
закодированное с помощью