Автор работы: Пользователь скрыл имя, 11 Октября 2011 в 15:29, контрольная работа
Какое количество информации несет буква Я в русском алфавите (33 буквы)?
Вероятность первого события составляет 0,2, а второго и третьего 0,4. Чему для такого распределения равна информационная энтропия.
Вариант 1.
N — количество
знаков в алфавите, I — количество
информации.
Так, количество информации буквы «Я»
в русском алфавите составляет:
N=2(в степени i), N=33
следовательно I равно примерно 5.
I=p1*log2(1/ p1)
I=0.2*log2(1/0.2) + 0.4*log2(1/0.4) + 0.4*log2(1/0.4) = 0.2*2.5 + +0.4*1.25 + 0.4*1.25 = 0.5 + 0.5 + 0.5 = 1.5 бит
Ответ: информационная
энтропия равна 1.5 бит
Год рождения | Фамилия | Имя |
1950 | Звягина | Татьяна |
1970 | Иванова | Марина |
1970 | Иванова | Наталья |
1970 | Петрова | Татьяна |
1970 | Звягина | Ирина |
Определите количество информации, недостающее для того, чтобы выполнить следующие просьбы:
А) I = log2(Nдо/Nпосле) = log2(5/2) = 1.32 бит
I недостающие = log2(5)– 1.32 = 2.32 – 1.32 = 1 бит
Б) I = log2(Nдо/Nпосле) = log2(5/4) = 0.32 бит
I недостающие = log2(5)– 0.32 = 2.32 – 0.32 = 2 бит
Ответ: а) недостающие
= 1 бит б) недостающие = 2 бит.