Автор работы: Пользователь скрыл имя, 24 Января 2012 в 14:09, лекция
История развития информатики.
Основные объекты и методы изучения науки информатики.
Роль и место информации в современной естественнонаучной картине мира.
Основные подходы к феномену информации в современной науке.
Основные подходы к определению понятия «информация».
Носители информации. Виды и свойства информации.
Измерение информации.
где pi
- вероятность появления в сообщении i-го
символа алфавита.
Удобнее в качестве меры количества информации пользоваться не значением hi , а средним значением количества информации, приходящейся на один символ алфавита
H = S pi hi = - S pi log2 pi
Значение Н достигает максимума при равновероятных событиях, то есть при равенстве всех pi
pi = 1 / N.
В этом случае формула Шеннона превращается в формулу Хартли.
Интересный факт.
На памятнике немецкому ученому Л. Больцману высечена формула, выведенная в 1877 году и связывающая вероятность состояния физической системы и величину энтропии этой системы. Энтропия (греч. en - в, внутрь; trope - превращение, буквально смысловой перевод: то, что внутри, неопределенно) - физическая величина, характеризующая тепловое состояние тела или системы, мера внутренней неупорядоченности системы. Так вот, формула для энтропии Больцмана совпадает с формулой, предложенной Шенноном для среднего количества информации, приходящейся на один символ в сообщении. Совпадение это произвело столь сильное впечатление, что Шеннон назвал количество информации негэнтропией. С тех пор слово “энтропия” стало чуть ли не антонимом слова “информация”.
Чем
больше энтропия системы, тем больше
степень ее неопределенности. Поступающее
сообщение полностью или
Информация о работе Введение в информатику. Понятие информации