Автор работы: Пользователь скрыл имя, 14 Марта 2011 в 11:24, шпаргалка
Работа содержит ответы на вопросы к Государственному экзамену по предмету "Информатика".
Информация-это совокупность каких-либо сведений, данных передаваемых устно(в форме речи), письменно(в виде текста) либо другим способом. Теоретические и практические вопросы, относящиеся к информации, изучает информатика. Информатика – техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных(информации) средствами ВТ, а также принципы хранения средств и методы управления ими.
Объектом информатики выступают автоматизированные, основанные на ЭВМ и телекоммуникационной технике, информационные системы различного класса и назначения. Информатика изучает все стороны их разработки, проектирования, создания, анализа и использования на практике.
Предмет информатики: 1) аппаратное обеспечение средств ВТ; 2) ПО средств ВТ; 3) средства взаимодействия аппаратного и программного обеспечения; 4) средства взаимодействия с аппаратными и программными средствами.
Основные задачи информатики: систематизация приемов и методов работы с аппаратными и программными средствами ВТ. Информатика-практическая наука. В составе основной задачи информатики сегодня можно выделить следующие направления для практических приложений: архитектура вычислительных систем (приемы и методы построения систем, предназначенных автоматической обработки данных); интерфейсы вычислительных систем (приемы и методы управления аппаратным и ПО); программирования (приемы, методы, средства разработки компьютерных программ); преобразование Д (приемы и методы преобразования структур Д); ЗИ(обобщение приемов, разработка методов и средств ЗД); автоматизация (функционирование аппаратно-программных средств без участия человека); стандартизация (обеспечение совместимости между аппаратными и программными средствами).
Элементная база ЭВМ |
Цель использования ЭВМ | Режим работы ЭВМ | Тип пользователя | Распожениеuser’a | |
I пок. 50-е гг. |
Электронные вакуумные лампы | Научно-технические расчеты | Однопрограммный | Инженеры-програм-мисты | Машинный
зал |
II пок. 60-е гг. | Дискретные полупроводниковые приборы (транзисторы) | Технические и экономические расчеты | Пакетная обработка | Профессиональные программисты | Отдельное
поме щение |
III пок. 70-е гг. | Полупроводниковые
интегральные схемы
с малой и средней степенью интеграции |
Управление и экономические расчеты | Разделение времени | Программисты-пользователи | Терми
наль ный зал |
IV пок. 80-е гг.. |
Большие и сверхбольшие интегральные схемы микропроцессоры | Управление и предоставление информации | Персональная работа | Пользователи с общей компьютерной подготовкой | Рабо
чий стол |
V пок. 90-е гг. | Сверхслож. Микропроц.с паралл-векторной стру-ой, однов-но выпол-ие десятки послед. команд проги. | Телекоммуникации, информационное обслуживание и управление | Сетевая обработка | Слабообученные пользователи | Произ
воль ное Моби льное |
Таблица - Совершенствование технологии использования компьютеров
3.Укажите основные документы, регламентирующие информацию в качестве объектов права.
статьи 128, 138, 139, 209
от 05.12.91 г. «О перечне сведений, которые не могут составлять коммерческую тайну».
4. Чем занимается структурная, статистическая и семантическая теории информации?
Структурная теория информации рассматривает структуру построения отдельных информационных сообщений. Единица количества информации – элементарная структурная единица - квант.
Статистическая теория оценивает информацию с точки зрения меры неопределенности. Основное внимание уделяется распределению вероятностей, либо появлению сигналов, либо изменению характеристик этих сигналов и построению на его основе некоторых обобщенных характеристик, позволяющих оценить количество информации.
Семантическая теория занимается изучением именно смысловых характеристик информации: ценности, содержательности, полезности. Помогает связать количество и ценность информации с такими обобщенными характеристиками системы, как эффективность, информационная пропускная способность, информационная помехоустойчивость.
5. Что такое объем данных и как он измеряется?
Объемный способ измерения инф. Объем инф. в сообщ. – это кол-во символов в сообщении.
Энтропийный способ измерения инф Количество информации в сообщении определяется тем, насколько уменьшится мера неопределенности после получения сообщения.
Количество информации при наблюдении случайной величины с распределением вероятностей задается формулой Шеннона:
Единицей измерения количества информации является бит, который представляет собой количество информации, получаемое при наблюдении случайной величины, имеющей два равновероятных значения.
При равномерном распределении количество информации задается формулой Хартли:
Справедливы следующие соотношения:
если и - независимы
Алгоритмический способ измерения инф. Любому сообщению можно приписать количественную характеристику, отражающую сложность (размер) программы, к-ая позволяет ее произвести.
6. Покажите аддитивность информационной меры Шеннона для независимых источников.
Энтропия аддитивна т.е. энтропия совместного наблюдения двух независимых случайных x и
h равна сумме энтропий каждой из величин в отдельности:
Пусть x - случайная величина с множеством возможных значений {x1, x2,…, xN} и распределением вероятностей
p1, p2,…,pN, а h - случайная величина с множеством возможных значений {y1, y2,…, yM} и распределением вероятностей
q1, q2,…,qM. Энтропия совместного наблюдения пары величин (x, h) равна:
где - вероятность совместного появления соответствующих значений величин x и h. С учетом независимости x и h
отсюда
7. Перечислите свойства энтропии дискретного источника сообщений.
1. Энтропия – неотриц. вещест. число. Это свойство – следствие того, что
и свойств функции
2. Энтропия равна нулю тогда и только тогда, когда x - детерминированная величина,
т.е. когда для некоторого j вероятность pj=1.
3. Энтропия максимальна при равновероятных значениях x, т.е. когда p1=p2=…=pN=1/N.
4. Энтропия аддитивна
т.е. энтропия совместного
h равна сумме энтропий каждой из величин в отдельности:
8. Приведите формулу для расчета избыточности источника информации и поясните ее смысл.
Пусть - случайная величина с множеством возможных значений
Избыточностью называется
Избыточность показывает, какая доля максимально возможной при заданном объеме алфавита неопределенности (энтропии) не используется источником. В частности избыточность современного английского текста составляет 50%, избыточность русского текста 70%. N - объем алфавита
9. Приведите структурную схему передачи информации.
Совокупность
технических средств
1) Источник
сообщений, создающий
2) Передатчик,
который перерабатывает
3) Канал
- это комплекс технических
Линией связи называется среда, используемая для передачи сигнала от передатчика к приемнику. Канал называется дискретным, если на его входе и выходе присутствуют сигналы дискретные по уровню (сигналы типа 3,4). Если сигналы на входе и выходе канала непрерывны по времени (типа 1 или 2) то он называется непрерывным. В общем случае в процессе передачи в канале сигнал искажается шумом.
4) Приемник
восстанавливается сообщение
5) Получатель это лицо или аппарат, для которого предназначено сообщение.
10. Поясните термины: информация, сообщение, сигнал, канал связи.
Информация-это совокупность каких-либо сведений, данных передаваемых устно(в форме речи), письменно(в виде текста) либо другим способом.
Информация - совокупность сведений об окружающем мире, являющихся объектом хранения, передачи и преобразования.
Сообщение - совокупность знаков или первичных сигналов, содержащих информацию.
Сообщение - это информация, представленная в какой-либо форме.
Сигнал - изменяющийся во времени физический процесс, отражающий передаваемое сообщение.
Канал связи - это комплекс технических средств, обеспечивающий передачу сигналов от передатчика к приемнику. В состав канала входит каналообразующая аппаратура, осуществляющая сопряжение выходного и входного сигналов соответственно передатчика и приемника с линией связи, и самой линии связи.
11.
Приведите классификацию
сигналов по дискретно-
1) Непрерывный
или аналоговый сигналы (
2) Дискретизированный
или дискретно непрерывные
3) Дискретные по уровню или квантованные сигналы (случайные сигналы этого типа называют дискретными случайными процессами). Они определены для всех моментов времени и принимают лишь разрешенные значения уровней отделенные от друг друга шага квантования Δx=xk+1+xk
4) Дискретные по уровню и по времени сигналы (случайные сигналы этого типа
называют дискретными случайными последовательностями). Они определены