Шпаргалка по "Информатике"

Автор работы: Пользователь скрыл имя, 14 Марта 2011 в 11:24, шпаргалка

Краткое описание

Работа содержит ответы на вопросы к Государственному экзамену по предмету "Информатика".

Содержимое работы - 1 файл

ответы на госы по информатике.doc

— 251.50 Кб (Скачать файл)

1. Сформулировать предмет и задачи информатики как технической науки.

Информация-это совокупность каких-либо сведений, данных передаваемых устно(в форме речи), письменно(в виде текста) либо другим способом. Теоретические и практические вопросы, относящиеся к информации, изучает информатика. Информатика – техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных(информации) средствами ВТ, а также принципы хранения средств и методы управления ими.

Объектом  информатики выступают автоматизированные, основанные на ЭВМ и телекоммуникационной технике, информационные системы различного класса и назначения. Информатика изучает все стороны их разработки, проектирования, создания, анализа и использования на практике.

Предмет информатики: 1) аппаратное обеспечение средств ВТ; 2) ПО средств ВТ; 3) средства взаимодействия аппаратного и программного обеспечения; 4) средства взаимодействия с аппаратными и программными средствами.

Основные  задачи информатики: систематизация приемов и методов работы с аппаратными и программными средствами ВТ. Информатика-практическая наука. В составе основной задачи информатики сегодня можно выделить следующие направления для практических приложений: архитектура вычислительных систем (приемы и методы построения систем, предназначенных автоматической обработки данных); интерфейсы вычислительных систем (приемы и методы управления аппаратным и ПО); программирования (приемы, методы, средства разработки компьютерных программ); преобразование Д (приемы и методы преобразования  структур Д); ЗИ(обобщение приемов, разработка методов и средств ЗД); автоматизация (функционирование аппаратно-программных средств без участия человека); стандартизация (обеспечение совместимости между аппаратными и программными средствами).

2. Покажите совершенствование технологий на примере пяти этапов развития вычислительной техники.

   

Элементная база ЭВМ

Цель использования ЭВМ Режим работы ЭВМ Тип пользователя

Распо

жение

user’a

I пок. 50-е гг.

Электронные вакуумные лампы Научно-технические расчеты Однопрограммный Инженеры-програм-мисты Машинный

 зал

II пок. 60-е гг. Дискретные  полупроводниковые приборы (транзисторы) Технические и экономические расчеты Пакетная обработка Профессиональные программисты Отдельное

 поме

щение

III пок. 70-е гг. Полупроводниковые интегральные схемы

с малой  и средней  степенью интеграции

Управление и экономические расчеты Разделение  времени Программисты-пользователи Терми

наль

ный

 зал

IV пок. 80-е гг..

Большие и сверхбольшие интегральные схемы микропроцессоры Управление  и предоставление информации Персональная  работа Пользователи  с общей компьютерной подготовкой Рабо

чий

стол

V пок. 90-е гг. Сверхслож. Микропроц.с паралл-векторной стру-ой, однов-но выпол-ие десятки послед. команд проги. Телекоммуникации, информационное обслуживание и управление Сетевая обработка Слабообученные пользователи Произ

воль

ное

 Моби

льное

Таблица - Совершенствование  технологии использования компьютеров

3.Укажите  основные документы,  регламентирующие  информацию в качестве объектов права.

  1. Первая часть гражданского кодекса Российской Федерации, принятого 21.04.94 г.:

статьи 128, 138, 139, 209

  1. Законы Российской Федерации
  • «Об информации, информатизации и защите информации» от 20.01.95 г.
  • «О государственной тайне»
  • «О банках и банковской деятельности» от 2.11.90 г.
  1. Постановление правительства РСФСР №35

    от 05.12.91 г. «О перечне сведений, которые не могут составлять коммерческую тайну».

4. Чем занимается  структурная, статистическая  и семантическая теории информации?

Структурная теория информации рассматривает структуру построения отдельных информационных сообщений. Единица количества информации – элементарная структурная единица - квант.

Статистическая  теория оценивает информацию с точки зрения меры неопределенности. Основное внимание уделяется распределению вероятностей, либо появлению сигналов, либо изменению характеристик этих сигналов и построению на его основе некоторых обобщенных характеристик, позволяющих оценить количество информации.

Семантическая теория занимается изучением именно смысловых характеристик информации: ценности, содержательности, полезности. Помогает связать количество и ценность информации с такими обобщенными характеристиками системы, как эффективность, информационная пропускная способность, информационная помехоустойчивость.

5. Что такое объем  данных и как  он измеряется?

Объемный  способ измерения инф. Объем инф. в сообщ. – это кол-во символов в сообщении.

Энтропийный способ измерения инф Количество информации в сообщении определяется тем, насколько уменьшится мера неопределенности после получения сообщения.

Количество  информации при наблюдении случайной величины с распределением вероятностей задается формулой Шеннона:

Единицей  измерения количества информации является бит, который представляет собой количество информации, получаемое при наблюдении случайной величины, имеющей два равновероятных значения.

При равномерном  распределении  количество информации задается формулой Хартли:

Справедливы следующие  соотношения:

если  и - независимы

Алгоритмический способ измерения инф. Любому сообщению  можно приписать количественную характеристику, отражающую сложность (размер) программы, к-ая позволяет ее произвести.

6. Покажите аддитивность  информационной меры  Шеннона для независимых источников.

Энтропия аддитивна  т.е. энтропия совместного наблюдения двух независимых случайных x и

h равна сумме энтропий каждой из величин в отдельности:

Пусть x - случайная величина с множеством возможных значений {x1, x2,…, xN} и распределением вероятностей

p1, p2,…,pN, а h - случайная величина с множеством возможных значений {y1, y2,…, yM} и распределением вероятностей

q1, q2,…,qM. Энтропия совместного наблюдения пары величин (x, h) равна:

где - вероятность совместного появления соответствующих значений величин x и h. С учетом независимости x и h

отсюда 

7. Перечислите свойства  энтропии дискретного  источника сообщений.

1. Энтропия –  неотриц. вещест. число. Это свойство  – следствие того, что

и свойств функции

2. Энтропия равна  нулю тогда и только тогда,  когда x - детерминированная величина,

т.е. когда для  некоторого j вероятность pj=1.

3. Энтропия максимальна  при равновероятных значениях x, т.е. когда p1=p2=…=pN=1/N.

4. Энтропия аддитивна  т.е. энтропия совместного наблюдения  двух независимых случайных величин x и

h равна сумме энтропий каждой из величин в отдельности:

8. Приведите формулу  для расчета избыточности источника информации и поясните ее смысл.

Пусть - случайная величина с множеством возможных значений

Избыточностью называется

Избыточность  показывает, какая доля максимально возможной при заданном объеме алфавита неопределенности (энтропии) не используется источником. В частности избыточность современного английского текста составляет 50%, избыточность русского текста 70%.      N - объем алфавита

9. Приведите структурную схему передачи информации.

Совокупность  технических средств используемых для передачи сообщений от источника  к потребителю информации называется системой связи. Она состоит из 5 частей:

1) Источник  сообщений, создающий сообщения  или последовательность сообщений, которые должны быть переданы.

2) Передатчик, который перерабатывает некоторым  образом сообщения в сигналы  соответственного.

3) Канал  - это комплекс технических средств,  обеспечивающий передачу сигналов  от передатчика к приемнику. В состав канала входит каналообразующая аппаратура, осуществляющая сопряжение выходного и входного сигналов соответственно передатчика и приемника с линией связи, и самой линии связи.

Линией  связи называется среда, используемая для передачи сигнала от передатчика  к приемнику. Канал называется дискретным, если на его входе и выходе присутствуют сигналы дискретные по уровню (сигналы типа 3,4). Если сигналы на входе и выходе канала непрерывны по времени (типа 1 или 2) то он называется непрерывным. В общем случае в процессе передачи в канале сигнал искажается шумом.

4) Приемник  восстанавливается сообщение по  сигналам. Сложность построения  приемника обусловлена изменением формы принимаемых сигналов, что связано с наличием шума.

5) Получатель  это лицо или аппарат, для  которого предназначено сообщение.

10. Поясните термины:  информация, сообщение,  сигнал, канал связи.

Информация-это совокупность каких-либо сведений, данных передаваемых устно(в форме речи), письменно(в виде текста) либо другим способом.

Информация - совокупность сведений об окружающем мире, являющихся объектом хранения, передачи и преобразования.

Сообщение - совокупность знаков или первичных  сигналов, содержащих информацию.

Сообщение - это  информация, представленная в какой-либо форме.

Сигнал - изменяющийся во времени физический процесс, отражающий передаваемое сообщение.

Канал связи - это комплекс технических  средств, обеспечивающий передачу сигналов от передатчика к приемнику. В состав канала входит каналообразующая аппаратура, осуществляющая сопряжение выходного и входного сигналов соответственно передатчика и приемника с линией связи, и самой линии связи.

11. Приведите классификацию  сигналов по дискретно-непрерывному  признаку.

1) Непрерывный  или аналоговый сигналы (случайные  сигналы этого типа называются  непрерывными случайными процессами). Они определены для всех моментов времени и могут принимать все значения из заданного диапазона. Чаще всего физические процессы, порождающие сигналы являются непрерывными. Этим и объясняется второе название сигналов данного типа аналоговый т.е. аналогичные порождающим процессам.

2) Дискретизированный  или дискретно непрерывные сигналы  (случайные сигналы этого типа  называют процессами с дискретным временем или непрерывными случайными последовательностями). Они определены лишь в отдельные моменты времени и могут принимать любые значения уровня. Временной интервал Δt между соседними отсчетами называется шагом дискретизации. Часто такие сигналы называют дискретными по времени.

3) Дискретные  по уровню или квантованные  сигналы (случайные сигналы этого типа называют дискретными случайными процессами). Они определены для всех моментов времени и принимают лишь разрешенные значения уровней отделенные от друг друга шага квантования Δx=xk+1+xk

4) Дискретные  по уровню и по времени сигналы (случайные сигналы этого типа

называют дискретными  случайными последовательностями). Они  определены

Информация о работе Шпаргалка по "Информатике"