Автор работы: Пользователь скрыл имя, 23 Января 2012 в 14:18, курсовая работа
В данный исторический период существовали программисты, рассматривавшие средства автоматизации своего труда как инструмент для ленивых, портящий качество продукции — то есть прикладной программы. Нужно сказать, что в то время эти утверждения действительно подтверждались практикой, которая, как известно, является критерием истины. Так же, как аналоговые машины по многим показателям превосходили цифровые, так и программы, написанные непосредственно в машинных кодах, оказывались короче, чем результат трансляции программ, подготовленных с использованием алгоритмических языков.
1 Введение
2 Основная часть
2.1 Наследование основных принципов организации
2.2 Вещественно-энергетическая и информационная целостность
2.3 Повышение функциональной и структурной целостности КС
2.4 Наследование основных функций развивающихся систем
2.5 Адекватность функционально-структурной организации назначению системы
2.6 Взаимосвязь показателей качества компьютерных систем
2.7 Относительное и временное разрешение противоречий в КС
2.8 Аппаратные и программные решения
2.9 Совершенствование технологий создания КС, а также их преемственность
2.10 Падение стоимости на компьютеры
2.11 Будущие направления развития функций, реализуемых КС
3 Заключение
4 Список использованных источников
Из более же современного можно отметить мультимедийные технологии. Сначала возьмем те же звуковые платы. Еще относительно недавно они были тотально аппаратными, а сегодня любая современная плата обязательно так или иначе использует ресурсы системы (например, WT-таблицы для синтеза MIDI-музыки). Кроме удешевления конечной системы, это также позволило получить большую гибкость в функционировании. Несколько лет назад появилась и сейчас находится на весьма неплохом уровне чисто программная реализация звука (AC’97 кодек), который позволяет при очень небольших затратах получить весьма качественный звук. Также нельзя не упомянуть о разного рода MP3/MPEG1/MPEG2 и проч. декодерах, лет 6-8 назад являлись необходимыми устройствами «истинного» мультимедиа-РС (беру слово в кавычки потому, что понятие абстрактно и очень быстро меняет свою сущность). Сейчас же, когда мощности CPU вполне хватает для декомпрессии MP-потоков, платы MPEG2-декодера хотя еще и можно найти в продаже, но нечасто, а о MPEG1-платах, а тем более аппаратных MP3-плейерах многие даже вообще не слышали, и звучит это сейчас по меньшей мере смешно. Или вот еще: программные модемы, которые в последнее время из-за своей дешевизны получили повсеместное распространение. Или TV-тюнеры. Или программные системы видеомонтажа. Или… В общем, в процессе развития (сиречь повышения мощности) компьютеров наблюдается множество примеров вытеснения аппаратных реализаций программными. Однако хорошо это или плохо, точнее, в какой степени хорошо? Если в общем, то это смотря для чего. Например, использовать сейчас в РС вышеупомянутые MPEG-декодеры (пусть и с самым непревзойденным качеством картинки) и в самом деле абсурдно, так как даже самый хилый из продаваемых в настоящее время процессоров прекрасно справиться с необходимыми вычислениями самостоятельно, а вот та же система видеомонтажа в профессиональной студии вряд ли будет программной – там стоимость чуть ли не 128-й критерий, на первый план выступают качество и надежность. И программные решения в области звука тоже не являются средством на все случаи жизни, хотя у них много очевидных преимуществ. И всякие «выньмодемы» (приношу извинения за «жаргон», но это слово поразительно точно передает сущность предмета) тоже имеют много противников, и автор в их числе, но все же в магазинах их великий выбор, а значит покупают, потому что дешево. Или, например, сетевая сфера: есть множество программ, реализующих маршрутизацию, кэширование трафика, организацию мостов и проч., которые в целях экономии средств обычно оказывается целесообразно применять для небольших серверов. Но будут ли они эти программы сколь либо эффективно работать на крупном серверном комплексе, к которому одновременно обращаются тысячи пользователей? Тут уж никакой процессорной мощности не хватит, придется использовать отдельные устройства и подсистемы. Нельзя однозначно ответить на поставленный вопрос. Но в любом случае побеждает та технология, которая одновременно является наиболее гибкой, качественной, по возможности универсальной и недорогой. Причем время, как правило, лучше всяких прогнозов определяет такие технологии.
Вы можете возразить: какой же общий выраженный переход от аппаратного к программному, когда вот, скажем, лет десять тому назад пользователям персоналок совсем не был знаком термин «графический сопроцессор» (вспомним печально канувшую в лету 3Dfx, подарившей нам трехмерный мир на экранах мониторов…), а сейчас им так или иначе оснащаются даже самые дешевые компьютеры? Однако здесь мы видим другой случай, тоже являющийся закономерностью – несоответствие уровня развития КС уровню развития функций, которые они выполняют (как ни парадоксально сие звучит). То есть я имею ввиду, что возможности аппаратного обеспечения несколько отстают от требований, предъявляемых к ним со стороны программного. А так как задачу выполнить все-таки хочется, то проблему решают экстенсивно: нужны новые возможности? так поставим еще один (другой, третий…) процессор, который и будет заниматься нужным набором вычислений. Примеры аппаратной реализации, впоследствии замененные на программные эмуляторы, как раз подтверждают сказанное, просто впоследствии мы оказываемся на более высоком уровне (возвращаясь к тем же графическим ускорителям, нетрудно заметить, что без них персональные компьютеры еще долго не смогут обойтись, так как современный уровень технологий трехмерной графики еще находиться в зачаточном состоянии (впрочем, «по моему скромному мнению», я не настаиваю), а сегодняшний компьютер без 3D-графики не компьютер).
Данный факт, быть может, не столь очевиден, но определенная тенденция прослеживается, и мы доказали это на примерах.
Более интересной закономерностью является так называемая преемственность технологий. Она заключается в постепенном вырождении данной реализации определенной технологии вследствие ее морального износа и последующим появлением ее же (технологии) снова на более качественно высоком уровне. То есть, говоря проще, имеет место так называемое развитие по спирали – мы ходим по кругу, но с каждым оборотом оказываясь все выше. Безусловно, не абсолютно все подчиняется данному закону (например, отголоски перфокарт вряд ли когда-либо еще появятся), но в IT-индустрии, да и вообще в технике существует множество подобных примеров. Возьмем, например, магнитные ленты. В 80-х годах прошедшего века компьютерная пресса вовсю трубила о скорой их кончине, так как их вроде бы должны заменить дисковые накопители как более миниатюрные и удобные в использовании (тогда, кстати, и появились оптические и магнитооптические носители). Действительно, сейчас стримеры в большинстве компьютеров найти не так-то легко, но у крупных организаций (прежде всего государственных и, в частности, военных) другого выбора все равно (пока..?) нет. Если учесть, что объемы информации стремительно возрастают (в сотни раз за последнее десятилетие), то нетрудно понять, что существующие дисковые накопители оставляют желать лучшего в плане емкости, надежности и не в последнюю очередь стоимости в расчете на мегабайт. А ленты по-прежнему являются самыми емкими (емкость лент уже иногда исчисляется терабайтами) и очень дешевыми носителями, которые, пережив некоторый кратковременный застой (впрочем, а был ли он вообще?), снова живут и здравствуют. Но уже в иной области и в несколько ином виде. Или рассмотрим технологию оптических дисков. Первым подобным известным продуктом, живущим (и пока что неплохо…) и в наши дни, является CD. Который затем трансформировался в DVD. Но уже сейчас емкость DVD является предельно-недостаточной, причем вроде бы дальнейшее развитие DVD представляется непростым. Означает ли это, что оптическая технология исчерпала себя? Вовсе нет. Компания Constellation 3D, например, пытаясь найти соответствующее решение, разработала действующие образцы многослойных (не один десяток; для сравнения: у CD один, у DVD два слоя, и дальнейшее увеличение их количества традиционными методами связано с проблемами затухания луча при прохождении его через верхние слои) FMD-носителей, основанных на способности некоторых материалов флуоресцировать под воздействием света определенной длины волны.
А вот более близкий к пониманию пример. Известно, что с момента появления первых РС процессор с материнской платой соприкасался большей стороной (устанавливался в Socket’овый разъем). Где-то в 1996 году Intel решила оснастить очередной процессор новым интерфейсом, при котором CPU бы вставлялся в слот подобно, скажем, памяти. Однако данное решение за несколько лет эксплуатации обнаружило ряд недостатков, и одним из главных была повышенная стоимость. Поэтому, начиная с 2000-го г., компания свернула производство слотовых процессоров, вернувшись к уже обкатанному варианту. Хотя сначала казалось, что socket – вчерашний день.
Возможность снижения цен стала возможна благодаря повышению производительности труда в данной сфере производства, а также благодаря опыту применения фирмами разнообразных методов удешевления конечного продукта – например, интеграции некоторых устройств на материнскую плату или прямо в чипсет, применению программных решений и проч. Важно также понять, что данная тенденция базируется не только на чистом прогрессе, но во многом на экономических факторах: сейчас существует много фирм, конкурирующих между собой и как следствие стремящихся максимально усовершенствовать товар и снизить цены на него. Правда, многие из них терпят серьезные убытки (было время, например, та же Intel продавала свои Celeron’ы чуть ли не по себестоимости, лишь бы только удержать Low-End рынок, а AMD заявила о получении за 2000-й год значительно меньшей прибыли, чем рассчитывалось; аналогичную ситуацию мы можем наблюдать и со многими другими фирмами, скажем VIA, а 3Dfx вот вообще разорилась…), но зато пользователи остаются в наибольшей выгоде.
Естественно,
функциональные возможности КС эволюционируют
не менее быстро самих КС, часто, как было
показано выше, опережая объективные возможности
последних. Как прогнозируют консультанты,
в обозримом будущем самое сильное влияние
на широкий круг отраслей будут оказывать
пять групп технологий: технологии искусственного
интеллекта, технологии пользовательских
интерфейсов, групповые технологии, сетевые
технологии для мультимедиа и инфраструктуры
разработки. Помимо этого, специальное
значение имеют социальные технологии
интернета, объектно-ориентированные
системы, параллельная обработка, интеллектуальные
агенты и системы, основанные на знаниях.
По мнению Хуберта Делани, научного директора
Advenced Computing Environments корпорации Gartner Group основными
направлениями метаморфирования характера
и способов использования компьютеров
в последнее время являются:
На последних трех пунктах следовало бы остановиться особенно. Ведь по существу поднимается вопрос о таком явлении, как централизация (в той или иной степени). Прежде всего обратимся к истории. Сначала существовал только один путь использования компьютера. Его куда-нибудь ставили и именно в этом месте обрабатывали на нем все данные. Это централизованная модель. Вскоре производительность обработки [информации] на компьютере настолько возросла, что использовать его для работы только одного приложения стало просто расточительством. В результате единственный вычислительный ресурс стал распределяться между несколькими пользователями, находящимися в разных местах. Это уже децентрализованная модель. Прошло время, и появился персональный компьютер. Теперь каждый мог работать за персональным компьютером, зачастую находящимся у него дома, а не быть заложником одной большой удаленной машины. Это все еще продолжение развития децентрализованной модели вычислений.
Информация о работе Основные закономерности развития компьютерных систем