Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Характеристика магнитной, оптической и магнито-оптической технологий хранения информации.

Поиск


Магнитная технология предполагает изменение намагниченности ферромагнитной поверхности под действием электромагнитного поля. Реализована в накопителях гибких и жестких магнитных дисков. При чтении информации, наоборот фиксируется намагниченность участков поверхности.

Оптическая технология основана на изменении отражающих свойств поверхности. Причем, отражающий участок соответствует «1», а не отражающий –«0» Реализована в CD-ROM, CD-R,, CD-RW, DVD.

Магнито-оптическая технология основана на изменении отражающих свойств намагниченных участков поверхности.
^

Оптические накопителя


Стандарт CD-ROM вырос из звукового формата Red Book, в котором запись осуществляется c постоянной линейной скоростью, т.е. существует всего одна спиральная дорожка. Для совместимости со звуковым форматом скорость передачи данных около 150 кб/с. Это значение выбрано за базовый показатель, а увеличение скорости передачи осуществляется пропорционально увеличением скорости вращение в 2, 3,4,6, 8 и более раз. Накопители CD-ROM являются более медленными устройствами, чем жесткие диски.
^

Магнито-оптические накопители.


Запись информации в магнитооптических накопителях осуществляется на диск из стекла или прозрачного поликарбоната, содержащей магнитный слой из сплава тербия, железа и кобальта. Этот сплав обладает необходымыми магнитными свойствами и имеет низкую (около 145 С) температуру Кюри. С помощью луча лазера небольшой участок магнитного слоя (~0,5 кв микрона) можно очень быстро нагреть до более высокой температуры, так что при охлаждении в любом внешнем магнитном поле участок оказывается намагниченным в направлении этого внешнего поля. Поле прикладывается перпендикулярно поверхности диска. Меняя направление этого поля, можно по разному намагничивать разные участки, осуществляя таким образом запись информации.

Для считывания информации используется эффект Керра, который заключается в изменении направления поляризации лазерного луча, отраженного от намагниченной поверхности. Поскольку в данном случае направление намагничивания перпендикулярно поверхности диска (так называемая вертикальная запись), достигается плотность записи информации в 5 раз и выше, чем в винчестерах - более 19 тыс. дорожек на дюйм.

В настоящее время выпускаются оптические магнитонакопители для работы с носителями 3,5" и 5,25". Диски помещены в неразборные картриджи, похожие по конструкции на 3,5" дискеты.
^

Эволюции и типы сетей ЭВМ.


Концепция вычислительных сетей представляет собой логический результат эволюции компьютерных технологий. Первые компьютеры 1950-х гг. были большими, громоздкими и дорогими. Их основным предназначением являлось небольшое число избранных операций. Данные компьютеры не применя­лись для интерактивной работы пользователя, а использовались и режиме пакетной обработки.

Системы пакетной обработки обычно строились на базе мэйнфрейма, который является мощным и надежным ком­пьютером универсального назначения. Пользователи готови-ии перфокарты, содержащие данные и команды программ, и передавали их в вычислительный центр. Операторы вводили ) i и карты в компьютер и на следующий день отдавали пользо-иателям результаты. При этом одна неправильно набитая карта могла привести как минимум к суточной задержке.

Для пользователей был бы намного удобней интерактивный режим работы, который подразумевает возможность опера-гивно руководить процессом обработки данных с терминала. I)днако на этом этапе именно пакетный режим являлся самым >Ффективным режимом использования вычислительной мощ­ности, так как он позволял выполнить в единицу времени I Ьльше пользовательских задач, чем любые другие режимы. Во I ипве угла находилась эффективность работы самого дорогого • гройства вычислительной машины, которым являлся про­цессора, в ущерб эффективности работы использующих его I иециалистов.

В начале 1960-х гг. затраты на производство процессоров и пылились и появились новые способы организации вычислитительного процесса, позволяющие учесть интересы Пользователей. Началось развитие интерактивных многотерпильных систем разделения времени. В данных системах на компьютере работали сразу несколько пользователей. Каждый из них получал в распоряжение термина!, который помогал ему производить общение с компьютером. При этом время реакции вычислительной системы было достаточно мало для того, чтобы пользователь не замечал параллельную работу с компьютером других пользователей. Поделив таким образом компьютер, пользователи могли за сравнительно небольшую плату обладать преимуществами компьютеризации.

Терминалы, при выходе за пределы вычислительного цен­тра, были рассредоточены по всему предприятию. Несмотря на то что вычислительная мощность оставалась полностью централизованной, многие операции, например ввод и вывод данных* стагш распределенными. Данные многотерминаль­ные централизованные системы внешне стали очень похожи на локачьные вычислительные сети. На самом деле каждый пользователь воспринимал работу за терминалом мейнфрейма приблизительно так же, как сейчас работу за подключенным к сети ПК. Он имел доступ к общим файлам и периферийным устройствам и при этом был убежден в единоличном владении компьютером. Это было вызвано тем, что пользователь мог за­пустить необходимую ему программу в любой момент и почти сразу же получить результат.

Таким образом, многотерминальные системы, работающие в режиме разделения времени, явились первым шагом на пути создания локальных вычислительных сетей. Однако до по­явления локальных сетей необходимо было еще преодолеть большой путь, так как многотерминальные системы, хотя и имели внешние черты распределенных систем, все еще со­храняли централизованный характер обработки информации, и потребность предприятий в создании локальных сетей к данному моменту времени еще не созрела. Это объяснялось тем, что в одном здании просто нечего было объединять в сеть. Высокая стоимость вычислительной техники не давала возмож­ности предприятиям приобретать несколько компьютеров. В данный период был справедлив так называемый закон Гроша, эмпирически отражающий уровень технологии того времени. По этому закону производительность компьютера была про­порциональна квадрату его стоимости, следовательно, за одну и ту же сумму было выгоднее купить одну мощную машину, чем две менее мощных, так как их суммарная мощность оказыва­лась намного ниже мощности дорогой машины.

Однако потребность в соединении компьютеров, находив­шихся на большом расстоянии друг от друга, к этому времени вполне назрела. Разработка компьютерных сетей началась с решения более простой задачи — доступа к компьютеру с терминалов, удаленных от него на многие сотни или даже тысячи километров. Терминалы соединялись с компьютера­ми посредством телефонных сетей через модемы. Такие сети позволяли многочисленным пользователям осуществлять удаленный доступ к разделяемым ресурсам нескольких мощ­ных компьютеров класса суперЭВМ. После этого появились системы, в которых наряду с удаленными соединениями типа терминал-компьютер использовались и удаленные связи типа компьютер-компьютер. Компьютеры смогли обмениваться данными в автоматическом режиме, что и представляет собой базовый механизм любой вычислительной сети. На основе данного механизма в первых сетях была организована служба обмена файлами, синхронизация баз данных, электронной поч­ты и других, которые в настоящее время стали традиционными сетевыми службами.

Итак, хронологически первыми были разработаны и при­менены глобальные вычислительные сети. Именно при постро­ении глобальных сетей были предложены и отработаны почти все базовые идеи и концепции существующих вычислительных сетей/Например многоуровневое построение коммуникацион­ных протоколов, технология коммутации пакетов, маршрути­зация пакетов в составных сетях.

В 1970-х гг. наблюдался технологический прорыв в сфере производства компьютерных компонентов, что выразилось в появлении БИС. Их небольшая стоимость и огромные функци­ональные возможности позволили создать мини-компьютеры, которые стали реальными конкурентами мейнфреймов. Закон Гроша перестал действовать, так как десять мини-компьютеров были способны выполнять некоторые задачи намного быстрее одного мейнфрейма, а стоила такая мини-компьютерная си­стема меньше.

Небольшие подразделения предприятий теперь могли приобретать для себя компьютеры. Мини-компьютеры были способны выполнять задачи управления технологическим оборудованием, складом и решать другие проблемы, соответ­ствующие уровню подразделения предприятия, т.е. появилась концепция распределения компьютерных ресурсов по пред­приятию, но при этом все компьютеры одной организации продолжали работать независимо.

Со временем потребности пользователей вычислительной киники увеличивались, появлялась необходимость получения возможности обмена данными с другими близко расположен­ными компьютерами. По этой причине предприятия и органи­зации стали использовать соединение своих мини-компьютеов и разработали программное обеспечение, необходимое для их взаимодействия. В итоге это привело к появлению первых локальных вычислительных сетей. Они еще значительно от­личались от современных сетей, в частности в устройстве сопряжения. Изначально для соединения компьютеров друг с другом применялись самые разнообразные нестандартные устройства с собственными способами представления данных на линиях связи, своими типами кабелей и т.п. Такие устрой­ства были способны соединять только те типы компьютеров, для которых были разработаны. Данная ситуация породила большой простор для творчества студентов. Названия многих курсовых и дипломных проектов было посвящено устройству сопряжения.

В 1980-х гг. положение дел в локальных сетях начато кар­динально меняться. Появились стандартные технологии объ­единения компьютеров в сеть — Ethernet, Arcnet, Token Ring. Сильный импульс для их развития дали ПК. Данные массовые продукты стали идеальными элементами для построения сетей. Они, с одной стороны, были достаточно мощными и способными работать с сетевым программным обеспечением, а с другой — нуждались в объединении своей вычислительной мощности для решения сложных задач. Персональные ком­пьютеры стали преобладать в локальных сетях, при этом не только как клиентские компьютеры, но и как центры хранения и обработки данных, т.е. сетевых серверов, потеснив при этом с привычных ролей мини-компьютеры и мейнфреймы.

Обычные сетевые технологии обратили процесс построения локальной сети из искусства в рутинную работу. Для того чтобы создать сети, достаточно было приобрести сетевые адаптеры соответствующего стандарта, например Ethernet, стандартный кабель, соединить адаптеры и кабель стандартными разъемами и установить на компьютер какую-либо из имеющихся сете­вых операционных систем, например NetWare. Теперь сеть начинала работать, и присоединение нового компьютера не приводило к появлению проблем. Соединение происходило естественно, если на нем был установлен сетевой адаптер той же технологии.

Локальные сети по сравнению с глобальными внесли много нового в технологии организации работы пользователей. До­ступ к разделяемым ресурсам стал намного удобнее, так как пользователь мог просто изучать списки наличествующих ресурсов, а не запоминать их идентификаторы или имена. При соединении с удаленным ресурсом можно было работать с ним при помощи уже известных пользователю по работе с локаль­ными ресурсами команд. Последствием и при этом движущей силой такого прогресса стало появление большого числа не­профессиональных пользователей, которые совершенно не нуждались в изучении специальных (и достаточно сложных) команд для сетевой работы. Возможность использовать все эти удобства разработчики локальных сетей получили при появле­нии качественных кабельных линий связи, с помощью которых даже сетевые адаптеры первого поколения могли обеспечить скорость передачи данных до 10 Мбит/с.

Однако о таких скоростях разработчики глобальных сетей не подозревали, так как им приходилось использовать те каналы связи, которые были в наличии. Это было вызвано тем, что прокладка новых кабельных систем для вычислительных сетей протяженностью в тысячи километров вызвала бы колоссаль­ные капитальные вложения/Доступными на тот период были только телефонные каналы связи, плохо приспособленные для высокоскоростной передачи дискретных данных, — скорость в 1200 бит/с стала для них хорошим достижением. По этой при­чине экономное использование пропускной способности ка­налов связи становилось основным критерием эффективности методов передачи данных в глобальных сетях. В таких условиях разные процедуры прозрачного доступа к удаленным ресурсам, стандартные для локальных сетей, для глобальных сетей значи­тельное время оставались непозволительной роскошью.

В настоящий момент вычислительные сети непрерывно раз­виваются, и достаточно быстро. Разделение между локальными и глобальными сетями постоянно уменьшается во многом благодаря появлению высокоскоростных территориальных каналов связи, которые не уступают по качеству кабельным системам локальных сетей. В глобальных сетях образовались службы доступа к ресурсам, такие же удобные и прозрачные, как и службы локальных сетей. Такие примеры в огромном количестве показывает самая популярная глобальная сеть — Интернет.

Преобразуются и локальные сети. Соединяющий компью­теры пассивный кабель в них сменили разнообразные типы коммуникационного оборудования — коммутаторы, маршру­тизаторы, шлюзы. Из-за использования такого оборудования появилась возможность построения больших корпоративных

сетей, которые насчитывают тысячи компьютеров и имеют сложную структуру. Вновь появился интерес к крупным ком­пьютерам. Это было вызвано тем, что после спада эйфории по поводу легкости работы с ПК стало ясно, что системы, которые состоят из сотен серверов, обслуживать сложнее, чем несколь­ко больших компьютеров. Поэтому на новом этапе эволюции мейнфреймы возвращаются в корпоративные вычислительные системы. При этом они являются полноправными сетевыми узлами, поддерживающими Ethernet или Token Ring, а также стек протоколов TCP/IP, которые стали благодаря Интернет сетевым стандартом де-факто.

Образовалась еще одна важная тенденция, затрагивающая в равной степени как локальные, так и глобальные сети, В них начала обрабатываться несвойственная ранее вычислитель­ным сетям информация, такая, как голос, видеоизображения, рисунки. Это привело к необходимости внесения изменений в работу протоколов, сетевых ОС и коммуникационного обо­рудования. Затруднение передачи данной мультимедийной информации по сети связано с ее чувствительностью к задерж­кам в случае передачи пакетов данных. Задержки чаще всего вызывают искажения такой информации в конечных узлах сети. Так как обычные службы вычислительных сетей, среди которых передача файлов или электронная почта, образуют малочувствительный к задержкам трафик и все элементы сетей изобретались в расчете на него, то появление трафика реаль­ного времени стало причиной больших проблем.

В настоящий момент эти проблемы решаются различными способами, например с помощью специально рассчитанной на передачу разного типа трафика технологии ATM. Однако, несмотря на большие усилия, предпринимаемые в данном на­правлении, до приемлемого решения проблемы пока далеко, и в этой области еще много следует предпринять, чтобы достичь слияния технологий не только локальных и глобальных сетей, но и технологий любых информационных сетей — вычисли­тельных, телефонных, телевизионных и т.п. Несмотря на то что сегодня эта идея многим кажется нереальной, специали­сты считают, что предпосылки для такого объединения уже существуют. Данные мнения расходятся только в оценке при­близительных сроков такого объединения —называются сроки от 10 до 25 лет. При этом считается, что основой для синтеза послужит технология коммутации пакетов, применяемая се­годня в вычислительных сетях, а не технология коммутации каналов, которая используется в телефонии.

 

 

Архитектура сетей ЭВМ.


Архитектура- это наиболее общие принципы построения ЭВМ, реализующие программное управление работой и взаимодействием основных ее функциональных узлов.

Общие принципы построения ЭВМ, которые относятся к архитектуре:


  1. Структура памяти ЭВМ

  2. Способы доступа к памяти и внешним устройствам

  3. Возможность изменения конфигурации компьютера

  4. Система команд

  5. Форматы данных

  6. Организация интерфейса


Основы учения об архитектуре вычислительных машин заложил Джон фон Нейман. В 1946 году он вместе со своими коллегами опубликовал статью «Предварительное рассмотрение логической конструкции электронно-вычислительного устройства», в которой убедительно обосновывается использование двоичной системы счисления для представления чисел в ЭВМ (до этого машины хранили данные в 10 – ом виде) и излагаются следующие принципы:

1. ^ Принцип программного управления. Он обеспечивает автоматизацию процессов вычислений на ЭВМ. Согласно этому принципу программа состоит из набора команд, которые выполняются процессором автоматически друг за другом в определенной последовательности.

2. ^ Принцип однородности памяти ( принцип хранимой команды ). Программы и данные хранятся в одной и той же памяти. Компьютер не различает, что храниться в данной ячейке памяти – число, текст или команда. Над командами можно выполнять такие же действия, как и над данными. Отсутствие принципиальной разницы между программой и данными дало возможность ЭВМ самой формировать для себя программу в соответствии с результатом вычислений.

3. ^ Принцип адресности. Структурно основная память состоит из пронумерованных ячеек; процессору в произвольный момент времени доступна любая ячейка. Это позволяет обращаться к произвольной ячейке (адресу) без просмотра предыдущих.

Компьютеры, построенные на этих принципах, относят к типу фон-неймановских.

На сегодняшний день это подавляющее большинство компьютеров, в том числе и IBM PС – совместимые. Но есть и компьютерные системы с иной архитектурой – например системы для параллельных вычислений.

^



Поделиться:


Последнее изменение этой страницы: 2017-02-07; просмотров: 410; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 52.14.176.111 (0.014 с.)