Диспетчеризация (управление порядком) обслуживания обращений. 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Диспетчеризация (управление порядком) обслуживания обращений.



Управление порядком обслуживания (диспетчеризация) обращений к запоминающим устройствам с механическими перемещениями носителей информации и механизмов чтения/записи является программным способом повышения производительности памяти. Такой подход оказывается возможным, поскольку времена, затрачиваемые на выполнение этих перемещений, достигают значительных величин (до единиц – десятков миллисекунд). Наиболее распространенным примером реализации данного подхода является обработка обращений к жесткому диску. Процесс обслуживания обращения к диску складывается из трех стадий: перемещения блока головок чтения/записи на нужный цилиндр, ожидания подвода требуемого сектора и передачи данных. Времена всех трех этапов имеют один порядок, если передаваемый файл имеет размер до нескольких сот килобайт. Для более коротких файлов времена подготовительных (поисковых) фаз имеют еще больший вес. Время перемещения головок чтения/записи зависит от количества цилиндров, на которое их требуется переместить. Минимальное время (порядка 1-2 мс) затрачивается на переход на соседний цилиндр, максимальное (до 15-20 мс) – на перемещения от первого (внешнего) цилиндра диска к последнему (внутреннему) или наоборот. В обычном режиме обращения к диску обслуживаются в порядке их поступления (первый пришел – первый обслужен – ПППО). Но время перемещения блока головок чтения/записи, и, следовательно, время обслуживания обращения зависит от взаимного физического расположения на диске файлов обращений, обслуживаемых друг за другом. Поэтому напрашивается решение об обслуживании обращений в таком порядке, который минимизирует времена, затрачиваемые на перемещение головок. Такую дисциплину обслуживания называют МВДП – “минимальное время доступа – первый”. И действительно, пусть к жесткому диску имеется очередь из обращений, ожидающих обслуживания, файлы которых расположены на диске означают порядок, в котором поступили обращения.

Тогда порядок их обслуживания, при котором путь перемещения блока головок чтения/записи будет минимальным, следующий: 1 – 5 – 4 – 3 – 2, то есть не совпадает с порядком их поступления. Тогда, если обращения обслуживать в том порядке, для которого перемещения блок головок чтения/записи минимальны, сократится среднее время, затрачиваемое на первую фазу обращения – установку головок, а общая пропускная способность дискового ЗУ возрастет. Причем, чем больше очередь обращений к диску, тем больше будет эффект от использования этого способа. Однако было установлено, что этот алгоритм выбора на обслуживание обращений, адресующихся к ближайшим по отношению к текущему положению головок чтения/записи цилиндрам приводит к “дискриминации” обращений, адресующихся к цилиндрам, более удаленным от средней дорожки (т.е. расположенным на крайних и на центральных дорожках). Время ожидания в очереди для таких обращений возрастает, причем этот рост может быть весьма значительным. Поэтому на практике используют несколько иной порядок обслуживания, который если и не дает минимально возможного суммарного перемещения блока головок, но и не приводит к чрезмерным задержкам в обслуживании отдельных обращений. Такая дисциплина обслуживания, к тому же простая в реализации, называется дисциплиной сканирования (СКАН). При этой дисциплине блок головок чтения/записи, обслуживая обращения, перемещается от края диска к центру и обратно, меняя направление движения лишь у первого (внешнего) и последнего (внутреннего) из цилиндров, на которых расположены файлы обслуженных обращений. При этом из очереди выбирается к обслуживанию обращение, адресующееся к цилиндру (дорожке), находящемуся ближе всего к головкам в направлении их движения. т.е. имеет место нечто похожее на работу стеклоочистителя автомобиля. Например, если блок головок чтения/записи движется в направлении к центру диска, то после передачи данных для обращения 1 будет начато обслуживание обращения 3. Если же головки двигаются в обратном направлении, то следующим будет обслужено обращение 5. Дисциплина СКАН может быть реализована как программно, так и аппаратно. Многие операционные системы поддерживают подобные стратегии. Известны и другие разновидности дисциплин обслуживания обращений.

Организация дисковых массивов (RAID).

Еще одним способом повышения производительности дисковой памяти стало построение дисковых массивов, хотя этот нацелен не только (и не столько) на достижение более высокой производительности, но и большей надежности работы запоминающих устройств на дисках. Технология RAID (Redundant Array of Independent Disks – избыточный массив независимых дисков) задумывалась как объединение нескольких недорогих жестких дисков в один массив дисков для увеличения производительности, объема и надежности, по сравнению с одиночным диском. При этом ЭВМ должна видеть такой массив как один логический диск. Если просто объединить несколько дисков в (неизбыточный) массив, то среднее время между отказами (СВМО) будет равно СВМО одного диска, деленному на количество дисков. Такой показатель слишком мал для приложений, критичных к аппаратным сбоям. Улучшить его можно применяя реализуемую различным образом избыточность при хранение информации. В RAID системах для повышения надежности и производительности используются комбинации трех основных механизмов, каждый из которых хорошо известен и по отдельности: - организация “зеркальных” дисков, т.е. полное дублирование хранимой информации;

- подсчет контрольных кодов (четность, коды Хэмминга), позволяющих восстановить информацию при сбое; - распределение информации по различным дискам массива так, как это делается при чередовании обращений по блокам памяти (см. interleave), что повышает возможности параллельной работы дисков при операциях над хранимой информацией. При описании RAID этот прием называют “stripped disks”, что буквально означает “разделенные на полоски диски”, или просто “полосатые диски”. Эти полоски (далее называемые блоками) данных с каждого диска чередуются для случая массива из четырех дисководов, образуя единый логический диск.

Изначально было определено пять типов дисковых массивов, обозначаемых RAID 1 – RAID 5, различающихся по своим особенностям и производительности. Каждый из этих типов за счет определенной избыточности записываемой информации обеспечивал повышенную отказоустойчивость по сравнению с одиночным дисководом. Кроме того, массив дисков, не обладающих избыточностью, но позволяющий повысить производительность (за счет расслоения обращений), стали часто называть RAID 0. Основные типы RAID массивов можно кратко охарактеризовать следующим образом.

RAID 0. Обычно этот тип массива определяется как группа дисков с чередованием (stripped) расположения информации без контроля четности и без избыточности данных. Размеры чередующихся областей (stripes – “полосок”, или блоков) могут быть большими в многопользовательском окружении или малыми в однопользовательской системе при последовательном доступе к длинным записям. Операции записи и чтения могут выполняться одновременно на каждом дисководе. Минимальное количество дисководов для RAID 0 – два. Для этого типа характерны высокая производительность и наиболее эффективное использование дискового пространства, однако выход из строя одного из дисков приводит к невозможности работы со всем массивом.

RAID 1. Этот тип дискового массива известен также как зеркальные диски и представляет собой просто пары дисководов, дублирующих хранимые данные, но представляющиеся компьютеру как один диск. И хотя в рамках одной пары зеркальных дисков разбиение на полоски не производится, чередование блоков может быть организовано для нескольких массивов RAID 1, образующих вместе один большой массив из нескольких зеркальных пар дисков. Такой вариант организации получил название RAID 1 + 0. Есть и обратный вариант. Все операции записи производятся одновременно в оба диска зеркальной пары, чтобы информация в них была идентична. Но при чтении каждый из дисков пары может работать независимо, что позволяет выполнять одновременно две операции чтения, удваивая тем самым производительность при чтении. В этом смысле RAID 1 обеспечивает наилучшую производительность среди всех вариантов дисковых массивов.

RAID 2. В этих дисковых массивах блоки – сектора данных чередуются по группе дисков, часть из которых используется только для хранения контрольной информации – ECC (error correcting codes) кодов. Но поскольку во всех современных дисках имеется встроенный контроль с помощью ECC кодов, то RAID 2 мало что дает, по сравнению с другими типами RAID, и сейчас редко используется.

RAID 3. Как и в RAID 2 в этом типе дискового массива блоки –сектора чередуются по группе дисков, но один из дисков группы отведен для хранения информации о четности. В случае выхода дисковода из строя восстановление данных осуществляется на основе вычисления значений функции “исключающее ИЛИ” (XOR) от данных, записанных на оставшихся дисках. Записи обычно занимают все диски (так как полоски короткие), что повышает общую скорость передачи данных. Так как каждая операция ввода-вывода требует доступа к каждому диску, массив RAID 3 может обслужить в каждый момент времени только один запрос. Поэтому данный тип обеспечивает наилучшую производительность для одного пользователя в однозадачном окружении с длинными записями. При работе с короткими записями во избежание снижения производительности требуется синхронизация шпинделей дисководов. По своим характеристикам RAID 3 близок к RAID 5 (см. ниже).

RAID 4. Эта организация похожа на RAID 3 с той лишь разницей, что в нем используются блоки (полоски) большого размера, так что записи можно читать с любого диска массива (кроме диска, хранящего коды четности). Это позволяет совмещать операции чтения на разных дисках. При операциях записи всегда происходит обновление диска четности, поэтому их совмещение невозможно. В целом, данная архитектура не имеет особых преимуществ перед другими вариантами RAID.

RAID 5. Этот тип дискового массива похож на RAID 4, но хранение кодов четности в нем осуществляется не на специально выделенном диске, а блоками, располагающимися поочередно на всех дисках. Эту организацию даже иногда называют массив с “вращающейся четностью” (можно отметить некую аналогию с назначением линий прерываний для слотов шины PCI или с циклическим приоритетом контроллера прерываний в процессорах линии x86). Такое распределение позволяет избежать ограничения возможности одновременной записи из-за хранения кодов четности только на одном диске, характерного для RAID 4 показан массив, состоящий из четырех дисководов, причем для каждых трех блоков данных имеется один блок четности (эти блоки заштрихованы), местоположение которого для каждой тройки блоков данных изменяется, перемещаясь циклически по всем четырем дисководам. Операции чтения могут выполняться параллельно для всех дисков. Операции записи, требующие участия двух дисководов (для данных и для четности) обычно также могут совмещаться, так как коды четности распределены по всем дискам.

Сравнение различных вариантов организации дисковых массивов показывает следующее.

Организация RAID 0 – это наиболее быстрый и эффективный вариант, но не обеспечивающий устойчивости к сбоям. Он требует минимум 2 дисковода. Операции записи и чтения могут выполняться одновременно на каждом дисководе. Архитектура RAID 1 наиболее пригодна для высокопроизводительных высоконадежных приложений, но и наиболее дорогая. Кроме того, это единственный вариант, устойчивый к сбоям, если используются только два дисковода. Операции чтения могут выполняться одновременно для каждого дисковода, операции записи всегда дублируются для зеркальной пары дисководов. Архитектура RAID 2 используется редко. Дисковый массив типа RAID 3 можно использовать для ускорения передачи данных и повышения устойчивости к сбоям в однопользовательской среде при последовательном доступе к длинным записям. Но он не позволяет совмещать операции и требует синхронизации вращения шпинделей дисководов. Для него нужно, как минимум, три дисковода: 2 для данных и один для кодов четности. Архитектура RAID 4 не поддерживает одновременные операции и не имеет преимуществ, по сравнению с RAID 5. Организацию RAID 5 характеризует эффективность, устойчивость к сбоям и хорошая производительность. Но производительность при записи и в случае отказа дисковода хуже, чем у RAID 1. В частности, поскольку блок кодов четности относится ко всему записываемому блоку, то, если пишется только часть его, необходимо сперва считать ранее записанные данные, затем вычислить новые значения кодов четности и только после этого записать новые данные (и четность). Операции перестройки также требуют больше времени из-за необходимости формирования кодов четности. Для данного типа RAID нужно, как минимум, три дисковода.

Кроме того, на основе наиболее распространенных вариантов RAID: 0, 1 и 5 могут формироваться так называемые двухуровневые архитектуры, в которых сочетаются принципы организации различных типов массивов. Например, несколько RAID массивов одного и того же типа можно объединить в одну группу массивов данных или массив четности. За счет такой двухуровневой организации можно достичь требуемого баланса между увеличением надежности хранения данных, характерным для массивов RAID 1 и RAID 5 и высокой скоростью чтения, присущей чередованию блоков на дисках в массиве типа RAID 0. Такие двухуровневые схемы иногда называют RAID 0+1 или 10 и 0+5 или 50. Управление работой RAID массивов может осуществляться не только аппаратно, но и программно, возможность чего предусматривается в некоторых серверных вариантах операционных систем. Хотя понятно, что такая реализация будет иметь существенно худшие характеристики производительности.

 

 

Заключение

Первые ЭВМ использовали запоминающие устройства исключительно для хранения обрабатываемых данных. Их программы реализовывались на аппаратном уровне в виде жёстко заданных выполняемых последовательностей. Любое перепрограммирование требовало огромного объёма ручной работы по подготовке новой документации, перестройки блоков и устройств и т. д. Использование архитектуры фон Неймана, предусматривающей хранение компьютерных программ и данных в общей памяти, коренным образом переменило ситуацию.

Развитие запоминающих устройств и систем идет как в технологическом, так и в структурном планах. В настоящее время технологии производства памяти достаточно сложные и проводить исследования и разработки в этом направлении под силу только тем компаниям, которые обладают значительным экономическим потенциалом. Существующие технологии продолжают совершенствоваться как в ключе улучшения значений основных характеристик запоминающих устройств, так и по пути снижения стоимости их производства. На этих направлениях можно говорить о более или менее достоверных прогнозах на ближайшие годы. Одновременно ведутся работы и над новыми технологиями. Причем спектр таких технологий достаточно широк – от использования новых материалов до привлечения иных физических принципов. Значительных изменений можно ожидать от нанотехнологий и квантовых систем, хотя сроки их доведения до практического использования едва ли кто возьмется предсказать. Идут работы и в биомолекулярном направлении.

Совершенствование структурной организации памяти, в силу в большей мере вспомогательного характера функции хранения в вычислительных системах, вносит менее заметный вклад в рост показателей, по сравнению с совершенствованием технологий. Если для процессоров и систем за прошедшие пять десятилетий рост характеристик быстродействия был примерно в равной мере обеспечен как технологическими, так и структурными изменениями, то о памяти этого сказать нельзя.). Основные работы в этой области направлены на улучшение взаимодействия уровней памяти, повышения эффективности каналов и способов доступа к хранимой информации. Возникшее одно время весьма перспективное направление на совмещение в ЗУ функций хранения и обработки данных по ряду субъективных причин оказалось недостаточно востребованным. В какой-то мере компенсировать это может возрождающийся интерес к нейронным сетям.

Работы в области баз данных пока не выходят в достаточной мере непосредственно на формирование требований к организации аппаратных средств памяти, что, в принципе, могло бы послужить определенным стимулом к развитию структур памяти.

Кроме того, память постепенно перестает использоваться только в информационных технологиях в традиционном смысле. Увеличение объемов ЗУ, уменьшение их габаритов и снижение цен на них приводят к тому, что ЗУ начинают использоваться и в других областях, в частности в бытовой

технике, которая представляет собой очень обширную область. Причем огромный спрос и не слишком жесткие требования к параметрам ЗУ иногда даже вызывают опасения, не скажется ли это отрицательно на памяти, производимой для вычислительной техники.

Но, несмотря на значительное смещение акцентов в физикотехнологическом направлении, для разработчиков средств вычислительной и информационной техники остается не меньше задач по организации памяти ЭВМ, требующих своего решения.

 

Список литературы

 

1.IBMMicroelectronics:http://www3.ibm.com/chips/techlib/techlib.nsf/productfamilies/SRAM

2. Википедия https://ru.wikipedia.org/wiki/

3. What is RAID? (http://www.adaptec.com/worldwide/product/markeditorial.html?sess=no&langu age=English+US&cat=%2fTechnology%2fRAID&prodkey=raid_wp

4. INTEL Advanced+ Boot Block (C3) and Advanced Boot Block (B3) Flash Memory Family: Product Overview http://www.intel.com/design/flcomp/prodbref/298188.htm

5. Статья «Оперативная память», Жарков С. www.info.rambler.ru

6. Информатика: Учебник / Под ред. проф. Н.В. Макаровой - М.: Финансы и статистика -2006. - 768 с.

7. Основы информатики: учебник / В. Ф. Ляхович, С. О. Крамаров, И. П. Шамараков. – Ростов-на-Дону: Феникс, 2010. – 715 с.

8. Основы информатики: учебное пособие / [Г. В. Алехина и др.]. – Москва: Московская финансово-промышленная академия: Маркет ДC, 2009. – 464 с.



Поделиться:


Последнее изменение этой страницы: 2016-12-30; просмотров: 179; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.138.175.180 (0.026 с.)