Масштабируемость (Scalability) ВС 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Масштабируемость (Scalability) ВС



Масштабируемость (Scalability) ВС

Под масштабируемостью ВС понимается их способность к наращиванию и сокращению ресурсов, возможность варьирования производительности. Сложность (трудоемкость) задач, решаемых на вычислительных средствах, постоянно растет. Для сохранения в течение длительного времени способности ВС адекватно решать сложные задачи необходимо, чтобы она обладала архитектурным свойством масштабируемости. Это означает, в частности, что производительность, достигнутую ВС на заданном количестве вычислителей, можно увеличить, добавив еще один или несколько вычислителей. Выполнение этого свойства гарантируется принципами модульности, локальности, децентрализованности и распределенности. Свойство наращиваемости производительности предоставляет потенциaльную возможность решать задачи любой априори заданной сложности. Однако для практической реализации этой возможности требуется, чтобы алгоритм решения сложной задачи удовлетворял условию локальности, a межмодyльные пересылки информации слабо влияли на время решения задачи. Это можно достичь за счет крупноблочного распараллеливания сложных задач и (или) аппаратурных средств, позволяющих совместить межмодульные обмены информацией c вычислениями.

Универсальность (Genericity, Generality, Versatility) ВС.

Вычислительные системы алгоритмически и структурно универсальны. Принято считать, что ЭВМ (основанные на модели вычислителя) являются алгоритмически универсальными, если они обладают способностью (без изменения своих структур) реализовать алгоритм решения любой задачи. C другой стороны, ВС - это коллектив вычислителей, каждый из которых обладает алгоритмической универсальностью, следовательно, и система универсальна (в общепринятом смысле). B вычислительных системах могут быть реализованы не только любые алгоритмы, доступные ЭВМ, но и параллельные алгоритмы решения сложных задач. Последнее следует из определений модели коллектива вычислителей и, в частности, алгоритма функционирования ВС. Структурная универсальность ВС является следствием воплощения архитектурных принципов коллектива вычислителей, в частности принципа программируемости структуры. Суть этого принципа возможность автоматически (программно) порождать специализированные (проблемно-ориентированные) виртуальные конфигурации, которые адекватны структурам и параметрам решаемых задач. Таким образом, ВС сочетают в себе достоинства цифровой техники, где процесс вычислений в основном задается алгоритмически (точнее, программно), и аналоговой техники, где процесс вычислений предопределяется структурными схемами. Структурная универсальность позволяет говорить и o специализированности ВС: для каждой задачи допустима автоматическая настройка такой конфигурации из ресурсов ВС, которая наиболее адекватна алгоритму решения задачи. Таким образом, ВС - это средство, в котором диалектически сочетаются противоположные свойства универсальности и специализированности. Алгоритмическая и структурная универсальность ВС проявляются также в возможности организации «виртуальных» конфигураций c произвольной архитектурой (на уровне потоков команд и данных) и реализации в ней известных режимов обработки информации.
Производительность (Performance, Throughput, Processing power) ВС. B отличие от ЭВМ, построенных на основе модели вычислителя, ВС не имеют принципиальных ограничений в повышении производительности. Увеличение производительности в них достигается за счет не только повышения физического быстродействия микроэлектронных элементов, а главным образом увеличения числа вычислителей. Следует подчеркнуть, что благодаря свойству однородности наращиваемость ВС осуществляется простым подключением дополнительных вычислений без конструктивны изменений первоначального состава системы. При этом достигается простота настройки ПО на заданное число вычислителей в системе. На основании последнего обеспечивается совместимость ВС различной производительности. Полнота воплощения принципа параллелизма при выполнении операций позволяет достичь априори заданной производительности ВС как в монопрограммном режиме (при решении одной сложной задачи, т. e. задачи c большим числом операций), так и в мyльтипрогpaммных режимах (при об- работке наборов и обслуживании потоков задач произвольной сложности). Задачи представляются параллельными программами, число ветвей в каждой из которых является, в частности, функцией от сложности задачи. Значения производительности, емкости памяти, скорости ввода-вывода информации для системы определяются числом вычислителей и их составом.

Реконфигурируемость (Reconfigurability) ВС.

Структурная и функциональная гибкости ВС обусловлены широкими возможностями систем по статической и динамической реконфигурации. Статическая реконфигурация ВС обеспечивается: варьированием числа вычислителей, их структуры и состава; выбором дня вычислителей числа полюсов для связи с другими вычислителями; возможностью построения структур в виде графов, относящиxся к различным классам; допустимостью применения в качестве связен каналов различных типов, различной физической природы и различной протяженности и т. п. Благодаря приспособленности ВС к статической реконфигурации достигается адаптация системы под область применения на этапе ее формирования. Динамическая реконфигурация ВС поддерживается возможностью образования в системах таких (виртуальных) подсистем, структуры и функщиональные организации которых адекватны входной мультипрограммной ситyации и структурам решаемых задач. Следовательно, способность ВС к динамической реконфигурации приводит к ее высокой универсальности, при которой достигается заданный уровень производительности при решении широкого класса задач; реализуются известные в вычислительной технике режимы функционирования (коллективное пользование, пакетная обработка и др.), способы управления вычислительным процессом (централизованный, децентрализованный и др.), структурные схемы (изолированные вычислительные машины, системы из нескольких процессоров и одной ЭВМ, системы из одной ЭВМ и нескольких устройств памяти и т. п.) и способы обработки информации (конвейерный, матричный, распределенный и др.). Способность ВС к динамической реконфигурации является следствием полноты воплощения принципов коллектива вычислителей и прежде все- го принципа пpогpаммируемости структуры. Эта способность ВС позволяет ей в процессе функционирования проводить автоматическую перенастройку своей структуры для реализации обменов информацией между вычислителями, осуществлять «подстройку» состояний функциональных устройств и узлов в вычислителях c целью достижения адекватности между ВС и совокупностью совместно протекающих в ней прок ессов.

Опровержение закона Мура

Исследователи из Университета Нового Южного Уэльса (University of New South Wales) совершили очередной прорыв в развитии компьютерной отрасли: им впервые удалось создать рабочий транзистор на базе одного атома.

С 1954 года, когода научный сотрудник Texas Instruments Джордж Тиль (George Teal) создал первый кремниевый транзистор, инновационные решения позволили постепенно уменьшать и уменьшать размер этих электронных компонентов, что привело к созданию компьютеров и мобильных устройств современного типа.

Одно устройство может содержать миллиарды транзисторов, которые работают вместе для выполнения простых двоичных вычислений. Чем больше транзисторов находится на единицу площади, тем быстрее производятся расчеты и тем больше информации компьютеры могут обработать и сохранить, одновременно затрачивая меньше энергии.

В прошлом уже были созданы одноатомные транзисторы. Но к сегодняшнему дню в их использовании была достигнута погрешность в 10 нанометров (нанометр равен одной миллиардной метра). Но для одноатомного транзистора, чтобы он мог использоваться в реальных устройствах, требуется расположение одного атома точно на кремниевом чипе. По данным журнала о нанотехнологиях Nature Nanotechnology, именного этого и удалось достичь исследователям.

Они использовали сканирующий туннельный микроскоп (устройство, которое позволяет исследователям видеть атомы и обеспечить точность манипуляций с ними) ученые проделали узкий канал в кремниевой базе. Затем был применен газ фосфин, с помощью которого был помещен отдельный атом фосфора между двумя электродами в нужной области. Когда электрический ток проходит через такое устройство, оно усиливает и передает электрический сигнал, что и является основным принципом работы любого транзистора.

Так что достижение ученых из Австралии приблизило человечество еще на один шаг к созданию квантовых компьютеров. Удивительно также и то, что команда бросила вызов закону Мура (основывается на публикации Гордона Мура (Gordon Moore) в журнале Electronics Magazine в 1965 году). Согласно этому закону, число транзисторов, размещающихся на одной схеме, удваивается каждые 18-24 месяцев. Так что, по прогнозам Мура, одноатомные транзисторы должны появиться не раньше 2020 года. Однако это произошло на 8 лет раньше.

Мишель Симмонс (Michelle Simmons), директор ARC Centre for Quantum Computation and Communications и глава исследовательской группы, заявил: «Мы решили 10 лет назад, что создадим одноатомный транзистор так быстро, как это будет возможно, и тем самым опровергнем этот закон. И вот мы сделали это в 2012 году».

Однако до реального использования таких транзисторов пройдет еще 15-20 лет. Дело в том, что работающий образец функционирует только при температуре минус 391 градус в пределах лаборатории, так что является всего лишь доказательством концепции.

RIMM

Появился на рынке в 1999 году. Он основан на традиционной DRAM, но с кардинально измененной архитектурой.

Такие модули применялись в игровых приставках Sony Playstation 2 и Nintendo 64.

 

 

 

  1. Оперативная память. Задачи и виды модулей оперативной памяти

 

Оперативная память - это временная память компьютера, которая работает при включенном состоянии компьютера и которая нужна для нормальной работы программ и процессов. Как только вы выключаете компьютер или перезагружаете, оперативка стирается (грамотно говорить - обнуляется).

Типы памяти

FPM DRAM (SIMM)

FPM (Fast Page Mode) — вид динамической памяти.
Его название соответствует принципу работы, так как модуль позволяет быстрее получать доступ к данным, которые находятся на той же странице, что и данные, переданные во время предыдущего цикла.
Эти модули использовались на большинстве компьютеров с процессорами 486 и в ранних системах с процессорами Pentium, ориентировочно в 1995 году.

EDO DRAM (SIMM)

Модули EDO (Extended Data Out) появились в 1995 году как новый тип памяти для компьютеров с процессорами Pentium.
Это модифицированный вариант FPM.
В отличие от своих предшественников, EDO начинает выборку следующего блока памяти в то же время, когда отправляет предыдущий блок центральному процессору.
BEDO (Burst) – расширенное время удержание данных на выходе с блочным доступом

SDR SDRAM (DIMM)

SDRAM (Synchronous DRAM) — вид памяти со случайным доступом, работающий на столько быстро, чтобы его можно было синхронизировать с частотой работы процессора, исключая режимы ожидания.
Микросхемы разделены на два блока ячеек так, чтобы во время обращения к биту в одном блоке шла подготовка к обращению к биту в другом блоке.
Если время обращения к первой порции информации составляло 60 нс, все последующие интервалы удалось сократить до 10 нс.
Начиная с 1996 года большинство чипсетов Intel стали поддерживать этот вид модулей памяти, сделав его очень популярным вплоть до 2001 года.

SDRAM может работать на частоте 133 МГц, что почти в три раза быстрее, чем FPM и в два раза быстрее EDO.
Большинство компьютеров с процессорами Pentium и Celeron, выпущенных в 1999 году использовали именно этот вид памяти.

RAMBUS DRAM (RIMM)

RAMBUS (RIMM) — это вид памяти, который появился на рынке в 1999 году.
Он основан на традиционной DRAM но с кардинально измененной архитектурой.
Дизайн RAMBUS делает обращение к памяти более «разумным», позволяя получать предварительный доступ к данным, немного разгружая центральный процессор.
Основная идея, использованная в этих модулях памяти, заключается в получении данных небольшими пакетами но на очень высокой тактовой частоте.
Например, SDRAM может передавать 64 бит информации при частоте 100 МГц, а RAMBUS — 16 бит при частоте 800 МГц.
Эти модули не стали успешными, так как у Intel было много проблем с их внедрением.
Модули RDRAM появились в игровых консолях Sony Playstation 2 и Nintendo 64.

DDR SDRAM (DIMM)

DDR (Double Data Rate) стал развитием SDRAM.
Этот вид модулей памяти впервые появился на рынке в 2001 году.
Основное отличие между DDR и SDRAM заключается в том, что вместо удвоения тактовой частоты для ускорения работы, эти модули передают данные дважды за один такт.
Сейчас это основной стандарт памяти, но он уже начинает уступать свои позиции DDR2.
Напряжение питания ячеек – 2,5 В.

DDR2 SDRAM (DIMM)

DDR2 (Double Data Rate 2) — более новый вариант DDR, который теоретически должен быть в два раза более быстрым.
Впервые память DDR2 появилась в 2003 году, а чипсеты, поддерживающие ее — в середине 2004.
Эта память, также как DDR, передает два набора данных за такт.
Основное отличие DDR2 от DDR — способность работать на значительно большей тактовой частоте, благодаря усовершенствованиям в конструкции.
Но измененная схема работы, позволяющая добиться высоких тактовых частот, в то же время увеличивает задержки при работе с памятью.
По внешнему виду отличается от DDR числом контактов: увеличилось с 184 до 240.
Напряжение питания ячеек – 1,8 В.

DDR3 SDRAM (DIMM)

DDR3 SDRAM (синхронная динамическая память с произвольным доступом и удвоенной скоростью передачи данных, третье поколение) — это тип оперативной памяти, используемой в вычислительной технике в качестве оперативной и видео-памяти.
Пришла на смену памяти типа DDR2 SDRAM.

У DDR3 уменьшено на 40 % потребление энергии по сравнению с модулями DDR2, что обусловлено пониженным (1,5 В, по сравнению с 1,8 В для DDR2 и 2,5 В для DDR) напряжением питания ячеек памяти.
Снижение напряжения питания достигается за счёт использования 90-нм (вначале, в дальнейшем 65-, 50-, 40-нм) техпроцесса при производстве микросхем и применения транзисторов с двойным затвором Dual-gate (что способствует снижению токов утечки).

Модули DIMM с памятью DDR3 механически не совместимы с такими же модулями памяти DDR2 (ключ расположен в другом месте), поэтому DDR2 не могут быть установлены в слоты под DDR3 (это сделано с целью предотвращения ошибочной установки одних модулей вместо других - эти типы памяти не совпадают по электрическим параметрам).
DDR3-1600 (высшая скорость JEDEC) – широко доступна, и все больше производителей уже предлагают DDR3-1800.
DDR3-2000 – уже в продаже.
JEDEC – Joint Electron Device Engineering Council – Объединённый инженерный совет по электронным устройствам

 

 

DDR 4

DDR 4 достигает скорости до 34,1 Гбайт/с и потребляет меньше энергии, чем DDR3L (DDR3 с пониженным напряжением), обеспечивая до 50% роста производительности и скорости, а также снижая энергопотребление всей вычислительной среды (до 2666 МГц).

  • Позволяет экономить до 40% энергии
  • DDR4 также выполняет циклические проверки с избыточностью (CRC) для обеспечения повышенной надежности хранения данных
  • Имеет встроенную функцию контроля нарушения четности для проверки целостности передачи команд и адресов
  • Обеспечивает повышенную целостность сигнала и другие функции RAS

Визуальные отличия:

1) Разница в установочных пазах

2) Увеличенная толщина

 

 

  1. Организация кэша (кэш-строки, кэш линейки, блокируемая и неблокируемая память)

Кэш (сверхоперативная память) – представляет собой высокоскоростное запоминающее устройство небольшой емкости для временного хранения данных.

 

Задачи кэша:

  • Обеспечения быстрого доступа к интенсивно используемым данным
  • Согласование интерфейсов процессора и контроллера памяти
  • Упреждающая загрузка данных
  • Отложенная запись данных

 

Организация:

Для упрощения взаимодействия с оперативной памятью, кэш-контроллер оперирует не байтами, а блоками данных, соответствующий размеру пакетного цикла чтения/записи.

Программно кэш-память представляет собой совокупность блоков данных фиксированного размера, называемых кэш-линейками или кэш-строками.

Каждая кэш-строка полностью заполняется (выгружается) за один пакетный цикл чтения и всегда заполняется (выгружается) целиком.

Если процессор обращается к одному байту памяти, кэш-контроллер инициирует полный цикл обращения к основной памяти и запрашивает весь блок целиком.

Адрес первого байта кэш-линейки всегда кратен размеру пакетного цикла обмена, то есть начало кэш-линейки всегда совпадает с началом пакетного цикла.

Поскольку объем кэша меньше объема основной, каждой кэш-линейке соответствует множество ячеек кэшируемой памяти (сохраняется не только содержимое ячейки, но и ее адрес).

Для этой цели каждая кэш-линейка имеет специальное поле «Тэг».

В тэге хранится линейный и/или физический адрес первого байта кэш-линейки.

Кэш-память фактически является ассоциативной памятью.

Полезная емкость кэш-памяти всегда меньше ее полной (физической) емкости. Часть расходуется на «память тэгов».

Блокируемая кэш память – блокирует доступ к кэше после каждого кэш-промаха.

До тех пор, пока кэш-строка, вызвавшая промах, не будет целиком загружена, кэш не сможет обрабатывать никаких других запросов.

Неблокируемая кэш-память – позволяет работать с кэшем параллельно с загрузкой (выгрузкой) кэш-строк. Кэш-промахи не препятствуют кэш-попаданиям.

 

 

  1. Кэш подсистема современных процессоров. 2-х уровневая организация кэш

 

Большинство современных микропроцессоров для компьютеров и серверов имеют как минимум три независимых кэша: кэш инструкций для ускорения загрузки машинного кода, кэш данных для ускорения чтения и записи данных и буфер ассоциативной трансляции для ускорения трансляции виртуальных (логических) адресов в физические, как для инструкций, так и для данных. Кэш данных часто реализуется в виде многоуровневого кэша (L1, L2, L3).


Кэш третьего уровня наименее быстродействующий, но он может быть очень большим — более 24 Мбайт. L3 медленнее предыдущих кэшей, но всё равно значительно быстрее, чем оперативная память. В многопроцессорных системах находится в общем пользовании и предназначен для синхронизации данных различных L2.

 

Существует четвёртый уровень кэша, применение которого оправдано только для многопроцессорных высокопроизводительных серверов и мейнфреймов. Обычно он реализован отдельной микросхемой.

 

Предельно достижимая емкость кэш-памяти ограничена не только ценой, но и электромагнитной интерференцией (накладывает ограничения на максимально возможное количество адресных линий)

 

Большинство современных систем имеют как минимум два уровня кэш памяти.

 

Первый, наиболее "близкий" к процессору (L1), обычно реализуется на быстрой двух портовой синхронной статической памяти, работающей на полной частоте ядра процессора. Объем L1 кэша весьма не велик и редко превышает 32 Кб (32-64 Кб)., поэтому он должен хранить только самые-самые необходимые данные. Зато на обработку двух полно разрядных ячеек уходит всего один такт. (Внимание: процессоры x86 оснащаются не истинно двух портовой памятью! Двухпортовый у нее лишь интерфейс, а ядро памяти состоит из нескольких независимых банков, – обычно восьми, реализованных на однопортовых матрицах, и параллельный доступ возможен лишь к ячейкам разных банков).

 

Между кэшем первого уровня и оперативной памятью расположен кэш второго уровня (L2). Он реализуется на однопортовой конвейерной статической памяти (BSRAM) и зачастую работает на пониженной тактовой частоте. Поскольку однопортовая память значительно дешевле, объем L2 кэша составляет сотни килобайт, а зачастую достигает и нескольких мегабайт (512-2048 Кб)! Между тем скорость доступа к нему относительно невелика (хотя, естественно, многократно превосходит скорость доступа к основной памяти).

 

Во-первых, минимальной порцией обмена между L1 и L2 кэшем является отнюдь не байт, а целая кэш линейка, на чтение которой уходит в среднем 5 тактов частоты кэша второго уровня (формула BSRAM памяти выглядит так: 2-1-1-1). Если L2 кэш работает на половинной частоте процессора, то обращение к одной ячейке займет целых 10 тактов. Разумеется, эту величину можно сократить. В серверах и высокопроизводительных рабочих станциях кэш второго уровня чаще всего работает на полной частоте ядра процессора и зачастую имеет учетверенную разрядность шины данных, благодаря чему пакетный цикл обмена завершается всего за один такт. Однако и стоимость таких систем соответствующая.

 

  1. Системные шины. Определение, виды, назначение. Области применения

Шина – канал передачи данных, используемый совместно различными блоками системы.

Представляет собой либо набор проводящих линий вытравленных на печатной плате, либо плоский кабель.

Системная шина – предназначена для обеспечения передачи данных между периферийными устройствами, ЦП и ОЗУ.

Соединяет процессор с оперативной памятью, обеспечивая обмен данными и командами между этими компонентами.

 

Системная шина ISA

Системная шина ISA (Стандартная промышленная архитектура) впервые стала применяться в персональных компьютерах IBM PC/AT на базе процессора i286 (i386, i486 и Pentium).

ISA-8 (8 бит) использовала 62 контактный слот.

Тактовая частота – 8 Мгц.

Максимальная скорость передачи – 16 Мбайт/с.

ISA-16 (16 бит) отличалась наличием второго, 36-контактного дополнительного разъема для соответствующих плат расширения.

Количество адресных линий было увеличено на 4, а данных – на 8, что позволило передавать параллельно 16 бит данных и обращаться к 16 Мбайт системной памяти.

Количество линий аппаратных прерываний в этой шине было увеличено до 15, а каналов прямого доступа – до 7.

Системная шина ISA полностью включала в себя возможности старой 8-разрядной шины.

Абоненты могут использовать до трех 8-битных каналов DMA (Direct Memory Access), а на 16-битной шине доступны еще три 16-битных канала.

Канал DMA используется для обеспечения арбитража управления шиной, а адаптер Bus-Master формирует адресные и управляющие сигналы шины, при этом предоставлять управление шиной процессору (нарушение регенерации памяти).

 

Системная шина EISA

EISA (расширенная стандартная промышленная архитектура) конец 1988 года, обеспечивает адресное пространство в 4 Гбайт, 32-битовую передачу данных (в том числе и в режиме DMA), улучшенную систему прерываний и арбитраж DMA, автоматическую конфигурацию системы и плат расширения. Устройства шины ISA могут работать на шине EISA.

Арбитр шин – специального устройства для централизованного управления доступом к шине.

ВВ обычном режиме передачи за каждую пару тактов передается до 32 бит данных (один такт на фазу адреса, другой на фазу данных).

Максимальная пропускная способность 33 Мбайт/с.

Наличие энергозависимой памяти NVRAM, в ней хранится информация о устройствах EISA.

EISA применялась в многозадачных системах, на файл-серверах и др., где требовалось высокоэффективное расширение шины ввода вывода.

PC/104

PC/104, предназначенная для построения относительно несложных встраиваемых контроллеров, логически эквивалентна ISA.

В её названии 104 – число контактов коннектора, на которой выводятся сигналы шины ISA.

От ISA шина PC/104 отличается только типом коннектора и нагрузочными характеристиками линий: поскольку протяженность линий значительно сократилась, сигнальные цепи могут быть слаботочными.

Конструктивно шина выполнена в виде двух щелевых разъемов с шагом выводов 2, 54 мм (0,1 дюйма).

В подмножестве IA-8 используется только 62-контактный слот (ряды А, В), в ISA-16 применяется дополнительный 36-контактный слот (ряды C, D).

 

AMR/CNR

Слот AMR предназначался для звуковых карт и модемов. Разработан он был в рамках спецификации AC 97. На AMR-карту была внесена аналоговая часть (кодеки и порты) звуковых адаптеров и модемов, а сам цифровой контроллер продолжал оставаться на системном чипсете.

Слот обладал очень ограниченной функциональностью – поддерживал установку только одного вида устройств, не поддерживал Plug-n-Play и испытывал огромные трудности с совместимостью.

Слот CNR является развитием идеи AMR. Основная магистраль коммуникационного расширителя, идущая с контроллера, расположенного на материнской плате:

1) шина AC-Link (звук, модем)

2) сетевая шина

3) шина USB

4) шина SMBus

 

Системная шина MCA

Шина MCA (Микроканальная архитектура) IBM 1987 также обеспечивает 32-разрядную передачу данных, частота 10 МГц, имеет средства автоматического конфигурирования и арбитража запросов.

В отличие от EISA она не совместима с шиной ISA и используется только в компьютерах компании IBM.

Используется для обеспечения быстрого обмена данными между устройствами и оперативной памятью.

Управляющие сигналы, протокол и архитектура ориентированы на асинхронное функционирование шины, это снимает проблемы согласования скорости процессора и периферийного оборудования.

Применяется в мощных файл-серверах.

 

С истемная шина SBus

В однопроцессорных и многопроцессорных рабочих станциях и серверах на основе микропроцессоров SPARC одновременно используются несколько типов шин: SBus, MBus, XDus.

1) Шина SBus применяется в качестве шины ввода/вывода

2) MBus и XDus – в качестве шин для объединения большого числа процессоров и памяти

Шина SBus 32/64 реализация, работает на частоте 20 и 25 МГц и имеет максимальную скорость передачи данных в 32-битовом режиме равную соответственно 80 или 100 Мбайт.

Шина предусматривает режим групповой пересылки данных с максимальным размером до 128 байт.

Работает в двух режимах передачи данных:

1) Режим программируемого ввода/вывода

2) Режим прямого доступа к виртуальной памяти (DVMA). Эффективен пр передачи больших блоков данных

 

Системная шина MBus

Шина MBus работает на тактовой частоте 50 МГЦ в синхронном режиме с мультиплексированием адреса и данных.

Общее число сигналов шина равно 100, а разрядность шины данных составляет 64 бит. По шине передаются 36-битовые физические адреса.

Шина обеспечивает протокол поддержания когерентного состояния кэш-пямяти (целостность данных, хранящихся в локальных кэшах для разделяемого ресурса) нескольких (до 4х) процессоров имеет максимальную пропускную способность в 400 Мбайт/с, а типовая скорость передачи составляет 125 Мбайт/с.

Отличительными свойствами шины MBus являются:

  • Возможность увеличения числа процессорных модулей
  • Поддержка симметричной мультипроцессорной обработки
  • Высокая пропускная способность пр обмене с памятью и подсистемой вводы/вывода
  • Открытые (непатентованные) спецификации интерфейсов

 

 

 

  1. Локальные шины. Определение, виды, назначение. Области применения

Локальная шина – шина, подключенная к контактам микропроцессора.

 

Локальная шина VLB

Шина VL-bus, предложенная ассоциацией VESA в 1992 г., предназначалась для увеличения быстродействия видеоадаптеров и контроллеров дисковых накопителей для того, чтобы они могли работать с тактовой частотой до 40 МГц.

Шина VL-bus имеет 32 линии данных и позволяет подключать до тех периферийных устройств, в качестве которых наряду с видеоадаптерами и дисковыми контролерами могут выступать и сетевые адаптеры.

Максимальная скорость передачи данных по шине VL-bus может составлять до 130 Мбайт/с.

33 МГц – пропускная способность внутри пакетного цикла во время передачи 132 Мбайт/с.

В пакетном режиме требует 5 тактов шины 105.6 Мбайт/с.

В обычном режиме – 66 Мбайт/с.

После появления процессора Pentium ассоциация VESA приступила к работе над новым стандартом VL-bus версии 2, который предусматривает использование 64-битовой шины данных и увеличение количества разъемов расширения.

Скорость передачи данных – до 400 Мбайт/с.

 

Локальная шина PCI

Шина PCI (Взаимодействие периферийных компонентов) анонсирована Intel в 1992 году на выставке PC Expo.

  • 32-битный канал передачи данных между процессором и периферийными устройствами
  • работает на тактовой частоте 33 МГц
  • Максимальная пропускная способность 120 Мбайт/с

При работе с процессорами i486 шина PCI дает примерно те же показатели производительности, что и шина VL-bus.

Шина PCI является процессорно-независимой (шина VL-bus подключается непосредственно к процессору i486).

PCI работает на частоте 66 МГц.

32 бит – при 33 МГц (132 Мбайт/с).

64 бит – при 33 МГц (264 Мбайт/с), при 66 МГц (528 Мбайт/с).

 

Локальная шина PCIe

PCI Express 2.0 сигнальная скорость передачи составляет 5 GT/s, то есть пропускная способность равняется 500 Мбайт/с для каждой линии.

PCI Express 2.0, которой обычно используется 16 линий, обеспечивает двунаправленную пропускную способность до 8 Гбайт/с.

Стандарт PCI Experss 2.0 использует схему кодирования 8b/10b, где 8 бит данных передаются в виде 10-битных символов для алгоритма устранения ошибок. В итоге мы получаем 20% избыточность, то есть снижение полезной пропускной способности.

PCI Express 3.0 использует сигнальную скорость 8 GY/s, что дает пропускную способность 1 Гбайт/с на линию (16 Гбайт/с).

PCI Express 3.0 переходит на более эффективную схему кодирования 1128b/130b, устраняя 20% избыточность.

8 GT/s – это «теоретическая» скорость, а фактическая, сравнимая по производительности с сигнальной скоростью 10 GT/s, если бы не использовался принцип кодирования 8b/10b.

 

PCI Express версия Код строки Скорость передачи Ширина полосы (На полосу – B * 16 (16 каналов) Слот
1.0 8b/10b 2,5 GT/s 2 Гбит/с (250 Мбайт/с) 32 Гбит/с (4 Гбайт/с)
2.0 8b/10b 5 GT/s 4 Гбит/с (500) 64 Гбит/с (8)
3.0 128b/130b 8 GT/s 7,877 Гбит/с (984,6) 126,032 (15,754)
4.0 128b/130b 16 GT/s 15,754 Гбит/с (1969,2) 252,064 (31,508)

 

В 2011 организация PCI SIG анонсировала стандарт компьютерной шины PCI Express (PCIe) 4.0, который обеспечит рекордную пропускную способность 16 гигатрансферов в секунду на одну линию, что вдвое превышает предельную скорость шины PCIe 3.0.

16 GT/sсоответствует скорости примерно 2 Гб/с на одну линию x1.

 

 

  1. Графические интерфейсы и шины. Отличия и основные характеристики.

Шина AGP

AGP (ускоренный графический порт) – стандарт подключения графических адаптеров, разработан фирмой Intel на базе шины PCI 2.1.

Порт AGP представляет собой 32-разрядную шину с тактовой частотой 66 МГц, большая часть сигналов позаимствована из шины PCI.

В отличие от PCI, порт AGP представляет собой двухточечный интерфейс, соединяющий графический адаптер с памятью и системной шиной процессора напрямую логикой и каналами данных чипсета системной платы, не пересекаясь с «узким местом» - шиной PCI.

Её отличия от предшественницы, шины PCI:

  • увеличенная пропускная способность;
  • режим работы с памятью DMA и DME;

DMA (Direct Memory Access - прямой доступ к памяти) — доступ к памяти, в этом режиме основной памятью считается встроенная видеопамять на карте, текстуры копируются туда перед использованием из системной памяти компьютера. Этот режим работы не был новым, по тому же принципу работают звуковые карты, некоторые контроллеры и т. п.

DME (Direct in Memory Execute – прямое выполнение в памяти) — в этом режиме основная и видеопамять находятся как бы в общем адресном пространстве. Общее пространство эмулируется с помощью таблицы отображения адресов (Graphic Address Remapping Table, GART) блоками по 4 Кб. Таким образом копировать данные из основной памяти в видеопамять уже не требуется, этот процесс называют AGP-текстурированием.

  • разделение запросов на операцию и передачу данных;
  • возможность использования видеокарт с большим энергопотреблением, нежели PCI.

Порт AGP предназначен только для интеллектуального графического адаптера, имеющего 3D ускоритель.

Разработана для увеличения производительности компьютера при обработке трехмерных изображений без установки дорогостоящих двухпроцессорных видеокарт с большим объемом памяти, памяти под текстуры, z-буфер и др.

Скорость передачи данных до 266 Мбайт/с (1x) при частоте шины 66 МГц.

Режиме 2х до 532 Мбайт/с.

Основная обработка трехмерных изображений выполняется в основной памяти компьютера, как процессором, так и процессором видеокарты.

DIME непосредственное выполнение в памяти – механизм доступа процессора видеокарты к памяти.

В 1997 году Intel выпускает предварительную версию AGP 2.0, а в 1998 году окончательную её версию.

Отличия:

1) Скорость передачи может быть увеличена еще в 2 раза. Режим 4х – до 164 Мбайт/с

2) Скорость передачи адреса в режиме «адресация по боковой стороне» увеличена в 2 раза. Для передачи используются специальные SBA сигналы

3) Добавлен механизм «быстрой записи» Fast Write. Основная идея – запись данных/команд управления непосредственно в AGP устройство, минуя промежуточное хранение данных в основной памяти.

 

Шина AGP Pro

В 1998 году Intel выпустила версию AGP Pro.

1) Изменен разъем AGP – добавлены выводы по краям существующего разъема для подключения дополнительных цепей питания 12V и 3.3V

2) Совместимость снизу вверх. Платы AGP 2.0 можно устанавливать в слот AGP Pro, но не наоборот

3) Занимает 2 нижних слота PCI

Существует несколько вариантов шины AGP, отличающихся по пропускной способности:

  • AGP 1х - 266 Мб/с;
  • AGP 2х - 533 Мб/с;
  • AGP 4х -1,07 Гб/с;
  • AGP 8х - 2,1 Гб/с.

Первая версия (спецификация AGP 1.0) AGP 1x используется редко, поскольку не обеспечивает необходимой скорости работы с памятью в режиме DME.

Сразу же при проектировании была добавлена возможность посылать 2 блока данных за один такт — это AGP 2x.

 

AGP 4x

В 1998 году вышла вторая версия (спецификация AGP 2.0) — AGP 4x, которая могла пересылать уже 4 блока за один такт и обладала пропускной способностью около 1 ГБ/с. Уровень напряжения вместо обычных 3,3 В был понижен до 1,5 В.

 

AGP 8x

Шина AGP 8x (спецификация AGP 3.0) передаёт уже 8 блоков за один такт, таким образом, пропускная способность шины достигает 2 ГБ/с. Также в стандарте была заложена возможность использования двух видеокарт (аналогично AMD CrossFireX, Nvidia SLI), однако эта возможность не была использована производителями. Современные видеокарты требуют большой мощности, более 40 Вт, которую шина AGP дать не может, так появилась спецификация AGP Pro с дополнительными шинами питания на разъёме.

Для подключения внешних видеоустройств на видеокартах, могут использоваться аналоговые интерфейсы VGA, RCA, S-Video и цифровые - DVI и HDMI.

 



Поделиться:


Последнее изменение этой страницы: 2016-07-14; просмотров: 1169; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.16.66.206 (0.191 с.)