MIPS (GIPS- giga- миллиард операций в секунду) 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

MIPS (GIPS- giga- миллиард операций в секунду)



Определения

Архитектура Вычислительной системы: АЛУ, ДК, СОЗУ=Регистры PC-prgram counter- счетчик (указатель) инструкций

Процессор (устройство, отвечающее за выполнение арифметических, логических и операций управления, записанных в машинном коде

Микропроце́ссор —процессор реализованный в виде одной микросхемы[1] или комплекта из нескольких специализированных микросхем[2] (в противоположность реализации процессора в виде электрической схемы на элементной базе общего назначения или в виде программной модели).

Первые микропроцессоры появились в 1970-х и применялись в электронных калькуляторах, в них использовалась двоично-десятичная арифметика 4-х битных слов. Вскоре их стали встраивать и в другие устройства, например терминалы, принтеры и различную автоматику. Доступные 8-битные микропроцессоры с 16-битной адресацией позволили в середине 1970-х создать первые бытовые микрокомпьютеры.

Разместив целый ЦПУ на одном чипе сверxбольшой интеграции удалось значительно снизить его стоимость. Несмотря на скромное начало, непрерывное увеличение сложности микропроцессоров привело к почти полному устареванию других форм компьютеров (см. историю вычислительной

техники), в настоящее время один или несколько микропроцессоров используются в качестве вычислительного элемента во всём, от мельчайших встраиваемых систем и мобильных устройств до огромных мейнфреймов и суперкомпьютеров.

С начала 1970-х широко известно, что рост мощности микропроцессоров следует закону Мура, который утверждает что число транзисторов на интегральной микросхеме удваивается каждые 18 месяцев. В конце 1990-х главным препятствием для разработки новых микропроцессоров стало тепловыделение (TDP) из-за утечек тока и других факторов[3].

Некоторые авторы относят к микропроцессорам только устройства, реализованные строго на одной микросхеме. Такое определение расходится как с академическими источниками[4], так и с коммерческой практикой (например, варианты микропроцессоров Intel и AMD в корпусах типа SECC и подобных, такие как Pentium II — были реализованы на нескольких микросхемах- называемых микропроцессорным комплектом).

В настоящее время, в связи с очень незначительным распространением процессоров, не являющихся микропроцессорами, в бытовой лексике термины «микропроцессор» и «процессор» практически равнозначны.

Микроконтроллер- процессор с ОЗУ и ПЗУ и широким набором контроллеров, в том числе переферийных, и специализированных процессоров, реализованный в виде одной микросхемы. Центральный (управляющий) процессор обычно средней производительности, меньшей чем у микропроцессоров того-же уровня технологии. Его основная задача управлять конроллерами и другими спецпроцессорами (DSP)

Параметры МП

Архитектура

Разрядность процессора (32х 64х 86х – разрядность внутренних регистров. Разрядность команд).

Система команд, семейство

Тактовая частота процессора

Быстродействие (интегральный параметр- MIPS=MOPS/FLOPS

Параметры Внешней(их) шины(шиш) и интрерфейсов –разрядность, частота (FBUS)

Напряжение питания (или несколько)

Энергопотребление, удельное потребление Вт/флоры, Вт/операцию,Гфлопс/Вт тип теплоотвода

Корпус (тип корпуса по ISO=размеры, кол и тип выводов)

Показатель производительности Гфлопс/ГГц

MIPS (GIPS- giga- миллиард операций в секунду)

MIPS (англ. Million Instructions Per Second) — единица измерения быстродействия, равная одному миллиону инструкций в секунду. Если указано быстродействие в MIPS, то, как правило, оно показывает, сколько миллионов инструкций в секунду выполняет процессор в некотором синтетическом тесте.

BogoMIPS (от англ. bogus (поддельный) и MIPS — англ. Millions of Instructions Per Second) — в ядре Линукс ненаучный способ измерения производительности компьютера, предназначенный для калибровки внутренних циклов. Термин изобрёл Линус Торвальдс в 1993. BogoMIPS шутливо определяется как «сколько миллионов раз в секунду компьютер может абсолютно ничего не делать».

Причина возникновения такой величины в том, что для работы с некоторыми видами оборудования ядру системы требуются короткие временны́е задержки, которые реализуются в форме пустых циклов.

Чтобы узнать, сколько именно раз надо повторять пустой цикл, необходимо выяснить скорость его выполнения на данной машине — именно для этого используется BogoMIPS.

FLOPS

FLOPS (или flops или flop/s)(акроним от англ. Fl oating point O perations P er S econd, произносится как флопс) — величина, используемая для измерения производительности компьютеров, показывающая, сколько операций с плавающей запятой в секунду выполняет данная вычислительная система.

Поскольку современные компьютеры обладают высоким уровнем производительности, более распространены производные величины от FLOPS, образуемые путём использования стандартных приставок системы СИ.

Флопс как мера производительности

Производительность суперкомпьютеров

Название год FLOPS

Флопс 1941 100

килофлопс 1949 10³

Мегафлопс 1964 106

Гигафлопс 1987 109

Терафлопс 1997 1012

Петафлопс 2008 1015

эксафлопс − 1018

зеттафлопс − 1021

йоттафлопс − 1024

ксерафлопс − 1027

 

Как и большинство других показателей производительности, данная величина определяется путём запуска на испытуемом компьютере тестовой программы, которая решает задачу с известным количеством операций и подсчитывает время, за которое она была решена. Наиболее популярным тестом производительности на сегодняшний день является программа LINPACK, используемая, в том числе, при составлении рейтинга суперкомпьютеров TOP500.

Одним из важнейших достоинств показателя флопс является то, что он до некоторых пределов может быть истолкован как абсолютная величина и вычислен теоретически, в то время как большинство других популярных мер являются относительными и позволяют оценить испытуемую систему лишь в сравнении с рядом других. Эта особенность даёт возможность использовать для оценки результаты работы различных алгоритмов, а также оценить производительность вычислительных систем, которые ещё не существуют или находятся в разработке.

 

 

Границы применимости

Несмотря на кажущуюся однозначность, в реальности флопс является достаточно плохой мерой производительности, поскольку неоднозначным является уже само его определение. Под «операцией с плавающей запятой» может скрываться масса разных понятий, не говоря уже о том, что существенную роль в данных вычислениях играет разрядность операндов, которая также нигде не оговаривается.

Кроме того, величина флопс подвержена влиянию очень многих факторов, напрямую не связанных с производительностью вычислительного модуля, таких как: пропускная способность каналов связи с окружением процессора, производительность основной памяти и синхронность работы кэш-памяти разных уровней.

Всё это, в конечном итоге, приводит к тому, что результаты, полученные на одном и том же компьютере при помощи разных программ, могут существенным образом отличаться, более того, с каждым новым испытанием разные результаты можно получить при использовании одного алгоритма. Отчасти эта проблема решается соглашением об использовании однообразных тестовых программ (той же LINPACK) с усреднением результатов, но со временем возможности компьютеров «перерастают» рамки принятого теста и он начинает давать искусственно заниженные результаты,

поскольку не задействует новейшие возможности вычислительных устройств. А к некоторым системам общепринятые тесты вообще не могут быть применены, в результате чего вопрос об их производительности остаётся открытым.

Так, например, 24 июня 2006 года общественности был представлен суперкомпьютер MDGrape-3, разработанный в японском исследовательском институте RIKEN (Йокогама), с рекордной теоретической производительностью в 1 Пфлопс. Однако данный компьютер не является компьютером общего назначения и приспособлен для решения узкого спектра конкретных задач, в то время как стандартный тест LINPACK на нём выполнить невозможно в силу особенностей его архитектуры.

Также, высокую производительность на специфичных задачах показывают графические процессоры современных видеокарт и игровые приставки. К примеру, заявленная производительность игровой приставки Xbox 360 составляет 1 Тфлопс, а приставки PlayStation 3 и вовсе 2 Тфлопс, что ставит их в один ряд с суперкомпьютерами начального уровня. Столь высокие показатели объясняются тем, что указана производительность над числами 32-битного формата[1][2], тогда как для суперкомпьютеров обычно указывают производительность на 64-разрядных данных[3][4]. Кроме того, данные приставки и

видео-процессоры рассчитаны на операции с трёхмерной графикой, хорошо поддающиеся

распараллеливанию, однако эти процессоры не в состоянии выполнять многие задачи общего назначения, и их производительность сложно оценить классическим тестом LINPACK[5] и тяжело сравнить с другими системами.

Суперкомпьютеры

• Компьютер ЭНИАК, построенный в 1946 году, при массе 27 т и энергопотреблении 150 кВт, обеспечивал производительность в 300 флопс

• IBM 709 (1957) — 5 кфлопс

• БЭСМ-6 (1968) — 1 Мфлопс (операций деления)

• Cray-1 (1974) — 160 Мфлопс

• БЭСМ-6 на базе Эльбрус-1К2 (1980-х) — 6 Мфлопс (операций деления)

• Эльбрус-2 (1984) — 125 Мфлопс

• Cray Y-MP (1988) — 2,3 Гфлопс

• Электроника СС БИС (1991) — 500 Мфлопс

• ASCI Red (1993) — 1 Тфлопс

• Blue Gene/L (2006) — 478,2 Тфлопс

• Jaguar (суперкомпьютер) (2008) — 1,059 Пфлопс

• IBM Roadrunner (2008) — 1,105 Пфлопс [7]

• IBM Sequoia (2012) — 20 Пфлопс [8]

 

Персональные компьютеры

• IBM PC/XT (1983) — 6,9 кфлопс

• ПК на основе процессора Intel 80386 (1985) с тактовой частотой 40 МГц — 0,6 Мфлопс

• Intel Pentium 75 МГц (1993) — 7,5 Мфлопс

• Intel Pentium II 300 МГц (1997) — 50 Мфлопс

• Intel Pentium III 1 ГГц (1999) — 320 Мфлопс

• AMD Athlon 64 2,211 ГГц (2003) — 840 Мфлопс[9]

• Intel Core 2 Duo 2,4 ГГц (2006) — 1,3 Гфлопс

Вычислительные

комплексы России Эльбрус 3М Эльбрус 4 Эльбрус 5 Эльбрус 6 Эльбрус 7 (Компания ЗАО МЦСТ- физтех МГУ)

Год выпуска 2007 2011 2013 2016 2019

Производительностть

процессора (Гфлп) 4,8 19,2 64 256 768

Количество

процессоров

на сервере 2 16 64 64 64

Производительность

сервера (Гфлп) 9,6 300 4000 16000 49000

Количество серверов

в комплексе 64

Производительность

комплекса (Тфлп) 0,6 19 256 1000 3000

 

Процессоры

• Intel Core 2 Duo E7300 2.66ГГц — 19.34 Гфлопс При использовании (SiSoftware Sandra Pro Home 2009.SP3) Windows XP sp3

• Intel Core 2 Duo E8400 3.0ГГц (2008) — 18.6 Гфлопс При использовании стандартной версии LINPACK 10

• Intel Core 2 Duo E8400 3.0ГГц @4.0ГГц (2008) — 25 Гфлопс (LINPACK Benchmark 10.0 64-бит) в Windows Vista x64 Ultimate SP1

• Intel Core 2 Quad Q9450 2.66ГГц @3.5ГГц — 48 ГФлопс (LINPACK Benchmark 10.0 64-бит) в Windows 2003sp2 x64

 

Название МП Эльбрус Эльбрус 2С Эльбрус 4С Эльбрус 8С Эльбрус 16С

Год выпуска 2007 2010 2012 2015 2018

Техн. норма (нм) 130 90 65 45 32

Частота (Мгц) 300 600 1000 2000 3000

Производительность

МП (Гфлп) 4,8 19,2 64 256 768

Мощность (Вт) 6 16 25

 

Карманные компьютеры

• КПК на основе процессора Samsung S3C2440 400 МГц (архитектура ARM9) — 1,3 Мфлопс

• Intel XScale PXA270 520 МГц — 1,6 Мфлопс

• Intel XScale PXA270 624 МГц — 2 Мфлопс

Примечание: Приведенные процессоры не имеют аппаратной поддержки вычислений с плавающей

точкой. Более современные процессоры этого класса (I.MX31, OMAP-Lx) с аппаратным FPU имеют на

2 десятичных порядка большую производительность.

 

Архитектура фон Неймана

Архитектура фон Неймана (англ. Von Neumann architecture) — широко известный принцип

совместного хранения программ и данных в памяти компьютера. Вычислительные системы такого

рода часто обозначают термином «Машина фон Неймана», однако, соответствие этих понятий не

всегда однозначно. В общем случае, когда говорят об архитектуре фон Неймана, подразумевают

физическое отделение процессорного модуля от устройств хранения программ и данных.

Принципы фон Неймана

В 1946 году группа учёных во главе с Джоном фон Нейманом (Герман Голдстайн, Артур Беркс) опубликовали статью «Предварительное рассмотрение логической конструкции Электронно-вычислительного устройства». В статье обосновывалось использование двоичной системы для представления данных в ЭВМ (преимущественно для технической реализации, простота выполнения арифметических и логических операций. До этого машины хранили данные в десятеричном виде)[1], выдвигалась идея использования программами общей памяти. Имя фон Неймана было достаточно широко известно в науке того времени, что отодвинуло на второй план его соавторов, и данные идеи получили название «Принципы фон Неймана».

 

1. Принцип использования двоичной системы счисления для представления данных и команд.

2. Принцип программного управления.

Программа состоит из набора команд, которые выполняются процессором друг за

другом в определенной последовательности.

3. Принцип однородности памяти.

Как программы (команды), так и данные хранятся в одной и той же памяти (и

кодируются в одной и той же системе счисления — чаще всего двоичной). Над

командами можно выполнять такие же действия, как и над данными.

4. Принцип адресуемости памяти.

Структурно основная память состоит из пронумерованных ячеек; процессору в

произвольный момент времени доступна любая ячейка.

5. Принцип последовательного программного управления

Все команды располагаются в памяти и выполняются последовательно, одна после

завершения другой.

6. Принцип условного перехода.

Сам принцип был сформулирован задолго до фон Неймана Адой Лавлейз и Чарльзом

Бебиджем, однко он добавлен в общую архитектуру.

Компьютеры, построенные на этих принципах, относят к типу фоннеймановских.

Гарвардская Архитектура

Гарвардская архитектура — архитектура ЭВМ, отличительным признаком которой является раздельное хранение и обработка команд и данных. Архитектура была разработана Говардом Эйкеном в конце 1930-х годов в Гарвардском университете.

Дело в том, что, судя по опыту использования МПС для управления различными объектами, для реализации большинства алгоритмов управления такие преимущества фон-неймановской архитектуры как гибкость и универсальность не имеют большого значения. Анализ реальных программ управления показал, что необходимый объем памяти данных МК, используемый для хранения промежуточных результатов, как правило, на порядок меньше требуемого объема памяти программ. В этих условиях

использование единого адресного пространства приводило к увеличению формата команд за счет увеличения числа разрядов для адресации операндов. Применение отдельной небольшой по объему памяти данных способствовало сокращению длины команд и ускорению поиска информации в памяти данных.

Кроме того, гарвардская архитектура обеспечивает потенциально более высокую скорость

выполнения программы по сравнению с фон-неймановской за счет возможности реализации параллельных операций. Выборка следующей команды может происходить одновременно с выполнением предыдущей, и нет необходимости останавливать процессор на время выборки команды.

Этот метод реализации операций позволяет обеспечивать выполнение различных команд за одинаковое число тактов, что дает возможность более просто определить время выполнения циклов и критичных участков программы.

Большинство производителей современных 8-разрядных МК используют гарвардскую архитектуру.

 

История

В 30-х годах правительство США поручило Гарвардскому и Принстонскому университетам разработать архитектуру компьютера для военно-морской артиллерии. Победила разработка Принстонского университета (более известная как архитектура фон Неймана, названная так по имени разработчика, первым предоставившего отчет об архитектуре), так как она была проще в реализации.

Гарвардская архитектура не использовалась вплоть до конца 70-х годов.

 

Использование

Первым компьютером, в котором была использована идея гарвардской архитектуры, был Марк I.

Гарвардская архитектура используется в ПЛК и микроконтроллерах, таких, как Atmel AVR, Intel 4004,

Intel 8051.

В Intel(фон-Неймановская)-архитектуре:

"+", "-" - 3 такта

знаковые "+", "-" - 4 такта

"*", ":" - 5 тактов

знаковые "*",":" - 6 тактов

В Гарвардской архитек-ре:

"+", "-" - 2 такта

знаковые "+", "-" - 3 такта

"*", ":" - 3 такта

знаковые "*",":" - 4 такта

Для примера: вот такая операция z=a+b*c в микропроцессоре фон-неймановской архитектуры выполниться за

8-10 тактов, а в микропроцессоре гарвардской архитектуры - за 4-5 тактов.__

 

 

Конвейеры

Первоначальный 8086 процессор имеет 14 регистров, которые используются до сих пор. Четыре регистра общего назначения – AX, BX, CX и DX. Четыре сегментных регистра, которые используют для облегчения работы с указателями – CS (Code Segment), DS (Data Segment), ES (Extra Segment) и SS (Stack Segment). Четыре индексных регистра, которые указывают на различные адреса в памяти – SI (Source Index), DI (Destination Index), BP (Base Pointer) и SP (Stack Pointer). Один регистр содержит битовые флаги. И, наконец, регистр IP (Instruction Pointer).

IP регистр – это указатель с особой функцией, его задача указывать на следующую инструкцию, которая подлежит исполнению.

 

Все процессоры в x86 семействе следуют одному и тому же принципу. Сначала они следуют указателю на инструкцию и декодируют следующую команду по этому адресу. После декодирования следует этап выполнения этой инструкции. Некоторые инструкции читают из памяти или пишут в нее, другие производят вычисления, сравнения или другую работу. Когда работа окончена, команда проходит через этап отставки (retire stage) и IP начинает указывать на следующую инструкцию.

 

Конвейер-способ организации вычислений, используемый в современных процессорах и контроллерах с целью повышения их производительности (увеличения числа инструкций, выполняемых в единицу времени), технология, используемая при разработке компьютеров и других цифровых электронных устройств.

 

Простой пятиуровневый конвейер в RISC-процессорах.

· IF (англ. Instruction Fetch) — получение инструкции,

· ID (англ. Instruction Decode) — раскодирование (получение) инструкции,

· EX (англ. Execute) — выполнение,

· MEM (англ. Memory access) — доступ к памяти,

· WB (англ. Register write back) — запись в регистр.

 

Вертикальная ось — последовательные независимые инструкции, горизонтальная — время. Зелёная колонка описывает состояние процессора в один момент времени, в ней самая ранняя, верхняя инструкция уже находится в состоянии записи в регистр, а самая последняя, нижняя инструкция — только в процессе чтения.

 

Пример: Сумма А+B=C.

Эта инструкция суммирует значения, находящиеся в ячейках памяти A и B, а затем кладет результат в ячейку памяти C.

1. Загрузка в А из регистра1

2. Загрузка в В из регистра2

3. Сложение А и В в С

4. Результат С в регистр3

 

Преимущества:

1. Время цикла процессора уменьшается, таким образом увеличивая скорость обработки инструкций в большинстве случаев.

2. Некоторые комбинационные логические элементы, такие, как сумматоры или умножители, могут быть ускорены путем увеличения количества логических элементов. Использование конвейера может предотвратить ненужное наращивание количества элементов.

Недостатки:

1. Бесконвейерный процессор исполняет только одну инструкцию за раз. Это предотвращает задержки веток инструкций (фактически каждая ветка задерживается), и проблемы, связанные с последовательными инструкциями, которые исполняются параллельно. Следовательно, схема такого процессора проще, и он дешевле для изготовления.

2. Задержка инструкций в бесконвейерном процессоре слегка ниже, чем в конвейерном эквиваленте. Это происходит из-за того, что в конвейерный процессор должны быть добавлены дополнительные триггеры.

3. У бесконвейерного процессора скорость обработки инструкций стабильна. Производительность конвейерного процессора предсказать намного сложнее, и она может значительно различаться в разных программах.

4. Конвеерный пузырь (ступор конвейера)- ситуация, которая следующие за первой команды ждут, пока первая не пройдет этапы исполнения и записи результата. И только после этого вторая команда могла продолжить путь по конвейеру.

Процессор i486 имел 5-уровневый конвейер – загрузка (Fetch), основное декодирование (D1), вторичное декодирование или трансляция (D2), выполнение (EX), запись результата в регистры и память (WB). Каждый этап конвейера мог содержать по инструкции.

Суперскалярный конвейер i486.

В процессорах 486 использовался конвейер с ядром с внеочередным исполнением.

Далее в Pentium появилось использование параллельных суперскалярных конвееров.

 

Определения

Архитектура Вычислительной системы: АЛУ, ДК, СОЗУ=Регистры PC-prgram counter- счетчик (указатель) инструкций

Процессор (устройство, отвечающее за выполнение арифметических, логических и операций управления, записанных в машинном коде

Микропроце́ссор —процессор реализованный в виде одной микросхемы[1] или комплекта из нескольких специализированных микросхем[2] (в противоположность реализации процессора в виде электрической схемы на элементной базе общего назначения или в виде программной модели).

Первые микропроцессоры появились в 1970-х и применялись в электронных калькуляторах, в них использовалась двоично-десятичная арифметика 4-х битных слов. Вскоре их стали встраивать и в другие устройства, например терминалы, принтеры и различную автоматику. Доступные 8-битные микропроцессоры с 16-битной адресацией позволили в середине 1970-х создать первые бытовые микрокомпьютеры.

Разместив целый ЦПУ на одном чипе сверxбольшой интеграции удалось значительно снизить его стоимость. Несмотря на скромное начало, непрерывное увеличение сложности микропроцессоров привело к почти полному устареванию других форм компьютеров (см. историю вычислительной

техники), в настоящее время один или несколько микропроцессоров используются в качестве вычислительного элемента во всём, от мельчайших встраиваемых систем и мобильных устройств до огромных мейнфреймов и суперкомпьютеров.

С начала 1970-х широко известно, что рост мощности микропроцессоров следует закону Мура, который утверждает что число транзисторов на интегральной микросхеме удваивается каждые 18 месяцев. В конце 1990-х главным препятствием для разработки новых микропроцессоров стало тепловыделение (TDP) из-за утечек тока и других факторов[3].

Некоторые авторы относят к микропроцессорам только устройства, реализованные строго на одной микросхеме. Такое определение расходится как с академическими источниками[4], так и с коммерческой практикой (например, варианты микропроцессоров Intel и AMD в корпусах типа SECC и подобных, такие как Pentium II — были реализованы на нескольких микросхемах- называемых микропроцессорным комплектом).

В настоящее время, в связи с очень незначительным распространением процессоров, не являющихся микропроцессорами, в бытовой лексике термины «микропроцессор» и «процессор» практически равнозначны.

Микроконтроллер- процессор с ОЗУ и ПЗУ и широким набором контроллеров, в том числе переферийных, и специализированных процессоров, реализованный в виде одной микросхемы. Центральный (управляющий) процессор обычно средней производительности, меньшей чем у микропроцессоров того-же уровня технологии. Его основная задача управлять конроллерами и другими спецпроцессорами (DSP)

Параметры МП

Архитектура

Разрядность процессора (32х 64х 86х – разрядность внутренних регистров. Разрядность команд).

Система команд, семейство

Тактовая частота процессора

Быстродействие (интегральный параметр- MIPS=MOPS/FLOPS

Параметры Внешней(их) шины(шиш) и интрерфейсов –разрядность, частота (FBUS)

Напряжение питания (или несколько)

Энергопотребление, удельное потребление Вт/флоры, Вт/операцию,Гфлопс/Вт тип теплоотвода

Корпус (тип корпуса по ISO=размеры, кол и тип выводов)

Показатель производительности Гфлопс/ГГц

MIPS (GIPS- giga- миллиард операций в секунду)

MIPS (англ. Million Instructions Per Second) — единица измерения быстродействия, равная одному миллиону инструкций в секунду. Если указано быстродействие в MIPS, то, как правило, оно показывает, сколько миллионов инструкций в секунду выполняет процессор в некотором синтетическом тесте.

BogoMIPS (от англ. bogus (поддельный) и MIPS — англ. Millions of Instructions Per Second) — в ядре Линукс ненаучный способ измерения производительности компьютера, предназначенный для калибровки внутренних циклов. Термин изобрёл Линус Торвальдс в 1993. BogoMIPS шутливо определяется как «сколько миллионов раз в секунду компьютер может абсолютно ничего не делать».

Причина возникновения такой величины в том, что для работы с некоторыми видами оборудования ядру системы требуются короткие временны́е задержки, которые реализуются в форме пустых циклов.

Чтобы узнать, сколько именно раз надо повторять пустой цикл, необходимо выяснить скорость его выполнения на данной машине — именно для этого используется BogoMIPS.

FLOPS

FLOPS (или flops или flop/s)(акроним от англ. Fl oating point O perations P er S econd, произносится как флопс) — величина, используемая для измерения производительности компьютеров, показывающая, сколько операций с плавающей запятой в секунду выполняет данная вычислительная система.

Поскольку современные компьютеры обладают высоким уровнем производительности, более распространены производные величины от FLOPS, образуемые путём использования стандартных приставок системы СИ.



Поделиться:


Последнее изменение этой страницы: 2016-07-16; просмотров: 1744; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.142.173.227 (0.117 с.)