Понятие микропроцессорной системы (МПС) и микроконтроллера (МК) 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Понятие микропроцессорной системы (МПС) и микроконтроллера (МК)



Микропроцессорная система (МПС) представляет собой функционально законченное изделие, состоящее из одного или нескольких устройств, основу которого составляет микропроцессор.

 

 

Для того, чтобы МП выполнял свои функции ему необходимы дополнительные устройства:

· Модуль памяти – это специализированное электронное устройство, предназначенное для записи, хранения и выдачи информации, представленной в виде цифровых кодов.

· Порты ввода/вывода – это специализированные микросхемы, при помощи которых МПС может общаться с внешним миром.

Порт ввода – это специальное электронное устройство, на которое из-вне поступает электрические сигналы, предназначенные для управления микропроцессорным устройством.

Порт вывода выполняет обратную функцию, в него процессор записывает различные числа, которые затем поступают на внешнее устройство в виде электрических сигналов для управления этими устройствами

· Все 3 части МПС связаны между собой шинами- информационными каналами, которые объединяют все функциональные блоки МПС и обеспечивают обмен данными.

Микроконтроллер – это микросхема, которая представляет собой мини-компьютер, предназначенный для выполнения различных функций. Данная микросхема работает в соответствии с заложенной в нее программой, которую создает программист. Микроконтроллер может содержать различное количество так называемых периферийных модулей, которые определяют его возможности.

 

Типы компьютеров

По условиям эксплуатации компьютеры делятся на 2 типа:

1. Офисные (универсальные) – предназначенные для решения широкого класса задач при нормальных условиях эксплуатации.

2. Специальные – служат для решения более узкого класса задач или даже одной задачи, требующей многократного решения и функционируют в особых условиях эксплуатации. Машинные ресурсы специальных компьютеров часто ограничены, однако их узкая ориентация позволяет реализовать заданный класс задач наиболее эффективно.

 

По производительности и характеру использования компьютеры можно условно разделить на 4 типа:

1. Мини–компьютеры – машины, конструктивно выполненные в одной стойке, т. е. занимающие объем порядка 0,5 кубометра.

2. Микрокомпьютеры (в том числе и персональные компьютеры) – компьютеры, в которых центральный процессор выполнен в виде микропроцессора.

3. Мэйнфрэймы – предназначены для решения широкого класса научно-технических задач и являются сложными и дорогими машинами. Их целесообразно применять в больших системах при наличии не менее 200-300 рабочих мест. Централизованная обработка данных на мэйнфрэйме обходится примерно в 5-6 раз дешевле, чем распределенная обработка при клиент-северном подходе.

4. Суперкомпьютеры – сверхбыстродействующие машины, которые представляют собой многопроцессорные и (или) многомашинные комплексы, работающие на общую память и общее поле внешних устройств.

 

Раздел 2. Основы теории информации

Понятие и основы теории информации

Понятие «информации»

Слово «информация» происходит от латинского и означает сведение, разъяснение, ознакомление.

Понятие информации является базовым, т. е. должно быть пояснено на примерах или выявлено путем их сопоставления с содержанием других понятий.

Понятие «информация» является общенаучным, так как используется в различных науках и при этом в каждой науке это понятие связано с различными системами понятий.

1. Философское понятие информации: «информация есть отражение реального мира». Человек получает информацию с помощью органов чувств: 80-90% с помощью зрения, 10-15% с помощью слуха, 1-2% с помощью других органов чувств (обоняние, осязание и вкус).

Информация – это сведения, изменяющие наши знания об окружающем мире и понимание его.

 

2. Информация в физике. В физике мерой беспорядка, хаоса для термодинамической системы является энтропия системы, тогда как информация (анти энтропия) является мерой упорядоченности и сложности системы. По мере увеличения сложности системы величина энтропии уменьшается, а величина информации увеличивается. Таким образом, в физике информация рассматривается как анти энтропия или энтропия с обратным знаком.

 

3. Математическая теория информации (американский ученый Клод Шеннон): информативность сообщения характеризуется содержащейся в нем полезной информацией – той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации, т. е. информация – это уменьшение неопределенности наших знаний. Такой подход к информации позволяет ее количественно измерять.



Поделиться:


Последнее изменение этой страницы: 2016-12-29; просмотров: 503; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.143.228.40 (0.007 с.)