Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: АрхеологияБиология Генетика География Информатика История Логика Маркетинг Математика Менеджмент Механика Педагогика Религия Социология Технологии Физика Философия Финансы Химия Экология ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Основные направления информатики↑ Стр 1 из 11Следующая ⇒ Содержание книги
Поиск на нашем сайте
Содержание 1. ИНФОРМАЦИЯ И ИНФОРМАТИКА.. 4 1.1. ПОНЯТИЕ ИНФОРМАЦИИ.. 4 1.2. СВОЙСТВА ИНФОРМАЦИИ.. 5 1.3. ИЗМЕРЕНИЕ ИНФОРМАЦИИ.. 6 1.4. ИНФОРМАТИКА КАК НАУКА.. 10 1.4.1. Основные направления информатики. 10 1.4.2. Системы счисления. 11 1.4.3. Логические основы вычислительной техники. 19 2. ТЕХНИЧЕСКИЕ И ПРОГРАММНЫЕ СРЕДСТВА РЕАЛИЗАЦИИ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ. 23 2.1. КРАТКАЯ ИСТОРИЯ РАЗВИТИЯ ВЫЧИСЛИТЕЛЬНОЙ ТЕХНИКИ.. 23 2.2. Основные типы компьютеров. Конфигурации персональных компьютеров (ПК) 24 2.2.1. Устройства хранения информации. 26 2.2.2. Устройства обработки информации и управляющие устройства. 27 2.2.3. Устройства ввода и вывода. 28 3. модели решения функциональных и вычислительных задач.. 33 3.1. Основные понятия.. 33 3.2. Классификация видов моделирования.. 36 4. ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ. ОСНОВНЫЕ ПОНЯТИЯ ПРОГРАММИРОВАНИЯ.. 48 4.1. ОСНОВНЫЕ ПОНЯТИЯ И ОПРЕДЕЛЕНИЯ.. 48 4.2. СПОСОБЫ ПРЕДСТАВЛЕНИЯ АЛГОРИТМА.. 49 4.3. БАЗОВЫЕ СТРУКТУРЫ ПРОГРАММИРОВАНИЯ.. 52 4.4. ЯЗЫКИ ПРОГРАММИРОВАНИЯ.. 55 4.5. ОПЕРАЦИОННЫЕ СИСТЕМЫ. КЛАССИФИКАЦИЯ И КРАТКИЙ ОБЗОР. 57 4.6. ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ ДЕЯТЕЛЬНОСТИ ОФИСА.. 59 5. ЗАЩИТА ИНФОРМАЦИИ.. 61 6. Локальные и глобальные сети ЭВМ... 64 Задания для контрольной работы.. 71 ИНФОРМАЦИЯ И ИНФОРМАТИКА
ПОНЯТИЕ ИНФОРМАЦИИ
Термин «информация» происходит от латинского informatio, что в переводе означает изложение, разъяснение. В обыденной жизни под этим словом понимают сведения, передаваемые людьми устным, письменным или другим образом. В научных и официальных источниках этот термин трактуется по-разному. Так, например, ст. 2 Федерального закона от 27 июля 2006 г. № 149-ФЗ «Об информации, информационных технологиях и о защите информации» дает следующее определение термина «информация». Информация – сведения (сообщения, данные) независимо от формы их представления. В общем виде информация – это отражение предметного мира с помощью знаков и сигналов. В теории информации под этим термином понимается такое сообщение, которое содержит факты, неизвестные ранее потребителю и дополняющие его представление об изучаемом или анализируемом объекте (процессе, явлении). Другими словами, информация – сведения, которые должны снять в той или иной степени существующую у потребителя до их получения неопределенность, расширить его понимание объекта полезными (для потребителя) сведениями. По Шеннону, информация – это снятая неопределенность. В процессе обработки информация может менять структуру и форму. Признаками структуры являются элементы информации и их взаимосвязь. Различают содержательную и формальную структуры. Содержательная структура естественно ориентирована на содержание информации, а формальная – на форму представления информации. Формы представления информации также различны. Основные из них – символьная (основанная на использовании символов – букв, цифр, знаков), текстовая (использует тексты – символы, расположенные в определенном порядке), графическая (различные виды изображений), звуковая. В зависимости от области знаний различают научную, техническую, производственную, правовую и т.д. информацию. Каждый из видов информации имеет свои особые смысловые нагрузку и ценность, требования к точности и достоверности, преимущественные технологии обработки, формы представления и носители (бумажные, магнитные и др.). Информация – это неубывающий ресурс жизнеобеспечения. Объем информации с течением времени возрастает. В повседневной практике такие понятия, как информация, данные, знания, часто рассматриваются как синонимы. Однако это не совсем верно. Данными называется информация, представленная в удобном для обработки виде (технология автоматизированной обработки информации предполагает манипулирование отдельными информационными элементами). Для автоматизации работы с данными, относящимися к разным типам, унифицируют форму их представления. Для этого используют кодирование данных. Примерами могут служить код Морзе, код ASCII, двоичное кодирование, которое используется в вычислительной технике.
СВОЙСТВА ИНФОРМАЦИИ
Как и всякий объект, информация обладает определенными свойствами. Наиболее важными требованиями, предъявляемыми к информации, являются: корректность, полезность, оперативность, точность, достоверность, устойчивость, достаточность. 1. Корректность информации обеспечивает ее однозначное восприятие всеми потребителями. 2. Ценность (или полезность) информации проявляется в том случае, если она способствует достижению стоящей перед потребителем цели. Ценность информации – это свойство относительное: одна и та же информация имеет разную ценность для разных потребителей. С течением времени ценность информации уменьшается – она стареет. Однако следует иметь в виду, что старит информацию не само время, а появление новой информации, которая отвергает полностью или частично имеющуюся информацию, уточняет ее, дополняет, дает новое сочетание сведений, приводящее к получению дополнительного эффекта. 3. Оперативность отражает актуальность информации для необходимых расчетов и принятия решений в изменившихся условиях. 4. Точность определяет допустимый уровень искажения как исходной, так и результатной информации, при котором сохраняется эффективность функционирования системы. 5. Достоверность определяется свойством информации отражать реально существующие объекты с необходимой точностью. Достоверность информации измеряется доверительной вероятностью необходимой точности, т.е. вероятностью того, что отображаемое информацией значение параметра не отличается от истинного значения этого параметра в пределах необходимой точности. 6. Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности. Устойчивость информации определяется выбранной методикой ее отбора и формирования. 7. Достаточность (полнота) информации означает, что она содержит минимально необходимый объем сведений для принятия правильного решения. Неполная информация (недостаточная для принятия правильного решения) снижает эффективность принимаемых пользователем решений. Избыточность обычно снижает оперативность и затрудняет принятие решения, но зато делает информацию более устойчивой. При передаче информации от источника к получателю используется некоторый носитель информации. Сообщение, передаваемое с помощью носителя, называют сигналом. Если при передаче сигнала одна из его характеристик (параметр сигнала) принимает конечное число значений, то такой сигнал (как и само сообщение) называют дискретным. Информация, передаваемая при этом, также будет дискретной. Если при передаче источник вырабатывает непрерывное сообщение, то в этом случае передаваемая информация будет непрерывной. Примером дискретного сообщения может быть процесс чтения книги, информация в котором представлена дискретной последовательностью букв. Примером непрерывного сообщения – человеческая речь, передаваемая звуковой волной. Непрерывное сообщение всегда можно преобразовать в дискретное. Процесс такого преобразования называют дискретизацией.
ИЗМЕРЕНИЕ ИНФОРМАЦИИ
Разработаны различные способы оценки количества информации. Чаще всего используется способ оценки, предложенный в 1948 г. основоположником теории информации Клодом Шенноном. Как было отмечено выше, информация – это снятая неопределенность. Степень неопределенности принято характеризовать с помощью понятия «вероятность». Вероятность – величина, которая может принимать значения в диапазоне от 0 до 1. Она есть мера возможности наступления какого-либо события, которое может иметь место в одних случаях и не иметь места в других. Если событие никогда не может произойти, его вероятность считается равной 0. Если событие происходит всегда, его вероятность равна 1. Чем больше вероятность события, тем больше уверенность в том, что оно произойдет, и тем меньше информации содержит сообщение об этом событии. Если вероятность события мала, то сообщение о том, что оно случилось, очень информативно. Количество информации I, характеризующей состояние, в котором пребывает объект, можно определить, используя формулу Шеннона
I = –(p1log2p1 + p2log2p2 +... + pnlog2pn),
где n – число возможных состояний; p1,..., pn – вероятности отдельных состояний; log2 – функция логарифма при основании 2. Знак минус перед суммой позволяет получить положительное значение для I, поскольку значение log2 pi всегда неположительно. Единица информации называется битом. Термин «бит» предложен как аббревиатура от английского словосочетания «Binary digiT», которое переводится как «двоичная цифра». 1 бит информации – количество информации, посредством которого выделяется одно из двух равновероятных состояний объекта. Формула Шеннона может быть использована и для оценки количества информации в непрерывных величинах. При оценке количества дискретной информации часто используется также формула Хартли I = log2(n), где n – число возможных равновероятных состояний; log2 – функция логарифма при основании 2. Формула Хартли применяется в случае, когда вероятности состояний, в которых может находиться объект, одинаковые. В общем случае справедливо утверждение, что количество информации в сообщении зависит от числа разнообразий, присущих источнику информации и их вероятностей. В качестве примера определим количество информации на один знак при двоичном кодировании (т.е. при использовании алфавита, состоящего из двух знаков 0 и 1). Если считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления, то
I = log2 2 = 1 бит.
Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем. В вычислительной технике при определении количества информации чаще используется объемный подход. Создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния (некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п.). В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода). Итак, если у нас есть один бит, то с его помощью мы можем закодировать один из двух символов – либо 0, либо 1. Если же есть 2 бита, то из них можно составить один из четырех вариантов кодов: 00, 01, 10, 11. Если есть 3 бита – один из восьми: 000, 001, 010, 100, 110, 101, 011, 111. Закономерность очевидна: 1 бит – 2 варианта, 2 бита – 4 варианта, 3 бита – 8 вариантов, 4 бита – 16 вариантов. Количество возможных кодов зависит от количества используемых бит,
N=2m
В обычной жизни нам достаточно 150 – 160 стандартных символов (больших и маленьких русских и латинских букв, цифр, знаков препинания, арифметических действий и т.п.). Если каждому из них будет соответствовать свой код из нулей и единиц, то 7 бит для этого будет недостаточно (7 бит позволят закодировать только 128 различных символов), поэтому используют 8 бит. Для кодирования одного, привычного человеку, символа в ЭВМ используется 8 бит, что позволяет закодировать 256 различных символов. Стандартный набор из 256 символов называется ASCII (означает «Американский Стандартный Код для Обмена Информацией» – англ. American Standart Code for Information Interchange). Он включает в себя большие и маленькие русские и латинские буквы, цифры, знаки препинания и арифметические действия и т.п. Каждому символу ASCII соответствует 8-битовый двоичный код.
Таблица 1. Коды управляющих символов (0–31)
Таблица 2. Символы с кодами 32–127
Таблица 3. Символы с кодами 128–255 (Кодовая таблица 866 – MS-DOS)
Коды от 128 до 255 (таблица 3) представляют собой расширение таблицы ASCII. Эти коды используются для кодирования символов национальных алфавитов, а также символов псевдографики, которые можно использовать, например, для оформления в тексте различных рамок и текстовых таблиц.
Набор символов Windows, чтобы представить каждый знак, использует 8 битов; поэтому, максимальное число символов, которое может быть выражено, при помощи использования 8 битов - 256 (28). Это обычно достаточно для западных языков, включая диакритические знаки, используемые французским, немецким, испанским и другими языками. Однако восточные языки используют тысячи отдельных символов, которые не могут быть закодированы при помощи использования однобайтовой схемы кодирования. С быстрым увеличением компьютерной техники, двухбайтовые схемы кодирования были разработаны так, чтобы символы могли быть представлены 8-, 16-, 24- или 32 битовыми последовательностями. Это требует сложных передающих алгоритмов; даже в этом случае, когда используются разные кодовые наборы, можно получить полностью различные результаты на двух разных компьютерах. Чтобы как-то решить проблему многочисленных схем кодирования, был разработан стандарт для представления данных - Unicode. 16-битная схема кодирования символов - Unicode может представлять 65,536 (216) знаков, которых достаточно для того, чтобы включить сегодня все языки в компьютерную технику, а также знаки препинания, математические символы и участок памяти для будущего расширения их состава. Система Unicode устанавливает уникальный код для каждого символа, гарантируя этим, что символьная трансляция будет всегда точной.
Для удобства использования введены и более крупные, чем бит, единицы количества информации.
ИНФОРМАТИКА КАК НАУКА
Информатика – научное направление, занимающееся изучением законов, методов и способов накапливания, обработки и передачи информации с помощью ЭВМ и других технических средств, группа дисциплин, занимающихся различными аспектами применения и разработки ЭВМ: прикладная математика, программирование, программное обеспечение, искусственный интеллект, архитектура ЭВМ, вычислительные сети.
Системы счисления
Система счисления – совокупность приемов и правил для записи чисел цифровыми знаками или символами. Все системы счисления можно разделить на два класса: позиционные и непозиционные. Римская система счисления
Так, например, в римской системе счисления в числе XXXII (тридцать два) вес цифры X в любой позиции равен просто десяти. В ней для обозначения чисел 1, 5, 10, 50, 100, 500 и 1000 используются заглавные латинские буквы I, V, X, L, C, D и M соответственно, являющиеся цифрами этой системы счисления.
Число в римской системе счисления обозначается набором стоящих подряд цифр. Значение числа равно: 1) сумме значений идущих подряд нескольких одинаковых цифр (назовем их группой первого вида); 2) разности значений двух цифр, если слева от большей цифры стоит меньшая. В этом случае от значения большей цифры отнимается значение меньшей цифры. Вместе они образуют группу второго вида. Заметим, что левая цифра может быть меньше правой максимум на один порядок: так, перед L (50) и C (100) из "младших" может стоять только X (10), перед D (500) и M(1000) — только C (100), перед V (5) — только I (1); 3) сумме значений групп и цифр, не вошедших в группы первого или второго вида. Например, IX обозначает 9, XI обозначает11. Десятичное число 28 представляется следующим образом: XXVIII=(X+X)+V+(I+I+I)=10+10+5+1+1+1, а десятичное число 99 имеет вот такое представление: LXLIX=L+(L-X)+(X-I)=50+40+9 (две группы второго вида и одна группа третьего вида). Число 32 в римской системе счисления имеет вид XXXII=(X+X+X)+(I+I)=30+2 (две группы первого вида). Число 444, имеющее в своей десятичной записи 3 одинаковые цифры, в римской системе счисления будет записано в виде CDXLIV=(D-C)+(L-X)+(V-I)=400+40+4 (три группы второго вида). Число 1974 в римской системе счисления будет иметь вид MCMLXXIV=M+(M-C)+L+(X+X)+(V-I)=1000+900+50+20+4 (наряду с группами обоих видов в формировании числа участвуют отдельные "цифры"). Вы видели подобные обозначения года выпуска в титрах голливудских фильмов. Римская система счисления сегодня используется в основном для обозначения знаменательных и юбилейных дат, разделов и глав в книгах. Таблица 4. Алфавит систем счисления.
В ЭВМ применяют позиционные системы счисления с недесятичным основанием: двоичную, восьмеричную, шестнадцатеричную. В аппаратной основе ЭВМ лежат двухпозиционные элементы, которые могут находиться только в двух состояниях (ИСТИНА - ЛОЖЬ, ДА – НЕТ, ВКЛ – ВЫКЛ); одно из них обозначается 1, а другое – 0. Поэтому основной системой счисления применяемой в ЭВМ является двоичная система. Двоичная система счисления. Используется две цифры: 0 и 1. В двоичной системе любое число может быть представлено в виде: N = bnbn-1... b1b0. b-1b-2... где bj либо 0, либо 1. Восьмеричная система счисления. Используется восемь цифр: 0, 1, 2, 3, 4, 5, 6, 7. Употребляется в ЭВМ, как вспомогательная, для записи информации в сокращенном виде. Для представления одной цифры восьмеричной системы используется три двоичных разряда (триада) (Таблица 5). Шестнадцатеричная система счисления. Для изображения чисел употребляются 16 цифр. Первые десять цифр этой системы обозначаются цифрами от 0 до 9, а старшие шесть цифр - латинскими буквами: 10-A, 11-B, 12-C, 13-D, 14-E, 15-F. Шестнадцатеричная система используется для записи информации в сокращенном виде. Для представления одной цифры шестнадцатеричной системы счисления используется четыре двоичных разряда (тетрада) (Таблица 5). Таблица 5. Наиболее важные системы счисления.
Двоичная арифметика. Правила выполнения арифметических действий над двоичными числами задаются таблицами двоичных сложения, вычитания (Таблица 6). Таблица 6. Таблица арифметических операций
При сложении двоичных чисел в каждом разряде производится сложение цифр слагаемых и переноса из соседнего младшего разряда, если он имеется. При этом необходимо учитывать, что 1+1 дают нуль в данном разряде и единицу переноса в следующий. Пример. Выполнить сложение двоичных чисел: Результат 1101+101=10010.
б) X=1101, Y=101, Z=111; Результат 1101+101+111=11001. При вычитании двоичных чисел в данном разряде при необходимости занимается 1 из старшего разряда. Эта занимаемая 1 равна двум 1 данного разряда. Пример. Заданы двоичные числа X=10010 и Y=101. Вычислить X-Y.
Результат 10010 - 101=1101.
Аналогично двоичной арифметике происходит сложение и вычитание чисел в другой системе счисления. Таблица 7 Таблица сложения в 8 с.сч.
Таблица 8 Таблица сложения в 16 с.сч.
В данной таблице происходит следующая процедура получения результатов сложения: F16+116=15+1=1×16+0=1016 E16+716=14+7=1×16+5=1516 D16+F16=13+15=1×16+12=1C16
Пример. Выполнить сложение чисел в 8 с.сч. (а) и в 16 с.сч. (б)
Сложение начинаем с младших разрядов: 78+68=13=1×8+5=158 (записываем 5, переносим 1 в следующий разряд) 1+6+2=9=1×8+1=118 (записываем 1, переносим 1 в следующий разряд) 1+3+5=9=1×8+1=118 (записываем 1, переносим 1 в следующий разряд) Результат 5678+3268=11158.
б) X=32F16, Y=1AC16, Z=10916;
Сложение начинаем с младших разрядов: F16+C16+916=15+12+9=36=2×16+4=2416 (записываем 4, переносим 2 в следующий разряд) 2+2+A+0=4+10=14=E16 (записываем E) 3+1+1=516 (записываем 5)
Результат 32F16+1AC16+10916=5E416.
Формы мышления Логика - это наука о формах и способах мышления. Законы логики отражают в сознании человека свойства, связи и отношения объектов окружающего мира. Логика позволяет строить формальные модели окружающего мира, отвлекаясь от содержательной стороны. Мышление всегда осуществляется в каких-то формах. Основными формами мышления являются понятие, высказывание и умозаключение. Понятие выделяет существенные признаки объекта, которые отличают его от других объектов. Объекты, объединенные понятием, образуют некоторое множество. Высказывание строится на основе понятий и по форме является повествовательным предложением. Высказывание может быть истинным или ложным. Высказывание может быть простым или составным. Умозаключения позволяют на основе известных фактов, выраженных в форме суждений (высказываний), получать заключение. То есть новое знание. Посылками умозаключения по правилам формальной логики могут быть только истинные суждения. Тогда, если умозаключение проводится в соответствии с правилами формальной логики, то оно будет истинным. В противном случае можно прийти к ложному умозаключению.
Алгебра высказываний.
Алгебра высказываний была разработана для того, чтобы можно было определять истинность или ложность составных высказываний, не вникая в их содержание. В алгебре высказываний суждения (простым высказываниям) ставятся в соответствие логические переменные, обозначаемые буквами латинского алфавита. Высказывания могут принимать два значения: «истина» – 1, «ложь» - 0. Над высказываниями можно производить определенные логические операции, в результате которых получаются новые, составные высказывания. Для образования новых высказываний наиболее часто используются базовые логические операции, выражаемые с помощью логических связок «и», «или», «не».
Таблица 9
По таблице легко определить в каком случае письмо будет написано, когда будет в наличие и бумага, и ручка.
Таблица 10
По таблице истинности легко определить в каком случае можно будет написать письмо, когда есть либо карандаш, либо ручка.
Таблица 11
Таблица 12 Таблица истинности
По таблице истинности нашли решение данной задачи. Высказывание А – ложно, а высказывание В – истинно. Следовательно: Ответ: Во 2 аудитории находится кабинет информатики, а в 1 аудитории находится кабинет физики.
Таблица13 Смена поколений ЭВМ
|
|
Последнее изменение этой страницы: 2016-12-16; просмотров: 303; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.191.44.122 (0.013 с.) |