ТОП 10:

Нейронні мережі і перспективна обчислювальна техніка.



Численні елементи (пристрої) комп'ютера, що розміщуються в його системному блоці, можна підрозділити всього на п'ять основних груп. Це центральний процесор, пам'ять, шина, блок електроживлення і численні аналого-цифрові і цифро-аналогові перетворювачі(АЦП і ЦАП).

Процесор безпосередньо сполучений з елементами швидкої(оперативною) пам'яті. Її ще називають оперативним пристроєм(ОЗУ), що запам'ятовує, або пам'яттю довільного доступу. При відключенні електроживлення комп'ютера вона очищається, і усі дані, що знаходяться в ній, втрачаються. У довготривалій пам'яті дані зберігаються і після виключення комп'ютера. Найчастіше, вона більше за об'ємом, ніж ОЗУ, хоча і не така швидка. Це жорсткі, гнучкі і оптичні диски, магнітна стрічка і так далі По шині дані передаються між облаштуваннями системного блоку.

АЦП і ЦАП перетворять інформацію з аналогової форми в цифрову: в набори чисел, зазвичай двійкових, і назад. АЦП і ЦАП називають контроллерами. Будь-який контроллер містить мікропроцесор, тобто є комп'ютером, але тільки не універсальним, в якому сам встановлений, а спеціалізованим.

У мікросхемах " запаяні" програми, які виконуються при включенні комп'ютера і як би пожвавлюють його, перетворюючи безліч сполучених проводками деталей на єдине ціле - в готовий до роботи універсальний перетворювач інформації. Технологія мікропроцесорів вже наближається до фундаментальних обмежень. Закон-прогноз Гордона Мура свідчить, що щільність транзисторів в мікросхемі подвоюється кожні півтора роки. Як ні дивно, усі останні двадцять років він виконувався. Проте, наслідуючи цей закон, до 2010-2020 років розміри транзистора повинні зменшитися до чотирьох-п'яти атомів. Розглядаються багато альтернатив.

До технологій, здатних експоненціально збільшувати оброблювальну потужність комп'ютерів, слід віднести молекулярні або атомні технології; ДНК і інші біологічні матеріали; тривимірні технології; технології, грунтовані на фотонах замість електронів, і, нарешті, квантові технології, в яких використовуються елементарні частки. У XXI столітті обчислювальна техніка зіллється не лише із засобами зв'язку і машинобудуванням, але і з біологічними процесами, що відкриє такі можливості, як створення штучних имплантантов, інтелектуальних тканин, розумних машин, " живих" комп'ютерів і людино-машинних гібридів.

Сьогодні один з перспективнейших напрямів в мікроелектроніці - нейрокомп'ютери. Їх пристрій, або архітектура, інша, чим у звичайних обчислювальних машин. Мікросхеми близькі по будові нейронним мережам людського мозку. Саме звідси пішла і назва. Звідси і особливості нейрокомп'ютера. Він здатний до навчання, тобто йому під силу впоратися із завданнями, які звичайному комп'ютеру не під силу. Його головний козир - рішення завдань без чіткого алгоритму або з величезними потоками інформації. Тому вже сьогодні нейрокомп'ютери застосовуються на фінансових біржах, де допомагають передбачати коливання курсу валют і акцій. Зрозуміло, що не залишилися осторонь і військові. Нейрокомп'ютери, розпізнає образи, коригують політ ракет по заданому маршруту.

При усьому цьому нейрокомп'ютери ще не занадто помітні на ринку комп'ютерної техніки. Проте, за оцінками багатьох фахівців, а серед них і найавторитетніший - Біл Гейтс, вже через десять років їх доля виросте до дев'яноста відсотків.

Одним з перших вчинив прорив в майбутнє російський НТЦ " Модуль", вийшовши з розробленим їм процесором на світовий ринок. Сьогодні його придбавають законодавці комп'ютерної моди. В порівнянні із створеним росіянами нейропроцесором NM - 6403 самих швидкодіючих на сьогодні системи, конкуренти " Інтел" і "Тексас инструментс" відстали значно. Їх машини вважають в десятки разів повільніше, зате стоять в десятки разів дорожче. У чому ж секрет російського центру? "Причина - в принципово новій архітектурі, - пояснив журналістові газети " Вісті" начальник сектора інтегральних схем Дмитро Фомін. - Скажімо, якщо в звичайному комп'ютері за один такт рахунку здійснюється не більше 4 операцій складання, то в нашому - до 288. Крім того, його " мізки" в кожен момент часу завантажені повністю, не працюють вхолосту, що відбувається при традиційній архітектурі. У результаті один наш процесор може замінити відразу шість американської фірми "Тексас инструментс"". Проте в Росії не виявилося підприємства, здатного виготовити таку складну техніку. Тоді " Модуль" розмістив замовлення в Південній Кореї на " Самсунге". Але і ця відома фірма лише з десятої спроби зуміла задовольнити вимоги росіян.

Кожен той, що в результаті зараз уперше бажає може купити серійну вітчизняну мікроелектроніку, що перевершує світовий рівень. Процесор удостоєний золотої медалі на Всесвітньому салоні винаходів "Брюссель-еврика". Один з лідерів комп'ютерного ринку, японська фірма " Фуджитцу" придбала ліцензію на виробництво процесора. "Нас на ринку мало хто знає, - говорить директор " Модуля" Юрій Борисов. - Щоб розкрутитися і продавати великі партії, потрібні великі гроші. Їх у нас немає, зате є у " Фуджитцу". Ми отримуватимемо доход з кожного виготовленого, підкреслюю, а не проданого японцями виробу. Умови контракту дуже вигідні. Цей процесор для нас - вчорашній день. Вже розроблені досконаліші варіанти. Ми тільки трохи відкрили двері на світовий ринок сфері".

 

 

Квантовий комп’ютер, переваги технології.

Квантовий комп'ютер - цей пристрій для обчислень, який працює на основі квантової механіки. Саме те, що в цьому комп'ютері не використовується класична механіка і є принциповою відмінністю від звичайних комп'ютерів. На сьогодні повномасштабний квантовий комп'ютер - цей гіпотетичний пристрій, який неможливо створити з урахуванням наявних даних в квантовій теорії. Квантовий комп'ютер, для обчислення використовує не класичні алгоритми, а складніші процеси квантової природи, які ще називають квантовими алгоритмами. Ці алгоритми використовують квантовомеханічні ефекти: квантову заплутаність і квантовий паралелізм.

Щоб зрозуміти, навіщо взагалі потрібний квантовий комп'ютер, необхідно представити принцип його дії. Якщо звичайний комп'ютер працює за рахунок проведення послідовних операцій з нулями і одиницями, то квантовий комп'ютер використовує кільця з надпровідної плівки. Струм може текти по цих кільцях у різних напрямах, тому ланцюжок таких кілець може реалізовувати одночасно набагато більше операцій з нулями і одиницями. Саме велика потужність є основною перевагою квантового комп'ютера. На жаль, ці кільця схильні навіть самим щонайменшим зовнішнім діям, внаслідок чого напрям струму може мінятися, і розрахунки виявляються у такому разі невірними.

Для побудови дійсно працюючого і потужного квантового комп'ютера потрібний серйозний розвиток квантової теорії в області багатьох часток. Що у свою чергу вимагає проведення численних експериментів. Але невеликі квантові комп'ютери створюються вже сьогодні. Особливо активно в цьому напрямі працює компанія D - Wave Systems, яка ще в 2007 році створила квантовий комп'ютер з 16 кубитов. Цей комп'ютер успішно справлявся із завданням розсадження за столом гостей, виходячи з того, що деякі з них один одного недолюблювали. Зараз компанія D - Wave Systems продовжує розвиток квантових комп'ютерів, незважаючи на те що більшість учених скептично відносяться до того, що потужна квантова обчислювальна машина може бути створена в найближчому майбутньому.

 

 

Технологія Інтернет-2.

(Технологія Web-2). Web 2.0(визначення Тіма О'Рейли) - методика проектування систем, які шляхом обліку мережевих взаємодій стають тим краще, чим більше людей ними користуються. Особливістю веб 2.0. являється принцип залучення користувачів до наповнення і багатократного вивіряння інформаційного матеріалу. Визначення Тіма О'Рейли потребує уточнення. Говорячи "стають краще", мають на увазі швидше "стають повніше", тобто, як правило, йдеться про наповнення інформацією, проте питання її надійності, достовірності, об'єктивності не розглядаються.

По-суті, термін "Web 2.0" означає проекти і сервіси, що активно розвиваються і покращувані самими користувачами : блоги, wiki, соціальні мережі і так далі. Поява назви Веб 2.0 прийнято зв'язувати із статтею "Tim O'Reilly - What Is Web 2.0" від 30 вересня 2005 року, уперше опублікованою російською мовою в журналі " Компьютерра"(№ 37(609) і 38(610) від 14 і 19 жовтня 2005 року відповідно) і потім викладеною під заголовком "Що за". ] веб-сайтом "Компьютерра online". У цій статті Тім О'Рейли пов'язав появу великого числа сайтів, об'єднаних деякими загальними принципами, із загальною тенденцією розвитку інтернет-співтовариства, і назвав це явище Веб 2.0, на противагу " старому" Веб 1.0. Попри те, що значення цього терміну досі є предметом численних суперечок, ті дослідники, які визнають існування Веб 2.0, виділяють декілька основних аспектів цього явища. Першим, хто спожив словосполучення Web 2.0, стало видавництво O'Reilly Media, що спеціалізується на інформаційних технологіях. Сталося це в 2004 році. Трохи пізніше глава видавництва Тімоті О'Рейлли сформулював частину принципів Web 2.0. За минулий час сфера Web 2.0 розширилася, витісняючи традиційні Web- сервіси, що дістали назву Web 1.0.

Web 2.0 не є технологією або якимсь особливим стилем Web- дизайну. Для визначення суті підходить визначення Web 2.0 як комплексного підходу до організації, реалізації і підтримці Web- ресурсів. Є сенс розглянути найбільш відомі " прояви" Web 2.0, з якими, так або інакше, зустрічався кожен користувач Інтернету.

 

Ціль оцінки ризику.

Облік вимог часу, інтенсифікація наукових досліджень в різних сферах людських знань, стрімкий розвиток сучасних інформаційних і комп'ютерних технологій істотно випереджають темпи розробки рекомендаційної і нормативно-правової бази керівних документів, що діють на території Росії в області інформаційної безпеки. Положення посилюється і тією обставиною, що вимоги до оцінки рівня безпеки корпоративної інформаційної системи безперервно змінюються і підвищуються. В зв'язку з цим виникають питання розробки критеріїв оцінки ефективності захисту методів і методик оцінки інформаційних ризиків підприємства. Експансія інформаційних технологій у виробництво і управління сучасних організацій зумовлюють зростання інформаційних інфраструктур організацій, що частенько призводить до неструктурованого гетерогенного характеру комп'ютерних мереж і є основою неконтрольованого зростання уязвимостей, а також до збільшення можливостей несанкціонованого доступу до інформації. Практика використання окремих рішень по забезпеченню інформаційної безпеки показує, що не завжди враховується фундаментальна проблема достатність і ефективність систем захисту з точки зору користувача. При впровадженні різних засобів захисту необхідно визначити баланс між можливим збитком від несанкціонованого просочування інформації і розміром вкладень, які витрачені для забезпечення захищеності інформаційних ресурсів.

Одним з найбільш важливих міркувань при виборі методики оцінки ризику є те, що отримані результати мають бути ефективні при реалізації забезпечення системи захисту інформації. Використання складної методики, що вимагає точних початкових даних і має на виході неоднозначні результати, навряд чи допоможе створити ефективний захист. Мета оцінки ризику полягає в тому, щоб визначити ризик просочування інформації з корпоративної мережі підприємства. Процес оцінки ризику проводиться в два етапи. На першому етапі визначають межі мережі для аналізу і детальну конфігурацію корпоративної мережі, т. е. визначається модель комп'ютерної мережі підприємства. На другому етапі проводиться аналіз ризику. Аналіз ризику розбивається на ідентифікацію цінностей, загроз і вразливих місць, оцінку вірогідності і вимір ризику. Показники ресурсів, значущості загроз і уязвимостей, ефективності засобів захисту можуть бути визначені як кількісними методами, наприклад, при визначенні вартісних характеристик, так і якісними, наприклад, що враховують штатні або надзвичайно небезпечні дії зовнішнього середовища.

Нині відома безліч табличних методів оцінки інформаційних ризиків компанії. Ці методи оцінювання ризиків рекомендовані міжнародними стандартами інформаційної безпеки, головним чином ISO 17799(BS 7799). Істотно, що в цих рекомендованих методах кількісні показники існуючих або пропонованих фізичних ресурсів компанії оцінюються з точки зору вартості їх заміни або відновлення працездатності ресурсу. А існуючі або передбачувані програмні ресурси оцінюються так само, як і фізичні, т. е. за допомогою визначення витрат на їх придбання або відновлення.

Найбільше поширення серед методик оцінки ризиків отримала методика "матриці ризиків". Це досить проста методика аналізу ризиків. В процесі оцінки експертами визначаються вірогідність виникнення кожного ризику і розмір пов'язаних з ним втрат(вартість ризику). Причому оцінювання робиться за шкалою з трьома градаціями: " високою", " середньою", " низькою". На базі оцінок для окремих ризиків виставляється оцінка системі в цілому(у вигляді клітини в такій же матриці), а самі риски ранжируються. Ця методика дозволяє швидко і коректно зробити оцінку. Але, на жаль, дати інтерпретацію отриманих результатів не завжди можливо.

Крім того, в цій області розроблений механізм отримання оцінок ризиків на основі нечіткої логіки, який дозволяє замінити наближені табличні методи грубої оцінки ризиків сучасним математичним методом, адекватним даному завданню. Механізм оцінювання ризиків на основі нечіткої логіки по суті є експертною системою, в якій базу знань складають правила, що відбивають логіку взаємозв'язку вхідних величин і ризику. У простому випадку це " таблична" логіка, в загальному випадку складніша логіка, що відбиває реальні взаємозв'язки, які можуть бути формалізовані за допомогою продукційних правил виду "Якщо ..., то". Крім того, механізм нечіткої логіки вимагає формування оцінок ключових параметрів і представлення їх у вигляді нечітких змінних. При цьому необхідно враховувати безліч джерел інформації і якість самої інформації. У загальному випадку це досить складне завдання. Проте у кожному конкретному випадку можуть бути знайдені і формально обгрунтовані її рішення.

Можна виділити наступні підходи розробників програмних засобів аналізу ризиків до рішення поставленої завдання:

- отримання оцінок ризиків тільки на якісному рівні;

- виведення кількісних оцінок ризиків на базі якісних, отриманих від експертів;

- отримання точних кількісних оцінок для кожного з ризиків;

- отримання оцінок механізмом нечіткої логіки.

Цінність інструментального засобу аналізу ризиків визначається в першу чергу тією методикою, яка покладена в його основу. Нині певну популярність здобули такі програмні продукти, як Risk Watch(США), CRAMM(Великобританія), COBRA(Великобританія), " Авангард"(Росія), ТРИФ(Росія), КОНДОР+ (Росія) і ряд інших. Ці програмні продукти базуються на різних підходах до аналізу ризиків і рішення різних аудиторських завдань. Зупинимося дещо детальніше на аналізі цих продуктів.

 

 







Последнее изменение этой страницы: 2016-07-11; Нарушение авторского права страницы

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 18.215.62.41 (0.009 с.)