Зміна ентропії в процесах, які протікають в ізольованих системах 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Зміна ентропії в процесах, які протікають в ізольованих системах



В ізольованих системах процеси протікають адіабатно: Отже, якщо процес оборотний, то Будь-який самочинний процес є необоротним і для такого процесу:

,

тобто, реальні ізольовані макроскопічні системи намагаються самочинно перейти із менш ймовірного до більш ймовірного стану, від більш впорядкованого до менш впорядкованого стану. Це означає зростання ентропії внаслідок протікання самочинних процесів у ізольованих системах:

.

ентропія досягає максимального значення тоді, коли система приходить до стану рівноваги.

В реальному світі рідко зустрічаються ізольовані системи. Якщо в неізольованій системі відбувається якийсь термодинамічний процес, то він може супроводжуватися як збільшенням, так і зменшенням ентропії даної системи D Sс. Але при цьому обов’язково буде змінюватися і ентропія навколишнього середовища D Sн.с. Процес завжди буде відбуватися так, що сумарна ентропія системи і навколишнього середовища зростатиме:

.

Наприклад, живий організм є складною, високоорганізованою і найвищою мірою впорядкованою термодинамічною системою. Він має набагато меншу ентропію, ніж така ж кількість води, діоксиду вуглецю та інших простих речовин, на які його можна розкласти, наприклад, спаливши. В організмі людини тисячі хімічних реакцій відбуваються в процесі життєдіяльності. Вони стають можливими лише за рахунок сильного росту ентропії навколишнього середовища. можна сформулювати закон зменшення ентропії відкритих систем при їх прогресивному розвитку: ентропія відкритих систем D Sс в процесі їх прогресивного розвитку завжди зменшується за рахунок споживання ними енергії від зовнішніх джерел. При цьому ентропія D Sн.с систем, які служать джерелом енергії, завжди зростає.

Будь-яка діяльність, яка підвищує ступінь упорядкованості системи завжди буде здійснюватися лише за рахунок затрати енергії та росту ентропії зовнішніх систем.

Останнім часом людство починає придавати більше значення врахуванню термодинамічних змін навколишнього середовища, що відбуваються внаслідок життєдіяльності людини. Розглядаються сукупність і взаємозв’язок ентропії і економічних процесів. Ці процеси з точки зору росту ентропії зараз розвиваються вкрай несприятливо для людства.

Ще один важливий закон називається законом граничного розвитку матеріальних систем: матеріальні системи (природні, технічні, біологічні та інші) при їх прогресивному розвитку, тобто, при їх вдосконаленні, досягають характерного для кожної сукупності зовнішніх і внутрішніх умов граничного рівня.

Закон переважаючого розвитку (закон конкуренції) звучить так: у кожному класі матеріальних систем переважаючий розвиток одержують ті, які при заданій сукупності внутрішніх і зовнішніх умов досягають максимальної енергетичної ефективності (к.к.д., питома продуктивність, довговічність, надійність та інше).

Наприклад, у виробництві найбільш досконалі вироби завжди будуть найбільш дешевими, довговічними, надійними і економічними. Їх вигідно випускати і вони будуть знаходити широкий попит.

У зв’язку з тим, що всі предмети в нашому світі так чи інакше взаємозв’язані, між ними має відбуватися обмін не лише речовиною і енергією, але й інформацією. Головним фактором в організації цілісної системи, до якої б категорії вона не відносилася (машина, організм, суспільство), є циркуляція в системі інформації. Тільки завдяки неперервному обміну інформацією між окремими частинами системи може здійснюватися їх організована взаємодія, наслідком якої є корисний ефект, що сприяє прогресивному розвитку даної системи. Інформаційна цінність системи залежить не від кількості зосередженої в системі інформації, але і від того, хто і як цю інформацію використовує. Ентропія є мірою недостачі інформації.

Зараз розроблені елементи формальної математичної теорії передачі інформації через канали зв’язку. Інформація розглядається як ступінь знятої невизначеності, який можна встановити, наприклад, вибором одного із двох рішень.

Через те, що інформація відноситься до конкретної досліджуваної системи то її можна вважати функцією стану цієї системи. Отже, збільшення накопичених даних про систему означає зменшення рівня невизначеності системи. Існує зв’язок інформації із ймовірністю стану системи, тобто, ентропією. Залежність між інформацією і ентропією, яка є мірою недостачі інформації, можна задати математично:

.

В теорії інформації домовилися прийняти основу логарифма ймовірності рівною 2, тобто, обчислення інформації пов’язується із задачею вибору рішення “так - ні”. Отже, приходимо до двійкової (бінарної) системи числення (англ. binary digit – двійковий розряд, скорочено bit). Біт є одиницею вимірювання інформації.



Поделиться:


Последнее изменение этой страницы: 2016-08-12; просмотров: 266; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.131.13.194 (0.004 с.)