У нас: 141825 рефератів
Щойно додані Реферати Тор 100
Скористайтеся пошуком, наприклад Реферат        Грубий пошук Точний пошук
Вхід в абонемент


Реферат з біології

Ентропійний і негентропійний принципи інформації в біології

Напрямок мимовільного протікання хімічних реакцій у живий та неживій матерії визначається сукупною дією двох факторів: переходу системи у стан з найменшою внутрішньою енергією і тенденцією, яка пов’язана з досягненням найбільш можливого стану. Макроскопічний стан системи тим ймовірніший, чим більшою кількістю мікроскопічних станів вона може здійснюватись. Зазвичай кількість мікроскопічних станів, яка відповідає певному макроскопічному, дуже велика і визначається не можливістю здійснення цього макростану, а величиною, пропорційною її логарифму. Ця величина називається ентропією і є однією з термодинамічних величин (внутрішня енергія, ентальпія, ентропія і енергія Гіббса), за допомогою яких можна виразити кількісно два вище зазначених фактори [1,2].

Кожна жива клітина уподібнюється найскладнішому хімічному заводу. Управління процесами клітин-заводів здійснюється завдяки колосальним генетично фіксованим інформаційним потокам. Інформація, яка міститься в біологічних об’єктах, є такою великою, що може досягати значних величин за шкалою ентропії. Тому слід очікувати, що інформаційний підхід дозволить пояснити значні потоки теплоти, яка виділяється біологічними об’єктами в навколишнє середовище, природу мутацій, диакінеза генів і хромосом тощо. На початкових стадіях розвитку живих організмів тепловий ефект, яким супроводжується "читання" генетичної інформації такий великий, що його не можна не зафіксувати. Саме на цих стадіях у тварин найбільш інтенсивно відбувається процес поділу клітин, причому збільшення їх кількості іде за експоненційним законом. При цьому процесі різко зростає кількість розподіленої інформації [3 — 5].

Поняття інформації можуть бути використані як основи єдиного підходу до різноманітних зв’язків і взаємодій у природі. Живі істоти, наприклад, не можуть існувати без ДНК, РНК сигналів і обміну. Будь-якому біологічному об’єкту можна надати ймовірності, яка буде характеризувати частоту появи його. Тому математичною основою теорії інформації, як відомо є теорія ймовірності і математична логіка. Одиницею кількості інформації стає так званий "біт" — кількість інформації, яка усуває невизначеність вибору однієї можливості з двох рівноцінних

(1)    I=log2N,

де N — кількість можливих результатів, або

(2)    I=log2Pi.

У формулі (2) I — кількість інформації, яку отримуємо при здійсненні i-тої події з N можливих при однакових їх ймовірностях, тобто Pi=1/ N і формула (2) переходить в (1). У загальному випадку кількість інформації визначається за формулою:

(3)? logPi,

де Pi - ймовірність здійснення i — тої події з N можливих. Формули (1) і (2) є випадковими для формули (3) при існуванні подій, які є рівноімовірними [5].

З теорії інформації відомо, що кількість інформації, яка вводиться до певної системи, в результаті різних перетворень не збільшується, а може або зменшуватись, або, у кращому випадку, залишатися незмінною. Це пояснюється наявністю перешкод у каналах передачі інформації. Рівень їх різко збільшується, якщо процеси неординарні. У біологічних об’єктах незначні відхилення під час передачі інформації можуть істотно змінити її зміст (якість).

Ентропія ізольованої


Сторінки: 1 2 3 4