Студопедия

КАТЕГОРИИ:

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника



Энтропия и информация.

Читайте также:
  1. А) В процессе плавления вещества его энтропия возрастает
  2. Абсолютная энтропия веществ и изменение энтропии в процессах
  3. В изолированных системах самопроизвольно могут со­вершаться только такие необратимые процессы, при которых энтропия системы возрастает (DS > 0).
  4. В изолированных системах самопроизвольно могут со­вершаться только такие необратимые процессы, при которых энтропия системы возрастает (DS > 0).
  5. Давление увеличилось, объем уменьшился, энтропия не изменилась
  6. Информация. Канал связи. Линия связи.
  7. Меры и единицы количества и объема информации. Энтропия
  8. Неравенство Клаузиуса. Равенство Клаузиуса. Энтропия. Изэнтропический процесс. Теорема Нернста(третье начало термодинамики).
  9. Отражение и информация. Внутреннее противоречие информационного отражения как причина его развития.
  10. Патентная информация. Ее видовой состав и особенности

2-е начало термодинамики описывает некоторые процессы в биологической системе в основе которых лежат статистические закономерности. Однако, на ряду со статистическими процессами в организме существуют совокупность детерминистических механических систем, для которых справедливы иные законы. Статистические закономерности определяют статистическое состояние системы, т.е. энтропия является мерой неупорядоченности системы.

В стационарном состоянии вероятность нахождения в нем системы равна 1. Использовать понятие информации для описания состояния системы возможно, опираясь на связь информации и энтропии, установил Шеннон. На всех уровнях биологической системы существует, возникает и накапливается информация, реализация одного из нескольких возможных состояний воспринимается как некое количество информации.

Т.о. сравнивая выражения для количества информации и энтропии, Шеннон установил связь.

Энтропия и информация связаны между собой, однако такая связь справедлива лишь для информации, которая не может быть заменена. Т.о. система из любого микросостояния быстро переходит в другое микросостояние, не сохраняя информацию. Для n событий, вероятность которых известна, количество информации заключенной в системе можно определить по формуле:

В биологической системе с увеличением сложности возникает возможность запоминания информации о состоянии системы. Процесс запоминания свободных к переходным системам в одно из 2-х состояний, который сопровождается потерей энергии и для выхода из которого требуется система дополнительной энергии. Т.о. увеличение информации в сложных биологических системах связанных не с увеличением элементов системы, а за счет установления связи между элементами системы. С увеличением сложности системы, измерительная ценность информации, т.е. невозможность существования систем без информации именно в этом состоянии. Т.о. информационная система организма должна включать статистические и динамические информационные подсистемы. Статистическая информация связана с физической энтропией и является мерой не запоминающим системным микросостоянием. Макро информация является мерой тех состояний, о пребывании в которых система должна помнить.


Дата добавления: 2015-02-09; просмотров: 23; Нарушение авторских прав


<== предыдущая лекция | следующая лекция ==>
Основы термодинамики процессов жизнедеятельности. | Особенности химического состава живых организмов. Виды взаимодействий.
lektsii.com - Лекции.Ком - 2014-2018 год. (0.007 сек.) Главная страница Случайная страница Контакты