![]() КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
ЭнтропияОсновные подходы к измерению количества информации. Энтропия как мера степени неопределенности. Энтропия - это мера степени неопределенности состоянии системы X (случайной величины) с конечным или счетным числом исходов. Любое сообщение, с которым мы имеем дело в теории информации, представляет собой совокупность сведений о некоторой физической системе. Энтропией системы называется сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взятая с обратным знаком:
Энтропия Логарифм в формуле (18.2.2) может быть взят при любом основании В дальнейшем мы будем везде, если не оговорено противное, под символом В приложении (табл. 6) даны двоичные логарифмы целых чисел от 1 до 100. Легко убедиться, что при выборе 2 в качестве основания логарифмов за единицу измерения энтропии принимается энтропия простейшей системы Таблица 2
Действительно, по формуле (18.2.2) имеем:
Определенная таким образом единица энтропии называется «двоичной единицей» и иногда обозначается bit (от английского «binary digit» - двоичный знак). Это энтропия одного разряда двоичного числа, если он с одинаковой вероятностью может быть нулем или единицей. Измерим в двоичных единицах энтропию системы Таблица 3
Имеем: или
т. е. энтропия системы с равновозможными состояниями равна логарифму числа состояний. Например, для системы с восемью состояниями Докажем, что в случае, когда состояние системы в точности известно заранее, ее энтропия равна нулю. Действительно, в этом случае все вероятности
а максимальная энтропия системы равна:
т. е. максимальное значение энтропии системы с конечным числом состояний равно логарифму числа состояний и достигается, когда все состояния равновероятны. Вычисление энтропии по формуле (18.2.2) можно несколько упростить, если ввести в рассмотрение специальную функцию:
где логарифм берется по основанию 2. Формула (18.2.2) принимает вид:
Функция Среднее значение (математическое ожидание) случайной величины - Формулы, подобные (18.2.11), где энтропия представляется в виде математического ожидания, позволяют упрощать преобразования, связанные с энтропией, сводя их к применению известных теорем о математических ожиданиях. Энтропия сложных событий. Если требуется оценить меру неопределенности сложных опытов, состоящих из целой совокупности следующих друг за другом испытаний, то необходимо иметь правило сложения энтропии. Допустим мы осуществляем два независимых опыта α.и β Н(αβ) = Н(α.) + Н(β). Это равенство называется правилом сложения энтропии независимых опытов. Если отказаться от условий независимости опытов α и β, то мы придем к понятно условной энтропии. При этих условиях энтропия сложного опыта αβ не будет равна сумме энтропии α и β. Например, в случае если опыт αβ состоит в последовательном извлечении шаров из урны, содержащей всего два разноцветных шара. В этом случае после выполнения опыта α опыт β уже не будет содержать никакой информации и энтропия сложного опыта αβ будет равна энтропии одного опыта α, а не сумме энтропии опыта α. и β. Условной энтропией опыта β при условии выполнения опыта α или условной энтропии опыта α при условии выполнения опыта β считается соответственно Нα(β) и Нβ(α): Нα(β) = р(А1)НА1(β)+р(А2) НА2(β)+ ….+ р(АK)НАk(β), где НАk(β) – условная энтропия опыта β при условии Аk. Таким образом, формула для подсчета энтропии Н(αβ) сложного опыта α β, в случае зависимости опытов α и β, имеет вид Н(αβ)=Н(α)+Нα(β). Данное выражение называется правилом сложения энтропии для зависимых опытов.
|