КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
Взаимная информация и ее свойства ⇐ ПредыдущаяСтр 3 из 3 Определим теперь количество информации, передаваемой по каналу связи как разность между количеством информации на его входе, равной энтропии источника и количеством потерянной информации, которая равна условной энтропии . Величину называют также взаимной информацией и определяют соотношением:
или
С учетом теоремы умножения вероятностей получим:
Раскрывая последнее выражение, получим соотношение для взаимной информации в симметричном виде:
Рассмотрим основные свойства взаимной информации: 1. . Это свойство следует из свойств энтропии, причём при обрыве канала, когда вся информация теряется из-за помех в канале. 2. . Равенство достигается при отсутствии помех, т. е. . 3. , где энтропия выхода канала H(B) и условная энтропия определяются аналогично найденным выше значениям энтропии. Данное свойство вытекает из симметрии выражения для взаимной информации. 4. . Данное свойство вытекает из предыдущего. Равенство здесь имеет место, если . 5. В выражении для взаимной информации будем полагать , тогда , а . Таким образом, энтропию можно трактовать как меру собственной информации об ансамбле источника сообщений. Определение взаимной информации наглядно иллюстрируется на рис. 2.
Пусть известно время передачи одного сообщения , тогда по аналогии с производительностью источника можно легко определить скорость передачи информации по каналу как количество информации, переданной в единицу времени:
Выводы 1. Взаимная информация представляет собой разность между количеством информации на входе канала связи, равной энтропии источника и количеством потерянной информации, которая равна условной энтропии .
Заключение 1. Из всех видов возможных распределений вероятностей случайных процессов, у которых дисперсия является фиксированной величиной, наибольшее значение дифференциальной энтропии имеет гауссовское распределение. 2. Условная энтропия представляет собой количество информации, которое теряется из-за помех и не поступает получателю. 3. Взаимная информация представляет собой разность между количеством информации на входе канала связи, равной энтропии источника и количеством потерянной информации, которая равна условной энтропии .
Литература 1. Р.Р. Биккенин, М.Н. Чесноков Теория электрической связи. Случайные процессы. Помехоустойчивая передача дискретной информации: Учебное пособие / СПб., 2001, стр. 121-127. 2. Д.Д. Кловский «Теория электрической связи» М. «Радио и связь», стр. 246-249, 227-231.
Разработал:
|