КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
Взаимная информация и ее свойства ⇐ ПредыдущаяСтр 3 из 3 Определим теперь количество информации, передаваемой по каналу связи
или
С учетом теоремы умножения вероятностей получим:
Раскрывая последнее выражение, получим соотношение для взаимной информации в симметричном виде:
Рассмотрим основные свойства взаимной информации: 1. 2. 3. 4. 5. В выражении для взаимной информации будем полагать Определение взаимной информации наглядно иллюстрируется на рис. 2.
Пусть известно время передачи одного сообщения
Выводы 1. Взаимная информация представляет собой разность между количеством информации на входе канала связи, равной энтропии источника
Заключение 1. Из всех видов возможных распределений вероятностей случайных процессов, у которых дисперсия 2. Условная энтропия представляет собой количество информации, которое теряется из-за помех и не поступает получателю. 3. Взаимная информация представляет собой разность между количеством информации на входе канала связи, равной энтропии источника
Литература 1. Р.Р. Биккенин, М.Н. Чесноков Теория электрической связи. Случайные процессы. Помехоустойчивая передача дискретной информации: Учебное пособие / СПб., 2001, стр. 121-127. 2. Д.Д. Кловский «Теория электрической связи» М. «Радио и связь», стр. 246-249, 227-231.
Разработал:
|