Студопедия

КАТЕГОРИИ:

АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника


Взаимная информация и ее свойства




Определим теперь количество информации, передаваемой по каналу связи как разность между количеством информации на его входе, равной энтропии источника и количеством потерянной информации, которая равна условной энтропии . Величину называют также взаимной информацией и определяют соотношением:

 

; (3.1)

 

или

 

;   (3.2)

 

С учетом теоремы умножения вероятностей получим:

 

;   (3.3)

 

Раскрывая последнее выражение, получим соотношение для взаимной информации в симметричном виде:

 

;   (3.4)

 

Рассмотрим основные свойства взаимной информации:

1. . Это свойство следует из свойств энтропии, причём при обрыве канала, когда вся информация теряется из-за помех в канале.

2. . Равенство достигается при отсутствии помех, т. е. .

3. , где энтропия выхода канала H(B) и условная энтропия определяются аналогично найденным выше значениям энтропии. Данное свойство вытекает из симметрии выражения для взаимной информации.

4. . Данное свойство вытекает из предыдущего. Равенство здесь имеет место, если .

5. В выражении для взаимной информации будем полагать , тогда , а . Таким образом, энтропию можно трактовать как меру собственной информации об ансамбле источника сообщений.

Определение взаимной информации наглядно иллюстрируется на рис. 2.

 

  Рис. 2. Иллюстрация передачи информации по каналу с помехами

 

Пусть известно время передачи одного сообщения , тогда по аналогии с производительностью источника можно легко определить скорость передачи информации по каналу как количество информации, переданной в единицу времени:

 

  ;     (3.5)
где скорость, т.е. число символов, поступающих в канал в течении секунды, бит/с (Бод).
         

 

Выводы

1. Взаимная информация представляет собой разность между количеством информации на входе канала связи, равной энтропии источника и количеством потерянной информации, которая равна условной энтропии .

 

Заключение

1. Из всех видов возможных распределений вероятностей случайных процессов, у которых дисперсия является фиксированной величиной, наибольшее значение дифференциальной энтропии имеет гауссовское распределение.

2. Условная энтропия представляет собой количество информации, которое теряется из-за помех и не поступает получателю.

3. Взаимная информация представляет собой разность между количеством информации на входе канала связи, равной энтропии источника и количеством потерянной информации, которая равна условной энтропии .

 

Литература

1. Р.Р. Биккенин, М.Н. Чесноков Теория электрической связи. Случайные процессы. Помехоустойчивая передача дискретной информации: Учебное пособие / СПб., 2001, стр. 121-127.

2. Д.Д. Кловский «Теория электрической связи» М. «Радио и связь», стр. 246-249, 227-231.

 

Разработал:

 

кандидат технических наук
О.Р. Кивчун
 
«___»__________ 2012 года

 


Поделиться:

Дата добавления: 2015-08-05; просмотров: 282; Мы поможем в написании вашей работы!; Нарушение авторских прав





lektsii.com - Лекции.Ком - 2014-2024 год. (0.005 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав
Главная страница Случайная страница Контакты