Студопедия

КАТЕГОРИИ:

АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника


Энтропия источника непрерывных сообщений




Физико-технический институт

 

Утверждаю
Заведующий кафедры
к.т.н., доцент
А. Шпилевой
 
«___»_________ 201__ г.

 

 

Л Е К Ц И Я № 30

Тема:«Количественная мера информации»

Текст лекции по дисциплине:«Теория электрической связи»

 

Обсуждена и одобрена на заседании кафедры
 
протокол №___ от «___»___________201__г.

 

 

 

Г. Калининград 2013 г.

Текст лекции № 30

по дисциплине:«Теория электрической связи»

«Количественная мера информации»

 

Введение

 

Многие источники имеют на выходе непрерывное сообщение. Для его передачи по каналу связи необходимо знать информационные характеристики. Данную задачу можно решить, опираясь на знания характеристик источника дискретных сообщений.

Поэтому для усвоения материала данной лекции необходимо знать методику определения информационных параметров дискретных сообщений.

Для глубокого понимания вопросов лекции вы должны вспомнить материал высшей математики.

Знание вопросов данной лекции поможет вам глубоко освоить комплекс специальных дисциплин.

 

Энтропия источника непрерывных сообщений

 

Рассмотрим источник непрерывных сообщений, на выходе которого в каждый момент времени появляются сигналы . Эти сигналы с бесконечно малой вероятностью могут принимать бесконечное множество значений.

Если бы сообщения могли передаваться по каналам абсолютно точно без искажений, то они содержали бы неограниченное количество информации. На самом деле из-за наличия помех и искажений количество информации, получаемой от такого источника, следует определять как разность энтропии до и после получения информации. Эта разность, в отличие от абсолютной величины энтропии источника непрерывных сообщений, имеет конечную величину. Для её нахождения обобщим рассмотренное ранее понятие энтропии источника дискретных сообщений на случай непрерывных сообщений, воспользовавшись естественным предельным переходом.

 

 

Обратимся к сигналу , возможные значения которого в момент характеризуются плотностью распределения вероятностей , имеющей вид, показанный на рис. 1.

 

  Рис. 1. К определению энтропии источника непрерывных сообщений

Произведём квантование области значений с шагом ( – шаг дискретизации непрерывного сигнала во времени). Тогда вероятность попадания некоторого конкретного значения сигнала в пределы i-го шага квантования будет примерно равна:

 

; (1.1)

 

При этом приближение тем точнее, чем меньше интервал (шаг квантования) .

Энтропия такого «дискретного» сигнала равна:

 

  ;     (1.2)
где математическое ожидание
         

 

Перейдем теперь к энтропии непрерывного сигнала, для чего устремим величину к нулю, тогда:

 

    (1.3)

 

Во втором слагаемом величина по определению, тогда

 

;   (1.4)

 

В этом выражении первое слагаемое является конечной величиной, которая определяется плотностью распределения . Эту величину называют дифференциальной энтропией сигнала . Её обычно рассматривают как некоторую вспомогательную величину при проведении расчётов.

 

;   (1.5)

 

Второе слагаемое при ∆S→0 стремится к бесконечности независимо от значений плотности распределения вероятностей сигнала W(Si). Это означает, что при переходе от дискретной к непрерывной величине энтропия неограниченно возрастает. Это объясняется тем, что при ∆S→0 вероятности попадания в такие малые отрезки становятся бесконечно малыми величинами. В результате неожиданность или непредсказуемость реализаций становится неограниченно большой.

Дифференциальная энтропия гауссовскoго шума с нулевым средним значением и дисперсией в окончательном варианте представляет собой:

 

  ;     (1.6)
где = экспонента
             

 

Из данного выражения видно, что дифференциальная энтропия гауссовской величины зависит только от значения дисперсии. При этом с ее увеличением дифференциальная энтропия будет монотонно возрастать.

 

Выводы

1. Из всех видов возможных распределений вероятностей случайных процессов, у которых дисперсия является фиксированной величиной, наибольшее значение дифференциальной энтропии имеет гауссовское распределение.

 


Поделиться:

Дата добавления: 2015-08-05; просмотров: 173; Мы поможем в написании вашей работы!; Нарушение авторских прав





lektsii.com - Лекции.Ком - 2014-2024 год. (0.007 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав
Главная страница Случайная страница Контакты