Студопедия

КАТЕГОРИИ:

АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника


Энтропия и неопределенность при передаче сообщений




 

Для разработки системы связи с определенной способностью к обработке сообщений нужна метрика измерения объема передаваемой информации. Шеннон ввел такую метрик Н, называемую энтропией источника сообщений (имеющего n возможных выходных значений). Энтропия определяется как среднее количество информации, приходящееся на один выход источника. Двоичная энтропия:

,

где р – вероятность появления символа 0

q=1-p – вероятность появления символа 1.

Если последовательность из n символов равновероятно принимает какое-либо значение из множества, состоящего из элементов, то требуется бит для описания n символов или Н бит/символ.

Пусть последовательность равновероятно оказывается одной из четырех комбинаций . Для описания трех символов требуется 2 бита или бит/символ. ( Действительно, т.к. k=3; H=2/3; элемента алфавита). Так как выходной сигнал может иметь равновероятных значений, то вероятность того, что выходной сигнал, содержащий кодовое слово j попадет в множество, соответствующее другому кодовому слову i равна Если имеется кодовых слов, то вероятность того, что приемное устройство сделает неправильный выбор равно * и стремится к нулю при k если .

Пусть по двоичному симметричному каналу ( дискретный канал без памяти, входной и выходной алфавиты которого состоят из двоичных элементов (0,1)) со скоростью 1000 символов/с передается информация, а априорная вероятность передачи нуля и единицы одинакова. Пусть помехи в канале настолько значительны, что независимо от переданного символа, вероятность приема единицы равна ½ ( то же и для нуля). В таком случае половина принятых символов должна случайно оказаться правильной, и может создаться впечатление, что система обеспечивает скорость 500 бит/c, хотя на самом деле никакой информации не передается. Утраченной является информация о корректности переданных символов. Для оценки неопределенности в принятом сигнале Шеннон использует поправочных коэффициент, который называет неоднозначностью . Неоднозначность определяется как условная энтропия сообщения Х, обусловленная данным сообщением Y:

(1.5)

где Х – сообщение, переданное источником,

Y- принятый сигнал,

- условная вероятность Х при приеме Y,

- совместная вероятность Х и Y.

 

Неоднозначность можно представить как неуверенность в передаче Х при условии принятия Y. Для канала без ошибок =0, поскольку принятие сообщения Y абсолютно точно определяет Х. В то же время для канала с ненулевой вероятностью возникновения символьной ошибки , поскольку канал вносит некоторую неопределенность.

Рассмотрим двоичную последовательность Х, для которой априорные вероятности источника Р(Х=1)=Р(Х=0)=1/2 и где, в среднем, в принятую последовательность из 100 бит канал вносит одну ошибку ( =0,01). Исходя из уравнения (5) неоднозначность можно записать следующим образом:

Таким образом, в каждый принятый символ канал вносит 0,081 бит неопределенности.

Шеннон показал, что среднее эффективное количество информации в приемнике получается путем вычитания неоднозначности из энтропии источника:

(1.6)

Для системы, передающей равновероятные двоичные символы, энтропия равна 1 бит/символ. Тогда для приведенного примера =1-0,081=0,919 бит/полученный символ. Если за секунду передается R=1000 бит, то эффективная скорость передачи информации:

бит/с (1.7)

В предельном случае, когда апостериорная вероятность получения 0 или 1 равна ½, то бит/с

 

1.5 Плоскость «полоса-эффективность»

 

С помощью уравнения (1.4) можно получить зависимость от . Она показана на графике рисунка 1.5. Обозначим эту плоскость как плоскость «полоса-эффективность». Ордината - это мера объема данных, которые можно передать через единицу полосы частот за данное время, следовательно, она отображает эффективность использования ресурса полосы пропускания. Кривая - это граница, разделяющая область реальных прикладных систем связи и область, в которой такие системы связи теоретически невозможны. Рисунок 5 иллюстрирует эффективность систем связи с одной несущей. Для систем с множественными несущими. На рисунке 5. показаны рабочие точки для когерентной модуляции MPSK при . Для MPSK отношение растет с увеличением М. Для модуляций BPSK (М=2) и QPSK (М=4) требуются одинаковые значения , значит эффективность использования полосы для QPSK равна 2 в отличие от 1 для BPSK, потому что QPSK представляет собой эффективную комбинацию двух сигналов в модуляции BPSK, которые передаются на ортогональных компонентах несущей.

Рисунок 1.5. Плоскость «полоса-эффективность»

 

На рисунке 1.5. также показаны рабочие точки для некогерентной ортогональной модуляции MFSK при . Для MFSK отношение снижается с увеличением М. Для модуляций BFSK (М=2) и QFSK (М=4) получены одинаковые значения , хотя QFSK требует при этом вдвое большего отношения для той же вероятности появления ошибки.

 


Поделиться:

Дата добавления: 2015-04-04; просмотров: 127; Мы поможем в написании вашей работы!; Нарушение авторских прав





lektsii.com - Лекции.Ком - 2014-2024 год. (0.007 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав
Главная страница Случайная страница Контакты