Студопедия

КАТЕГОРИИ:

АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника


КІЛЬКІСНА ОЦІНКА ІНФОРМАЦІЇ




 

Загальне число повідомлень, що не повторюються, яке може бути складене з алфавіту m шляхом комбінування по n символів в повідомленні

. (1)

Невизначеність, що припадає на символ первинного (кодованого)[1] алфавіту, складеного з рівноймовірних і взаємнонезалежих символів

. (2)

(Основа логарифма впливає лише на зручність обчислень)

У разі оцінки ентропії:

а) у двійкових одиницях

б) у десяткових одиницях

де ;

в) у натуральних одиницях

де

Оскільки інформація є невизначеністю, яка знімається при отриманні повідомлення, тоді кількість інформації може бути представлена як добуток загального числа повідомлень к на середню ентропію Н, що припадає на одне повідомлення:

(3)

Для випадків рівноймовірних і взаємонезалежних символів первинного алфавіту кількість інформації в к повідомленнях алфавіту m рівно

У випадку N=mnентропія, а отже й кількість інформації є максимальною:

I=logmn=n logm.

Для нерівноймовірних алфавітів ентропія на символ алфавіту

(4)

а кількість інформації в повідомленні, складеному з к нерівноймовірних символів

(5)

При розв’язанні задач, в яких ентропія обчислюється як сума добутків ймовірності на її логарифм, незалежно від того, чи є вони безумовними , умовними або ймовірністю сумісних подій .

Кількість інформації визначається виключно характеристиками первинного алфавіту, об'єм – характеристиками вторинного алфавіту. Об'єм[2] інформації

(6)

де lсер– середня довжина кодових слів вторинного алфавіту.

Для рівномірних кодів (всі комбінації коду містять однакову кількість розрядів)

де n – довжина коду (число елементарних посилок в коді). Згідно до (3), об'єм дорівнює кількості інформації, якщо lсер, тобто у разі максимального інформа-ційного навантаження на символ повідомлення. У решті всіх випадків .

Наприклад, якщо кодувати в коді Бодо деякий рівноймовірний алфавіт, що складається з 32 символів, то

 

При нерівноймовірних елементарних повідомленнях xi ентропія зменшується. У зв'язку з цим вводиться така міра джерела, як статистична надлишковість

.

де H(X) - ентропія джерела повідомлень; H(X)max= log2т - максимально досяжна ентропія даного джерела.


Поделиться:

Дата добавления: 2015-09-15; просмотров: 170; Мы поможем в написании вашей работы!; Нарушение авторских прав





lektsii.com - Лекции.Ком - 2014-2024 год. (0.005 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав
Главная страница Случайная страница Контакты