![]() КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
КІЛЬКІСНА ОЦІНКА ІНФОРМАЦІЇСтр 1 из 2Следующая ⇒
Загальне число повідомлень, що не повторюються, яке може бути складене з алфавіту m шляхом комбінування по n символів в повідомленні
Невизначеність, що припадає на символ первинного (кодованого)[1] алфавіту, складеного з рівноймовірних і взаємнонезалежих символів
(Основа логарифма впливає лише на зручність обчислень) У разі оцінки ентропії: а) у двійкових одиницях б) у десяткових одиницях де в) у натуральних одиницях де Оскільки інформація є невизначеністю, яка знімається при отриманні повідомлення, тоді кількість інформації може бути представлена як добуток загального числа повідомлень к на середню ентропію Н, що припадає на одне повідомлення:
Для випадків рівноймовірних і взаємонезалежних символів первинного алфавіту кількість інформації в к повідомленнях алфавіту m рівно У випадку N=mnентропія, а отже й кількість інформації є максимальною: I=logmn=n logm. Для нерівноймовірних алфавітів ентропія на символ алфавіту
а кількість інформації в повідомленні, складеному з к нерівноймовірних символів
При розв’язанні задач, в яких ентропія обчислюється як сума добутків ймовірності на її логарифм, незалежно від того, чи є вони безумовними Кількість інформації визначається виключно характеристиками первинного алфавіту, об'єм – характеристиками вторинного алфавіту. Об'єм[2] інформації
де lсер– середня довжина кодових слів вторинного алфавіту. Для рівномірних кодів (всі комбінації коду містять однакову кількість розрядів) де n – довжина коду (число елементарних посилок в коді). Згідно до (3), об'єм дорівнює кількості інформації, якщо lсер=Н, тобто у разі максимального інформа-ційного навантаження на символ повідомлення. У решті всіх випадків Наприклад, якщо кодувати в коді Бодо деякий рівноймовірний алфавіт, що складається з 32 символів, то
При нерівноймовірних елементарних повідомленнях xi ентропія зменшується. У зв'язку з цим вводиться така міра джерела, як статистична надлишковість
де H(X) - ентропія джерела повідомлень; H(X)max= log2т - максимально досяжна ентропія даного джерела.
|