КАТЕГОРИИ:
АстрономияБиологияГеографияДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРиторикаСоциологияСпортСтроительствоТехнологияФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
РОССИЙСКАЯ ФЕДЕРАЦИЯ. Визначимо кількість інформації , що надходить на керувальний орган з об'єкта керування
Визначимо кількість інформації , що надходить на керувальний орган з об'єкта керування. Передача інформації від об’єкта керування до керувального органа здійснюється або за ініціативою самого об’єкта керування, або за запитом керувального органа. Окремі реалізації сигналу ( , де m – кількість значущих станів), що надходять з виходу об’єкта керування, є елементами повідомлення , причому кожному елементу повідомлення відповідає певний стан об’єкта керування. У цьому випадку об’єкт керування є дискретним (за кількістю реалізацій сигналу) джерелом інформації, який цілком характеризується своїм ансамблем вигляду . Нехай алфавіти передавальних і приймальних елементів повідомлень ідентичні, а до прийому інформації відомі тільки ймовірності символів переданого повідомлення. Невизначеність повідомлення (ентропія ансамблю повідомлень) до його прийому можна охарактеризувати ентропією . (5) За відсутності перешкод прийняте повідомлення цілком відповідає переданому, внаслідок чого невизначеність після прийому повідомлення буде знята, величина дорівнюватиме нулю. При цьому кількість інформації відповідно до виразу (4) становить . Припустимо, що відліки сигналу від об'єкта керування не залежать один від одного (імовірність появи кожного з рівнів сигналу i-го відліку не залежить від імовірності появи рівня сигналу при знятті попереднього відліку), за будь-який інтервал часу можна зняти тільки один відлік (елемент сигналу) і з рівною ймовірністю може з'явитися кожний з квантованих рівнів сигналу. Тоді ймовірність появи кожного з рівнів становитиме . Кількість інформації, що міститься в сигналі при знятті відліків можна розрахувати за виразом . (6) Якщо в системі промислової автоматизації передбачено кілька різних джерел інформаційних сигналів (наприклад, декілька датчиків), то загальна кількість інформації, що надходить з цих датчиків, має властивість адитивності й становить , (7) де – кількість інформації, що надходить від -го датчика ( ), – кількість датчиків, що працюють у складі системи промислової автоматизації. Максимальна ентропія досягається при рівномірному законі розподілу відліків. У цьому випадку ідеальні повідомлення, які мають максимальну ентропію, оптимальні в тому розумінні, що в них на один рівень сигналу припадає найбільша кількість інформації. У реальних повідомленнях відліки найчастіше залежні між собою, внаслідок чого кількість інформації, що припадає на один символ (ентропія), буде меншою, ніж в ідеальних повідомленнях. Співвідношення реальних і оптимальних повідомлень можна виразити за допомогою коефіцієнта надмірності . Коефіцієнт надмірності показує, яка частина реального повідомлення, переданого як оптимальне, могла б не передаватися, якщо врахувати ймовірнісні характеристики повідомлення на приймальному кінці (частина зайвих відліків повідомлення). У загальному випадку , (8) де – ентропія ідеального повідомлення; – ентропія реального повідомлення; і – кількість відліків оптимального і реального повідомлень. Приклад. Керувальний пристрій виробляє 280 команд, які залежно від частоти їх використання можна розбити на три групи: , що становить 20 %; , що становить 50 %, і , що становить 30 % від загальної кількості використовуваних команд. Визначити надмірність, що міститься в командах керувального пристрою. Знайдемо ймовірність виникнення команди кожної з груп [2]: , і . Ентропія реальних та оптимальних команд біт, біт. Надмірність команд . Вираз (5.20) вказує на те, що та сама кількість інформації може міститися в повідомленні, що складається з відліків з ентропією або з відліків з ентропією : , (9) а оскільки , то . Висновок: - зменшити надмірність можна шляхом збільшення ентропії повідомлень, що пов'язано з наближенням до рівноймовірного закону розподілу відліків; - збільшення надмірності призводить до збільшення часу передачі повідомлення, тому що ; - наявність надлишкових символів при такій самій кількості інформації, що міститься в повідомленні, підвищує правильність передачі повідомлення. Системний аналіз обов’язково включає дослідження ресурсів (наявних і необхідних), які будуть потрібні для вирішення проблеми, що аналізується. Під час побудови автоматизованих систем керування актуальним є вирішення питання про вибір складових системи. Інформаційні ресурси тут відіграють одну з головних ролей, а отже, можна використати розглянуті раніше підходи до оцінювання інформаційних характеристик системи. Наприклад, ємність запам'ятовувального пристрою (ЗП) можна оцінити кількістю інформації, що записується в ньому.
Слід зазначити, що значення теорії інформації виходить далеко за межі теорії зв'язку. Її поява привела до глибокого розуміння відкритих раніше закономірностей природи і в остаточному підсумку до того, що поняття інформації увійшло до філософських категорій. Основними характеристиками, які можна використати для опису й оцінювання статистичних властивостей сигналів і каналів інформаційних систем, є ентропія, кількість інформації, інформаційна надмірність, пропускна здатність. Разом з тим деякі фахівці критично оцінювали поширення цих методів на будь-які інформаційні процеси реального світу. Справа в тому, що шенонівська кількість інформації є характеристикою, яка лише з одного боку описує інформаційні відносини. Саме відповідність станів відіграє головну роль у технічних пристроях. Однак тут не проявляються такі властивості інформації, як зміст, корисність, тимчасовість, старіння, причинно-наслідкова спрямованість тощо – властивості, істотні для інформаційних відносин за участі живих організмів, людей, колективів. У зв’язку з цим пропонуються нові погляди і трактування поняття “інформація”, найбільш “радикальні” з яких розцінюють теорію інформації Шеннона “як глухий кут в інформатиці”. Зокрема, в роботі М.І. Сетрова зазначається, що “... статистична теорія інформації завела вчення про інформацію в глухий кут, з якого немає прямого виходу”. Критично зазначаючи, що “наука про інформацію має недоліки у хороших теоріях”, переглядається постановка проблеми, на стику філософії та інформації формується новий науковий напрямок – “філософія інформації”. А дослідження проблем використання інформації ведеться в різних напрямках: семіотика, теорія корисності, прийняття рішень і т.д.. Для системного аналізу теорія інформації має подвійне значення. По-перше, її конкретні методи й результати дають можливість провести кількісні дослідження інформаційних потоків у системі, що досліджується або проектується. Використання основних понять теорії інформації – невизначеності, ентропії, кількості інформації, надмірності, пропускної здатності – важливе для розуміння системних процесів, дає можливість здійснювати вимірювання і розрахунки. З іншого боку, для оцінювання точності перероблення інформації в обчислювальних системах ентропійні методи майже не використовуються. РОССИЙСКАЯ ФЕДЕРАЦИЯ
|